Home Articoli Intelligenza Artificiale (IA): Bias si o Bias no? Quando i pregiudizi diventano...

Intelligenza Artificiale (IA): Bias si o Bias no? Quando i pregiudizi diventano utili.

57
bilanciare bias varianza

Intelligenza Artificiale (IA): Bias si o Bias no? Quando i pregiudizi diventano utili.
di Carla Trabuio, Osservatorio ANSSAIF IA

Diciamocelo: chi di noi non ha mai giudicato un libro dalla copertina? Un prodotto dalla
confezione? Un monaco dal suo abito ed un medico dal suo camice? Ebbene sì, i bias sono
presenti nella nostra vita… Continuamente…
Così, noi esseri umani, li abbiamo inseriti anche nell’Intelligenza Artificiale. Perché, in linea di massima, lei l’IA (o lui, a seconda di come immaginiamo il modello) fa quello che facciamo anche noi… ma in scala industriale!
Procediamo però in ordine.

Ma cos’è un bias nel contesto dell’intelligenza artificiale?

Il bias nell’intelligenza artificiale è una combinazione di tendenze implicite, condizionamenti appresi e pregiudizi presenti nei dati o nelle scelte progettuali.

I Bias influenzano le decisioni del modello di Intelligenza Artificiale.

Tale influenza può essere voluta, se nota, oppure non desiderata, se nascosta o difficile da
individuare.

Esistono differenti tipologie di bias:
1. rappresentazione: che partono dal dataset scelto e sono dipendenti da dati inclusi o
esclusi,
2. selezione: che viene introdotto nella fase di raccolta di dati e dipendono da campioni
perfetti o distorti,
3. etichettatura: che si ha nella fase di addestramento e dipende dai giudizi in addestramento giusti o sbagliati, corretti o incorretti,
4. storico: presente nei dati storici in cui possono trovarsi decisioni passate giuste o ingiuste, etiche e non (rispetto la morale del periodo di selezione)
5. conferma: dipende dall’uso delle IA, in particolare una conferma implicita nei dati messi
nell’interfaccia, occorrono per rafforzare idee preesistenti inserite intenzionalmente o meno
6. algoritmico: è qualcosa che dipende dal progetto tecnico realizzato con l’IA, dal
funzionamento e dalle regole inserite corrette o scorrette,
7. feedback loop: si manifesta nell’utilizzo dell’AI, quando utilizzandone il modello si sceglie consapevolmente o meno di rinforzare o negare i risultati.

Ma i bias sono pericolosi?
È come chiedersi se siano pericolosi i carboidrati: dipende sempre quanti ne mangi! Oppure dipende dalla qualità del cibo che si mangia. La pasta integrale con il pomodoro non è equivalente ad una pizza fatta nel fuoco a legna. E non dà la stessa soddisfazione nel mangiarla!
La riflessione è che i bias sono funzionali, come i carboidrati.
Quindi per capire quando sono utili o meno è necessario introdurre altri concetti. Introduciamo quindi l’errore che si commette nel progettare ed addestrare il modello con dati, informazioni e logiche errate.

Errore totale = bias² + varianza + rumore irreducibile

Spieghiamo ora ogni variabile relativa all’errore specifico:
Bias (come errore di pregiudizio del modello): È l’errore introdotto da ipotesi troppo semplici fatte  per progettare e addestrare il modello. Un modello con alto bias è “troppo rigido”, cioè non riesce a cogliere le complessità nei dati storici.

Risultato: il modello sotto-prevede o sottostima i risultati → il processo utilizzato risulta
sottostimare il compito per cui l’IA è stata sviluppata. Performa bene sulle tipologie di dati storici che sono correlate al pregiudizio, ma non su tutte le altre tipologie anche se storiche. Il modello è rigido, non ha imparato da tutti i dati ma il risultato è più certo. Lo stato è quindi di underfitting.
Varianza (come instabilità del modello): È l’errore causato dalla troppa sensibilità del modello ai dati di addestramento. Un modello con alta varianza è “troppo flessibile”, cioè si adatta troppo anche al rumore dei dati. È come se il modello imparasse a memoria. Quindi se quello che ha imparato è sbagliato commette errori.

Risultato: il modello funziona molto bene su tutte le tipologie di dati di addestramento corretti, ma in caso di dati nuovi, non riesce a correlare le informazioni con logiche simili presenti in addestramento, inventa qualcosa di totalmente nuovo ma fortemente inesatto → il processo utilizzato risulta sovrastimare il compito per cui l’IA è stata sviluppata. Lo stato è quindi di overfitting.
Spesso il bias e la varianza dipendono l’uno dall’altro. Se aumenta il primo, diminuisce la seconda.
Riducendo il bias (si rende il modello più complesso), aumenta la varianza. Riducendo la varianza (modello semplice), aumenta il bias. Più bias introduciamo e più la complessità del modello diminuisce, ma diminuisce anche la generalità del modello stesso. Pensiamo ad un modello IA di traduzione: più bias introduciamo della lingua inglese e meno sarà in grado di apprendere o tradurre da altre lingue di origini grammaticali differenti. Sarà specializzato sull’inglese, rimarrà piccolo come modello, ma non sarà efficace per la lingua italiana. Se invece lo addestro con informazioni italiane, diminuiscono i bias inglesi e aumenta la capacità del modello di interpretare grammatiche differenti da quella anglosassone. In quest’ultimo caso però, in caso di overfitting potrebbe mischiare insieme la grammatica inglese con l’italiano, creando errori.

Rumore irreducibile: è l’errore che si commette in qualsiasi attività umana. Paragonabile
all’errore di misura (es: metro con centimetro e millimetro, errore di misura + o – un millimetro).
Bias o non bias questo è il problema?
Qui si apre l’amletico dilemma del secolo: bias sì, bias no?
Si vorrebbe un modello abbastanza flessibilità da imparare, ma una volta imparato non dovrebbe essere troppo flessibile e confondersi. Sarebbe bello trovare un punto di equilibrio in cui il modello impara bene dai dati e generalizza bene su dati nuovi. Quindi in generale un modello che abbia un errore totale minimo.
Ricapitolando i bias in certi casi servono a migliorare le risposte. Ma attenti: troppo bias =
underfitting (modello troppo stupido), troppa varianza = overfitting (modello inutilmente
preciso). Serve equilibrio, come nella dieta: un po’ di tutto, ma senza esagerare.
Ci si potrebbe chiedere anche quando sia più utile la varianza o il bias. Le situazioni in cui sia sufficiente un modello più semplice e robusto sono ad esempio quelle nei campi medici, legali, creditizi e della sanità. In cui è più utile un modello conservativo in cui non ci siano instabilità.
Quindi contesti in cui si accetta la semplificazione introdotta dai Bias, in questi casi il modello risponde con dati molto più predicibili. Di contro in tutti quei contesti in cui occorre la flessibilità, la creatività e la varietà, il fattore varianza è utile ed accettato. I campi sono relativi alla creatività, come assistenti AI per la scrittura, per la creazione di musica, di immagine e di video.

Bias²: il pregiudizio al quadrato
Come scritto prima, il bias è anche un pregiudizio. Nel caso di errore, il bias al quadrato,
moltiplicandosi per sé stesso, fa nascere dei mostri. Letteralmente. Non mostri tipo Godzilla, ma modelli che sostengono che il tuo curriculum non è adatto “perché ti chiami Maria”. Il tutto succede semplicemente, perché in passato nessuna Maria è stata assunta da un’azienda che gestisce motori di auto. Così il sogno della bambina di nome Maria di diventare la prima donna meccanico alla Ferrari si infrange sull’IA (che sbaglia a causa di un bias storico e scarta il CV delle donne).
Quindi se il bias è non voluto, per l’autrice del presente articolo, andrebbe eliminato o almeno mitigato, come un qualsiasi rischio. Solitamente questi bias sono di tipo etico o dovuti alla cultura in cui sono stati creati i dati di apprendimento.

Si aggiunge che i bias etici o culturali, devono essere attentamente analizzati e sono da
contrapporre a quelli tecnici relativi al campo della matematica o della statistica (utili a migliorare il modello).
Infine, il miglioramento dei modelli è qualcosa di fortemente desiderato perché c’è un conseguente abbassamento del costo computazionale che si ripercuote fortemente sul costo del progetto che usa una IA. Maggiore è il bias voluto e minore è il costo computazionale e viceversa.

Conclusione
In sintesi, il bias nell’intelligenza artificiale non è necessariamente un errore, ma un elemento strutturale da comprendere, governare e — quando necessario — correggere. Come abbiamo visto, esistono molteplici tipologie di bias, alcuni dei quali possono contribuire a migliorare le performance dei modelli, altri invece a comprometterne l’equità, l’efficacia e l’etica.
Il vero nodo non è l’eliminazione totale del bias, bensì la sua gestione consapevole. Bias e
varianza rappresentano due estremi in un equilibrio delicato, da calibrare in funzione del contesto applicativo: maggiore rigore e prevedibilità in ambiti critici come la sanità o il diritto; maggiore flessibilità e adattabilità in settori creativi e sperimentali.
Dunque, non si tratta di scegliere tra “bias sì o bias no”, ma di imparare a distinguere ciò che è utile e ciò che è dannoso. Perché il bias voluto può ridurre il costo computazionale e migliorare la specializzazione di un modello, mentre il bias non controllato può invece generare esclusioni, distorsioni e ingiustizie.
Il compito di chi progetta, addestra e utilizza sistemi di intelligenza artificiale è quindi duplice: tecnico e culturale. Serve consapevolezza, competenza e un’etica vigile.

Concludendo, i bias sono importanti e Voltaire ce lo ricorda con la sua citazione: “Non temete, signori, avremo sempre passioni e pregiudizi, poiché è il nostro destino essere soggetti a pregiudizi e passioni”.