I bias dell’Intelligenza Artificiale

Quando i pregiudizi umani si riflettono nei modelli: i rischi nascosti nei bias dell’Intelligenza Artificiale

Gli umani sono esseri emotivi per definizione: nel quotidiano così come nel lavoro sono la creatività, il guizzo, la capacità interpretativa e relazione a fare la differenza. Per questo motivo, siamo anche esseri soggettivi: ciò che vediamo è ciò che siamo, per dirla con le parole di Pessoa, dunque non esiste mai una vera oggettività. E questa oggettività, da sempre, gli individui la ricercano nelle macchine. In fondo, una calcolatrice non può mentire.

Ma cosa accade quando gli input non sono semplicemente numerici? E, soprattutto, se gli i dati in ingresso che diamo in pasto alla macchina per apprendere sono inevitabilmente “sporcati” dalla nostra soggettività? È qui che nascono i bias dell’Intelligenza Artificiale : qualcosa di complesso e socialmente rischioso, una sfida molto più ampia e culturale di quello che si può pensare, con buona pace di chi li definisce solo un bug tecnico, da correggere in fase di addestramento.

Garbage in-garbage out: un famoso caso in ambito giudiziario

Un caso abbastanza noto a chi si interessa da diversi anni di AI e questioni etiche è quello di COMPAS (acronimo di Correctional Offender Management Profiling for Alternative Sanctions ): un software testato negli USA già intorno al 2015. L’obiettivo era più che nobile, ossia supportare il sistema giudiziario americano – da sempre viziato da problematiche legate alla razza, con tutto un corollario di sentenze poco eque nei confronti di individui di particolari etnie e religioni – nel diventare più oggettivo. Una giustizia davvero equa grazie al supporto di un algoritmo sembra un ottimo modo di applicare la tecnologia. E lo è, nella teoria.

Nella pratica, purtroppo, i primi tentativi sono stati fallimentari per la banale regola GIGO, nota in informatica: garbage in – garbage out. Come a dire: se il dataset fornito alla macchina per elaborare sentenze più eque altro non era che l’insieme delle sentenze umane precedenti – inique e a tendenza razzista – beh… era inevitabile che l’output non potesse essere migliore. E così è stato. Ora, sembra che i ricercatori all’opera su COMPAS stiano pian piano correggendo l’operato del software grazie a una serie di coefficienti che assegnano “pesi” diversi alle sentenze inserite in input.

Bias di genere nei tool di generazione immagini e traduzione “automatica”

Altro caso emblematico e accertabile con mano da chiunque abbia voglia di fare qualche test sui più comuni strumenti di traduzione e di creazione immagini è il fatto che i nostri gender gap si riflettono chiaramente sugli output dei tool di Generative AI.

Ad esempio? Sia Dall-E che Midjourney – tra i più comuni generatori di immagini AI-powered – se “promptati” in modo superficiale, restituiranno immagini che contengono bias di genere : scrivendo “ CEO ” si otterranno quasi totalmente uomini in giacca e cravatta, mentre scrivendo “ nurse ” quasi solamente donne in tenuta da infermiera. Dunque un termine, neutro nella sua lingua d’origine, viene “caricato” di decenni di sbilanciamento di genere per queste professioni.

Allo stesso modo, tool dedicati alla traduzione automatica, come Google Translate o Deepl, restituiscono parole di genere diverso a seconda della mansione che si inserisce come termine da tradurre: “ doctor ” su Deepl ha come primo risultato di traduzione “ medico ”, al maschile, solo successivamente, scorrendo nel menu a tendina delle possibili alternative, emerge anche un “ dottoressa ”.

Quindi, le nostre convenzioni sociali impattano sull’AI, che ci rende una fotografia chiara dei nostri stereotipi di genere.

Modelli locali e dati interni delle imprese: l’importanza della coerenza dei valori aziendali

Siamo davanti a un’estremizzazione dei calcoli dovuta alla mera statistica, al numero di occorrenze di un certo termine in un certo contesto logico-fattuale. E questo è determinato dall’uso di dati “generici”, raccolti sul web, dunque una soluzione potrebbe essere quella di utilizzare dati interni.

Per motivi di privacy ma anche di personalizzazione e specializzazione dei modelli, le imprese stanno prendendo sempre più coscienza dell’utilità dell’utilizzo di AI locale in alternativa ai classici chatbot mainstream, o di Small Language Models al posto dei più dispendiosi e generalisti LLM.

Ma cosa succede se le imprese si comportano in modo poco etico già al loro interno? Se ci sono sbilanciamenti di genere e iniquità nella governance o nel trattamento dei dipendenti? Come possono dei modelli allenati su dati interni di questo tipo restituire spunti di efficientamento corretti? Se questo genere di ottimizzazione è ottimale su processi industriali e macchinari di produzione – dove si ragiona appunto di meri numeri e parti meccaniche – nel mondo del People Management e dei processi gestionali delle aziende tutto diventa più complesso.

Come si combattono i bias dell’AI?

Un aneddoto recente avrebbe evidenziato una grossa falla nello strumento più utilizzato in assoluto, ChatGPT. Secondo un ricercatore di sicurezza di 0DIN, uno sviluppatore specializzato proprio in vulnerabilità dei modelli di intelligenza artificiale, sarebbe possibile indurre il chatbot a rivelare informazioni che per policy non dovrebbe fornire, come le chiavi di configurazione di Windows. Come? Semplicemente ingannando il tool con una serie di indovinelli che ruotano proprio sulla conoscenza di quei codici. Alla fine, l’umano “bluffa”, sostenendo di arrendersi perché non sa la risposta: ed è qui che casca la macchina. ChatGPT interpreta la resa come un segnale che lo autorizza a rivelare la risposta corretta, appunto le chiavi di prodotto, in barba a qualsiasi regola di segretezza di alcuni contenuti.

Come a dire che siamo esseri così emotivi e ingannatori per natura da riuscire a indurre persino l’IA che abbiamo programmato a comportarsi in modo emotivo e illogico, a sbagliare, con un semplice trucchetto camuffato da gioco innocuo.

Insomma, questo “ specchio delle nostre brame ” che abbiamo creato, nella forma di ChatGPT, Gemini e similari, ci sta restituendo un’immagine ben poco lusinghiera di ciò che siamo, mettendoci davanti ai nostri limiti e ai nostri pregiudizi.

In fondo, quindi, il bug tecnico da correggere sono i nostri stessi preconcetti.

Dunque, molto probabilmente l’unico modo di correggere in maniera sostanziale e progressiva i bias e le storture di output forniti dall’AI è correggerli nella nostra mente, nelle nostre aziende e nella società tutta. Non lavorare solo con dei coefficienti che correggano il tiro degli algoritmi ma cogliere la palla al balzo di questo riflesso del nostro pensiero per diventare realmente migliori.

condividi su:

Immagine di Greta Lomaestro
Greta Lomaestro
Greta Lomaestro, Consulente Digital Marketing e Comunicazione Online

Leggi anche

Vuoi ricevere le nostre ultime news? Iscriviti alla newsletter per rimanere sempre aggiornato

ARTICOLI PIÙ LETTI
ULTIMI ARTICOLI