Bias del bias del bias
Bias del bias del bias. Così almeno si potrebbe riassumere lo stato attuale della GenAI.
(foto dal Web)Premessa
Pur potendosi definire utente “avanzato”, tuttavia Gloss ammette che le sue conoscenze in ambito informatico sono quelle di una docente (di sostegno) e di una tecnica di informatica negli istituti scolastici. Non si atteggia a programmatrice perché non è competente. Sta acquisendo il metalinguaggio AI seguendo corsi (di alfabetizzazione come quelli on-line di Fastweb Academy, tra cui "La Rivoluzione della Scrittura - Creare Libri nell'Era Digitale con la AI" e Università delle Donne)
(Da ChatGPT a Gemini corso online Universtità delle Donne) e Festival o Eventi specifici (come la Lectio in Politecnico di Milano di Gianluigi Bonanomi, per citarne una, o quello del 26 e 27 febbraio “We Make Future" - AI*Festival 2025 nell’Edificio Roentgen della Bocconi di Milano. Notevole l'intervento del prof. Massimo Chiriatti - Lenovo). È però Gloss filosofa umanista e in quanto tale si assume la sola responsabilità di alcune affermazioni in ambito sociologico / morale ed etico. Per esempio, denuncia l'uso NON ETICO dei sistemi generativi, tra cui: (esempio di uso non etico di ChatGPT da parte di uno studente)* Creazione di fake news,
* spam,
* Scrittura di articoli scientifici, temi, relazioni,
* Correzione di compiti, compilazione di revisioni per articoli inviati per pubblicazione a riviste,
* Utilizzo per carpire informazioni sensibili...
Tutte cose già ampiamente utilizzate nella nostra società (purtroppo).
“Un filosofo: un uomo, cioè, che costantemente vive, vede, ascolta, sospetta, spera, sogna cose fuori dell'ordinario; che vien còlto dai suoi stessi pensieri quasi dal di fuori, dall'alto e dal basso, come da quel genere di avvenimenti e di fulmini che è suo proprio; e forse è egli stesso una procella che si avanza gravida di nuovi fulmini; un uomo fatale, intorno al quale c'è sempre un brontolio e un rovinio, qualcosa che si cretta e sinistramente accade. Un filosofo: ahimè, un essere che spesso sfugge a sé stesso, spesso ha timore di sé – tuttavia è troppo curioso per non "tornare" sempre di nuovo "a sé" [...]. (292; 2007)” NietzscheGloss torna sempre a sé, in senso empirico.
Cos'è il bias nell’Essere Umano e nella Macchina AI Nell’ambito del Gioco d'Azzardo Umano il bias è una distorsione attuata nelle valutazioni di fatti e avvenimenti, distorsione che spinge a ricreare una visione soggettiva non corrispondente alla realtà. Il bias cognitivo rappresenta il modo con cui il cervello umano distorce il mondo. Dipende dallo stato emotivo del soggetto ed esercita un’influenza sulle sue decisioni individuali. Tuttavia, gli effetti (negativi) possono essere mitigati in due modi:
– istruendo l’Essere Umano a tenere conto dell’impatto delle emozioni sulle proprie scelte;
– incrementando il tempo di attesa tra una scommessa e l’altra.
Nella macchina AI, denominando “bias machine learning” o “bias dell'algoritmo”, ci si riferisce al verificarsi di risposte dovute a pregiudizi dell’Uomo, che portano a risultati distorti, ingiusti, discriminatori e persino potenzialmente dannosi, perché partono dall’errore umano.
L’esempio classico è dato dai sistemi di riconoscimento facciale che hanno rivelato bias di natura etnica, quando addestrati su immagini di persone di una certa etnia. Ciò comporta la difficoltà nel riconoscere altre etnie, fino alla creazione di falsi positivi in ambiti come la sicurezza o l’applicazione della legge.
Lo stesso si può dire nell’algoritmo per l’assunzione con il riconoscimento di genere. Dato che la nostra società ha sviluppato nei secoli una certa differenziazione nei ruoli tra i generi, l’algoritmo riflette una predominanza di un genere sull’altro nelle fasi di reclutamento automatizzato, perpetuando le disuguaglianze esistenti.
Parimenti, nella medicina personalizzata, algoritmi di diagnosi o trattamento se fortemente sbilanciati verso un particolare gruppo demografico, influenzerebbero le raccomandazioni in modo meno accurato per persone al di fuori del gruppo dei dati utilizzati.
Analogamente, si potrebbero verificare bias linguistici nei sistemi di traduzione automatica se non esposti a un'estrema varietà di dialetti locali e lingue. Un esempio banale: la leguminosa che nel centro Sud è nota come “fagiolini” a Milano si chiama “cornetti”.
Se un modello di valutazione del credito bancario è addestrato su dati che includono bias socioeconomici, similmente condiziona decisioni nell’approvazione di prestiti o carte di credito, avvantaggiando (o svantaggiando) solo determinati background economici.
Allora la macchina AI va addestrata da chi ha ben presenti queste discriminazioni derivanti da (banali) stereotipi che l'algoritmo (per ora) non sa riconoscere o confrontare criticamente/dialetticamente, per poi (eventualmente) scartare.
“Non esistono affatto fenomeni morali, ma soltanto una interpretazione morale dei fenomeni. [...]. (108; 2007)”. Sempre Nietzsche
In conclusione: se è vero, per esperienza personale di Gloss, che si stanno avviando modalità interattive di ragionamento e brainstorming con i diversi modelli di AI, (in ChatGPT 4.o si dà il prompt “avvia il ragionamento”) è anche vero che non sempre funziona correttamente. Per esempio, quando si chiede se una data cosa è a Nord o a Sud, senza dare le indicazioni delle coordinate geografiche, la app non sa attingere (ancora) alla conoscenza. C'è ancora molto da fare. Occorre che un modello abbia 'consapevolezza' della propria padronanza di un argomento, con risposte che somiglino a quelle perfettibili, umanamente parlando, tipo: 'non so nulla su questo argomento' , 'ho solo un'idea vaga’, ‘non ho trovato fonti' , oppure 'sono un'esperta dell'argomento, ti puoi fidare: ecco la fonti'.
Torniamo al bias nella Macchina AI
Il bias si nutre di bias precedenti, in una catena tendente all’infinito. Oggi, con le attuali capacità di calcolo, occorrerebbero almeno 150 anni per individuarli e rimuoverli. Ma contemporaneamente ogni bias nuovo ne nutrirebbe altri e altri ancora. Almeno finché non si scoprirà come associare una semantica umana agli assi dello spazio in cui il modello linguistico rappresenta le parole, e quindi i prompt e le risposte che produce. Gloss si chiede se l’approccio neuro simbolico può essere produttivo, basato sulla capacità del cervello umano di interpretare il mondo attraverso connessioni e simboli. Esistono regole precise che definiscono i concetti, permettendo di rappresentare la conoscenza quotidiana. I modelli simbolici sono in grado di comprendere relazioni complesse e di causa-effetto, forse aprendo la strada a modelli di intelligenza artificiale più flessibili e capaci di generalizzare. Al contrario, le reti neurali dell'apprendimento profondo, pur essendo efficaci nell'elaborare dati grezzi, faticano a gestire strutture causali e compositive. Questo significa che devono essere riaddestrate ripetutamente per apprendere nuovi compiti.
In altre parole
L'intelligenza artificiale simbolica dovrebbe funzionare come il nostro cervello, usando simboli e regole per capire il mondo. Questo permette ai modelli simbolici di capire meglio le relazioni complesse e di adattarsi a nuove situazioni.
(architetture che solo un programmatore esperto di AI può fare)Le reti neurali, invece, sono brave a lavorare con i dati, ma faticano a capire le cause e gli effetti, quindi devono imparare da capo ogni volta. Gloss vi lascia con il suo filosofo preferito, con l’augurio che vi faccia riflettere.
“Io vi insegno l'oltreuomo. L'uomo è qualcosa che deve essere superato. Che avete fatto per superarlo? Tutti gli esseri hanno creato qualcosa al di sopra di sé e voi volete essere il riflusso in questa grande marea e retrocedere alla bestia piuttosto che superare l'uomo? Che cos'è per l'uomo la scimmia? Un ghigno o una vergogna dolorosa. E questo appunto ha da essere l'uomo per l'oltreuomo: un ghigno o una dolorosa vergogna.” (da “Così parlò Zarathustra”, prima parte del 1883, con 142 anni di anticipo rispetto al 2025!) Sempre Nietzsche
(seguente)
Commenti
Posta un commento