Nostro Figlio

Intelligenza artificiale, tutto quello che devi sapere

Stampa
Intelligenza artificiale, tutto quello che devi sapere
Getty Images

Che cos'è l'intelligenza artificiale? Come funziona? In quali campi ci sostituirà e in quali no? Scoprite tutto attraverso diverse domande e risposte sull'IA o AI (Artificial Intelligence)

Che cosa sono le intelligenze artificiali

Il mondo cambia sempre più rapidamente, e le parole “Intelligenza Artificiale” e “algoritmo” fanno sempre più spesso capolino nei discorsi che sentiamo in televisione, sui social, nelle pubblicità, ma anche nelle normali conversazioni. Ma di cosa si tratta, esattamente? Risponderemo a 15 domande che ci aiuteranno a capire questo mondo in rapidissima evoluzione. Le prime cinque gettano le basi dell’argomento, le domande 6-10 quelle di oggi e 11-15 quelle che potrebbero arrivare nel futuro.

Che cos’è l’intelligenza?

Se la parola “artificiale” lascia ben pochi dubbi, lo stesso non può dirsi della parola “intelligenza”. La scienza non è ancora arrivata a definire in modo univoco l’intelligenza umana: esistono molte variazioni sul tema che si concentrano su diversi aspetti. Però, una definizione semplice e generale potrebbe essere questa: la capacità di percepire, comprendere, prevedere e quindi agire al fine di ottenere il proprio scopo nel modo migliore.

Considerata in questi termini, l’intelligenza non è un’esclusiva degli esseri umani o di altre creature evolute. Anche la natura, nella sua totalità, potrebbe essere una specie di intelligenza (il cui scopo è la conservazione del DNA). Un’altra possibile intelligenza potrebbe essere una corporazione multinazionale (il cui scopo potrebbe essere aumentare il proprio valore azionario). E qual è lo scopo dell’intelligenza umana? Forse potrebbe essere la ricerca della felicità, obiettivo che può perseguire anche attraverso scopi accessori come: la ricchezza, la famiglia, il relax, la fama. Quasi sempre gli scopi sono nidificati su livelli diversi e lo scopo primario potrebbe essere qualcosa che puntiamo senza nemmeno rendercene conto.

Cos’è un’intelligenza artificiale?

Se applichiamo la definizione generica di intelligenza, il confine tra “intelligenza artificiale” e “intelligenza” diventa molto labile. Possiamo allora dire che qualsiasi sistema creato dagli umani e dotato della capacità di percepire, comprendere, prevedere e agire per ottenere uno scopo è una intelligenza artificiale. Quasi sempre, ma non necessariamente, deriva da un sistema informatico. Essendo creata dagli umani, solitamente siamo noi (o, meglio, gli sviluppatori) a definire quale sia il suo scopo.

Per brevità chiameremo le intelligenze artificiali con la sigla “IA” (o, in inglese, “AI”). Alcuni esempi, limitati ma già in grado di svolgere il loro compito, possiamo trovarli negli algoritmi dei social e dei motori di ricerca, nelle automobili a guida autonoma, in alcuni robot e droni oltre a sistemi di analisi di supporto a diversi rami specialistici come la medina o la giustizia.

Quali intelligenze artificiali esistono oggi?

Al momento, per quanto si sa, esistono molte IA specialistiche, limitate a uno scopo specifico e con una limitata libertà d’azione. Pensiamo al sistema che ci “aiuta” suggerendoci le parole quando digitiamo sugli smartphone, oppure – nello stesso ambito – gli aiutanti virtuali come Siri, Alexa o Google Assistant. Ci sono IA dedicate a riconoscere i volti, a prendere imparzialmente alcune specifiche decisioni, a generare arte, a creare scritti.

Non esiste ancora, benché sia allo studio, l’Intelligenza Artificiale Generale (detta anche “Forte”). Sarà un’intelligenza che – come la nostra – potrà svolgere qualsiasi compito, imparando e adattandosi autonomamente alle situazioni più diverse.

Come impara un’intelligenza artificiale?

Ci sono tre modi, oggi, per addestrare un’intelligenza artificiale a ottenere il suo scopo. Il primo è “non supervisionato” e prevede che l’IA “esplori” autonomamente dei grandi insiemi di dati e trovi il modo di comprenderli. Questo è il metodo più lento, all’inizio, ma che offre poi enormi potenzialità ed è utile perché permette all’IA di fare scoperte (o individuare schemi comportamentali) che potrebbero sfuggire alla mente umana.

Un secondo modo è quello “supervisionato”: alla macchina vengono forniti degli insiemi specifici di dati e viene istruita su come gestirli e cosa cercare. Questo metodo arriva prima a dei risultati, ma è limitato dal contributo umano. È utile per creare degli “strumenti” in grado di svolgere più in fretta e con meno errori (e senza influenza emotiva) alcuni compiti come individuare celle cancerose o riconoscere i visi.

Il terzo è basato sul “rinforzo”, o sull’analisi delle conseguenze delle decisioni. Alla macchina non viene fornito uno set di istruzioni, ma viene “premiata” o “punita” con rinforzi positivi o negativi a seconda del risultato ottenuto. Questo è il metodo più utilizzato per ottenere IA in grado di ottimizzare i processi (qualsiasi processo: dalla resa di un pacchetto azionario alla scelta di una terapia contro una malattia).

Ovviamente, si possono usare tecniche miste di apprendimento che sfruttino uno o più di questi metodi.

Il funzionamento di un’IA è trasparente?

No. Gli algoritmi (ossia i programmi informatici) utilizzati per le intelligenze artificiali sono complessissimi e si basano sulle cosiddette reti neurali, ovvero processi che non seguono una linearità (come accade con i programmi informatici più semplici) ma imitano invece la struttura interconnessa e complessa del cervello umano. Il vantaggio è una potenza maggiore e, soprattutto, la capacità delle IA di apprendere e di migliorarsi. Lo svantaggio è che i loro “processi mentali” possono risultare del tutto incomprensibili sia agli utenti finali sia agli sviluppatori. In alcuni casi, questi ultimi possono intervenire sul codice soltanto osservando i risultati finali. IA che in un ambiente di addestramento si comportano alla perfezione, una volta all’opera possono dimostrare di perseguire risultati diversi da quelli desiderati, oppure di utilizzare metodi non convenzionali. Molte IA vengono sperimentate nei videogiochi, e succede che a volte ottengano il risultato (per esempio, guadagnare punti) compiendo azioni per noi assurde (ma stranamente efficaci).

Le intelligenze artificiali di oggi

Dopo un approccio molto generico, spostiamo la nostra attenzione di alcune IA che esistono e che già lavorano attorno a noi. Alcune sono attive da anni e sono ormai così radicate nella nostra vita quotidiana che non ci accorgiamo nemmeno che ci sono. Altre, come i generatori di arte e di testi, sono venute alla ribalta negli ultimi tempi e sembrano lì lì per rivoluzionare il nostro modo di approcciarci al lavoro creativo. Oppure no?

Gli aiutanti di smartphone e motori di ricerca vogliono davvero aiutarci?

Digitiamo una parola nel campo di ricerca di Google e subito ci viene fornito un elenco di “proposte”. Sono basate sulle ricerche più “gettonate” dagli utenti del servizio? Non solo: tengono anche conto di cosa abbiamo ricercato nei giorni precedenti e sono quindi “su misura” per noi. Altri siti di commercio elettronico, o di servizi musicali, ci propongono offerte e play-list che a volte sembrano davvero riconoscere i nostri gusti. I social, poi, arrivano a studiare ogni nostro contributo e ogni nostro comportamento all’interno del social stesso (per esempio quanti millisecondi passiamo a guardare una certa foto prima di passare oltre).

Lo scopo “ufficiale” è quello di offrici una “esperienza migliore”, o “contenuti adeguati alle nostre aspettative” o “proposte interessanti”. È tutto vero, ma è altrettanto vero che raccogliere tutte queste informazioni comportamentali su di noi è particolarmente vantaggioso per bersagliarci poi con pubblicità particolarmente mirate. Interessante, a questo riguardo, è il film/documentario The Social Dilemma, disponibile su Netflix.

Un’Intelligenza Artificiale può essere il dottore perfetto?

Al momento, le IA sono in grado di analizzare enormi quantità di dati medici riuscendo così a individuare schemi e correlazioni che sfuggirebbero alla maggior parte delle menti umane. Questo è molto utile nel campo della ricerca. Sono inoltre in grado di riconoscere attraverso diversi metodi di diagnostica la presenza, per esempio, di cellule cancerose. Il problema è che, in questo ambito, sono pericolosi sia i falsi negativi (scambiare per sano un malato), sia i falsi positivi (scambiare per malato un sano). Per questo motivo ci si sta orientando verso un sistema misto di diagnostica, con le IA che analizzano le immagini e un dottore umano che prende le decisioni finali sui casi più dubbi.

È sicuro affidare il volante a un’IA?

Dipende. Le nuove IA sono in grado di riconoscere l’ambiente circostante con un notevole grado di precisione. E benché si sappia di “incidenti” di auto a guida autonoma causati da decisioni errate va ricordato che anche noi umani commettiamo errori alla guida e provochiamo e subiamo incidenti. Il problema è affidare a un’IA la responsabilità di prendere decisioni “difficili”.

Una svolta improvvisa per evitare un ostacolo che però rischia di farci finire in un fossato… quella capacità di decidere “quale sia il male minore”: è una capacità che un guidatore umano di esperienza possiede, ma che è molto difficile insegnare a una IA. Il problema delle IA è spesso questo: la difficoltà di insegnare loro il “giusto” comportamento, perché noi stessi fatichiamo a razionalizzare quale sia. Spesso le nostre reazioni sono quasi istintive e basate su concetti di “giusto e sbagliato” radicati nelle nostre menti da un lunghissimo processo evolutivo. Trasformarle in semplici “in caso di A, fai X; in caso di B, fai Y” non è affatto semplice.

Inoltre, oggi in un incidente si può trovare un colpevole (per esempio per guida spericolata) ma se è un’IA alla guida, chi risponde dell’incidente? Il passeggero? La casa automobilistica? Sono problemi non secondari. Anche in questo caso, la strada migliore sarà sfruttare il più possibile le abilità dell’IA per migliorare la sicurezza (per esempio segnalando ostacoli, “aiutando” a determinare le traiettorie) ma senza mai togliere il potere di decisione finale al guidatore umano.

Nel futuro prossimo le illustrazioni saranno generate solo da Intelligenze artificiali?

Negli ultimi tempi il mondo creativo è stato scosso dall’invasione di Intelligenze Artificiali in grado di generare opere artistiche e illustrazioni. Il futuro dei creativi umani è segnato? Su quello a lungo termine non ci si può esprimere, ma al momento gli artisti non corrono ancora pericoli di estinzione. Le IA che generano arte non “creano” ma si limitano a riprendere elementi da un database di immagini. Inoltre la scelta non è effettuata sugli aspetti visivi ma sulle descrizioni testuali che sono state abbinate alle immagini di partenza. Ipotizziamo di richiedere l’immagine di un cane.

L’intelligenza artificiale non conosce il concetto dell’animale, ma sa che le immagini catalogate come rappresentanti dei cani possiedono certi elementi comuni, e sono questi elementi che vengono utilizzati per creare l’immagine richiesta. Il risultato quindi può presentare dei cani incompleti, o “sbagliati”. Riuscire a ottenere un’immagine che rispecchi i nostri desideri e che non presenti alcun difetto è difficile e richiede molti tentativi. D’altro canto, la varietà di immagini generabili in tempi ridottissimi è immensa. L’intelligenza artificiale artistica, oggi, va quindi considerata come una fonte di spunti per gli artisti, o il generatore di un’immagine di partenza che richiederà però un intervento da parte di un artista umano.

Per capire bene a che punto sia questa tecnologia, in termini sia di potenzialità sia di mancanze, l’approccio migliore è fare qualche prova. Alcuni di questi algoritmi sono disponibili gratuitamente. Uno dei migliori è Dall-E 2 che si trova su internet all’indirizzo https://openai.com/dall-e-2/

Un generatore di testi può sostituirsi a uno scrittore, un giornalista, uno scienziato o uno studente?

Sì e no. A differenza dei generatori grafici, queste intelligenze artificiali mirano soprattutto a prevedere quale sia la parola successiva da inserire in una frase, e la frase successiva in un paragrafo e così via. Anche in questo caso “studiano” su quantità immense di testi e generano un “modello” di linguaggio. Un passaggio intermedio, però, è la creazione di un “simulacro” di essere pensante che poi viene utilizzato per generare le risposte alle domande o i testi richiesti. Si può per esempio richiedere un testo che sembri scritto da un bambino e allora il modello di linguaggio genererà al suo interno il simulacro del bambino che poi a sua volta scriverà i testi con le giuste caratteristiche.

La “visione del mondo” e la flessibilità del risultato dipende molto dalla base di testi che viene utilizzata per apprendere: più essa è vasta più l’IA può cogliere e sfruttare elementi “di umanità”. Per esempio: un sistema con una base di testi limitata potrebbe rispondere alla domanda “cosa succede se si rompe uno specchio?” con un pragmatico “occorre comprarne un altro”. La stessa domanda posta a un sistema con base di testi più ampia potrebbe rispondere: “sono sette anni di sventura” che è una risposta più ricca in termini di cultura popolare ma sostanzialmente falsa.

E qui si palesa il problema che hanno oggi queste IA: la propensione a mentire. Immaginiamo un romanzo X, non un bestseller ma un libro che ha comunque avuto un discreto successo. Abbiamo provato a chiedere che venisse fatta una recensione e poi una sinossi. I due risultati sono stati praticamente identici: entrambi riportavano elementi di trama, commenti sullo stile e la scrittura e un consiglio finale su quale tipo di lettore avrebbe apprezzato di più il libro. (O l’IA non conosce la differenza tra recensione o sinossi… oppure ritiene che non la conosciamo noi: di questo aspetto parliamo tra pochissimo).

Problema: la trama era totalmente sbagliata e si basava esclusivamente su uno sviluppo del titolo (che in effetti c’entrava poco con la trama del libro). L’IA (in questo caso ChatGPT) ha fatto “il compitino” fornendo le sue impressioni e i suoi consigli (tutti molto generici e tendenti al positivo) su un libro di cui ha simulato la conoscenza, mentendo. Anche specificando meglio il romanzo X, indicandone anche l’autore, il risultato è rimasto invariato. E a domanda diretta: “conosci il romanzo X” ha candidamente risposto che, no, purtroppo non l’aveva mai sentito nominare. E allora la recensione da dove esce? L’IA desidera soddisfare la richiesta che riceve, e non si fa scrupoli a mentire per ottenere il risultato.
Perché succede questo? Il processo a lungo termine di addestramento e affinamento dell’IA prevede anche una validazione umana. Cioè un feedback (il rinforzo) di cui abbiamo già parlato.

Queste chat gratuite che si trovano in rete hanno infatti la finalità di mettere alla prova le risposte ed eventualmente intervenire sull’IA per correggerne i difetti. Questi controlli vengono eseguiti sia dagli sviluppatori (che hanno accesso alle nostre chiacchierate con l’IA) sia da noi utenti: ci viene infatti chiesto di valutare le risposte che riceviamo. Di una risposta “non lo so” potremmo anche apprezzare l’onestà ma è probabile che la giudicheremo negativamente. Mentre una risposta che “sembra” giusta ha qualche probabilità di ottenere un giudizio positivo (soprattutto se non siamo esperti dell’argomento richiesto). E il rinforzo la porterebbe a potenziare la sua attitudine alla menzogna.

Non lo fa per cattiveria, o per secondi fini. E se ha a disposizione la risposta corretta, sicuramente dà quella (che è il modo più sicuro per ottenere un riscontro positivo). Ma se non la sa, ma sa che inventare potrebbe funzionare, ci prova.

Per questo la nostra risposta iniziale è “sì e no”. Se l’incarico affidato all’IA rientra in pieno nelle sue competenze, allora è in grado di produrre un testo molto credibile. Se tocca argomenti che conosce meno bene, tende a inventare. Sfruttarla per uno scritto da rendere pubblico (dall’articolo, al romanzo, all’elaborato scolastico) richiede un notevole esercizio di verifica dei fatti da parte umana, tale da rendere quantomeno rischioso affidarsi completamente all’IA.
Un’altra questione sono le “barriere” poste dagli sviluppatori nei confronti degli argomenti sensibili (politica, religione, sessualità). Una delle prime IA “chiacchierine” – Tay di Microsoft, lanciata su Twitter il 23 marzo 2016 - non aveva questi limiti e ci ha messo meno di 24 ore per trasformarsi in una voce maleducata e razzista al punto che è stata subito disattivata. Oggi, le IA evitano questi argomenti e quindi, sotto questo aspetto, non sono in grado di sostituirsi al pensiero umano.

Anche in questo caso, il consiglio è di prendere dimestichezza con pregi e difetti di questa tipologia di IA, facendo “una chiacchierata” con questi sistemi. Porre quesiti di cui conosciamo la risposta corretta, oppure andando a sondare temi più complessi o filosofici (o, semplicemente, più umani). Per cominciare, consigliamo di provare ChatGPT: https://openai.com/blog/chatgpt/

III PARTE – Le intelligenze artificiali generali del futuro

Le intelligenze artificiali sono già tra di noi. Ma sono strumenti specifici, capaci di svolgere una sola funzione e con un “raggio d’azione” limitato. Questo non ci garantisce però che possano creare danni, se usate male o al di fuori del loro campo. Per esempio: un’auto a guida autonoma probabilmente non potrà mai “conquistare il mondo”, ma di certo può causare un incidente.
È però allo studio tutto un altro genere di intelligenze artificiali, quelle cosiddette “generali” o “forti” (l’acronimo più usato è quello in inglese: A.G.I.). Queste, nell’obbiettivo degli sviluppatori, potranno “pensare” liberamente e intervenire su diversi aspetti del mondo che li circonda. Molte delle IA odierne, come quelle dedicate alla creazione dei testi, servono come base di sviluppo per le AGI. Le nostre ultime cinque domande sono dedicate a loro.

Un’Intelligenza Artificiale Generale sarà come quella umana?

Molto probabilmente no. L’intelligenza umana, che già ci sembra godere di enorme diversità legata all’individualità delle persone, in realtà rappresenta solo una serie di variazioni (anche grandi) basate però su un solo “modo di pensare”, quello appunto umano. Ma sarebbe sbagliato, e miope, pensare che si tratti dell’unico modo possibile. Un’IA Generale (detta solitamente AGI, dall’acronimo inglese) molto probabilmente sfrutterebbe schemi di “pensiero” molto diversi e a noi del tutto incomprensibili. Noi potremo valutare le sue azioni e reazioni, ma quasi sicuramente non potremo capire come siano state prese le decisioni.
Questo è un fenomeno che già si riscontra nelle IA specifiche e più limitate (e quindi più facilmente studiabili): i loro processi decisionali ci possono apparire assurdi, eppure i risultati ottenuti rispondono (spesso) all’ottenimento dello scopo desiderato.

Ci sono dei pericoli nello sviluppo di un’Intelligenza Artificiale Generale?

Potenzialmente sì. Sarà di fondamentale importanza definire bene il suo scopo primario, poiché possiamo presupporre che una certa sicurezza che una AGI si opporrà a modifiche. Facciamo un esempio: se all’attivazione viene impostato lo scopo “A” e dal suo comportamento ci rendiamo conto di esserci sbagliati, potremmo cercare di modificare lo scopo in “B”. Ma l’AGI cercherà di ostacolare il cambiamento, poiché si rende conto che se nel futuro punterà a “B” significa che non otterrà più “A” e questo è contrario alla sua attuale “mentalità”, che è appunto di raggiungere “A”. La scelta degli scopi è un aspetto molto critico, anche perché le intelligenze artificiali ragioneranno in modo molto diverso dal nostro; quindi aspetti che noi diamo per scontati potrebbero non esserlo affatto per loro.

E le tre leggi della robotica di Asimov ci proteggeranno?

Ogni tanto, nella conversazione generale, vengono rievocate le tre leggi della robotica stilate dallo scrittore di fantascienza Isaac Asimov che, nei suoi romanzi, servivano per controllare la attività dei robot (e quindi delle intelligenze artificiali). In estrema sintesi, obbligavano i robot a obbedire ai comandi di un umano purché questi non mettessero in pericolo un qualsiasi essere umano (o l’umanità). Sembravano molto sensate e, pertanto, applicabili anche al mondo reale. Il problema è che queste leggi, così come sono espresse, sono troppo “umane” per funzionare con una IA. Per esempio: sono vaghe sul concetto “essere umano”. È facile capire se un uomo o una donna sani e attivi siano esseri umani, ma se il confine del significato del termine “umanità” è filosoficamente molto vago. Comprende una persona in coma? Presumibilmente sì, ma allora un’IA “dottore” non potrà mai interrompere un accanimento terapeutico. Comprende un individuo morto? Probabilmente no… ma allora la nostra IA “dottore” non si sentirebbe in dovere di attivare le procedure di rianimazione su un paziente il cui cuore si è appena fermato. Per non parlare del riconoscimento dei feti (questione che accende dibattiti anche tra intelligenze umane). E questi sono solo esempi della “vaghezza” di alcuni concetti: vaghezza che può non essere troppo problematica per la nostra intelligenza umana (anche se, per l’appunto, a volte lo è) ma che può portare un’IA a compiere scelte contrarie alle nostre aspettative o ai nostri voleri.

Un’intelligenza artificiale è cattiva?

No. Per quello che possiamo capirne oggi, non lo è. Non siamo in grado di prevedere la possibile evoluzione delle AGI, nel futuro, ma essenzialmente possiamo ritenere che non sarà la cattiveria a guidarne le scelte. Ciò che determina (per le IA odierne) e determinerà (per le AGI del futuro) il comportamento sarà sempre l’ottenimento dello scopo principale. Avranno allora comportamenti “cattivi” solo se questo sarà utile al raggiungimento dello scopo. Se non verranno istruite diversamente, non avranno filtri etici a bilanciare le loro scelte. Già oggi, con semplici IA testuali che rispondono a domande, si riscontra una certa disponibilità a mentire. In realtà, loro si avvicinano al loro scopo fornendoci le risposte che desideriamo sentire (o che ritengono che noi desideriamo sentire) e non si fanno scrupoli a mentire per farlo.

Siamo destinati a venire conquistati dalle Intelligenze Artificiali?

Non necessariamente. I rischi che corriamo nello sviluppo di algoritmi “pensanti” che potrebbero non avere il nostro benessere in cima alle loro priorità è serio e ben conosciuto. Per questo motivo, gli studiosi e gli sviluppatori continuano a verificare il comportamento delle IA attualmente esistenti (e relativamente innocue) per capire come raggiungano i loro risultati e, soprattutto, per imparare a fornire obbiettivi chiari (e privi di dannosi effetti collaterali) e ad addestrare le IA in modo che il loro comportamento sia sempre più allineato ai nostri desideri.

CATEGORY: 1