"Se abbiamo stabilito che quella che chiamiamo intelligenza artificiale di fatto non è una forma d’intelligenza, perché di essa le mancano alcune caratteristiche fondamentali, è chiaro che l’artificiosità che ne caratterizza le tecniche non si applica a nulla di intelligente, né potenzia o migliora alcuna prestazione intellettiva. Perché, semplicemente, non sono intelligenza": l'Accademico Lorenzo Tomasin invita a confrontarsi sull'uso dell'espressione intelligenza artificiale.
All’alba della scienza moderna, Galileo Galilei – che fu anche accademico della Crusca – affermava che “i nomi e gli attributi si devono accomodare all’essenza delle cose, e non l’essenza ai nomi” (Istoria e dimostrazioni intorno alle macchie solari e loro accidenti, 1613). Concretamente, uno dei compiti della scienza, a partire dallo stabilimento di quel principio, consiste nell’adeguare – anche modificandolo a più riprese – il proprio linguaggio e la propria terminologia alla descrizione più corretta e meno ambigua possibile delle cose, la cui conformazione e le cui proprietà si rivelano sempre più distintamente con l’avanzare delle conoscenze. Movendo da quella frase di Galileo, nel secolo scorso un fisico italiano, Giuliano Toraldo di Francia (Le cose e i loro nomi, Laterza, Roma-Bari 1986), sviluppò un’articolata riflessione sulle nuove sfide poste dallo studio della fisica atomica e subatomica, con i suoi paradossi, al linguaggio della scienza. Tra le sue conclusioni, la constatazione che “non si possono studiare prima le cose e poi i nomi. Per parte nostra, ci azzarderemmo a dire che le cose e i loro nomi entrano insieme nel problema, in modo inestricabile”. Simili riflessioni sollecitano chi, nella prospettiva dello studio sui nomi delle cose, cioè nella prospettiva del linguista, s’interroghi sulla locuzione che, provenendo dal linguaggio dei tecnici, ha invaso oggi il dibattito scientifico e quello sociale, imponendosi come un concetto di cui varrà la pena di mettere in discussione lo stesso nome, o meglio il rapporto che il nome ha con la cosa che descrive: l’intelligenza artificiale.
Vari motivi che rendono (o renderebbero) improprio o sconsigliabile l’uso di questa denominazione sono già stati avanzati da più parti, da specialisti di varia formazione e di diverso orientamento (ben nota, ad esempio, è la contro-definizione di pappagalli stocastici introdotta da Bender, Gebru, McMillan-Major, Mitchell nel 2021 in un articolo sui Large Language Models di cui diremo tra poco). E in un bel libro recente (Le macchine del linguaggio. L’uomo allo specchio dell’intelligenza artificiale, Einaudi), l’informatico Alfio Ferrara ha spiegato bene al pubblico italiano come anche gli esperti di questo campo di studi considerino l’etichetta in sostanza impropria, sebbene la utilizzino negli ultimi anni con sempre maggiore frequenza (lui stesso la impiega sulla copertina del suo libro!) essenzialmente per “un problema di marketing”. Cioè perché si tratta di una formula che oggi vende. E sulla riflessione suscitata da Ferrara è tornato lo storico della lingua Giuseppe Antonelli in un acuto articolo per “la Lettura”, il 10 agosto scorso.
Da parte nostra, possiamo interrogarci sull’appropriatezza di questa denominazione a partire dal nostro specifico – e in sostanza unico – campo di competenza, cioè dal punto di vista di ciò che sappiamo sul linguaggio da un lato (inteso come manifestazione tipica dell’intelligenza nella forma che essa ha per la specie umana), e dall’altro sulle lingue e sulla loro storia e uso. Ci sembra un punto di vista non peregrino, dato che intelligenza artificiale è, prima di tutto, un unico lessema, o come dicono i linguisti, una polirematica, cioè un elemento lessicale formato da più di una parola, come ferro da stiro o anima gemella. Oltre che una cosa, insomma, essa è un nome, di cui si può valutare l’appropriatezza.
Una locuzione come illuminazione artificiale indica un sistema che, costruito dall’uomo, produce luce; ancora, fecondazione artificiale indica una tecnica per cui la fecondazione è procurata con mezzi tecnologici. Così, illuminazione in senso proprio (cioè radiazione luminosa) è quella prodotta dalla prima, fecondazione in senso proprio (cioè l’incontro di due gameti) è quella cui fa riferimento la seconda. Bisognerà dunque assumere che nella locuzione intelligenza artificiale i processi di quella che chiamiamo intelligenza si realizzino in una forma mediata de una macchina.
È noto che una fase importante nella storia dell’informatica – e della sua antenata, la cibernetica – è stata guidata dall’idea che gli elaboratori elettronici possano simulare i procedimenti del cervello umano, potenziandone le prestazioni. Che una parte cospicua degli sforzi della ricerca tecnologica sia mirata a riprodurre non solo nei risultati, ma anche nei procedimenti operativi le computazioni della mente umana, è suggerito non solo dalla comune diffusione di termini come cervello elettronico o cervellone riferiti appunto a macchine, ma anche dallo sviluppo di ambiziosi progetti scientifici. È il caso, ad esempio, dell’enorme sforzo di ricerca dispiegato dal programma Human Brain Project (2013-2023), un progetto che impegnò per anni alcuni dei migliori centri di ricerca europei e americani con l’obiettivo dichiarato di riprodurre, attraverso una rete di elaboratori elettronici, la struttura delle reti neurali del cervello umano. Il progetto in questione, come è noto, raggiunse risultati importantissimi nello sviluppo di nuove tecnologie, ma dovette riconoscere l’impossibilità di arrivare all’obiettivo che si era prefisso, cioè di riprodurre tecnologicamente e interamente le strutture dell’encefalo della specie umana. Ciò che sarà forse possibile un giorno, probabilmente a partire da diverse basi teoriche e tecnologiche, è risultato al momento irrealizzabile.
Analogamente, i Large Language Models, tra i prodotti principali della cosiddetta intelligenza artificiale, muovono dal principio che le cosiddette reti neurali artificiali realizzate con strumenti informatici siano in grado di riprodurre vari ambiti cognitivi degli esseri viventi, e in particolare quello – associato alla specie umana – della facoltà di linguaggio. Tale assunto sembra confortato dal fatto che, poiché i testi prodotti dalla cosiddetta Intelligenza artificiale sulla base di prompt – cioè di impulsi degli utenti – sono essenzialmente indistinguibili dagli enunciati prodotti dall’intelligenza umana, si può appunto parlare di una intelligenza artificiale capace di modellare – cioè di riprodurre artificialmente – il linguaggio come facoltà tipica dell’intelligenza umana.
Studi e argomenti messi in campo recentemente da alcuni linguisti (in particolare Andrea Moro, Matteo Greco e Stefano F. Cappa in un articolo su Cortex del 2023, nonché, più sinteticamente, Johan J. Bolhuis, Stephen Crain, Sandiway Fong e Andrea Moro in una breve Corrispondenza su Nature del 2024) hanno messo in chiaro che i Large Language Models, pur producendo testi simili a quelli generati dalla facoltà di linguaggio, non possono essere considerati un modello o una riproduzione del linguaggio (naturale), per varie ragioni. Il linguaggio, in effetti, è in grado di produrre (di generare) un numero infinito di frasi sintatticamente strutturate; esso viene acquisito dagli umani indipendentemente dall’acquisizione di un numero immenso di dati, come invece accade necessariamente nel caso dei procedimenti di machine learning: i bambini acquisiscono il linguaggio in tempi abbastanza rapidi e con un’esposizione relativamente contenuta al linguaggio stesso, cioè con l’acquisizione di una quantità di dati immensamente inferiore a quella necessaria per allenare una macchina. Ancora, gli esseri umani non sono in grado di produrre linguaggi impossibili, cioè non governati da quelle che sono state individuate come condizioni vincolanti e universali della sintassi. A differenza di un umano, che non può – nemmeno se istruito – parlare in un linguaggio che vìola i principi che governano la sintassi di tutte le lingue umane (perché per farlo deve attivare aree cerebrali distinte da quelle destinate al linguaggio propriamente detto), una macchina è in grado di acquisire e applicare qualsiasi istruzione sintattica, producendo automaticamente enunciati anche in lingue impossibili.
Sebbene, dunque, esistano forme di intelligenza non umana, come quelle di altre specie animali, nonché forme di intelligenza, come l’umana, che includono il linguaggio e le sue proprietà fondamentali (come la ricorsività e la dipendenza dalla struttura, due concetti chiave della teoria sintattica odierna), è evidente che quella prodotta dalle tecniche di cui stiamo parlando può forse assomigliare all’intelligenza, ma non ne ha quelle che le conoscenze scientifiche attuali considerano le caratteristiche distintive dell’intelligenza stessa.
Come il prodotto delle macchine sembra linguaggio, ma non ne ha i caratteri costitutivi, anche la cosiddetta intelligenza artificiale somiglia nei suoi prodotti all’intelligenza quale la conosciamo, ma non lo è nel senso più pregnante.
Non si tratta di una pura e oziosa questione terminologica, perché la parola intelligenza (e l’inglese intelligence, che impernia originariamente la polirematica in esame, il cui primo significato è “the faculty of understanding intellect”) e il suo campo semantico sono indubitabilmente dotati di una connotazione generalmente positiva: dire che una persona è molto intelligente significa, in linea di massima, esprimere un apprezzamento. E l’aggettivo intelligente riferito a pratiche (partenza intelligente) o a oggetti (semaforo intelligente) ne indica generalmente una qualità positiva e desiderabile, che li rende migliori rispetto a ciò che essi sono in assenza di quel requisito specifico.
Quanto all’aggettivo artificiale, esso è riferito spesso a manufatti che potenziano o perfezionano (o tutt’al più surrogano) le caratteristiche dei loro corrispondenti non artificiali, quasi che l’artificialità implicasse un perfezionamento o un orientamento puntuale delle prestazioni o di alcune caratteristiche: fuochi artificiali, pioggia artificiale. Anche le lingue artificiali, come l’esperanto o il volapük (che sono appunto artefatte, ma ovviamente non impossibili, perché costituite di fatto dall’innesto di parti diverse di lingue naturali, che non violano i principi generali del funzionamento del linguaggio) sono lingue inventate nel generoso, se pur illusorio intento di ottimizzare alcuni aspetti della comunicazione umana, favorendo pace e fratellanza ed evitando la supremazia di singole lingue naturali su altre.
Ora, se abbiamo accertato che quella che chiamiamo intelligenza artificiale di fatto non è una forma d’intelligenza, perché di essa le mancano alcune caratteristiche fondamentali, è chiaro che l’artificiosità che indubbiamente ne caratterizza le tecniche (o meglio le tecnologie) non si applica a nulla di intelligente, né potenzia o migliora alcuna prestazione intellettiva. Perché, semplicemente, non sono intelligenza.
Continuare a impiegare la locuzione intelligenza artificiale, particolarmente in ambito scientifico, dove la terminologia s’impegna a un continuo adeguamento, in termini galileiani, di nomi e attributi all’”essenza delle cose”, è dunque improprio. Che tale improprietà non consista in un semplice e veniale uso verbale approssimativo, magari estensivo o metaforico, ma influisca decisamente sulla percezione, sulla valutazione e quindi sull’uso che facciamo di quella cosa, appare tanto più evidente a chi abbia chiaro quanto l’intelligenza delle cose sia fondamentale in ogni onesto discorso scientifico.
Per il momento, sarebbe dunque forse giudizioso abituarsi a parlare di “cosiddetta intelligenza artificiale”, di cosiddetta IA (mentre la sigla AI sarebbe comunque da evitare in italiano, come peraltro nelle altre grandi lingue romanze, ad esempio in spagnolo e in francese, nelle quali pure si usa normalmente la sigla IA). In seguito, starebbe – o starà – ai tecnici e agli esperti della materia di elaborare e cercar di affermare nell’uso parole più adeguate alle cose. Il già citato Ferrara suggerisce che la denominazione più adatta sarebbe forse “simulazione artificiale di comportamento umano”: formula adeguata, ma senza dubbio difficile da diffondere nell’uso. Magari, perché no?, sulla base della stessa sigla e sviluppandola diversamente si potrebbe partire dal principio che intelligence in inglese significa anche ‘informazione’, concetto dalle implicazioni ben diverse rispetto a intelligenza, e si potrebbe parlare di Informazione Artificiale. Una simile denominazione è forse meno impegnativa circa i modi nei quali le nuove tecnologie estraggono dati dal mare magnum dei materiali presenti nella rete, modi peraltro spesso abusivi o lesivi di diritti come quelli d’autore, e sovente assai opachi nei loro percorsi e nelle loro processi: tra i principali problemi dell’IA c’è la questione civile dei diritti dei suoi utenti e dei suoi inconsapevoli fornitori: problema giuridico immenso. Oppure, se si volesse mettere in valore la fondamentale importanza che le prompt, cioè gli stimoli degli utenti, hanno nei prodotti della tecnologia di cui stiamo parlando, si potrebbe discorrere di Interazione artificiale. Si tratterebbe di un’Importante Acquisizione (sigla: IA, permetteteci di scherzare…) per la coerenza tra il metodo scientifico e le parole che ne illustrano i risultati.
"Se abbiamo stabilito che quella che chiamiamo intelligenza artificiale di fatto non è una forma d’intelligenza, perché di essa le mancano alcune caratteristiche fondamentali, è chiaro che l’artificiosità che ne caratterizza le tecniche non si applica a nulla di intelligente, né potenzia o migliora alcuna prestazione intellettiva. Perché, semplicemente, non sono intelligenza": l'Accademico Lorenzo Tomasin invita a confrontarsi sull'uso dell'espressione intelligenza artificiale.
"La dimensione internazionale dell’italiano porta l’attenzione alla cultura italiana - dall’arte alla musica, dalla scienza alla gastronomia -, superando la diffusione del “falso” italiano": l'Accademica Maria Teresa Zanola invita a riflettere sulla questione del rilancio commerciale dell'italianità e di come questo abbia impatto sulla lingua.
Il presidente onorario Claudio Marazzini commenta i dati sull'alfabetizzazione e sulle competenze linguistiche e letterarie degli italiani fornite dal rapporto PIAAC-OCSE 2024.
I dialetti sono stati più volte oggetto del Tema. In questa occasione Annalisa Nesi, accademica segretaria, invita a discutere sul dialetto in Toscana.
Evento di Crusca
Collaborazione di Crusca
Evento esterno
Non ci sono avvisi da mostrare.
LASCIA UN COMMENTO