Viene qui presentato in traduzione italiana il testo della lezione tenuta da Noam Chomsky in occasione della cerimonia di assegnazione della laurea honoris causa conferitagli il 16 aprile 2004 nell’ambito dei festeggiamenti per gli 80 anni dell’Università degli Studi di Firenze. La traduzione è a cura di Vera Gheno e Federico Damonte e si è avvalsa della collaborazione di Maria Rita Manzini e Leonardo M. Savoia.
Nel formato .PDF, alla lezione tradotta viene affiancata anche la versione originale in inglese, pubblicata sulla rivista «Quaderni del Dipartimento di Linguistica», 14 (2004).
Si ringrazia il Direttore del Dipartimento di Linguistica dell’Università di Firenze Leonardo M. Savoia per averne permesso la pubblicazione sul sito web dell’Accademia della Crusca.
La prospettiva biolinguistica, nella sua forma attuale, ha iniziato a delinearsi mezzo secolo fa, nelle discussioni a Harvard tra alcuni dottorandi fortemente influenzati sia dagli sviluppi in biologia e matematica dei primi anni dopo la seconda guerra mondiale sia dagli scritti di etologia che iniziavano a quel tempo a essere conosciuti negli Stati Uniti. Uno di questi era Eric Lenneberg, il cui seminale lavoro del 1967, Biological Foundations of Language [Basi biologiche del linguaggio] rimane uno dei documenti fondamentali del settore. A quel tempo era in atto un considerevole interscambio, comprendente seminari interdisciplinari e conferenze internazionali, che coinvolgevano principalmente la Fondazione Royaumont a Parigi e il MIT. Quella di più vasta portata, nel 1974, fu intitolata, per la prima volta, “biolinguistica”. Molte delle questioni più rilevanti discusse in quella sede sono ancora vitali ai giorni d’oggi.
Una di queste questioni, sollevata ripetutamente come “una delle domande fondamentali da porre da un punto di vista biologico”, è in che misura gli apparenti principi del linguaggio, inclusi alcuni che sono venuti alla luce solo recentemente, siano unicamente di questo sistema cognitivo o se invece simili “disposizioni formali” si trovino in altri domini percettivi e cognitivi negli esseri umani e in altri organismi. Una domanda ancor più fondamentale dal punto di vista biologico è a quanta parte del linguaggio si possa dare una spiegazione basata su principi, sia che elementi omologhi possano venire trovati in altri domini od organismi oppure no. Lo sforzo di mettere a fuoco questi interrogativi e investigarli per quanto riguarda il linguaggio è stato chiamato, in anni recenti, “il programma minimalista”, ma gli interrogativi nascono per qualsiasi sistema biologico, e sono indipendenti da convinzioni teoriche, sia in linguistica che in altri domini. Risposte a queste domande non sono fondamentali solo per capire la natura e il funzionamento degli organismi e dei loro sottosistemi, ma anche per la ricerca sulla loro crescita ed evoluzione.
La prospettiva biolinguistica vede la lingua di una persona come uno stato di alcune componenti della mente, considerando “mente” nel senso degli scienziati del XVIII secolo, che riconoscevano che, dopo la “demolizione” da parte di Newton della “filosofia meccanicistica”, basata sul concetto intuitivo di mondo materiale, non rimane un problema mente-corpo coerente, e che possiamo solo considerare aspetti del mondo “definiti mentali” come il risultato di “una struttura organica quale è quella del cervello”, come osservò l’illustre filosofo-chimico Joseph Priestley. Il pensiero è “un piccolo tremore del cervello”, notò David Hume; e come Darwin commentò un secolo più tardi, non c’è motivo per ritenere “il pensiero, che è una piccola secrezione del cervello”, “più meraviglioso della gravità, una proprietà della materia”.
Le stesse questioni vengono ancora sollevate in forma molto simile. Sono state poste in maniera prominente alla fine della “Decade del Cervello”, che ha chiuso il millennio scorso. L’American Academy of Arts and Sciences ha pubblicato un volume per commemorare l’occasione, fornendo un sunto dell’attuale stato dell’arte. Il tema principale è stato formulato da un illustre neuroscienziato, Vernon Mountcastle: è la tesi che “le cose mentali, ovvero le menti stesse, sono proprietà affioranti dei cervelli, [anche se] questi affioramenti non sono considerati irriducibili bensì sono prodotti da principi che controllano le interazioni tra eventi di livello inferiore – principi che ancora non comprendiamo.” La stessa tesi, che parafrasa puntualmente Priestley, è stata proposta in anni recenti come un’“ipotesi stupefacente” della nuova biologia, un’“idea radicalmente nuova” nella filosofia della mente, “l’audace affermazione che i fenomeni mentali sono interamente naturali e causati dalle attività neurofisiologiche del cervello.” Ma questo è un fraintendimento. La tesi è conseguenza del collasso di un qualsiasi concetto coerente di “corpo” o “materiale” nel XVII secolo, come è stato presto riconosciuto. Tralasciando la terminologia, la tesi fondamentale rimane quella che è stata chiamata “la proposta di Locke”: che Dio potrebbe aver scelto di “aggiungere alla materia una facoltà di pensiero”, esattamente come ha “aggiunto al movimento effetti che non possiamo in alcun modo concepire che il moto sia in grado di produrre”.
Della gamma di fenomeni che potrebbero venire in qualche modo considerati pertinenti al linguaggio, l’approccio biolinguistico concentra l’attenzione su una componente della biologia umana che ha a che fare con l’uso e l’acquisizione del linguaggio, come che il termine “linguaggio” venga interpretato. Chiamiamola “facoltà del linguaggio”, adattando un termine tradizionale a un nuovo uso. Questa componente è più o meno allo stesso livello del sistema della visione dei mammiferi, del sistema di navigazione degli insetti e così via. In molti di questi casi, le migliori teorie esplicative attribuiscono all’organismo sistemi computazionali e quello che viene chiamato, nell’uso informale, “l’obbedire a delle regole” – per esempio, quando un recente testo sulla visione presenta il cosiddetto “principio della rigidità” come è stato formulato 50 anni fa: “se è possibile, e altre regole lo autorizzano, interpreta i movimenti delle immagini come proiezioni in tre dimensioni di moti rigidi.” In questo caso, studi più recenti hanno fornito una sostanziale comprensione delle computazioni mentali che sembrano essere coinvolte quando il sistema visivo segue queste regole ma, perfino in organismi molto semplici, questo normalmente non è un’impresa semplice, e mettere in relazione computazioni mentali e analisi a livello cellulare è in generale un obiettivo lontano.
Adottando questa concezione, una lingua è uno stato della facoltà del linguaggio.
La decisione di studiare il linguaggio come parte del mondo in questo senso era considerata fortemente controversa, e a tutt’oggi lo è. Un’analisi più attenta mostrerà, credo, che gli argomenti sollevati contro la legittimità dell’approccio hanno poca forza – una tesi debole; e che i suoi assunti di base sono tacitamente adottati anche da coloro che lo rigettano strenuamente – una tesi molto più forte. Non mi addentrerò in questo interessante capitolo della storia intellettuale contemporanea in questa sede, ma assumerò semplicemente che aspetti cruciali del linguaggio possano essere studiati come parte del mondo naturale, adottando l’approccio biolinguistico che prese forma mezzo secolo fa, e che è stato perseguito intensamente da allora, per molte strade differenti.
La facoltà del linguaggio è una componente di quella che il co-fondatore della moderna teoria evolutiva, Albert Russel Wallace, chiamò “la natura intellettuale e morale dell’uomo”: le capacità umane per l’immaginazione creativa, il simbolismo, la matematica, l’interpretazione e la registrazione di fenomeni naturali, intricate pratiche sociali e simili, un complesso di capacità che sembrano essersi cristallizzate in tempi relativamente recenti, forse poco più di 50.000 anni fa, all’interno di un piccolo gruppo di progenitori dal quale discendiamo tutti – un complesso che differenzia abbastanza nettamente gli umani dagli altri animali, inclusi altri ominidi, a giudicare dalla documentazione archeologica. La natura della “capacità umana”, come la chiamano adesso alcuni studiosi, rimane un notevole mistero. Era uno degli elementi di una famosa controversia tra i due fondatori della teoria dell’evoluzione, con Wallace che riteneva, contrariamente a Darwin, che l’evoluzione di queste facoltà non potesse essere spiegata solamente in termini di variazione e selezione naturale, ma che necessitasse “di qualche altra influenza, legge o causa”, un qualche principio naturale accanto alla gravità, alla coesione e alle altre forze senza le quali l’universo materiale non potrebbe esistere. Anche se tali questioni sono ai giorni nostri formulate diversamente, esse non sono scomparse.
Si assume comunemente che, quale che sia la capacità intellettuale umana, la facoltà del linguaggio sia essenziale ad essa. Molti scienziati concordano con il paleoantropologo Ian Tattersall, che scrive di essere “praticamente sicuro che fu l’invenzione del linguaggio” a essere l’evento “improvviso ed emergente” che fece da “stimolo liberatorio” per la comparsa della capacità umana nella cronaca dell’evoluzione – il “grande balzo in avanti”, come lo ha chiamato Jared Diamond, il risultato di un qualche evento genetico che rimodellò il cervello, permettendo la nascita del linguaggio moderno, con la ricca sintassi che permette una moltitudine di modi per esprimere il pensiero, un prerequisito allo sviluppo sociale e ai rilevanti cambiamenti nel comportamento che sono evidenziati nella documentazione archeologica, e che generalmente sono ritenuti la causa scatenante della veloce migrazione dall’Africa, dove pare che umani, per altri versi moderni, fossero stanziati da 150.000 anni. La concezione è simile a quella dei Cartesiani, ma più forte: essi consideravano il normale uso del linguaggio come il più chiaro indizio empirico che un’altra creatura avesse una mente simile alla nostra, ma non come indizio criteriale della mente e dell’origine della capacità umana.
Tattersall considera il linguaggio come “virtualmente sinonimo con il pensiero simbolico”. Se vogliamo elaborare tale affermazione, uno degli iniziatori dei simposi Royaumont-MIT, il premio Nobel Francois Jacob, osservò che “il ruolo del linguaggio come sistema di comunicazione tra individui sarebbe sorto solo come effetto secondario”. Alla conferenza del 1974 Salvador Luria, premio Nobel come Jacob, fu il più strenuo sostenitore dell’idea che i bisogni comunicativi non avessero fornito “nessuna grande pressione selettiva per produrre un sistema come il linguaggio”, con la sua cruciale connessione con la “formazione del pensiero astratto o produttivo”. “La qualità del linguaggio che lo rende unico non sembra essere tanto il suo ruolo nel comunicare istruzioni per azioni” o altre caratteristiche comuni della comunicazione animale, continua Jacob, quanto piuttosto “il suo ruolo nel simbolizzare, evocare immagini cognitive”, nel “plasmare” la nostra nozione di realtà e produrre le nostre capacità di pensiero e di pianificazione, attraverso la sua proprietà unica di permettere “infinite combinazioni di simboli” e quindi “la creazione mentale di mondi possibili”, idee che risalgono alla rivoluzione cognitiva del XVII secolo. Jacob sottolineò anche la percezione comune che le risposte alle domande sull’evoluzione “nella maggior parte dei casi... difficilmente possono andare al di là di speculazioni più o meno ragionevoli”.
Possiamo aggiungere un’altra intuizione della filosofia del XVII e XVIII secolo, con radici che risalgono fino all’analisi di Aristotele su quelle che più tardi furono interpretate come entità mentali: che perfino i concetti più elementari del linguaggio umano non sono in relazione con oggetti indipendenti dalla mente secondo una qualche relazione referenziale tra simboli e caratteristiche fisiche identificabili del mondo esterno, come sembra essere universale nei sistemi di comunicazione animale. Sono piuttosto creazioni dei “poteri conoscitivi” che ci forniscono di mezzi ricchi per riferirci al mondo esterno da precise prospettive, ma sono individuati da operazioni mentali che non possono essere ridotte a una “particolare natura che appartiene” alla cosa di cui stiamo parlando, come Hume riassunse un secolo di interrogativi. Queste sono osservazioni critiche riguardanti la semantica elementare del linguaggio naturale, che suggeriscono che i suoi elementi più primitivi siano correlati al mondo indipendente dalla mente nello stesso modo in cui lo sono gli elementi interni della fonologia, cioè non da una relazione di tipo referenziale ma come parte di un tipo di concezione ed azione considerevolmente più intricati. È per ragioni come questa, anche se non afferrate chiaramente a quel tempo, che i primi lavori negli anni Cinquanta adottarono una specie di “teoria d’uso del significato”, in pratica nel senso di John Austin e del tardo Wittgenstein: il linguaggio era concepito come uno strumento complesso, messo in uso per vari scopi umani, che genera espressioni costruite con gli elementi fondamentali del linguaggio, ognuna di esse basicamente una struttura di istruzioni per l’uso.
Se tutto questo va nella direzione giusta, allora sorgono almeno due problemi fondamentali quando consideriamo le origini della facoltà del linguaggio e il suo ruolo nell’improvviso emergere delle capacità intellettuali umane: primo, la semantica essenziale degli elementi portatori del significato minimo, includendo i più semplici di essi; e secondo, i principi che permettono illimitate combinazioni di simboli, organizzate gerarchicamente, che forniscono i mezzi per l’uso del linguaggio nei suoi molti aspetti. Allo stesso modo, la teoria centrale del linguaggio – la Grammatica Universale, GU – deve fornire in primo luogo un inventario strutturato di possibili oggetti lessicali che sono collegati o forse identici ai concetti che sono gli elementi dei “poteri conoscitivi”; in secondo luogo, deve fornire mezzi per costruire con tali oggetti lessicali l’infinita varietà di strutture interne che fanno parte del pensiero, dell’interpretazione, della pianificazione e di altri atti mentali umani, e che vengono talvolta esternate: un processo secondario se le speculazioni appena passate in rassegna si dimostrassero esatte. Per quanto riguarda il primo problema, l’apparato concettuale-lessicale apparentemente specifico alla specie umana, esistono studi approfonditi sui concetti relazionali collegati a strutture sintattiche e sugli oggetti parzialmente interni alla mente che sembrano giocare un ruolo cruciale (eventi, proposizioni ecc.). Ma c’è poco, oltre a osservazioni descrittive, sull’apparato referenziale centrale che viene impiegato per parlare del mondo. Il secondo problema è stato centrale alla ricerca linguistica per mezzo secolo, con una storia precedente – in termini diversi – molto lunga.
L’approccio biolinguistico ha adottato sin dall’inizio il punto di vista che il neuroscienziato cognitivo R.G. Gallistel chiama “la norma in neuroscienza” oggi, cioè la “visione modulare dell’apprendimento”: la conclusione che in tutti gli animali l’apprendimento è basato su meccanismi specializzati, “istinti di apprendere” in modi specifici. Possiamo pensare a questi meccanismi come “organi dentro il cervello”, che raggiungono stati nei quali effettuano tipi specifici di computazioni. Eccetto che in “ambienti estremamente ostili”, essi cambiano stato sotto lo stimolo e l’effetto plasmante di fattori esterni, in maniera più o meno automatica, e in accordo con un disegno interno. Questo è il “processo dell’apprendimento”, anche se forse “crescita” potrebbe essere un termine più appropriato, evitando le connotazioni fuorvianti del termine “apprendimento”. La visione modulare dell’apprendimento ovviamente non comporta che le componenti del modulo siano uniche ad esso: a un qualche livello, tutti assumono che non lo siano – la cellula, per esempio – e la questione del livello di organizzazione al quale emergono proprietà uniche rimane una domanda fondamentale da un punto di vista biologico, come lo era alla conferenza del 1974.
È stato riconosciuto a partire dalle origini della biologia moderna che tali restrizioni entrano non solo nella crescita degli organismi ma anche nella loro evoluzione. In un classico studio contemporaneo, Maynard Smith e colleghi fanno risalire la versione post-darwiniana a Thomas Huxley, che rimase colpito dal fatto che sembrano esservi “linee di modificazione predeterminate” che portano la selezione naturale a “produrre varietà di un numero e tipo limitato” per ogni specie. Essi passano in rassegna una serie di tali restrizioni nel mondo organico e descrivono come “limitazioni nella variabilità fenotipica” siano “causate dalla struttura, dal carattere, dalla composizione e dalle dinamiche del sistema di sviluppo”. Essi fecero notare che tali “restrizioni nello sviluppo giocano senza dubbio un ruolo significativo nell’evoluzione”, anche se vi è ancora “poco accordo sulla loro importanza nel plasmare la storia dell’evoluzione in comparazione con la selezione, la deriva e altri fattori simili”. All’incirca allo stesso tempo, Jacob scrisse che “le leggi che controllano lo sviluppo embrionale”, quasi totalmente sconosciute, interagiscono con altri fattori fisici per “limitare i possibili cambiamenti di strutture e funzioni”, per citare una pubblicazione recente. I più conosciuti tra coloro che hanno dedicato molto del loro lavoro a questi argomenti sono D’Arcy Thompson e Alan Turing, che assunsero una posizione molto forte sul ruolo centrale di tali fattori in biologia. In anni recenti, tali considerazioni sono state usate per spiegare per una vasta gamma di problemi dello sviluppo e dell’evoluzione, dalla divisione cellulare nei batteri all’ottimizzazione della struttura e funzione delle reti corticali, e perfino alla proposta che gli organismi abbiano “il migliore dei cervelli possibili”, come affermato dal neuroscienziato computazionale Chris Cherniak. Tali problemi sono problemi di frontiera per la ricerca, ma la loro rilevanza è indubbia.
Assumendo che la facoltà del linguaggio abbia le proprietà generali di altri sistemi biologici, dovremmo, di conseguenza, cercare tre fattori che entrano nell’evoluzione del linguaggio nell’individuo:
(1) Fattori generici, apparentemente quasi uniformi per la specie, l’argomento della GU. La dotazione genetica interpreta parti dell’ambiente come esperienza linguistica, un compito non banale che il bambino svolge in maniera di riflesso, e determina il corso generale dello sviluppo della facoltà del linguaggio verso le lingue raggiunte.
(2) L’esperienza, che porta alla variazione, all’interno di un campo piuttosto ristretto, come nel caso di altri sottosistemi di capacità umane e dell’organismo in generale.
(3) Principi non specifici della facoltà del linguaggio.
Il terzo fattore include principi di architettura strutturale che restringono gli esiti, includendo principi di computazione efficiente, che ci si aspetterebbe che fossero di particolare significatività per sistemi computazionali come lo è il linguaggio, determinando il carattere generale dei linguaggi ottenibili.
All’interno dell’approccio strutturalista-comportamentista degli anni ’50, gli analoghi più vicini alla GU erano gli approcci procedurali sviluppati da Trubetzkoy, Harris e altri, progettati per determinare le unità linguistiche e i loro schemi in un corpus di dati linguistici. Nel migliore dei casi, questi non possono arrivare molto lontano. Perfino le unità elementari portatrici di significato, i morfemi, non hanno la caratteristica di “perle su un filo” necessaria per approcci procedurali, ma sono connessi in maniera molto più indiretta alla forma fonetica. La loro natura e le loro proprietà sono fissate all’interno del più astratto sistema computazionale che determina l’illimitata serie di espressioni. I primi approcci alla grammatica generativa assumevano quindi che la dotazione genetica fornisse un formato per sistemi di regole e un metodo per selezionare la sua realizzazione ottimale di esso, avendo fornito dei dati di esperienza. Proposte specifiche furono fatte allora e negli anni a seguire. In principio, esse fornivano una possibile soluzione al problema dell’acquisizione del linguaggio, ma implicavano calcoli astronomici, per cui non affrontavano seriamente le questioni.
Le preoccupazioni maggiori in quegli anni erano abbastanza diverse, e lo sono tuttora. Può essere difficile crederlo oggi, ma 50 anni fa era comunemente ritenuto che la tecnologia di base della descrizione linguistica fosse a disposizione, e che la variazione linguistica fosse così libera che non si sarebbe potuto scoprire niente che avesse grande generalità. Appena furono fatti degli sforzi per fornire delle descrizioni relativamente esplicite delle proprietà delle lingue, divenne immediatamente ovvio quanto poco fosse conosciuto, in ogni settore. Ogni proposta specifica fruttava un’abbondanza di smentite, richiedendo sistemi di regole complessi e variati per ottenere un’approssimazione fortemente limitata all’adeguatezza descrittiva. Questo poneva un grave dilemma, poiché le considerazioni più elementari portavano alla conclusione che la GU dovesse imporre confini ristretti agli esiti possibili, in modo da spiegare l’acquisizione del linguaggio, il cosiddetto problema dell’“adeguatezza esplicativa”.
Fu imboccato un buon numero di strade per cercare di risolvere questa tensione. Quella che ebbe più successo si rivelò il tentativo di formulare dei principi generali, attribuiti alla GU – ovvero la dotazione genetica – lasciando un residuo piuttosto ridotto di fenomeni che risulterebbe in qualche modo dall’esperienza. Questi approcci ebbero un poco di successo, ma al tempo della conferenza del 1974 le tensioni di fondo rimasero irrisolte. Nel volgere di un paio di anni il paesaggio cambiò in maniera considerevole. In parte questo fu il risultato di una vasta gamma di materiali nuovi provenienti da studi molto più approfonditi che in precedenza e che riguardavano una varietà molto più ampia di lingue, gran parte di essi riconducibili al lavoro di Richard Kayne e delle sue lezioni in Europa, che ispirarono un’approfondita ricerca nelle lingue romanze e germaniche e più tardi in altre, che portarono anche a molte feconde idee sui principi della GU. Circa 25 anni fa, molto di questo lavoro si cristallizzò in un approccio radicalmente differente alla GU, l’approccio “Principi e Parametri” (P&P), che per la prima volta offrì la speranza di superare la tensione tra adeguatezza descrittiva ed esplicativa. Questo approccio cercava di eliminare completamente la teoria basata sull’idea di formato e, con essa, la concezione tradizionale di regole e costruzioni che era stata ripresa quasi nella sua totalità dalla grammatica generativa. Da questo punto di vista, era un distacco molto più radicale dalla ricca tradizione di 2500 anni di quanto lo fosse stata la prima grammatica generativa. Il nuovo approccio P&P portò a un’esplosione di ricerche in lingue dalle tipologie più varie, portando a nuovi problemi precedentemente non presi in considerazione, talvolta a risposte, e al rafforzamento di discipline confinanti che si occupavano di acquisizione e di elaborazione, con i loro interrogativi principali ora riformulati in termini di fissazione di parametri all’interno di un sistema fissato di principi della GU. Nessuno che abbia familiarità con l’area di studio ha minimamente illusione che gli orizzonti della ricerca siano non a portata di mano, ma neanche visibili.
L’abbandono della teoria del formato ha avuto anche un impatto significativo sul programma biolinguistico. Se, come è stato ipotizzato, l’acquisizione è questione di una selezione tra opzioni rese disponibili dal formato fornito dalla GU, allora tale formato dev’essere ricco e altamente articolato, permettendo relativamente poche opzioni; altrimenti, l’adeguatezza descrittiva è fuori portata. La miglior teoria del linguaggio dev’essere molto insoddisfacente da altri punti di vista, con un complesso apparato di condizioni specifiche sul linguaggio umano, che restringono realizzazioni possibili. La questione biologica fondamentale della spiegazione basata su principi poteva appena venire contemplata e, di conseguenza, le prospettive di una ricerca approfondita sull’evoluzione della lingua erano oscure; evidentemente, più le condizioni specifiche del linguaggio sono intricate e variate, meno c’è speranza di una spiegazione ragionevole delle origini evolutive della GU. Questi sono tra gli interrogativi che vennero sollevati al simposio del 1974 e in altri dello stesso periodo, ma furono abbandonati come problemi in apparenza irresolubili.
L’approccio P&P offriva prospettive di risolvere anche queste tensioni. Nella misura in cui questo approccio si dimostra valido, l’acquisizione è questione di fissazione di parametri, e di conseguenza è totalmente separata dal rimanente formato per la grammatica: i principi della GU. Non sussiste più una barriera concettuale alla speranza che la GU possa essere ridotta a una forma molto più semplice, e che le proprietà di base dei sistemi computazionali del linguaggio abbiano una spiegazione basata su dei principi invece che essere stabilite in termini di un formato altamente restrittivo, specifico per il linguaggio, per le grammatiche. Ritornando ai tre fattori della progettazione linguistica, l’adozione dell’approccio P&P supera una difficile barriera concettuale nello spostare il fardello della spiegazione dal fattore (1), fattore genetico, al fattore (3), principi indipendenti dal linguaggio quali elaborazione dei dati, architettura strutturale ed efficienza computazionale, fornendo perciò qualche risposta alle domande fondamentali della biologia del linguaggio, della sua natura e del suo uso, e forse perfino della sua evoluzione.
Superate le barriere concettuali imposte dalla teoria del formato, possiamo considerare seriamente la possibilità che il mezzo per generare espressioni strutturate possano essere riducibili a principi indipendenti dal linguaggio, che ci siano o meno elementi omologhi in altri domini e organismi. Possiamo, in breve, cercare di mettere a fuoco l’interrogativo di cosa costituisca una spiegazione basata su principi per le proprietà del linguaggio, e rivolgerci a una delle domande più fondamentali della biologia del linguaggio: fino a che punto il linguaggio si avvicina a una soluzione ottimale alle condizioni che deve soddisfare per essere affatto usabile, data un’architettura strutturale extralinguistica? Queste condizioni ci riportano alla caratterizzazione tradizionale del linguaggio sin da Aristotele come un sistema che collega suono e significato. Con la nostra terminologia, le espressioni generate da una lingua devono soddisfare due condizioni di interfaccia: quelle imposte dal sistema senso-motorio e dal sistema concettuale-intenzionale che rientra nella capacità intellettuale umana e è rilevante per la varietà degli atti linguistici.
Possiamo considerare una spiegazione delle proprietà del linguaggio come basata su principi nella misura in cui essa possa essere ridotta a proprietà dei sistemi di interfaccia e a considerazioni generali di efficienza computazionale e così via. Indipendentemente, i sistemi di interfaccia possono essere studiati da soli, includendo lo studio comparativo che è fruttuosamente in corso. E lo stesso è vero dei principi di computazione efficiente, applicati al linguaggio in lavori recenti da molti studiosi con risultati importanti. In una varietà di modi, poi, è possibile sia chiarificare sia indicare alcuni dei problemi di base della biologia del linguaggio.
A questo punto dovremmo passare a una discussione più tecnica di quanto sia possibile in questa sede, ma un paio di osservazioni informali possono aiutare per lo meno a tracciare uno schizzo del panorama generale.
Un fatto elementare della facoltà del linguaggio è che si tratta di un sistema di discreta infinità, raro nel mondo organico. Un qualsiasi sistema di questo tipo è basato su un’operazione primitiva che prende oggetti già costruiti, e costruisce con essi un oggetto nuovo: nel caso più semplice, l’insieme che li contiene. Si chiami quell’operazione Unisci [Merge]. O Unisci o qualcosa di equivalente sono un requisito minimo. Con Unisci a disposizione, abbiamo istantaneamente un sistema illimitato di espressioni strutturate gerarchicamente. Il resoconto più semplice del “Grande Balzo in Avanti” nell’evoluzione degli umani sarebbe che il cervello fu rimodellato, forse da una qualche piccola mutazione, rendendo disponibile l’operazione Unisci, stabilendo nello stesso tempo una parte essenziale della base per ciò che viene trovato in quel cruciale momento dell’evoluzione umana, almeno in linea di principio; collegare i punti è un problema tutt’altro che banale. Esistono speculazioni a proposito dell’evoluzione del linguaggio che postulano un processo molto più complicato: prima una mutazione che permettesse espressioni di due unità, poi più grosse, e finalmente il Grande Balzo che produsse Unisci. Forse i primi passi ebbero davvero luogo, ma una speculazione più economica dice che non fu così, e che il Grande Balzo fu davvero subitaneo, in un singolo individuo, che fu istantaneamente dotato di capacità intellettuali largamente superiori a quelle degli altri, che furono trasmesse ai discendenti e arrivarono a predominare. Questa, nel migliore dei casi, è una ragionevole supposizione, come lo sono tutte le speculazioni a proposito di tali argomenti, ma più o meno la più semplice immaginabile, e non in contraddizione con qualsiasi elemento conosciuto o plausibilmente congetturata. È difficile vedere quale descrizione dell’evoluzione umana possa non assumere almeno questo, in una forma o un’altra.
Considerazioni elementari di efficienza computazionale predicono che la soluzione ottimale al compito di collegare suono e significato non stabilisca livelli interni di descrizione ma solo livelli di interfaccia. Per ottenere tale risultato dovremmo mostrare che i livelli postulati in praticamente tutti i lavori precedenti non sono necessari, specificamente la struttura profonda, la struttura di superficie e la forma logica, e i loro vari derivati tecnici. Un risultato ancora più forte sarebbe che questi sistemi interni non siano solo non necessari, ma letteralmente informulabili. Un’altra condizione naturale, che rivendica generalità extralinguistica, è che le operazioni che formano espressioni complesse siano non più che un riordinamento degli oggetti ai quali si applicano, senza modificarli internamente attraverso la cancellazione o l’inserzione di nuovi elementi. Ciò ridurrebbe drasticamente il carico computazionale: ciò che è stato costruito una volta può essere “dimenticato” in computazioni successive, visto che non verrà più cambiato. Questa è una delle intuizioni fondamentali dietro la nozione di computazione ciclica. Gli approcci esistenti violavano estesamente questa condizione, con ricorso a espedienti che modificavano oggetti già generati e aggiungevano nuovi elementi. Un altro compito è determinare se tutta questa tecnologia sia eliminabile a favore di una spiegazione basata su principi.
Altri interrogativi sorgono a proposito della varietà di operazioni e nozioni specifiche che sembrano avere una motivazione non basata su principi; e a proposito di molti principi che sono difficili perfino da formulare tranne che in termini specifici alla facoltà del linguaggio. La domanda generale è: quanto avanti possiamo progredire nel mostrare che tutta quella tecnologia specifica del linguaggio è riducibile a spiegazioni basate su principi, isolando così le proprietà centrali che sono essenziali alla facoltà del linguaggio, un problema basilare della biologia del linguaggio?
Esiste ora un’estesa letteratura che esplora problemi del tipo appena menzionato, e io credo che sia corretto dire che ci sia stato un considerevole progresso nel muoversi verso una spiegazione basata su principi. È ancora più chiaro che questi sforzi hanno soddisfatto un requisito primario per un programma di ricerca ragionevole: stimolare indagini in grado di superare alcuni vecchi problemi portandone contemporaneamente alla luce ancora più rapidamente di nuovi, precedentemente non riconosciuti e quasi per niente formulati, e arricchendo considerevolmente le sfide empiriche di adeguatezza descrittiva ed esplicativa che devono venire affrontate.
La ricerca per una spiegazione basata su principi è di fronte a prove che intimidiscono. Possiamo formulare gli obiettivi con ragionevole chiarezza ma, come sempre, non c’è un modo sensato di speculare su quanto ci si possa avvicinare ad essi; ovvero fino a che punto gli stati della facoltà del linguaggio siano attribuibili a principi generali, che forse valgono perfino in generale per gli organismi. Con ogni passo in direzione di questo risultato, otteniamo una comprensione più chiara delle proprietà centrali che sono specifiche alla facoltà del linguaggio, lasciando ancora molti problemi irrisolti, che sono stati sollevati per centinaia di anni, su come proprietà “definite mentali” siano in relazione con “la struttura organica del cervello”, problemi lontani dall’essere risolti perfino in riferimento agli insetti, e con caratteristiche uniche e profondamente misteriose quando consideriamo le capacità umane e le sue origini evolutive.
Christian Ferrari
Maurizio Landini
Dario Missaglia
Evento di Crusca
Collaborazione di Crusca
Evento esterno
Per concomitanza con le Feste, la visita all'Accademia della Crusca dell'ultima domenica del mese di dicembre è stata spostata al 12 gennaio 2025 (ore 11).