Articoli
Antologia del pensiero sulle AI del linguaggio. Per chi scrive
La costruzione di automi è un mito antichissimo che giunge in epoca pre-AI attraverso innumerevoli opere (nell’immagine, Pieter Bruegel Il Vecchio – Alchimia (dell’homunculus), 1558). In questa antologia, ripercorriamo il pensiero di coloro che nel secolo scorso hanno prefigurato, previsto, profetizzato e negato le macchine del linguaggio.
Geoffrey Jefferson (1886-1961), neurologo britannico, sottolinea nel 1949 che una macchina può solo imitare la scrittura umana, non sapere di avere scritto né provare emozioni reali. Questo è fondamentale per chi scrive: la GenAI può produrre testi verosimili, ma non “sente” ciò che scrive.

“Fino a quando una macchina non sarà in grado di scrivere un sonetto o di comporre un concerto grazie ai suoi pensieri e alle emozioni che prova, e non per via di una pioggia casuale di simboli, non potremo accettare che una macchina sia uguale a cervello; s’intende, non solo di scrivere un sonetto ma di sapere di averlo scritto. Nessun meccanismo può provare (e non soltanto segnalare artificialmente, cosa facile da realizzare) piacere per i propri successi, dolore quando le sue valvole si fondono, essere messo di buon umore dall’adulazione, rattristato dai propri errori, affascinato dal sesso, arrabbiato o depresso quando non riesce a ottenere ciò che vuole”. (The Mind of Mechanical Man, The British Medical Journal, Vol. 1, No. 4616, Jun. 25, 1949).
Alan Turing (1912-1954), matematico britannico, aggira brillantemente i problemi enormi della definizione di pensiero, di intelligenza e di coscienza posti da Jackson e reimposta la questione.
Nel 1950 scrive Computing Machinery and Intelligence, Macchine calcolatrici e intelligenza, a c. di Diego Marconi, Einaudi, Torino, 2025.

“Propongo di considerare la domanda: «Le macchine sono in grado pensare?». Questo dovrebbe iniziare con delle definizioni del significato dei termini «macchina» e «pensare». Le definizioni potrebbero essere formulate in modo da riflettere, per quanto possibile, l’uso normale delle parole; ma questo atteggiamento è pericoloso […]. Io credo che la domanda iniziale «Le macchine sono in grado pensare?», sia troppo insensata perché valga la pena discuterne”.
Turing pone una seconda domanda: “Che cosa succederà quando è una macchina a fare la parte” di un uomo e “prenderà la decisione sbagliata con la stessa frequenza con cui” la prende un uomo? (Turing previde che sarebbe successo entro la fine del secolo XX).
Con questa seconda domanda Turing limita la questione dell’intelligenza di una macchina alle sue prestazioni, in particolare alle prestazioni linguistiche.
Conclude infatti: “Possiamo sperare che, alla fine, le macchine competeranno con gli esseri umani in tutti i campi puramente intellettuali. Ma da quali è meglio cominciare? Anche questa è una domanda difficile. Molti pensano che un’attività molto astratta come il gioco degli scacchi sarebbe la scelta migliore. Si potrebbe anche sostenere che la cosa migliore è dotare le macchine dei migliori organi di senso esistenti sul mercato, e poi insegnarle a capire e parlare l’inglese. Il processo potrebbe replicare il normale insegnamento che si adotta con un bambino: si indicano cose e le si nomina ecc.”
William Ross Ashby (1903 -1972), psichiatra britannico, definisce nel 1956 la scatola nera come amplificatore dell’intelligenza.

“Non è dunque impossibile che ciò che viene detto comunemente ‘capacità intellettuale’ equivalga in ultima analisi a ‘capacità di giusta scelta’. In effetti, se una “scatola nera” parlante mostrasse di possedere così elevate capacità di scelta che, sottoponendole dei difficili problemi, essa desse frequentemente le risposte corrette, allora sarebbe difficile negare che quella scatola rappresenta l’equivalente, dal punto di vista del comportamento, di una “grande intelligenza”. (Introduzione alla cibernetica, a cura di Mauro Nasti, Einaudi, Torino, 1971)
Stanisław Lem (1921- 2006), scrittore e futurologo polacco, nel 1964 sviluppa con raffinato umorismo delle vere e proprie profezie sull’amplificatore di intelligenza e sulla scatola nera.

“L’amplificatore d’intelligenza dovrebbe rappresentare nel campo delle attività cognitive il preciso corrispettivo di un potenziatore della forza fisica qual è ogni macchina guidata dall’essere umano […]. La difficoltà fondamentale in cui si s’imbatte qui il costruttore […] è che egli deve costruire un apparecchio “più intelligente di lui”. […]
Il problema sembra un paradosso irrisolvibile, come ad esempio sollevare se stessi tirandosi per i capelli (e avendo per giunta legato ai piedi un peso di cento tonnellate)”.
Passa poi a discutere della scatola nera, anche qui in modo profetico.
“Una conoscenza approfondita sulla struttura interna dell’amplificatore non ci è accessibile. Forse è addirittura superflua. Basta trattarlo come una “scatola nera”, come un dispositivo di cui non abbiamo la più pallida idea né del funzionamento interno e né degli altri stati, perché ci interessano esclusivamente i risultati finali della sua azione […].
Noi stessi siamo delle “scatole nere”. I nostri corpi ci sono assoggettati, possiamo dar loro certi comandi, eppure non conosciamo (o meglio: non dobbiamo conoscere, nel senso che tale conoscenza non è indispensabile) la loro organizzazione interna. Rieccoci dunque al problema del saltatore che sa saltare, ma non sa in che modo lo fa, cioè non possiede la conoscenza della dinamica dei percorsi neuro-muscolari il cui risultato è il salto. E dunque un perfetto esempio di un dispositivo del quale possiamo far uso pur non conoscendone l’algoritmo è ogni essere umano. Uno dei “dispositivi” in tutto l’universo “a noi più vicini” è proprio il nostro cervello: ce l’abbiamo addirittura in testa. Nondimeno fino a oggi non sappiamo esattamente come funzioni. […].
La Scatola Nera, in quanto sistema molto complesso, è indescrivibile: il suo algoritmo non è conosciuto né può conoscerlo nessuno, agisce secondo il metodo delle probabilità, e quindi, messa due volte di fronte alla stessa situazione, non deve affatto comportarsi allo stesso modo. Inoltre, la Scatola Nera – ed è questo l’aspetto fondamentale – è una macchina che nel corso di attività concretamente intraprese impara sui propri stessi errori […].
Esse saranno solo un poligono sperimentale per gli scienziati, uno strumento per la ricerca di risposte a domande talmente complesse che l’essere umano non può riuscire a trovare senza il loro ausilio. Ogni volta, però, la decisione ultima, così come i piani di azione, dovranno rimanere nelle nostre mani” (Summa technologiae. Scritti sul futuro, traduzione e cura di Luigi Marinelli, Luiss University Press, Roma, 2023).
John Searle (1932-2025), filosofo del linguaggio statunitense, nel 1980 propose il celebre esempio della Stanza Cinese, che si può riassumere così: Una persona che non sa il cinese è chiusa in una stanza dove però esiste regole su come manipolare i simboli cinesi. Riceve un input e produce risposte corrette senza comprendere i significati. All’esterno sembra la stanza parli il cinese.

Conclusione di Searle: “Finché il programma è definito in termini di operazioni computazionali su elementi definiti puramente formalmente, l’esempio suggerisce che questi, da soli, non hanno alcuna connessione significativa con la comprensione” (John Searle, Minds, brains, and programs, in “Behavioral and Brain Science”, Volume 3, Issue 3, settembre 1980, pp. 417-424. Traduzione italiana di Graziella Tonfoni, Clup-Clued, Milano 1984).
