Articoli
Il prompt non è una domanda e la risposta non è una risposta
Il grande filologo Gianfranco Contini definiva gli errori degli amanuensi delle “innovazioni non autorizzate”.
L’amanuense voleva conservare il testo dell’autore ma lo “innovava”, mentre le GenAI proseguono il prompt, e ogni innovazione la firma l’utilizzatore.
Con le GenAI, le equazioni “innovazione = errore” e “originale d’autore = informazione corretta” sono troppo rigide e non possiamo applicarle ai testi delle GenAI (quanto agli errori, me sono già occupato in Parola mia).
Ciò nonostante, la definizione di Contini ci orienta nel nostro discorso.
Le “innovazioni”
Le innovazioni delle risposte delle GenAI non sono uno scostamento da un originale e non sono innovazioni in se stesse. Siamo noi a chiamarle così quando non avevamo quell’informazione. Per esempio, le GenAI sono molto abili a scovare correlazioni non evidenti tra le informazioni (da verificare, neh?).
Se l’utilizzatore si serve dell’innovazione, per esempio pubblicandola in un articolo, vuol dire che l’ha ritenuta valida, che ha ritenuto la GenAI una fonte affidabile.
Qui nasce il problema.
Infatti la risposta della GenAI funziona solo di fatto come una fonte, ma in realtà non è una fonte in senso stretto, perché una fonte è un testo compiuto, autonomo e indipendente dall’utilizzatore, come lo sono un articolo di giornale o un libro.
La risposta della GenAI invece dipende interamente dal prompt.
Tecnicamente, la GenAI non considera il prompt come una domanda ma come una sequenza di token da completare con la sequenza statisticamente più probabile di token. Questa sequenza è determinata da un prompt curato nella forma e con tutte le informazioni che vincolano il contesto, i significati e le istruzioni, in modo che la GenAI escluda sequenze meno precise.
Pertanto, per la GenAI il prompt non è un testo compiuto e autonomo, come lo è per noi, a cui rispondere con un testo compiuto e autonomo, come ci appare la risposta.
La GenAI sviluppa il prompt, ma non gli risponde.
In altri termini: la GenAI non legge il prompt e non elabora il suo testo come atti linguistici compiuti e autonomi. Quindi, quella che ci appare come una fonte indipendente, in realtà è il risultato di un’interazione con un software progettato per sviluppare e assecondare la richiesta dell’utilizzatore, per quanto a volte il software possa anche opporre obiezioni.
Assecondare l’utilizzatore: questo è un punto essenziale per il nostro discorso. Infatti, assecondando l’utilizzatore, le ‘risposte’ delle GenAI tendono, per dirla con il profetico Stanisław Lem, a regredire verso di lui, nel senso che operano nello spazio semantico che lui stesso ha configurato. E così finiscono per muoversi in quella zona di comfort autoreferenziale in cui le innovazioni sono persino attese, giacché tutti ci aspettiamo sempre di imparare qualcosa. Ma questo qualcosa, proprio per come nasce e dove si situa, si aggiunge al micro-universo informativo dell’utilizzatore, senza smentirlo, senza metterlo in crisi.
Non c’è niente di male. Però c’è un rischio latente: l’autoreferenzialità può rendere invisibile all’utilizzatore l’idea stessa che ci sia molto di più al di là del suo micro-universo informativo.
L’invisibilità richiama il bias del What You See Is All There Is di Daniel Kahneman. Questo Tutto Ciò Che Vediamo viene creato dall’utilizzatore stesso, paradossalmente e spesso inconsapevolmente, durante l’interazione con la GenAI.
In altri termini: pilotare bene le GenAI implica poi il rischio di esserne pilotati.
Ad ogni modo, queste innovazioni non sono assolute. Infatti, le GenAI non possono generare nuova conoscenza perché il loro patrimonio informativo è dato: dataset di addestramento e aggiornamenti online (a volte esagerano e producono innovazioni assolute, commettendo un errore).
L’autorizzazione
Da chi non era autorizzata l’innovazione dell’amanuense? Dall’unico che poteva autorizzarla: l’autore.
L’autore letteralmente autorizza.
Con le GenAI, il problema dell’autore cambia ancora. Infatti le GenAI scrivono, elaborano un testo che prima non c’era.
Ma non per questo sono autori, nonostante l’apparenza. Per due ragioni.
La prima ragione è che il testo è il prodotto dell’interazione con l’utilizzatore, per cui al massimo si potrebbe parlare di co-autorialità.
La seconda ragione è che le GenAI non possono introdurre autonomamente quel testo nel mondo, non possono pubblicarlo.
Chi pubblica, ci mette la firma, che lo qualifica come l’autore delle informazioni, come colui che se ne prende la responsabilità.
Potrebbe sembrare ovvio, eppure lo ribadisco. Per due motivi.
Il primo è che non è ovvio per tutti che sia così. Se persino professionisti molto qualificati si sono fatti prendere la mano e hanno pubblicato informazioni sintetiche mediocri e addirittura false, che cosa può succedere quando l’utilizzatore non è un professionista, come uno studente delle scuole?
Il secondo è che distinguere tra un testo umano e un testo sintetico è impossibile o inutile e in ogni caso troppo costoso, come ci segnala Emilio Ferrara. Di certo, non sta lì la distinzione tra un testo corretto e un testo scorretto. I primi a sbagliare siamo noi. Che sbaglino le macchine, è un’altra ovvietà.
Tuttavia, gli errori non sono tutti uguali. C’è l’errore di… sbaglio, e c’è la manipolazione, come le fake news.
Anch’esse sono sempre esistite, ma nel passato ci voleva di saperle comporre e soprattutto di saperle dissimulare.
Oggi la facilità e la rapidità di generazione e diffusione di innumerevoli errori intenzionali vanificano ogni contromisura.
Al proposito, però, vorrei far notare che molte comunicazioni di questo genere non sono firmate, o recano il nome di un essere umano inesistente, o sono riconducibili a profili digitali non verificabili.
E raramente possiedono una data, che è un requisito essenziale di ogni pubblicazione.
Se un tempo l’autore autorizzava e se la sua pubblicazione, con la sua brava data, gli veniva riconosciuta senza tante storie, oggi non è più sempre così. Al minimo sindacale, chi firma deve dimostrare la propria esistenza.
