Forge is my philosophical tech lab. The philtech lab supports organisations and institutions in technically, critically and strategically thinking about code economy, data science, artificial intelligence, platform design and blockchain business.
Author: Cosimo Accoto
Research Affiliate at MIT | Author "Il Mondo Ex Machina" (Egea) | Philosopher-in-Residence | Business Innovation Advisor | www.cosimoaccoto.com
“Il lavoro filosofico del pensare sull’orizzonte (‘orizzontare’ come mi piace chiamarlo) si nutre di sguardi retrospettivi di lunga durata tanto quanto di viste prospettiche di grande apertura. Un pensiero che è chiamato e si esercita arrischiatamente ad attraversare e anche, in qualche misura, ad abitare scomodamente delle uncanny valleys. Che sono poi, in realtà, l’habitat ideale per un pensiero che voglia dirsi e farsi vivente …” (Accoto 2023)
preview: “Invention and Innovation” (Vaclav Smil, MIT Press, 2023)
“Il dispositivo sociotecnico che istanzia un modello linguistico su larga scala (LLM tipo GPT) è un assemblaggio antropo-macchinico generativo fatto di abilità diverse connesse ad architetture computazionali e risorse informative molteplici. La capacità di generare linguaggio, di apprendere in modalità contestuale, di archiviare conoscenza e informazione, di seguire istruzioni ed eseguire compiti linguistici, di sintetizzare temi con affinamento scalare, di simulare sequenze di argomentazioni e tentativi di ragionamenti per step, di articolare risposte e costruire dialoghi sono il frutto di un’orchestrazione complessa di programmi software, dati e archivi informativi, algoritmi di apprendimento profondo e rinforzato, modelli stocastici e crossentropici della lingua. Dunque, un artefatto dinamico di operatività ingegneristiche complesse (training on code, pre-training modeling, instruction tuning, tokenization, reinforcement learning with human feedback…) in grado di sequenziare statisticamente il linguaggio naturale umano. Il tutto -si dice per bilanciare e contrastare gli hype, le banalità e le ingenuità umane per un verso tanto quanto le allucinazioni macchiniche dall’altro- senza relazione di senso col reale. Tornerebbe, allora, forse nuovamente e diversamente in questione il famoso e controverso aforisma del filosofo Derrida: “Il n’y a pas de hors-texte” (Non c’è un fuori-testo | There is no outside-text) come ci ha ricordato di recente Gunkel. Ma è proprio così e in che significati nuovi? Quel che è certo è che con i linguaggi sintetici non siamo di fronte solo a problemi tecnologici, ma anche e soprattutto a nuove o rinnovate provocazioni culturali e nuovi paradossi. Tra il dentro e il fuori del testo, tra il linguaggio e la sua relazione col mondo, tra la presa di parola della macchina e l’esperienza dell’umano che viene parlato. Come direbbe Foucault, in che forme sorprendenti e arrischiate veniamo allora parlati dalla nuova lingua sintetica? In e per quali campi di forze si evoca la sua potenza?” (Accoto, “Economia politica della parola sintetica”, 2022 in progress)
“L’arrivo dei modelli linguistico-probabilistici a bassa crossentropicità rilancia in forme nuove il tema classico del black boxing. Al punto da dover immaginare anche una nuova pratica disciplinare come il prompt engineering e design. Interrogazioni, istruzioni, dati, esempi sono di norma gli input impiegati per sollecitare la macchina a produrre, attraverso un modello matematico ottimizzato su token linguistici, l’output desiderato (una conversazione, un testo, un riassunto …). Per una buona produzione dell’output, l’ingegneristica dello spunto (prompt engineering) necessita di avere una qualche comprensione del meccanismo/modello impiegato dalla macchina oltre che una qualche conoscenza del dominio disciplinare di riferimento. Certamente, l’idea di comunicare con una macchina in linguaggio naturale non è nuova. E d’altro canto, già solo l’impiego di parole come ‘apri’ o ‘salva’ nei nostri computer (Binder 2022) testimonia di questo tentativo di interfacciamento linguistico naturale tra umani e macchine anche quando il significato di quei termini viene operazionalizzato (e offuscato) in modi nuovi. Ma l’impiego di reti neurali artificiali nel dominio del NLP riaccende la questione del black boxing. Una questione che, storicamente, la cibernetica aveva sollevato a proposito delle macchine come “scatole nere”, macchine di cui si può osservare input e output, ma di cui è preclusa la conoscenza dei meccanismi interni nascosti di comportamento (nel nostro caso di processamento delle informazioni lessicali, sintattiche e semantiche). Insieme e oltre che epistemico, era stato anche e inizialmente un problema militare. Tra le battaglie della seconda guerra mondiale e le insidie della guerra fredda e a partire dal dispositivo fisico -offuscato esso stesso- del ‘magnetron’ per passare poi all’esperimento mentale della ‘enemy machine’). E più che un’eccezione estemporanea, il black boxing era considerato allora quasi una condizione esistenziale. ‘What shall we do?’ si chiedevano già all’epoca i cibernetici. Anche noi oggi siamo chiamati a esplorare scatole nere sollecitati a fare nuovamente innovazione culturale per affrontare ignoranza, novità e offuscamento. Una cosa è chiara: dobbiamo prepararci a sfide importanti e di lungo periodo al di là delle banalità e delle ingenuità che si possono leggere quotidianamente (su pappagalli stocastici e altre amenità). L’era della parola sintetica è appena cominciata e con essa è in arrivo una nuova ondata mediale inflattiva. Come per altre fasi mediali inflazionarie della civiltà umana, dovremo fare innovazione culturale. Come fece Lorenzo Valla nel 1440 (De falso credita et ementita Constantini donatione) inventando la filologia a contrasto delle vulnerabilità della neonata parola scritta e stampata” (Accoto, Economia Politica della Parola Sintetica, 2022 in progress)
“Un LLM è un sequenziatore linguistico-probabilistico a bassa crossentropicità. Ridotto ai suoi minimi termini, è un modello matematico della distribuzione di probabilità delle parole di una lingua scritta. E’ il frutto di un lungo percorso nella storia moderna del NLP (Li, 2022) che partendo dalle catene di Markov a inizio Novecento applicate alla letteratura (sequenza di vocali e consonanti nel romanzo) e passando per i lavori di Shannon a metà anni Cinquanta sulla misura dell’entropia e la distribuzione delle probabilità (sequenza di parole nel linguaggio), arriva a inizio anni Duemila con Bengio & C. all’applicazione delle reti neurali artificiali per la costruzione di modelli linguistici di grandi dimensioni (large language model) con sequenziamento linguistico-probabilistico ottimizzato a ricercare la crossentropicità più bassa possibile. Per questo, come ha ben scritto filosoficamente Shanahan (2022): “It is very important to bear in mind that this is what large language models really do. Suppose we give an LLM the prompt “The first person to walk on the Moon was … ”, and suppose it responds with “Neil Armstrong”. What are we really asking here? In an important sense, we are not really asking who was the first person to walk on the Moon. What we are really asking the model is the following question: Given the statistical distribution of words in the vast public corpus of (English) text, what words are most likely to follow the sequence “The first person to walk on the Moon was …”? A good reply to this question is “Neil Armstrong”. A oggi, potenzialità e limitazioni lessicali, sintattiche e semantiche di GPT et similia sono conseguenti a questa modalità di processamento antropo-macchinico (o meglio sociotecnico) della lingua. Con un pò di filosofia del linguaggio (a partire da Stalmaszczyk 2022), evitando l’essenzialismo e focalizzandoci sull’operazionismo, molte banalità e ingenuità di analisi correnti si diradano. A questo però va aggiunto che affrontare la questione dei linguaggi sintetici, simulativi ed inflattivi (tipo ChatGPT) significa fronteggiare e attraversare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato ma poco compreso. In questo frangente, qualcuno velocemente viene riproponendo il ban platonico delle arti imitative (“della cosa imitata l’imitatore non sa nulla che valga nulla”: Platone, La Repubblica) nella sua versione contemporanea degli “stochastic parrots”, dei pappagalli probabilistici. Altri ingenuamente si stupiscono delle nuove meraviglie tecnologiche simulacrali e del grado di verosimiglianza raggiunto e sempre più via via affinato a superamento di soglie un tempo immaginate invalicabili. Ma l’arrivo del “linguaggio sintetico” (Bratton) scardina e decostruisce (Gunkel) gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante così come della scrittura e dell’autorialità con profondità e ampiezza d’impatto” (Accoto 2022 continua qui >) …
Qui la mia intervista con Maurizio Melis, conduttore del programma radiofonico “Smart City” su Radio 24 Il Sole 24 Ore a tema “l’era della simulazione” a partire dal mio ultimo saggio “Il mondo in sintesi”. Un grazie a Maurizio per aver letto il mio libro, per l’interesse scaturito e l’invito amichevole. La puntata è da riascoltare ora anche in podcast sul sito al link
Oggi una nuova citazione sul magazine WIRED: dall’età dell’archivio all’era dell’oracolo. Oracolo che istanzia e disloca insieme un dispositivo epistemico (modi/strumenti del sapere e del predire) e un dispositivo politico (luoghi/agenti del potere e del decidere). Dire, come sovente si sente dire, che “la decisione rimane umana” è espressione facile e comoda tanto quanto filosoficamente ingenua, al contempo consolatoria e fuorviante. Grazie per questa menzione e sorpresa!
“Affrontare la questione dei linguaggi sintetici, simulativi ed inflattivi (ChatGPT e dintorni) significa fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato ma poco compreso. In questo frangente, qualcuno velocemente viene riproponendo il ban platonico delle arti imitative (“della cosa imitata l’imitatore non sa nulla che valga nulla”: Platone, La Repubblica) nella sua versione contemporanea degli stochastic parrots, dei pappagalli probabilistici. Altri ingenuamente si stupiscono delle nuove meraviglie tecnologiche simulacrali e del grado di verosimiglianza raggiunto e sempre più via via affinato a superamento di soglie un tempo immaginate invalicabili. Ma l’arrivo del “linguaggio sintetico” (Bratton) scardina e decostruisce (Gunkel) gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante così come della scrittura e dell’autorialità con profondità e ampiezza d’impatto. Il discorso sintetico ci sollecita e ci provoca allora, con un percorso in divenire e anche arrischiato, all’innovazione culturale e sociale. Di volta in volta, l’umano fronteggia la parola della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono entrambe prospettive filosoficamente deboli. La presa di parola della macchina è un’operazione più profonda e disarticolante. Il fatto che non ci sia ‘comprensione di senso’ (punto tutto da approfondire e da non dare per già facilmente sciolto) non significa, ad esempio, che non ci sia comunque produzione/circolazione di senso e di impatto per l’umano preso nell’assemblaggio sociotecnico. Di fatto, l’intelligenza artificiale non è pensabile come in sé e per sé (artefatto tecnico), ma con altri e per altri (assemblaggio sociale). D’altro canto, il dire ‘svolta nella generazione di linguaggio’ lascia inesplorata la natura di questa operazione senza precedenti di “strutturalismo sperimentale” (Rees). Quindi, dire a proposito dei LLM che si tratta di meri pappagalli stocastici significa non comprendere la portata culturale epocale di questo passaggio alla “parola non-umana” (Rees).
Passaggio a cui, secondo Gunkel, la teoria letteraria e la filosofia continentale ci avevano richiamato e che quindi avevano anticipato. In particolare, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e Foucault (Qu’est-ce qu’un auteur?) tra gli altri. In questa prospettiva, dice Gunkel, la parola/scrittura della macchina rappresenterebbe la fine dell’autorialità (per come l’abbiamo conosciuta, trasformata e operazionalizzata storicamente finora) e l’inizio di un nuovo percorso/discorso della parola, del linguaggio, della scrittura. Con tutte le sue opportunità e tutte le sue inquietudini e vulnerabilità. Dunque, non sarebbe la fine della scrittura, ma la fine dell’autore (la sua forma storica attuale). Ma insieme all’autorialità che entra in questione e in crisi, siamo anche all’avvio di una nuova era inflattiva della parola (e dei media più in generale) che, come tutti i passaggi mediali inflazionari, scardina per un verso e istituzionalizza per l’altro nuovi regimi di verità e falsità, di economia e di potere. Infatti, come ha scritto Jennifer Petersen nel suo recente “How Machines Came to Speak” (2022) e ne cito un passaggio “…many uses of bots and machine learning restructure speech, rearranging the positions of speaker, text, and audience—and in doing so, change what it means to be a speaker … the current moment might be a chance to rethink some of our fundamental assumptions about speech and what it means for it to be free within the contemporary communication landscape … What would our conceptions (and practices) of speech look like if we defined personhood less in terms of mastery over tools, ownership of thoughts, beliefs, and selves?”. Stiamo entrando, dunque, in quella che ho cominciato a definire “l’economia politica della parola sintetica”. Attraversare l’uncanny valley dell’algomazione (anche quella logocentrica) non sarà facile nè indolore a dispetto di grandi entusiasmi, di ataviche paure o di sufficienze antropiche. Foucaultianamente, l’ordine del discorso sintetico istanzierà i suoi nuovi regimi epistemici e istituzionali. Ne usciremo, allora, narcisisticamente e di nuovo feriti come accaduto in altri passaggi di civiltà, di discorso, di senso e di potere” (Accoto 2022)
[intervista] sul numero in uscita di “Infosfera” (novembre 2022, online e cartaceo), il periodico di Campania DIH Digital Innovation Hub (Rete Confindustria), una mia nuova e lunga intervista. Grazie a Confindustria Campania DIH per l’interesse verso le mie esplorazioni tecno-filosofiche definite ‘spaesanti’
“Interprete del pensiero digitale, filosofo dell’innovazione, già uomo di impresa, research affiliate al MIT di Boston, Cosimo Accoto ha la capacità di offrire punti di vista a volte “spaesanti” su temi mainstream, onnipresenti sulle pagine dei quotidiani ma solo raramente interrogati. Dalle potenzialità degli algoritmi al machine learning, dall’internet volumetrico alle tecnologie simulative, il pensatore affronta in questa intervista tutti i punti chiave della sua ricerca. Una sorta di Industria 4.0 come non l’avete mai letta ….” (alle pagine 21-26)
“Affrontare la questione dei linguaggi sintetici, simulativi ed inflattivi (ChatGPT e dintorni) significa fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato ma poco compreso. In questo frangente, qualcuno velocemente viene riproponendo il ban platonico delle arti imitative (“della cosa imitata l’imitatore non sa nulla che valga nulla”: Platone, La Repubblica) nella sua versione contemporanea degli stochastic parrots, dei pappagalli probabilistici. Altri ingenuamente si stupiscono delle nuove meraviglie tecnologiche simulacrali e del grado di verosimiglianza raggiunto e sempre più via via affinato a superamento di soglie un tempo immaginate invalicabili. Ma l’arrivo del “linguaggio sintetico” (Bratton) scardina e decostruisce (Gunkel) gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante così come della scrittura e dell’autorialità con profondità e ampiezza d’impatto. Il discorso sintetico ci sollecita e ci provoca allora, con un percorso in divenire e anche arrischiato, all’innovazione culturale e sociale. Di volta in volta, l’umano fronteggia la parola della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono entrambe prospettive filosoficamente deboli. La presa di parola della macchina è un’operazione più profonda e disarticolante. Il fatto che non ci sia ‘comprensione di senso’ (punto tutto da approfondire e da non dare per già facilmente sciolto) non significa, ad esempio, che non ci sia comunque produzione/circolazione di senso e di impatto per l’umano preso nell’assemblaggio sociotecnico. D’altro canto, il dire ‘svolta nella generazione di linguaggio’ lascia inesplorata la natura di questa operazione senza precedenti di “strutturalismo sperimentale” (Rees). Quindi, dire a proposito dei LLM che si tratta di meri pappagalli stocastici significa non comprendere la portata culturale epocale di questo passaggio alla “parola non-umana” (Rees). Passaggio a cui, secondo Gunkel, la teoria letteraria e la filosofia continentale ci avevano richiamato e che quindi avevano anticipato.
In particolare, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e Foucault (Qu’est-ce qu’un auteur?) tra gli altri. In questa prospettiva, dice Gunkel, la parola/scrittura della macchina rappresenterebbe la fine dell’autorialità (per come l’abbiamo conosciuta, trasformata e operazionalizzata storicamente finora) e l’inizio di un nuovo percorso/discorso della parola, del linguaggio, della scrittura. Con tutte le sue opportunità e tutte le sue inquietudini e vulnerabilità. Dunque, non sarebbe la fine della scrittura, ma la fine dell’autore (la sua forma storica attuale). Ma insieme all’autorialità che entra in questione e in crisi, siamo anche all’avvio di una nuova era inflattiva della parola (e dei media più in generale) che, come tutti i passaggi mediali inflazionari, scardina per un verso e istituzionalizza per l’altro nuovi regimi di verità e falsità, di economia e di potere. Infatti, come ha scritto Jennifer Petersen nel suo recente “How Machines Came to Speak” (2022) e ne cito un passaggio “…many uses of bots and machine learning restructure speech, rearranging the positions of speaker, text, and audience—and in doing so, change what it means to be a speaker … the current moment might be a chance to rethink some of our fundamental assumptions about speech and what it means for it to be free within the contemporary communication landscape … What would our conceptions (and practices) of speech look like if we defined personhood less in terms of mastery over tools, ownership of thoughts, beliefs, and selves?”. Stiamo entrando, dunque, in quella che ho cominciato a definire “l’economia politica della parola sintetica”. Attraversare l’uncanny valley dell’algomazione (anche quella logocentrica) non sarà facile nè indolore a dispetto di grandi entusiasmi, di ataviche paure o di sufficienze antropiche. Foucaultianamente, l’ordine del discorso sintetico istanzierà i suoi nuovi regimi epistemici e istituzionali. Ne usciremo, allora, narcisisticamente e di nuovo feriti come accaduto in altri passaggi di civiltà, di discorso, di senso e di potere” (Accoto 2022)