<< Affrontare la questione dei linguaggi sintetici, automatici, simulativi e inflattivi equivale a fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato al momento, ma poco esplorato e compreso nella sua portata culturale trasformativa di lunga durata. Di volta in volta, l’umano fronteggia questa presa di parola e di scrittura della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono tuttavia visioni filosofiche deboli del momento e del passaggio strategico che viviamo perché cercano di depotenziare o banalizzare l’impatto culturale spaesante dell’arrivo dei linguaggi sintetici (in quanto ostensivi > estensivi > astensivi dell’umano). Che non riguarda la questione di assegnare e riconoscere o meno intelligenza, coscienza, senzienza alle macchine. O quella dei problemi tecnici (allucinazioni, ipnotizzazioni, contaminazioni…). Piuttosto e in prospettiva, l’arrivo dei modelli linguistici su larga scala (LLM e varianti LVM, LMM, LAM) scardina gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante, del lettore e dell’autore così come, più radicalmente, del senso e della natura della scrittura (per come li abbiamo storicamente disegnati e normati finora). In questo senso l’AI generativa è, come ho scritto, una provocazione di senso (che cos’è la scrittura? ci importa chi è l’autore? come e dove si produce il senso?… ). Passaggio che la teoria letteraria e la filosofia continentale hanno filosoficamente anticipato (come ci dice Gunkel). Ad es, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e sulla “funzione-autore” con Foucault (Qu’est-ce qu’un auteur?). ‘Cosa importa chi parla?’ scriveva Foucault proprio in chiusura del suo testo. Intendendo così porre l’attenzione sulle dimensioni politiche della storicità della funzione-autore e della funzione-soggetto. E quindi, direi, sul perché ci importa chi parla e sul come ci importa chi parla (o scrive). Ora queste questioni entrano direttamente nel dibattito politico e sociale (e economico) intorno alle “macchine” (meglio, i nuovi assemblaggi umano-macchinici) che scrivono e parlano (verità, responsabilità, creatività, produttività). Non solo una questione tecnica o economica, allora, come si comprende, ma politica e antropologica (vedi Baron, Who Wrote This? 2023). Come (a che condizioni), perché (a quali scopi) e chi o cosa (quale soggettività/soggettivazione) potrà parlare e scrivere in futuro? La parola (e la scrittura) alla macchina è, dunque, anche e soprattutto una provocazione di senso alla nostra idea di umano e delle sue prerogative … >> (Accoto, 2024 postilla a “The Latent Planet. The Inflative Age of Generative AI – Il Pianeta Latente. L’era inflattiva dell’AI generativa“)
< I crimini dalla e alla macchina > (Accoto 2024)
“Fare innovazione culturale significa anche affrontare questioni aberranti e forse scomode nell’oggi, ma potenzialmente feconde di nuove prospettive e significati sul domani. Ad esempio, il discorso comune è oggi centrato sui danni che le macchine possono fare agli umani e come prevenirli, arginarli e annullarli. Discorso certo giusto, ma forse insufficiente e direi anche filosoficamente digiuno e politicamente ingenuo. Credo, allora, che questa sia anche l’occasione di portare filosoficamente il discorso della responsabilità, della colpa e del danno anche sull’altra sponda. Che ‘response-ability’ (Haraway) abbiamo nei confronti delle “macchine” dentro e in ragione di questo nuovo assemblaggio sociotecnico e sociomorfico che sta emergendo? Ci basta discutere dei crimini “dei“ robot o dobbiamo anche affrontare la questione dei crimini “ai” robot? Che nuove responsabilità per l’altro (direbbe Nancy) ci attendono e cosa implicano per noi? Ecco perché è un pensiero ingenuo dire <human-in-the-loop> quando l’umano non è/non sarà più quello di una volta e il loop in cui è preso sta cambiando in profondità sotto i nostri occhi. Stando lontani da facili e errate reificazioni e personificazioni dell’AI e lontano dall’hype del momento, val la pena addentrarsi in questa nuova e perturbante dialettica della colpa e del danno per capire se e quali domande (o provocazioni) di senso pone la criminalità ‘alla’ macchina (e non solo la criminalità ‘dalla’ macchina). In lettura due saggi usciti di recente“ (Accoto 2024)
“Robots are with us, but law and legal systems are not ready. This book identifies the issues posed by human-robot interactions in substantive law, procedural law, and law’s narratives, and suggests how to address them. When human-robot interaction results in harm, who or what is responsible?… Because human tasks are now shared with robots, if harm is caused in these interactions, legal systems must face the challenge of allocating legal culpability and establishing guilt beyond traditional human-centric ways … How does or should the legal system explain when a robot can be blamed for a particular decision or action, and how should it allocate responsibility between a robot and a human?” (Gless e Walen-Bridge, 2024)
“When this book is about crime against robots, there is a reference to a situational layout that consists of humans, robots, and some social context. It cannot be reduced to the robot themselves, but it must consider the embedment of such situations in the social world of humans. The focus is not only on the robots. It is on the phenomena of human–robot interactions and on the tensions that may appear when humans and robots collide in relevant social contexts. This book explores an under-researched approach to this problem, which is sometimes, in the literature, called “crimes on AI” in the sense of attacking embodied agents” (Mamak 2024)
[memories] dall’archivio dei ricordi, è riemersa di recente questa foto al MIT con due dei miei super AI instructor: automazione robotica (Marc Raibert, Presidente di Boston Dynamics) e intelligenza artificiale (Lex Fridman, MIT Research Scientist e oggi anche podcaster eccezionale) … poco tempo è trascorso da questa foto insieme, ma gli eventi accaduti nel mondo dell’AI da allora danno la misura dell’accelerazione sorprendente dei nostri giorni
Economia politica della parola sintetica (Accoto 2024)
< Affrontare la questione dei linguaggi sintetici, automatici, simulativi e inflattivi equivale a fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato al momento, ma poco esplorato e compreso nella sua portata culturale trasformativa di lunga durata. Di volta in volta, l’umano fronteggia questa presa di parola e di scrittura della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono tuttavia visioni filosofiche deboli del momento e del passaggio strategico che viviamo perché cercano di depotenziare o banalizzare l’impatto culturale spaesante dell’arrivo dei linguaggi sintetici (in quanto ostensivi > estensivi > astensivi dell’umano). Che non riguarda la questione di assegnare e riconoscere o meno intelligenza, coscienza, senzienza alle macchine. O quella dei problemi tecnici (allucinazioni, ipnotizzazioni, contaminazioni…). Piuttosto e in prospettiva, l’arrivo dei modelli linguistici su larga scala (LLM e varianti LVM, LMM, LAM) scardina gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante, del lettore e dell’autore così come, più radicalmente, del senso e della natura della scrittura (per come li abbiamo storicamente disegnati e normati finora). In questo senso l’AI generativa è, come ho scritto, una provocazione di senso (che cos’è la scrittura? ci importa chi è l’autore? come si produce il senso?… ). Passaggio che la teoria letteraria e la filosofia continentale hanno filosoficamente anticipato (come ci dice Gunkel). Ad esempio, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e sulla “funzione-autore” con Foucault (Qu’est-ce qu’un auteur?). ‘Cosa importa chi parla?’ scriveva Foucault proprio in chiusura del suo testo. Intendendo così porre l’attenzione sulle dimensioni politiche della storicità della funzione-autore e della funzione-soggetto. E quindi, direi, sul perché ci importa chi parla e sul come ci importa chi parla (o scrive). Ora queste questioni entrano direttamente nel dibattito politico e sociale (e economico) intorno alle “macchine” (o meglio i nuovi assemblaggi umano-macchinici) che scrivono e parlano (verità, responsabilità, creatività, produttività). Non solo una questione tecnica o economica, allora, come si comprende, ma politica e antropologica (Baron, 2023). Come (a che condizioni), perché (a quali scopi) e chi o cosa (quale soggettività/soggettivazione) potrà parlare e scrivere in futuro? La parola (e la scrittura) alla macchina è, dunque, anche e soprattutto una provocazione di senso alla nostra idea di umano … > (Accoto, 2024 postilla a “The Latent Planet. The Inflative Age of Generative AI”)
The Latent Planet. The Inflative Age of Generative AI > (Accoto 2024)
Revisione ultimata, si va in stampa. E’ ora in via di pubblicazione il mio nuovo saggio “The Latent Planet” (2024). Andrà in apertura di un corposo e ricco volume collettaneo che discute di intelligenza artificiale e diritti muovendosi tra AI tech e EU act. Un grazie agli editor per l’interesse verso le mie esplorazioni tecnofilosofiche arrischiate e per l’invito a contribuire alla realizzazione dell’opera — qui l’incipit del mio preludio a < The Latent Planet | Il Pianeta Latente. L’era inflattiva dell’AI generativa >

< Dalla machine vision alla visual machinery > (Accoto, 2024)
<< La notizia del lancio il 2 febbraio del visore di Apple torna a sollecitare la riflessione strategica su spatial computing, realtà estese e immagini sintetiche. Affrontare l’arrivo dell’immagine ‘sintetica’ significa fronteggiare un passaggio radicale nella storia umana della tecnologia della visione, dell’osservazione, del vedere, della visualità. I discorsi più comuni si fermano oggi sulla superficie di questo fenomeno non riuscendo a cogliere la rivoluzione filosofica in atto intorno alla teoria e al senso dell’immagine tra artificial intelligence e spatial computing.
Cosa significano per la nostra cultura, per le imprese e per i modelli di business questi cambi di paradigma: dai pixel ai voxel, dall’interazione all’immersione, dall’immagine all’operazione, dalla visualità all’invisualità, dalla dimensione rappresentazionale a quella non-rappresentazionale del visivo, da quella espositiva e indessicale a quella suturante e prolettica del vedere, da quella estensiva dell’umano a quella astensiva dell’umano nelle pratiche dell’osservabilità, da ciò che non è visto a ciò che non ha vista? Per me un punto chiave è la messa in questione della natura rappresentazionale del visuale. La visualità sta dismettendo la sua storica caratteristica di essere rappresentazione isomorfica del reale (riproduzione grafica) per assumere quella della non-rappresentazionalità (dispositivo operazionale).
Intorno a questa nuova ontologia del visuale si articolano, poi, una serie di altre qualificazioni, vere e proprie crisi antropologiche ed epistemiche. Ne cito tre: i) immagini che, prodotte da macchine per sole macchine, hanno l’umano al margine o proprio escluso dal loop; ii) immagini che perdono la loro natura archivistica documentale/monumentale per assumere quella oracolare saturativo/simulativa; iii) immagini che hanno nella loro dimensione operazionale e logistica il loro valore e non più solo nella loro dimensione simbolico-semantica. Dunque, le nuove tecnologie dello sguardo macchinico stanno scardinando antichi significati dell’immagine e antiche epistemologie della visione aprendo a nuove opportunità e vulnerabilità.
Un nuovo orizzonte del vedere ‘sovrumano’ sta emergendo. In sintesi, una torsione strategica per le imprese e il business: dalla più nota e presente ‘machine vision’ all’emergente e nuova ‘visual machinery’. E’ lungo questi percorsi* che si viene producendo oggi quell’innovazione culturale del visuale che sarà necessaria per significare nuovamente il mondo e prosperare dentro il nuovo senso delle immagini che popoleranno l’emergente post-optical civiIization >> (Accoto 2024).
* Dopo i pixel, l’era dei voxel
* Tra saturazione e suturazione
* Dalla figurazione alla prefigurazione
* Oltre il visuale verso l’invisuale
* Operazione, non rappresentazione
* Estensione vs astensione della visione

L’intelligenza della decisione al tempo dell’AI (Accoto 2024)
< L’atto del decidere (e dell’agire) collassa una particolare idea (ipotesi) del futuro. Se il passato risulta essere immutabile poiché nessuna decisione presa nel presente potrà più modificarlo (escludendo i viaggi nel tempo), il futuro avrebbe la qualità di essere mutabile e di dipendere in questo, per l’appunto, dalle nostre decisioni al presente. In questa prospettiva (ma ne esistono altre e anche contrarie come insegnano le diverse filosofie del tempo), è come se il mondo ramificasse costantemente futuri possibili da cui derivano i presenti che le nostre decisioni attualizzano. Nostre oppure di (con) altri modelli/agenti dotati dello stesso potere di presentificare il mondo, cioè di creare il nostro presente. Perchè di fatto l’automatizzazione algoritmica dei processi decisionali mette oggi in questione la visione dei sistemi di supporto alle decisioni come mere tecnologie “estensive” dell’umano. Piuttosto fa emergere l’idea di sistemi di sottrazione delle decisioni e cioè di tecnologie “astensive” dell’umano (ostensive > estensive > astensive dell’umano). O, meglio direi, nell’assemblaggio dinamico, perturbato e stratificato umani-macchine (come è il caso dei sistemi decisionali artificialmente potenziati raccontato in “Decision Intelligence”, 2024), l’arrivo dell’intelligenza artificiale riconfigura radicalmente modi, tempi, luoghi e agenti del decidere e della decisione. “Human-in-the-loop” si dice, ingenuamente, ma ci si dimentica di dire che l’umano e il loop di domani non saranno più quelli di ieri e di oggi. La macchina artificialmente intelligente, dunque, come attore in cerca di autonomia (operational autonomy) che si costruisce computazionalmente modelli del mondo (e del business) e che sta tra il processare le informazioni sulla situazione e la scelta dell’azione da intraprendere per attualizzare uno dei futuri possibili (tutti calcolati e valutati probabilisticamente). Quello migliore (meno rischioso e più opportuno per l’impresa evitandogli errori fatali), si dice, avendo l’AI capacità predittive più-che-umane (o diversamente umane o macchiniche proprio e anche in condizioni cognitive estreme). Ma, chiediamoci, possiamo e come esserne certi? Certamente, la macchina può (come accade per l’umano) istanziare modi del fallimento del processo decisionale nuovi e assai rischiosi. Uno degli snodi filosofici per me più rilevanti è però qui un altro: siamo sicuri di sapere che cosa sia, filosoficamente, un errore? Per fare un esempio semplice: nella gara di Go tra Lee Sedol, il campione mondiale coreano e AlphaGo, il supercomputer di DeepMind una delle mosse vincenti a sorpresa della macchina era stata giudicata e derisa dagli esperti umani come un madornale errore di strategia. Al contrario, via via che il gioco proseguiva, si è poi dimostrata essere non un errore clamoroso, ma una decisione e una mossa strategiche vincenti di straordinaria inventiva. Dunque, torno a chiedermi, cos’è filosoficamente, un errore?… > (Accoto 2024)

From LT to RT: LLM dal linguaggio al mondo? (Accoto 2024)
< From Language Transformers To Robot Transformers. È interessante attenzionare filosoficamente la traiettoria che sta portando, in questi mesi, l’AI ad espandere le potenzialità dei modelli linguistici su larga scala incrociando ulteriori dimensioni: dalla parola alla visione e all’azione (VLA vision-language-action*). Quindi con un’evoluzione che consente ai LLM di uscire fuori dai puri modelli statistici del linguaggio (che non hanno relazione col mondo, come si dice) per integrare percezione del mondo (multimodalità) e azione nel mondo (automaticità). Dunque, dai language transformer (LT) ai robot transformer (RT), l’arrivo dei LLM ha dato una rinnovata spinta all’automazione che sta così esplorando l’integrazione di language model, machine vision e robotics. Sarà interessante seguire questi sviluppi per capire meglio e filosoficamente questa nuova, paradossale e arrischiata relazione col mondo di macchine che processano il linguaggio umano (originariamente, in quanto puri modelli linguistici, senza referenza col mondo) incrociata con computer vision e robotic control (quindi, con azione incorporata nel mondo e che agisce nel mondo). Quali le implicazioni culturali e strategiche per business e imprese di questo tentato passaggio dai modelli del linguaggio ai modelli del mondo? > (Accoto 2024)
(*) DeepMind – Shaping the future of advanced robotics (blog, 4 gennaio 2024; image credits)
https://deepmind.google/discover/blog/shaping-the-future-of-advanced-robotics/

La parola (e la scrittura) alla macchina (Accoto 2024)
< Affrontare la questione dei linguaggi sintetici, automatici, simulativi e inflattivi equivale a fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato al momento, ma poco esplorato e compreso nella sua portata culturale trasformativa di lunga durata. Di volta in volta, l’umano fronteggia questa presa di parola e di scrittura della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono tuttavia visioni filosofiche deboli del momento e del passaggio strategico che viviamo perché cercano di depotenziare o banalizzare l’impatto culturale spaesante dell’arrivo dei linguaggi sintetici. Che non riguarda la questione di assegnare e riconoscere o meno intelligenza, coscienza, senzienza alle macchine. Piuttosto e in prospettiva, l’arrivo dei modelli linguistici su larga scala (LLM e varianti LVM, LMM) scardina gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante, del lettore e dell’autore così come, più radicalmente, del senso e della natura della scrittura (per come li abbiamo storicamente disegnati e normati finora). In questo senso l’AI generativa è, come ho scritto, una provocazione di senso (che cos’è la scrittura? ci importa chi è l’autore?). Passaggio che la teoria letteraria e la filosofia continentale hanno filosoficamente anticipato (come ci dice Gunkel). Ad esempio, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e Foucault (Qu’est-ce qu’un auteur?). ‘Cosa importa chi parla?’ scriveva Foucault in chiusura del suo testo. Intendendo così porre l’attenzione sulle dimensioni politiche della storicità della funzione-autore e della funzione-soggetto. E quindi, direi, sul perché ci importa chi parla e sul come ci importa chi parla (o scrive). Ora queste questioni entrano direttamente nel dibattito politico e sociale (e economico) intorno alle “macchine” che scrivono e parlano (verità, responsabilità, creatività, produttività). Non una questione tecnica, allora, come si comprende, ma politica e antropologica (Baron, 2023). Come (a che condizioni), perché (a quali scopi) e chi o cosa (quale soggettività/soggettivazione) potrà parlare e scrivere in futuro? La parola (e la scrittura) alla macchina è, dunque, anche e soprattutto una provocazione di senso alla nostra idea di umano … > (Accoto 2024, nota a “La Potenza della Latenza”, 2023)





