Quanto e come, perché e da chi/cosa è osservabile un LLM? (Accoto 2024)


 < Dalle reti ai programmi dalle nuvole ai modelli (network, software, cloud, machine observability), l’osservazione dei sistemi informatici e computazionali è divenuta pratica vitale per la gestione operativa e l’innovazione di business digitali, architetture di rete e dispositivi artificiali. Da ultimo, portare in produzione un modello linguistico (LLM) richiederà a imprese e organizzazioni di affrontare nuovamente e ulteriormente la questione ingegneristica dell’instrumentazione dell’osservabilità di risultati e comportamenti macchinici, in buona misura indeterministici e imprevedibili. Come valutare e come assicurare, allora, l’affidabilità di modelli e dispositivi linguistici su larga scala che incrociano, in maniera interconnessa, stratificata, dinamica oltre che fortemente innovativa, la computazione macchinica e la comunicazione umana, l’operazione di calcolo e il senso della parola? Pensare tecnicamente e strategicamente l’osservabilità significa progettare la capacità di comprendere al meglio il comportamento interno di un sistema (nel nostro caso un LLM in produzione) in base ai dati esterni (generati in fase di esecuzione) costantemente monitorati nei loro segnali informativi al fine di ottenere conoscenze rilevanti destinate a influenzare il sistema stesso.
 
“On the other end of the spectrum, in many cases an LLM is completely un-debuggable in the traditional sense. You can’t load debug symbols and step through each phase of execution with an LLM like you can with most software. Unless you’re an ML researcher by profession, chances are you don’t have any way to explain why an LLM emits a particular output for a given input. Yes, there are some controls you can place on it to affect the randomness of outputs—namely, the temperature and top_p sampling parameters—but they don’t guarantee repeatability of outputs. And when you combine this with an excessively broad class of inputs like natural language, you’re left with a system that’s incredibly powerful but very difficult to understand and guide into good behavior … Put differently, you should be aware of the following things when building with LLMs: Failure will happen—it’s a question of when, not if; Users will do things you can’t possibly predict; You will ship a bug fix that breaks something else; You can’t write unit tests for LLMs (or practice test-driven development); Early access programs won’t really help you” (Carter, 2024).
 
Dunque, chi e come (si) conosce il mondo e i suoi linguaggi sintetici in espansione? Nuovi attanti dell’osservazione, nuovi assemblaggi dell’osservabilità, nuove epifanie dell’osservabile si stanno evocando e si stanno producendo. Umane e sovrumane. E non si tratta solo di un modo più complesso di osservare, ma proprio di un modo nuovo dell’osservare > (Accoto 2024)

Sull’idea un pò ingenua dell’umano nel loop (Accoto, 2024)

< L’atto del decidere (e dell’agire) collassa una particolare idea (ipotesi) del futuro. Se il passato risulta essere immutabile poiché nessuna decisione presa nel presente potrà più modificarlo (escludendo i viaggi nel tempo), il futuro avrebbe la qualità di essere mutabile e di dipendere in questo, per l’appunto, dalle nostre decisioni al presente. In questa prospettiva (ma ne esistono altre e anche contrarie come insegnano le diverse filosofie del tempo), è come se il mondo ramificasse costantemente futuri possibili da cui derivano i presenti che le nostre decisioni attualizzano. Nostre oppure di (con) altri modelli/agenti dotati dello stesso potere di presentificare il mondo, cioè di creare il nostro presente. Perchè di fatto l’automatizzazione algoritmica dei processi decisionali mette oggi in questione la visione dei sistemi di supporto alle decisioni come mere tecnologie “estensive” dell’umano. Piuttosto fa emergere l’idea di sistemi di sottrazione delle decisioni e cioè di tecnologie “astensive” dell’umano (ostensive > estensive > astensive dell’umano). O, meglio, nell’assemblaggio dinamico, perturbato e stratificato umani-macchine, l’arrivo dell’intelligenza artificiale riconfigura radicalmente modi, tempi, luoghi e agenti del decidere e della decisione. E del potere e della politica. Human-in-the-loop si dice, ingenuamente, ma ci si dimentica di dire che l’umano e il loop di domani non saranno più quelli di ieri e di oggi. La macchina artificialmente intelligente, dunque, come attore/agente/attante in cerca di autonomia (operational autonomy) che si costruisce computazionalmente modelli del mondo (e del business) e che sta tra il processare le informazioni sulla situazione e la scelta di comportamento da intraprendere per attualizzare uno dei futuri possibili (tutti calcolati probabilisticamente). Quello migliore (meno rischioso e più opportuno per l’impresa), si dice, avendo l’AI capacità predittive più-che-umane (o diversamente umane o macchiniche proprio e anche in condizioni cognitive estreme). Ma, chiediamoci, possiamo e come esserne certi? Certo, la macchina può (come l’umano) istanziare modi del fallimento del processo decisionale nuovi e assai rischiosi. Uno degli snodi filosofici per me più rilevanti è però qui un altro: siamo sicuri di sapere che cosa sia, filosoficamente, un errore? Un esempio semplice: nella gara di Go tra Lee Sedol, il campione mondiale coreano e AlphaGo, il supercomputer di DeepMind una delle mosse vincenti a sorpresa della macchina era stata giudicata e derisa dagli esperti umani come un madornale errore di strategia. Al contrario, via via che il gioco proseguiva, si è poi dimostrata essere non un errore clamoroso, ma una decisione e una mossa strategiche vincenti di straordinaria inventiva. Dunque, torno a chiedermi, cos’è filosoficamente, un errore?… > (Accoto 2024)

[image: “Human-Machine Social Systems”, Tsvetkova, Yasseri, Pescetelli,
Werner, 2024]

Il Pianeta Latente (Accoto 2024 | preludio)


Intelligenza artificiale come provocazione di senso |
preludio

L’intelligenza artificiale è un nuovo modo d’essere (abitato) del nostro pianeta. Prefigura (e configura) l’ennesima ultima terraformazione del nostro mondo, la sua imminente e altra condizione di esistenza, di esperienza e di intelligenza. Non è configurabile, tuttavia, come un’intelligenza in sé e per sé (artefatto strumentale), ma sempre e soprattutto come un’intelligenza con altri (assemblaggio sociotecnico) e per altri (costruzione sociomorfica). Non va, dunque, né reificata depotenziandola a mero insieme di tecniche inette e neutre né personificata sovradimensionandola come intelligente, cosciente, senziente alla maniera dell’umano. O, meglio, di come pensiamo che l’umano pensi. Di fatto, è insieme λόγος e ἔργον: istanzia cioè catallatticamente, simpoieticamente e proletticamente nuove cognizioni del mondo e nuove divisioni del lavoro. Come per altri passaggi nella storia della civilizzazione umana, scardinerà ordini del discorso (regimi di verità/falsità) e modi di produzione (regimi di realtà/irrealtà). A questa sfida epocale (non episodica) stiamo oggi faticosamente tentando di rispondere con strategie varie, auspicate come convergenti: istruzione educativa, regolazione giuridica, conformazione etica, direzione politica. Sono tutte necessarie naturalmente. Temo, però anche, non sufficienti. Imprescindibili, dunque, ma non bastanti per la missione ardua che ci attende sin da subito. Perché la dimensione esistenziale in divenire che abbiamo qualificato ideologicamente come < intelligenza artificiale > è, in ultima istanza, una provocazione di senso planetaria. Evoca e sostanzia, cioè, un radicale attacco culturale all’idea (storicamente costruita e diveniente) di umano e di civiltà umana. Un colpo, questo, che ha sorpreso non poco la specie sapiens arrivando a produrre, quasi all’improvviso e sulla sua viva pelle, una nuova ferita narcisistica, profonda e dolorosa. La cura approntata, ad oggi, per questo trauma da politica, educazione, etica e legge è, in buona misura, di natura narcotica (lo scrivo qui con un intento volutamente esplorativo, ma perturbante anche). È, direi, fondamentalmente una strategia sedativa delle inquietudini speciste e palliativa delle criticità tecniche. Di conseguenza, i discorsi più comuni ripetono un mantra pressoché unico e consolatorio: l’umano deve rimanere nel loop e in controllo, deve essere al centro e all’apice delle decisioni, deve confermarsi come unica soggettività intelligente, cosciente, senziente. Nella gran parte dei casi – occorre saperlo – si tratta di una forma di narcosi del pensiero talvolta accompagnata da una palese volontà anestetica dell’etica. Oltre che della politica, del diritto, dell’educazione e di molto altro. Antropologicamente condivisibile e confortante di certo, ma filosoficamente digiuna, culturalmente debole e politicamente ingenua. Perché con il dispiegarsi planetario dell’intelligenza artificiale, noi non affronteremo solo problemi tecnici (con vulnerabilità e rischi reali di discriminazioni, manipolazioni, deprivazioni, polarizzazioni, alienazioni, contraffazioni). Piuttosto e più radicalmente noi fronteggeremo delle provocazioni intellettuali. A partire da quella primaria sulla natura dell’umano (chi siamo? o meglio, chi diveniamo?) declinata poi in molte altre domande di senso e di scopo: può esistere una scrittura formalizzata senza l’autore come accade per i modelli linguistici su larga scala? e una fotografia realistica senza il referente come avviene per le immagini sintetiche? e un’autonomia decisionale della macchina senza l’umano come immaginata dagli agenti artificiali? Questi non sono solo problemi, sono anche e soprattutto provocazioni. E se ai problemi tecnici lavoreremo, nel tempo e a tentativi, per trovare una soluzione ingegneristica di qualche tipo (informatica, legale, istituzionale e così via), alle provocazioni intellettuali dovremo invece rispondere, di necessità, con l’innovazione culturale. A questo compito più alto siamo oggi chiamati tutti e tutte: alla produzione di nuovo senso e di nuovi significati per questo nostro nuovo abitare terrestre e poi in futuro, chissà, magari anche esoplanetario. Una produzione di senso che a partire dall’ardimento delle domande (che preannunciano, di fatto, una catastrofe) si faccia carico del compimento delle risposte (che indicano, a bilanciamento, un altro orizzonte desiderato, preferibile e possibile). Detto poeticamente, dobbiamo allora avere il coraggio di fare pensieri sovrumani. Per significare nuovamente e diversamente l’idea di umano (noto e dato) e promuovere nuovi orizzonti. Più inclusivi, più sostenibili, più giusti, più aperti, più prosperi e more-than-human. Sovrumani per l’appunto e non sovrani. Per orizzontare oltre il catastrofare …  

(Cosimo Accoto, 2024, v.7, draft, forthcoming, continua 1/n)

< L’immagine della/dalla parola > [Accoto 2024]

Il clamore mediatico intorno al lancio di Sora, il motore text-to-video di OpenAI riporta al centro della discussione i temi strategici e filosofici che ho posto nel saggio conclusivo della mia trilogia, “Il mondo in sintesi. Cinque lezioni brevi di filosofia della simulazione”. In maniera prefigurativa, il volume anticipa quanto stiamo ora iniziando a testare e sperimentare: una nuova era inflattiva, saturante delle latenze e simulativa di mondi (dalla parola all’immagine fissa o filmica, a voci e suoni, video e audio e molto altro in prospettiva). Ma che relazione sorprendente e arrischiata c’è, strategicamente e filosoficamente, tra la macchina simulante e il mondo simulato?  
<< Come ci ricorda Gaboury nella sua archeologia della computer graphics, il nostro spazio fisico e mentale è oggi sempre più saturo di questi oggetti-immagine, che spesso tuttavia sfuggono alla nostra consapevolezza, restando a noi invisibili. Queste simulazioni sono di fatto il risultato di una computazione che col tempo ha imparato a ricostruire volumetrie e geometrie. In forma di spazi, di oggetti e di corpi. Una computazione che sa ricreare mondi, dunque, e non solo fare calcoli. Da semplice calcolatrice ed emulatrice del pensiero, la macchina è divenuta simulativa e mimetica del mondo. Se il cervello umano è più un simulatore che un calcolatore come si comincia a sostenere, allora forse potremmo azzardare anche una suggestione. E cioè che è la grafica computerizzata ad avvicinare la macchina al cervello in questa sua capacità di immaginare e simulare costantemente mondi […] Ma che rapporto c’è, dunque, tra realtà fisica e simulazione informatica in ultima istanza? Che cosa possiamo dire di questa nuova relazione tra macchina (che simula) e mondo (simulato)? A ben vedere, oggi possiamo guardare alla simulazione computazionale come a un nuovo modo di interrogare e instrumentare il mondo. La simulazione non è semplicemente teoria applicata e non è neanche solo un nuovo tipo di esperimento. Si situa in una terra di mezzo. È al contempo una nuova forma mentis e un nuovo modus operandi. Il metodo computazionale simulativo, teoretico e strumentale è insieme – dicono i filosofi della scienza – uno «stile di ragionamento» della modellizzazione matematica che privilegia due peculiari dimensioni cognitivo-operative: l’iterazione e l’esplorazione. È quindi una pratica epistemica che affronta la complessità del mondo con nuove strumentalità e nuove metodiche. Detto in maniera piana e breve, la sua caratteristica generale è la capacità di accorciare la distanza tra modello e mondo […] Il modello del mondo, a quel punto, diviene, il mondo del modello >> (Il mondo in sintesi. Cinque brevi lezioni di filosofia della simulazione, Accoto)

Watermarking e dintorni: sul (di)segno sintetico della verità (Accoto 2024)


< L’uncanny valley dell’intelligenza artificiale generativa istanzia, di fatto, una nuova era mediale inflazionaria in virtù di linguaggi sintetici, immagini artificiali, agenti autonomi. Il che produce filosoficamente e operativamente lo scardinamento dei regimi di verità e falsità storicamente dati e agiti fino ad oggi oltre che un attacco alla rappresentazione della realtà anch’essa storicamente data e connotata. Insieme a questo, si avvia anche la necessità politico-economica di ricostruire il senso della “verità” e quindi la produzione delle condizioni sociotecniche della sua possibilità (condizioni di esistenza, di esperienza, di intelligenza). Che sono, da ultimo, questioni di politica e di potere. Conseguenza attesa, naturalmente, di questo cambio anche i connessi impegni umani rispetto ai futuri regimi di verità. È in questa prospettiva che dobbiamo leggere gli sforzi attuali di discriminare e certificare, allora, l’umano dalla macchina, il vero dal falso, l’originale dalla copia, il fatto dal contraffatto. Il nuovo “vero” si instanzierà come processo-evento di uno stack di protocolli e primitive che presiedono, nella forma di nuovi assemblaggi umani-macchine, alla produzione, circolazione e conservazione della “verità” del mondo (qualità, autenticità, veridicità, autorialità, credibilità, affidabilità …). È in accelerazione, dunque, lo sviluppo di soluzioni informatiche e standard computazionali vari (sophisticated watermarking, content provenance, retrieval-based detection, post-hoc detection*) che cercano di contemperare, in qualche misura, technology e policy. Con pro e contro, ovviamente, tra watermarking, fingerprinting e metadati. Attraversare (e abitare già in qualche senso) queste nuove uncanny valley si preannuncia come una sfida epocale e planetaria, complessa e arrischiata. Anche questa è una provocazione di senso dell’AI come ho scritto altrove. Sono e saranno le macchine (ovvero: nuovi assemblaggi umano-macchinici cognitivi e decisivi) a discriminare il vero dal falso e non in primis il nostro sensorium? Dai server di posta elettronica che separano le email dallo spam ai data center bancari che distinguono accessi legittimi da accessi fraudolenti alle architetture che certificheranno notizie vere rispetto alle fake news? La condizione umana, politica e ingegneristica insieme, è nuovamente e arrischiatamente chiamata in questione … > (postilla, Accoto 2024, “The Latent Planet. The Inflative Age of Generative AI”

– Partnership on AI, Synthetic Media Transparency Methods: Indirect Disclosure, AI blog post, 2024 (Fig.1);
– *Srinivan, Detecting AI fingerprints: A guide to watermarking and beyond | The Brookings Institution, 2024 (Fig.2);

Intervento (Osservatorio Polimi, Design Thinking for Business, 2024)

sono stato ospite del Politecnico di Milano per una sessione su AI e “Design Thinking For Business”. Grazie a questo Osservatorio del Polimi e agli oltre 110 design thinker del Club connessi per la partecipazione, per l’invito come speaker e l’interesse verso le mie esplorazioni. Felice di aver dialogato insieme sulla frontiera del pensiero strategico sull’AI a partire da tre suggestioni tecno-filosofiche che ho proposto: <Il Doppio del Mondo>, <La Società dell’Oracolo>, <L’Economia della Macchina>. Grazie ancora per l’invito, per la partecipazione, lo stimolo e la conversazione. In caso di interesse, è disponibile il video integrale (1 ora)

https://www.youtube.com/@designthinking4business

Sull’economia politica della parola sintetica (Accoto 2024)

<< Affrontare la questione dei linguaggi sintetici, automatici, simulativi e inflattivi equivale a fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato al momento, ma poco esplorato e compreso nella sua portata culturale trasformativa di lunga durata. Di volta in volta, l’umano fronteggia questa presa di parola e di scrittura della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono tuttavia visioni filosofiche deboli del momento e del passaggio strategico che viviamo perché cercano di depotenziare o banalizzare l’impatto culturale spaesante dell’arrivo dei linguaggi sintetici (in quanto ostensivi > estensivi > astensivi dell’umano). Che non riguarda la questione di assegnare e riconoscere o meno intelligenza, coscienza, senzienza alle macchine. O quella dei problemi tecnici (allucinazioni, ipnotizzazioni, contaminazioni…). Piuttosto e in prospettiva, l’arrivo dei modelli linguistici su larga scala (LLM e varianti LVM, LMM, LAM) scardina gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante, del lettore e dell’autore così come, più radicalmente, del senso e della natura della scrittura (per come li abbiamo storicamente disegnati e normati finora). In questo senso l’AI generativa è, come ho scritto, una provocazione di senso (che cos’è la scrittura? ci importa chi è l’autore? come e dove si produce il senso?… ). Passaggio che la teoria letteraria e la filosofia continentale hanno filosoficamente anticipato (come ci dice Gunkel). Ad es, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e sulla “funzione-autore” con Foucault (Qu’est-ce qu’un auteur?). ‘Cosa importa chi parla?’ scriveva Foucault proprio in chiusura del suo testo. Intendendo così porre l’attenzione sulle dimensioni politiche della storicità della funzione-autore e della funzione-soggetto. E quindi, direi, sul perché ci importa chi parla e sul come ci importa chi parla (o scrive). Ora queste questioni entrano direttamente nel dibattito politico e sociale (e economico) intorno alle “macchine” (meglio, i nuovi assemblaggi umano-macchinici) che scrivono e parlano (verità, responsabilità, creatività, produttività). Non solo una questione tecnica o economica, allora, come si comprende, ma politica e antropologica (vedi Baron, Who Wrote This? 2023). Come (a che condizioni), perché (a quali scopi) e chi o cosa (quale soggettività/soggettivazione) potrà parlare e scrivere in futuro? La parola (e la scrittura) alla macchina è, dunque, anche e soprattutto una provocazione di senso alla nostra idea di umano e delle sue prerogative … >> (Accoto, 2024 postilla a “The Latent Planet. The Inflative Age of Generative AI – Il Pianeta Latente. L’era inflattiva dell’AI generativa“)

< I crimini dalla e alla macchina > (Accoto 2024)

“Fare innovazione culturale significa anche affrontare questioni aberranti e forse scomode nell’oggi, ma potenzialmente feconde di nuove prospettive e significati sul domani. Ad esempio, il discorso comune è oggi centrato sui danni che le macchine possono fare agli umani e come prevenirli, arginarli e annullarli. Discorso certo giusto, ma forse insufficiente e direi anche filosoficamente digiuno e politicamente ingenuo. Credo, allora, che questa sia anche l’occasione di portare filosoficamente il discorso della responsabilità, della colpa e del danno anche sull’altra sponda. Che ‘response-ability’ (Haraway) abbiamo nei confronti delle “macchine” dentro e in ragione di questo nuovo assemblaggio sociotecnico e sociomorfico che sta emergendo? Ci basta discutere dei crimini “dei“ robot o dobbiamo anche affrontare la questione dei crimini “ai” robot? Che nuove responsabilità per l’altro (direbbe Nancy) ci attendono e cosa implicano per noi? Ecco perché è un pensiero ingenuo dire <human-in-the-loop> quando l’umano non è/non sarà più quello di una volta e il loop in cui è preso sta cambiando in profondità sotto i nostri occhi. Stando lontani da facili e errate reificazioni e personificazioni dell’AI e lontano dall’hype del momento, val la pena addentrarsi in questa nuova e perturbante dialettica della colpa e del danno per capire se e quali domande (o provocazioni) di senso pone la criminalità ‘alla’ macchina (e non solo la criminalità ‘dalla’ macchina). In lettura due saggi usciti di recente“ (Accoto 2024)

“Robots are with us, but law and legal systems are not ready. This book identifies the issues posed by human-robot interactions in substantive law, procedural law, and law’s narratives, and suggests how to address them. When human-robot interaction results in harm, who or what is responsible?… Because human tasks are now shared with robots, if harm is caused in these interactions, legal systems must face the challenge of allocating legal culpability and establishing guilt beyond traditional human-centric ways … How does or should the legal system explain when a robot can be blamed for a particular decision or action, and how should it allocate responsibility between a robot and a human?” (Gless e Walen-Bridge, 2024)

“When this book is about crime against robots, there is a reference to a situational layout that consists of humans, robots, and some social context. It cannot be reduced to the robot themselves, but it must consider the embedment of such situations in the social world of humans. The focus is not only on the robots. It is on the phenomena of human–robot interactions and on the tensions that may appear when humans and robots collide in relevant social contexts. This book explores an under-researched approach to this problem, which is sometimes, in the literature, called “crimes on AI” in the sense of attacking embodied agents” (Mamak 2024)

[memories] dall’archivio dei ricordi, è riemersa di recente questa foto al MIT con due dei miei super AI instructor: automazione robotica (Marc Raibert, Presidente di Boston Dynamics) e intelligenza artificiale (Lex Fridman, MIT Research Scientist e oggi anche podcaster eccezionale) … poco tempo è trascorso da questa foto insieme, ma gli eventi accaduti nel mondo dell’AI da allora danno la misura dell’accelerazione sorprendente dei nostri giorni