[anticipazione] È in uscita il mio nuovo saggio “Il Pianeta Latente” (Accoto, Egea 2024)

[anticipazione] È in uscita il mio nuovo saggio “Il Pianeta Latente” (Accoto, Egea 2024). Con il sottotitolo “provocazioni della tecnica, innovazioni della cultura”, è un’incursione filosofica e ingegneristica, agile e curiosa, tra intelligenza artificiale e intelligenza planetaria. Tra provocazioni di senso e nuove terraformazioni, una narrazione speculativa in tre atti (L’ultima parola, L’occhio assente, L’atto osceno) non proprio indulgente e anzi un po’ disturbante. Come deve essere la filosofia. Un trittico che esplora con altre mappe di senso (anche arrischiato) il Pianeta Latente che l’intelligenza artificiale sta costruendo. Tra opportunità, vulnerabilità e prossime immunità.

<< L’intelligenza artificiale è una planetaria provocazione di senso. Interroga l’umano sul suo destino e sulle sue prerogative: parola, visione, azione. Con l’arrivo dei modelli linguistici che automatizzano la scrittura, dei motori visuali che simulano la fotografia, degli agenti autonomi che disarticolano il lavoro crescono inquietudini ed entusiasmi. L’ultima parola, l’occhio assente, l’atto osceno: sono problemi o provocazioni? Entrambe le cose. Ma se alle vulnerabilità tecniche risponderemo con l’ingegneria (informatica, giuridica, politica), alle provocazioni intellettuali dovremo rispondere invece con la filosofia. Non saranno sufficienti educazione, regolazione, moralizzazione, amministrazione. Dovremo fare, anche e soprattutto, innovazione culturale. Produrre cioè nuove idee e significati con un pensare più-che-umano, frutto ancora acerbo di questa emergente e sorprendente intelligenza planetaria >> (Accoto, Il Pianeta Latente, Egea 2024, quarta di copertina).

Un pò stanco, ma felice di questa ultima scrittura e della sollecitazione di pensiero che potrà evocare in chi leggerà. A voi di saggiarla, discuterla e migliorarla. Buona lettura!

In tutte le librerie a partire dall’11 ottobre (e qualche giorno prima sugli store online a partire dal sito di Egea). A presto e spargete la voce …

Il doppio del mondo (Accoto 2024)

< A grandi passi, si è avviata l’era della “simulazione computazionale” con le sue molte opportunità e le sue vulnerabilità (e dovremo costruire nuove immunità). Una rivoluzione che ha cominciato ad avere importanti ricadute strategiche. Tra queste, emblematica e trasformativa è l’introduzione e l’adozione da parte di industrie, settori e mercati della pratica del digital twinning (gemellaggio digitale). Ma che cos’è un digital twin, un gemello digitale? Copia, replica, rappresentazione, simulacro del reale? Più in astratto, potremmo dire che è una simulazione computazionale del mondo nel suo prodursi. Simulazione di prodotti, di processi, della stessa produzione in esecuzione e al miglior < twinning rate >. Ma cos’è più filosoficamente, una simulazione computazionale al di là delle tecnicalità di sensori, dati, algoritmi, protocolli? Possiamo anticipare qui che è un dispositivo epistemico in grado di ridurre lo scarto cognitivo esistente tra mondo (fisico) e modello (matematico). In plasticità epistemica, la simulazione supera -secondo alcuni filosofi della scienza- anche il più vecchio metodo dell’esperimento avviando, così, una sorta di nuova rivoluzione scientifica (e con questa anche di business) con un impatto simile o superiore a quello che ebbe la rivoluzione scientifica del metodo sperimentale di Galileo Galilei. Dunque, il digital twin non è semplicemente -come si dice spesso ingenuamente- una replica virtuale o una copia digitale del mondo. Queste simulazioni diagnostico-prognostiche (on-board e off-board) di asset fisici e industriali in attività sono proprio una nuova leva strategica, operativa e di business, fondamentale. È, infatti, in questa riduzione dello scarto cognitivo tra modello e mondo che si possono immaginare e produrre nuove opportunità di cocreazione di valore e nuove dinamiche di servizio potenzialmente anche più sostenibili. Forse allora l’umano che nascerà dall’impiego dei gemelli digitali (ad es, dei pazienti) sarà nuovo tanto quanto lo fu l’umano nato dall’impiego delle dissezioni cadaveriche. Pensiamo a Leonardo da Vinci. Mutatis mutandis, anche in quel caso ci fu un approssimarsi ai corpi che venivano incisi per capire meglio il loro funzionamento. Le dissezioni (anatomiche) verranno sostituite dalle simulazioni (algoritmiche)? Sensori e simulazioni, dunque, come bisturi e illustrazioni? D’altro canto abbiamo già usato in passato avatar analogici per creare esperienze migliorative del mondo. Pensiamo ai manichini sensorizzati (proxies) usati nei crash test su cui costruiamo esperienze di guida più sicure. Così magari in futuro useremo avatar digitali per creare nuove esperienze. Con creazione di valore e di rischio naturalmente. Un business che voglia orientarsi al ed essere orientato dal digital twin richiederà a imprese e manager di familiarizzare strategicamente con questa rinnovata filosofia simulacrale > (postilla a “Il doppio del mondo”, podcast RAI di Cerofolini e Accoto)

Tecnologie estensive o astensive dell’umano? (Accoto, 2024)

Uno scatto dal mio intervento nella seconda puntata di CODICE (il programma televisivo di Barbara Carfagna) su RAI 1 in seconda serata venerdì scorso. Il tema di questa nuova stagione è la velocità e l’accelerazione nelle sue diverse forme tecnologiche e nelle sue declinazioni planetarie (la puntata è ora anche su RaiPlay). Quale dialettica (automation, heteromation, augmentation) tra tecnologie estensive dell’umano e tecnologie astensive dell’umano nell’era dell’iperautomazione? E poi, lontano dalle seduzioni delle sedazioni e dall’anestetica dell’etica, che umani nuovi diventeremo e in che loop nuovi, anche altrimenti arrischiati, saremo presi? Perchè l’umano che salirà su un’auto <a guida macchinica> sarà un umano diverso da quello che saliva su un’auto <a guida umana> e anche il nuovo loop (esperienza, intelligenza, responsabilità, libertà, senso …) in cui sarà preso sarà diverso anch’esso. Prenderne criticamente consapevolezza potrà aiutarci a orientare (al) meglio questo assemblaggio socio-tecnico caotico e accelerato, questa nuova condizione e conduzione più-che-umana …

Il software (l’esser-C) rischia l’esser-ci del mondo, Accoto 2024

<Tra cyberguerra e cyberpace, chiediamoci: esiste una qualche esperienza della programmazione che possa dirsi e farsi sicura? E se non esiste alcuna programmazione che possa farsi sicura e possa dirsi al sicuro, che cosa rappresenta filosoficamente questa insicurezza ontologica del codice? Dobbiamo prendere consapevolezza e comprendere che la società digitale nasce insicura sin dalle sue origini e nelle sue fondamenta. E lo è perché il motore invisibile che movimenta la società digitale (con cui costruiamo applicazioni, reti, servizi, architetture e macchine), il codice software, è una scrittura arrischiata del mondo secondo almeno tre forme distinte (ma interconnesse) di insicurezza. Dobbiamo riconoscere, dunque, che il codice software è: a) fallibile; b) degradabile; c) vulnerabile. In primis, il software è fallibile perché i vari processi interni di riscrittura che gli sviluppatori del software fanno per passare dal linguaggio umano a un linguaggio comprensibile a una macchina (da source-code a object-code) non sono per nulla assicurati nel loro svolgersi ideale senza difetti e, di conseguenza, questi svolgimenti sono sempre a rischio di collasso. In secondo luogo, il software è degradabile nella durata e nella scala. Lo sviluppo, cioè, continuo e stratificato nel tempo di programmi e applicazioni installati dentro architetture di rete, distribuite, virtualizzate, da aggiornare e tenere in manutenzione (refactoring) rischia di portare all’illeggibilità e all’ingestibilità per l’umano del codice prodotto. Così si fatica a controllare e a gestire architetture e applicazioni. Da ultimo, infine, il codice software è vulnerabile, non solo a causa di fallimenti interni o di degradazioni nel tempo e nella scala, ma perché è preda di aggressioni informatiche esterne, malevole e criminali. Che siano attacchi generati da singoli o collettività, da privati o Stati, il software rischia l’essere del mondo. A partire dalle infrastrutture sociali primarie e vitali, da quelle ingegneristiche come le installazioni di difesa a quelle istituzionali come le procedure democratiche. Dunque, fronteggiamo un rischio interno di fallibilità (fallibility), uno esterno di vulnerabilità (vulnerability) e uno cronico di degradabilità (degradability). La programmazione è una scrittura che rischia nuovamente e diversamente l’essere del mondo. Se la computazione è ontologicamente fallibile, vulnerabile e degradabile come possiamo costruire nuove forme di affidabilità e di affidamento? Di quale e quanta innovazione culturale avremo bisogno per poter mitigare al meglio i rischi (tra collassi, attacchi e degradi) connessi alla (in)sicurezza computazionale? Di quali nuove immunità (decentralizzazione, tecnodiversificazione, de/ri-globalizzazione, educazione, legislazione, cyberassicurazione, comunitarizzazione) avremo bisogno? Non è una domanda strumentale, ma esistenziale. Perché oggi, la superficie/abisso del rischio è il mondo intero nel suo essere programmabile, nel suo esser-C. Se la nostra nuova condizione arrischiata è il farsi-mondo del codice, ne va del nostro esser-ci” (Accoto, 2024)

Di cosa parliamo quando parliamo di AI (Accoto 2024)

“C’è un modo filosoficamente angusto e politicamente digiuno di guardare all’intelligenza artificiale. È quello strumentale (si tratta solo di tecnologia, intelligente o stupida a seconda dei casi), dicotomico (noi umani vs le macchine), antropocentrato (tenere l’umano nel loop, al centro e in controllo), allineante (rispetto dei valori umani) e dominante (all’umano spettano le decisioni) di un certo umanesimo. Si accompagna sovente anche ad una ingenua e consolante <anestetica dell’etica>. E ce n’è, invece, uno più filosoficamente educato e planetariamente avvertito, direi, che interpreta in maniera complessa e sofisticata il passaggio epocale di cui stiamo facendo esperienza. Un umanesimo, quest’ultimo, capace di cogliere lo statuto di provocazione culturale e intellettuale di quanto la tradizione chiama <intelligenza artificiale> nella lunga durata della civilizzazione umana. C’è, allora, un modo più profondo di leggere il momento attuale. È quello dell’occhio lungo dell’evoluzione culturale e cognitiva della civiltà, dell’intelligenza del lavoro e non solo biologica, dell’intelligenza sociale e non solo strumentale, dell’intelligenza planetaria e non solo antropica. Che è sempre, per l’appunto, insieme umana e oltreumana. Una short list personale di letture consigliate in caso di interesse …” (Accoto, 2024, postilla a The Latent Planet)

Filosofia dell’agency in un’era more-than-human (Accoto 2024)

Nel giorno ufficiale dell’EU AI ACT col suo mandato catecontico, per le imprese si fanno più pressanti giuridicamente i temi tech dell’agency e della responsibility. Ma cosa dice la filosofia? Dire agency è spalancare una vertigine filosofica tutta da esplorare e scavare anche arrischiatamente. Da qualche anno, ho iniziato a investigare questo dominio concettuale cercando di calarlo strategicamente dentro le nuove ingegnerie e le nuove economie a supporto di imprese, istituzioni e associazioni (tema chiave nei miei philtech lab, i miei laboratori di filosofia dell’ingegneria). A partire da “Il mondo dato” (2017) dove parlavo di agentività strumentale e sociale del codice software per poi passare attraverso i dispositivi di automazione e autonomia robotica de “Il mondo ex machina” (2019) tra smart contract e stack di protocolli per arrivare alle operazioni simulative degli agenti autonomi dell’AI generativa ne “Il mondo in sintesi” (2022). Nella saga delle tre terraformazioni (la mia trilogia), ho affrontato l’interrogazione di senso di questa <capacità> direi meno ingenua e meno priva di intelligenza di quanto possa sembrare a prima vista. Un accenno lo trovate anche nel mio saggio breve, “The Latent Planet” (2024). Ma c’è una lunga storia di come abbiamo cercato, nel corso della civiltà moderna e contemporanea delle macchine, di comprendere e rendere operativo il concetto di agency dei sistemi di automazione e di autonomia macchinica. Andando via via anche oltre le cornici culturali di un umanesimo anestetico (impaurito dall’AI, arrabbiato con l’AI, depresso per l’AI o viceversa acriticamente entusiasta) che ci impedisce di cogliere, con consapevolezza piena, la stratificazione, la sovrapposizione, l’interdipendenza, la negoziazione di agenti umani e non umani, dentro le liminalità morfanti del loro nuovo divenire culturale e ingegneristico. Piuttosto dobbiamo valutare criticamente e valorizzare positivamente al meglio anche le implicazioni concettuali trasformative di dimensioni correlate che stanno cambiando sotto i nostri occhi: l’intenzionalità e la preterintenzionalità delle macchine, la causalità e la responsabilità more-than-human, l’opacità nativa della simulazione computazione e la sua intellegibilità e spiegabilità, il giudizio e la costruzione assemblata della decisione, l’allineamento ma anche il disallineamento, la cognizione sintetica del mondo e l’azione multiagenziale” (Accoto, 2024 postilla a The Latent Planet).

” …we would need to know more about the nature of the capacity of agency” (Handbook of Philosophy of Agency)
“ …relevant to modeling humans, but it is less defensible when developing synthetic agents” (Explainable Agency in Artificial Intelligence)
“ … these AI features create gaps in traditional responsibility practices” (Handbook of Philosophy of Responsibility)
“ … we need to move beyond a traditional understanding of responsibility” (Technology, Anthropology and the Dimensions of Responsibility)

Codice su Rai 1: la nuova stagione dal 12 luglio

Dal 12 luglio su Rai 1 in seconda serata torna Codice il programma ideato e condotto dalla giornalista Barbara Carfagna (vincitrice quest’anno del Premio Biagio Agnes 2024 per la divulgazione scientifica). Un grazie di cuore a Barbara per il coinvolgimento e l’ospitalità anche in questa nuova stagione del suo programma, stagione ricca di temi alla frontiera dell’innovazione, di servizi da molti paesi del mondo e di prospettive sulle opportunità e le vulnerabilità (e le immunità emergenti) del Pianeta Terra Digitale che ci accingiamo ad abitare. Qui uno scatto dagli studi di registrazione di via Teulada a Roma. A presto e buona visione!

Tra diritto delle nuove tecnologie e filosofia delle nuove ingegnerie: una conversazione (Accoto 2024)

Questa settimana il lancio degli < Stati Generali dell’Intelligenza Artificiale > in Lombardia (100 milioni di euro alla partenza) con l’introduzione del Governatore Attilio Fontana, la conclusione dell’Assessore Alessandro Fermi e la moderazione del giornalista ed editorialista del Corriere della Sera Massimo Sideri … qui uno scatto dal panel con Oreste Pollicino, tra macchine di Turing e istituzioni di Turing, un dialogo tra diritto delle nuove tecnologie e filosofia delle nuove ingegnerie. Un grazie alla Regione per l’invito ad una giornata così importante per l’ecosistema lombardo, per gli apprezzamenti finali e la calorosa l’ospitalità. Ora si avvia con il coinvolgimento degli stakeholder e con una consapevolezza operativa matura l’iniziativa LombardIA, l’iniziativa di governance e sviluppo in materia di Intelligenza Artificiale avviata da Regione Lombardia per fare del territorio lombardo e del suo ecosistema di ricerca e innovazione un punto di riferimento nazionale ed europeo nello sviluppo e nell’adozione di tecnologie di Intelligenza Artificiale. L’augurio di buon lavoro e proseguimento a tutti e tutte!