Il doppio del mondo (Accoto 2024)

< A grandi passi, si è avviata l’era della “simulazione computazionale” con le sue molte opportunità e le sue vulnerabilità (e dovremo costruire nuove immunità). Una rivoluzione che ha cominciato ad avere importanti ricadute strategiche. Tra queste, emblematica e trasformativa è l’introduzione e l’adozione da parte di industrie, settori e mercati della pratica del digital twinning (gemellaggio digitale). Ma che cos’è un digital twin, un gemello digitale? Copia, replica, rappresentazione, simulacro del reale? Più in astratto, potremmo dire che è una simulazione computazionale del mondo nel suo prodursi. Simulazione di prodotti, di processi, della stessa produzione in esecuzione e al miglior < twinning rate >. Ma cos’è più filosoficamente, una simulazione computazionale al di là delle tecnicalità di sensori, dati, algoritmi, protocolli? Possiamo anticipare qui che è un dispositivo epistemico in grado di ridurre lo scarto cognitivo esistente tra mondo (fisico) e modello (matematico). In plasticità epistemica, la simulazione supera -secondo alcuni filosofi della scienza- anche il più vecchio metodo dell’esperimento avviando, così, una sorta di nuova rivoluzione scientifica (e con questa anche di business) con un impatto simile o superiore a quello che ebbe la rivoluzione scientifica del metodo sperimentale di Galileo Galilei. Dunque, il digital twin non è semplicemente -come si dice spesso ingenuamente- una replica virtuale o una copia digitale del mondo. Queste simulazioni diagnostico-prognostiche (on-board e off-board) di asset fisici e industriali in attività sono proprio una nuova leva strategica, operativa e di business, fondamentale. È, infatti, in questa riduzione dello scarto cognitivo tra modello e mondo che si possono immaginare e produrre nuove opportunità di cocreazione di valore e nuove dinamiche di servizio potenzialmente anche più sostenibili. Forse allora l’umano che nascerà dall’impiego dei gemelli digitali (ad es, dei pazienti) sarà nuovo tanto quanto lo fu l’umano nato dall’impiego delle dissezioni cadaveriche. Pensiamo a Leonardo da Vinci. Mutatis mutandis, anche in quel caso ci fu un approssimarsi ai corpi che venivano incisi per capire meglio il loro funzionamento. Le dissezioni (anatomiche) verranno sostituite dalle simulazioni (algoritmiche)? Sensori e simulazioni, dunque, come bisturi e illustrazioni? D’altro canto abbiamo già usato in passato avatar analogici per creare esperienze migliorative del mondo. Pensiamo ai manichini sensorizzati (proxies) usati nei crash test su cui costruiamo esperienze di guida più sicure. Così magari in futuro useremo avatar digitali per creare nuove esperienze. Con creazione di valore e di rischio naturalmente. Un business che voglia orientarsi al ed essere orientato dal digital twin richiederà a imprese e manager di familiarizzare strategicamente con questa rinnovata filosofia simulacrale > (postilla a “Il doppio del mondo”, podcast RAI di Cerofolini e Accoto)

Tecnologie estensive o astensive dell’umano? (Accoto, 2024)

Uno scatto dal mio intervento nella seconda puntata di CODICE (il programma televisivo di Barbara Carfagna) su RAI 1 in seconda serata venerdì scorso. Il tema di questa nuova stagione è la velocità e l’accelerazione nelle sue diverse forme tecnologiche e nelle sue declinazioni planetarie (la puntata è ora anche su RaiPlay). Quale dialettica (automation, heteromation, augmentation) tra tecnologie estensive dell’umano e tecnologie astensive dell’umano nell’era dell’iperautomazione? E poi, lontano dalle seduzioni delle sedazioni e dall’anestetica dell’etica, che umani nuovi diventeremo e in che loop nuovi, anche altrimenti arrischiati, saremo presi? Perchè l’umano che salirà su un’auto <a guida macchinica> sarà un umano diverso da quello che saliva su un’auto <a guida umana> e anche il nuovo loop (esperienza, intelligenza, responsabilità, libertà, senso …) in cui sarà preso sarà diverso anch’esso. Prenderne criticamente consapevolezza potrà aiutarci a orientare (al) meglio questo assemblaggio socio-tecnico caotico e accelerato, questa nuova condizione e conduzione più-che-umana …

Il software (l’esser-C) rischia l’esser-ci del mondo, Accoto 2024

<Tra cyberguerra e cyberpace, chiediamoci: esiste una qualche esperienza della programmazione che possa dirsi e farsi sicura? E se non esiste alcuna programmazione che possa farsi sicura e possa dirsi al sicuro, che cosa rappresenta filosoficamente questa insicurezza ontologica del codice? Dobbiamo prendere consapevolezza e comprendere che la società digitale nasce insicura sin dalle sue origini e nelle sue fondamenta. E lo è perché il motore invisibile che movimenta la società digitale (con cui costruiamo applicazioni, reti, servizi, architetture e macchine), il codice software, è una scrittura arrischiata del mondo secondo almeno tre forme distinte (ma interconnesse) di insicurezza. Dobbiamo riconoscere, dunque, che il codice software è: a) fallibile; b) degradabile; c) vulnerabile. In primis, il software è fallibile perché i vari processi interni di riscrittura che gli sviluppatori del software fanno per passare dal linguaggio umano a un linguaggio comprensibile a una macchina (da source-code a object-code) non sono per nulla assicurati nel loro svolgersi ideale senza difetti e, di conseguenza, questi svolgimenti sono sempre a rischio di collasso. In secondo luogo, il software è degradabile nella durata e nella scala. Lo sviluppo, cioè, continuo e stratificato nel tempo di programmi e applicazioni installati dentro architetture di rete, distribuite, virtualizzate, da aggiornare e tenere in manutenzione (refactoring) rischia di portare all’illeggibilità e all’ingestibilità per l’umano del codice prodotto. Così si fatica a controllare e a gestire architetture e applicazioni. Da ultimo, infine, il codice software è vulnerabile, non solo a causa di fallimenti interni o di degradazioni nel tempo e nella scala, ma perché è preda di aggressioni informatiche esterne, malevole e criminali. Che siano attacchi generati da singoli o collettività, da privati o Stati, il software rischia l’essere del mondo. A partire dalle infrastrutture sociali primarie e vitali, da quelle ingegneristiche come le installazioni di difesa a quelle istituzionali come le procedure democratiche. Dunque, fronteggiamo un rischio interno di fallibilità (fallibility), uno esterno di vulnerabilità (vulnerability) e uno cronico di degradabilità (degradability). La programmazione è una scrittura che rischia nuovamente e diversamente l’essere del mondo. Se la computazione è ontologicamente fallibile, vulnerabile e degradabile come possiamo costruire nuove forme di affidabilità e di affidamento? Di quale e quanta innovazione culturale avremo bisogno per poter mitigare al meglio i rischi (tra collassi, attacchi e degradi) connessi alla (in)sicurezza computazionale? Di quali nuove immunità (decentralizzazione, tecnodiversificazione, de/ri-globalizzazione, educazione, legislazione, cyberassicurazione, comunitarizzazione) avremo bisogno? Non è una domanda strumentale, ma esistenziale. Perché oggi, la superficie/abisso del rischio è il mondo intero nel suo essere programmabile, nel suo esser-C. Se la nostra nuova condizione arrischiata è il farsi-mondo del codice, ne va del nostro esser-ci” (Accoto, 2024)

Di cosa parliamo quando parliamo di AI (Accoto 2024)

“C’è un modo filosoficamente angusto e politicamente digiuno di guardare all’intelligenza artificiale. È quello strumentale (si tratta solo di tecnologia, intelligente o stupida a seconda dei casi), dicotomico (noi umani vs le macchine), antropocentrato (tenere l’umano nel loop, al centro e in controllo), allineante (rispetto dei valori umani) e dominante (all’umano spettano le decisioni) di un certo umanesimo. Si accompagna sovente anche ad una ingenua e consolante <anestetica dell’etica>. E ce n’è, invece, uno più filosoficamente educato e planetariamente avvertito, direi, che interpreta in maniera complessa e sofisticata il passaggio epocale di cui stiamo facendo esperienza. Un umanesimo, quest’ultimo, capace di cogliere lo statuto di provocazione culturale e intellettuale di quanto la tradizione chiama <intelligenza artificiale> nella lunga durata della civilizzazione umana. C’è, allora, un modo più profondo di leggere il momento attuale. È quello dell’occhio lungo dell’evoluzione culturale e cognitiva della civiltà, dell’intelligenza del lavoro e non solo biologica, dell’intelligenza sociale e non solo strumentale, dell’intelligenza planetaria e non solo antropica. Che è sempre, per l’appunto, insieme umana e oltreumana. Una short list personale di letture consigliate in caso di interesse …” (Accoto, 2024, postilla a The Latent Planet)

Filosofia dell’agency in un’era more-than-human (Accoto 2024)

Nel giorno ufficiale dell’EU AI ACT col suo mandato catecontico, per le imprese si fanno più pressanti giuridicamente i temi tech dell’agency e della responsibility. Ma cosa dice la filosofia? Dire agency è spalancare una vertigine filosofica tutta da esplorare e scavare anche arrischiatamente. Da qualche anno, ho iniziato a investigare questo dominio concettuale cercando di calarlo strategicamente dentro le nuove ingegnerie e le nuove economie a supporto di imprese, istituzioni e associazioni (tema chiave nei miei philtech lab, i miei laboratori di filosofia dell’ingegneria). A partire da “Il mondo dato” (2017) dove parlavo di agentività strumentale e sociale del codice software per poi passare attraverso i dispositivi di automazione e autonomia robotica de “Il mondo ex machina” (2019) tra smart contract e stack di protocolli per arrivare alle operazioni simulative degli agenti autonomi dell’AI generativa ne “Il mondo in sintesi” (2022). Nella saga delle tre terraformazioni (la mia trilogia), ho affrontato l’interrogazione di senso di questa <capacità> direi meno ingenua e meno priva di intelligenza di quanto possa sembrare a prima vista. Un accenno lo trovate anche nel mio saggio breve, “The Latent Planet” (2024). Ma c’è una lunga storia di come abbiamo cercato, nel corso della civiltà moderna e contemporanea delle macchine, di comprendere e rendere operativo il concetto di agency dei sistemi di automazione e di autonomia macchinica. Andando via via anche oltre le cornici culturali di un umanesimo anestetico (impaurito dall’AI, arrabbiato con l’AI, depresso per l’AI o viceversa acriticamente entusiasta) che ci impedisce di cogliere, con consapevolezza piena, la stratificazione, la sovrapposizione, l’interdipendenza, la negoziazione di agenti umani e non umani, dentro le liminalità morfanti del loro nuovo divenire culturale e ingegneristico. Piuttosto dobbiamo valutare criticamente e valorizzare positivamente al meglio anche le implicazioni concettuali trasformative di dimensioni correlate che stanno cambiando sotto i nostri occhi: l’intenzionalità e la preterintenzionalità delle macchine, la causalità e la responsabilità more-than-human, l’opacità nativa della simulazione computazione e la sua intellegibilità e spiegabilità, il giudizio e la costruzione assemblata della decisione, l’allineamento ma anche il disallineamento, la cognizione sintetica del mondo e l’azione multiagenziale” (Accoto, 2024 postilla a The Latent Planet).

” …we would need to know more about the nature of the capacity of agency” (Handbook of Philosophy of Agency)
“ …relevant to modeling humans, but it is less defensible when developing synthetic agents” (Explainable Agency in Artificial Intelligence)
“ … these AI features create gaps in traditional responsibility practices” (Handbook of Philosophy of Responsibility)
“ … we need to move beyond a traditional understanding of responsibility” (Technology, Anthropology and the Dimensions of Responsibility)

Codice su Rai 1: la nuova stagione dal 12 luglio

Dal 12 luglio su Rai 1 in seconda serata torna Codice il programma ideato e condotto dalla giornalista Barbara Carfagna (vincitrice quest’anno del Premio Biagio Agnes 2024 per la divulgazione scientifica). Un grazie di cuore a Barbara per il coinvolgimento e l’ospitalità anche in questa nuova stagione del suo programma, stagione ricca di temi alla frontiera dell’innovazione, di servizi da molti paesi del mondo e di prospettive sulle opportunità e le vulnerabilità (e le immunità emergenti) del Pianeta Terra Digitale che ci accingiamo ad abitare. Qui uno scatto dagli studi di registrazione di via Teulada a Roma. A presto e buona visione!

Tra diritto delle nuove tecnologie e filosofia delle nuove ingegnerie: una conversazione (Accoto 2024)

Questa settimana il lancio degli < Stati Generali dell’Intelligenza Artificiale > in Lombardia (100 milioni di euro alla partenza) con l’introduzione del Governatore Attilio Fontana, la conclusione dell’Assessore Alessandro Fermi e la moderazione del giornalista ed editorialista del Corriere della Sera Massimo Sideri … qui uno scatto dal panel con Oreste Pollicino, tra macchine di Turing e istituzioni di Turing, un dialogo tra diritto delle nuove tecnologie e filosofia delle nuove ingegnerie. Un grazie alla Regione per l’invito ad una giornata così importante per l’ecosistema lombardo, per gli apprezzamenti finali e la calorosa l’ospitalità. Ora si avvia con il coinvolgimento degli stakeholder e con una consapevolezza operativa matura l’iniziativa LombardIA, l’iniziativa di governance e sviluppo in materia di Intelligenza Artificiale avviata da Regione Lombardia per fare del territorio lombardo e del suo ecosistema di ricerca e innovazione un punto di riferimento nazionale ed europeo nello sviluppo e nell’adozione di tecnologie di Intelligenza Artificiale. L’augurio di buon lavoro e proseguimento a tutti e tutte!

L’umano come soglia esitante del mondo (Accoto 2024)

Se l’umano è soglia e il varco è linea, tornare a interrogarsi sulla nostra liminalità morfante, sul nostro essere soglia esitante di conoscenza, esperienza e intelligenza del mondo è uno dei compiti vitali della filosofia. <The Line> è il titolo del libro in scrittura di Jame Boyle che ha come sottotitolo “AI and the Future of Personhood”. Dentro una tradizione di pensiero giuridico in crescita su questi temi, il libro che ho iniziato a leggere riflette e discute dell’impatto di tecnologie e ingegnerie sulla categoria di <persona giuridica> e sulle sue trasformazioni in corso oltre l’umano (dalle corporation finanziarie alle specie bioingegnerizzate alle macchine a capacità computazionali crescenti). Una riflessione complessa e articolata che incrocia filosofia, giurisprudenza, economia e società. Se l’AI è una provocazione di senso, dobbiamo rispondere con l’innovazione culturale. Ai problemi tecnici si risponde con un pò di ingegneria, alle provocazioni intellettuali con lo sforzo (faticoso, difficile, dubbioso, rischioso) di fare innovazione culturale. Vale a dire produrre nuovi significati e sensi (anche arrischiatamente eretici e disturbanti, interroganti l’umano e poco accomodanti se si vuole) per un mondo in trasformazione rapida e profonda. E qui un aneddoto. Si racconta che il filosofo Diogene andasse in giro per la città di giorno con una lanterna accesa dicendo “cerco l’uomo”. Pochi ricordano però un altro episodio. Si narra che una volta gridò: “Ehi, uomini” e poi prese a dar colpi di bastone a chi era accorso urlando: “Ho chiamato uomini, non balordi”. Direi, un’etica giustamente sferzante l’umano e non solo consolante.

Scrive Boyle, “… The second side of the debate will have a very different character. Here the analogy is to corporate personhood. We did not give corporations legal personhood and constitutional rights because we saw the essential humanity, the moral potential, behind their web of contracts. We did it because corporate personality was useful. It was a way of aligning legal rights and economic activity. We wanted corporations to be able to make contracts, to get and give loans, to sue and be sued. Personality was a useful legal fiction, a social construct the contours of which—even now—we heatedly debate. Will the same be true for Artificial Intelligence? Will we recognize its personality so we have an entity to sue when the self-driving car goes off the road, or a robotic Jeeves to make our contracts and pay our bills? And is that approach also possible with the transgenic species, engineered to serve? Or will the debate focus instead on what makes us human and whether we can recognize those concepts beyond the species line, and thus force us to redefine legal personhood? The answer, surely, is “both” …. (MIT Press, 2024, forthcoming)

L’economia del feedforward: dall’archivio all’oracolo (Accoto 2024)

<< Stiamo entrando nella feedforward economy (oltre la vecchia economia del feedback), l’economia della predizione. L’ultimo esempio in ordine di tempo è il modello linguistico su larga scala (LLM) in quanto “text predictor”. E, dunque, se finora abbiamo vissuto al <tempo dell’archivio>, ora cominciamo a fare esperienza del <tempo dell’oracolo>. L’orizzonte non è più semplicemente il ‘real-time’, ma il ‘near-time’: non il tempo presente, ma quello prossimo. Vivremo in un tempo costantemente anticipato anche inavvertitamente. Le architetture planetarie sensitive, connettive, cognitive, simulative e attuative (tra codice, sensori, dati, algoritmi, protocolli) creano un mondo in cui l’informazione non fluisce più dal passato al presente, ma dal futuro al presente. Il dispositivo tecnico oracolare (arrischiato) ha l’obiettivo di ridurre la latenza informazionale tra il tempo dell’accadimento futuro degli eventi e il tempo presente del processamento macchinico dei dati. In questo, si evoca e si valorizza lo scarto temporale (che è sempre anche politico) tra il tempo dell’umano e quello della macchina. Mitigando i rischi connessi all’incertezza. Stiamo così passando dal ridurre lo scarto tra passato e presente (skew time) al ridurre lo scarto tra futuro e presente (forward time). Con un provocazione paradossale, potremmo osare e dire che la tecnica inverte l’ordine del tempo: il futuro accade prima del presente. Perché crea valore di business questo passaggio anche filosofico? Perché come umani non abbiamo solo la necessità di gestire il sovraccarico informativo del presente, ma anche e sempre più quella di gestire l’incertezza informativa del futuro. Non vogliamo ammalarci (medicina preventiva), non vogliamo trovare traffico in strada (mobilità allertativa), non vogliamo che si rompa il macchinario in fabbrica (manutenzione predittiva), non vogliamo perder tempo a scegliere il prossimo film da vedere dal catalogo (medialità raccomandativa), non vogliamo essere sorpresi da attacchi informatici (cybersicurezza adescativa). Nuova età oracolare non senza vulnerabilità e nuove immunità, certo. Dopo l’uscita di ‘Prediction Machines (HBR 2018) e di ‘Power & Prediction’ (HBR 2022) per il quale molti dei nostri problemi, bisogni, necessità e desiderata verranno trasformati e ridisegnati come questioni di predizione e dopo la pubblicazione di “The Age of Prediction” (MIT Press 2023) sulla natura cangiante del rischio e della predizione correlata (con simulazione inflattiva di mondi), è in libreria e sto leggendo “Cultures of Prediction” (MIT Press 2024) per un’analisi storico-filosofica profonda della scienza del predire e delle sue culture matematiche ed epistemiche. Dunque, se la “produzione della predizione” si palesa sempre più essere il business del futuro (quale che sia il business), è fondamentale oggi per le imprese approfondire filosoficamente questo passaggio ingegneristico insieme culturale e strategico >> (Accoto 2024 postilla a The Latent Planet)