< L’anestetica dell’etica > (Accoto 2024)


< Chi è, cos’è, da dove viene e come si diviene questo fantomatico “umano” che tutti vorrebbero al centro, in controllo, nel giro? Si dice che abiti in maniera prepotente e supponente il pianeta Terra. I geografi e gli antropologi contemporanei interrogati faticano a trovarne traccia. Eppure c’è: ma con quali modi di esistenza e di divenienza? Provocazione: che sia anch’esso e esso stesso allora, in fondo, solo una ‘persona ficta’? > (Accoto, 2024, postilla a The Latent Planet)

————-

<< If automated systems and software are opaque by design, the human renders decisions transparent. If automated decisions risk subordinating humans to technocracy, the human provides the requisite dignity of human consideration. If automated systems discriminate on account of the way data encodes social bias, the human corrects errors and ensures decision quality. If automation produces non-reflective forms of mindless governance, the human grounds the legitimacy and authority of legal commands. If software dissolves accountability into the procurement, design and engineering of a decision system, the human provides a coherent locus of responsibility. If automation includes emergent and generative qualities, the human garners trust, and normalises regulatory strategies premised on risk management.

These intuitions mean the human in the loop has become a sort of Talisman of the appeal to re-humanise – a symbolic regulatory apparatus.
At the same time, however the human in the loop’s capacity to satisfy those demands has been questioned on a number of registers. On one hand, there are empirical challenges to the human in the loop challenging its capacity to improve decision, satisfy dignitarian demands of rights (…)

Responses to the empirical unevenness of human in the loop requirements fall into two general classes. One group of commentators suggest the human in the loop’s failures stems from being not human enough. A more ‘human centric’ approach is necessary to recuperate the human in the loop (…)

Other scholars push the critique of human-centrism further, and identify fundamental incompatibilities between human and computational agency (…)

But these arguments terminate in a conceptual and regulatory impasse. Human oversight of automated decisions may, at times, be ineffective or functionally impossible, but abandoning human agency in decision-making is politically and functionally inconceivable … >>

(Goldenfein, Lost in the Loop – Who is the “human” of the Human in the Loop? 2024)

Il (di)segno della verità nell’era della simulazione (Accoto, HBR 2024)

Su Harvard Business Review, oggi, un mio nuovo contributo dedicato al (di)segno della verità nell’era della simulazione computazionale. Quali nuove “vulnerabilità”, ma anche “immunità” stanno emergendo in ragione di una computazione che si immonda e si fa mondo e verità? Di watermarking e dintorni, di tech, sec & trust. Perché dovremo non solo calcolare il rischio, ma rischiare il calcolo …

<< … E, tuttavia, la visione di corto raggio sull’immediato deve essere accompagnata dalla giusta prospettiva culturale sul cambio profondo che vivremo. Quindi, non dovremo solo imparare a gestire strategicamente il “calcolo del rischio”, ma più esistenzialmente il “rischio del calcolo”. Cioè, proprio, l’essere arrischiato nativo della computazione che oggi sempre più si fa mondo …>>

Un grazie al direttore di HBR Enrico Sassoon per l’interesse verso queste mie esplorazioni filosofiche e per l’ospitalità sul sito di HBR Italia dove lo trovate da leggere insieme ad un primo intervento sul <mondo come superficie (e abisso) dell’attacco>

https://www.hbritalia.it/homepage/2024/04/24/news/il-di-segno-della-verita-nellera-della-simulazione-15882

Dalle macchine di Turing alle istituzioni di Turing? (Accoto 2024)

< È opinione comune che bisogna ‘governare la tecnologia’. Da ultimo, in ordine di tempo, quella dell’intelligenza artificiale. A fronte delle arrischiate uncanny valley che stiamo attraversando (e anche già abitando), si sollevano richieste accorate di mettere a governo (giuridico, etico, sociale, politico…) le ondate tecnologiche in essere e in divenire (intelligenze artificiali, monete crittografiche, computer quantistici ad es). Vulnerabilità e rischi di varia natura sono i fattori scatenanti queste volontà normative a tre fondamenti (mercato in us, persona in eu, stato in ch). Certo, c’è un che di condivisibile e consolante (e di giusto) in questi richiami alla governabilità della dimensione tecnica. E, tuttavia, mi sembra però anche che queste esortazioni governamentali palesino tutte, in fondo, una certa naïveté culturale e filosofica. In che senso diciamo che la tecnologia è governabile? A quali condizioni immaginiamo si possa governare? Come, quando e per cosa deve essere sottoposta a governo la tecnica? Le sue fondazioni o le sue applicazioni? Le innovazioni del presente o le loro conseguenze all’orizzonte? E che dire dell’economia politica della tecnica? È solo ingegneria o è anche e soprattutto politica? Va da sé che, se necessita di regole, è perché è ritenuta o incapace di auto-governo (inabilità) oppure addirittura proprio renitente al governo (indisponibilità). L’ingovernabilità è temuta e negata. In tutti i casi, la governabilità è data e presupposta. La tecnologia è governabile, si può governare e si deve governare. E così sempre più, principi, valori, modelli, leggi, regole, pratiche sono evocati dall’esterno per incatenare una tecnica scatenata. Con un paradosso, la cibernetica, scienza massima del controllo, richiederebbe di essere a sua volta controllata. Ma è proprio così? E se, invece, ruotando la questione, il governo delle nuove tecnologie non fosse anche e soprattutto da ultimo un tema di tecnologie del nuovo governare? E se (come suggeriscono Berg, Davidson, Potts) dopo aver costruito le “macchine” di Turing, avessimo in cantiere anche di costruire le “istituzioni” di Turing? Se così fosse la questione del governo della tecnologia va ripensata radicalmente rispetto agli attuali modelli e discorsi che mi sembrano umanamente comprensibili, ma ingenui filosoficamente e digiuni politicamente. E, dunque, fatte le macchine (Turing machines), bisognerà fare le istituzioni corrispondenti (Turing institutions)? A noi spetta di cogliere criticamente questo nuovo passaggio e divenire dell’agire politico (e/o impolitico, direbbe Esposito). Dove impolitico non significa antipolitico, ma ‘il politico stesso guardato dal suo confine esterno o interno’ (Esposito). Chiediamoci, allora: quali nuove progettualità, quali nuove vulnerabilità, ma anche immunità emergeranno in virtù dell’impolitica dell’intelligenza artificiale oltre l’anestetica dell’etica? > (Accoto 2024)

Dell’ultima parola (Accoto 2024)

“AI è provocazione di senso e interrogazione di senso, come ho scritto altrove. In questa accezione, si, è rischio esistenziale per la specie sapiens. L’ultima delle sue provocazioni è intorno alla natura del linguaggio, della parola e della scrittura. E su questo proprio si interroga densamente < Last Words > dell’antropologo e linguista Paul Kockelman in uscita a fine 2024. Dunque, l’AI ci sferza culturalmente e filosoficamente rivendicando per sè un provocante (allettante e insidioso) disallineamento: può esistere e secondo quali modi di esistenza e di potenza, un linguaggio senza mente e senza mondo? Ma forse, a ben guardare, l’ultima parola umana è già stata detta. Perché d’ora in poi la parola dirà e sarà altro. Nel mentre si discute ingenuamente su chi debba avere l’ultima parola, l’ultima in realtà è stata già detta …” (Accoto 2024, postilla a The Latent Planet)

Sulla potenza retorica delle macchine (Accoto 2024)


“Influential Machines” (2024) esplora la portata e la potenza “retorica” dei sistemi di intelligenza artificiale. È un testo chiave per comprendere a fondo la performance della simulazione computazionale come capacità d’influenza su ambienti, contesti e comportamenti. L’abilità retorica, anch’essa finora prerogativa solo dell’umano insieme al linguaggio (da cui abbiamo escluso erroneamente in passato vegetali e altri animali), si mostra ora essere prerogativa anche delle macchine, una novità affascinante tanto quanto insidiosa. Linguaggio, ma non solo, dunque. Azioni e movimenti, espressioni dei volti, restituzioni sensoriali. Questa capacità energetica d’influenza macchinica comincia ad esercitarsi oggi su molti domini e a vari livelli. Da canale di comunicazione secondo il vecchio paradigma antropo-logistico, la tecnologia artificiale diviene sempre più attante della comunicazione evocando un nuovo paradigma macchino-registico. Anche lontano dalle frasi facili e consolatorie circolanti sull’umano in controllo e posizionato al centro o al vertice dei processi comunicazionali e decisionali. Riuscire a significare culturalmente e strategicamente questo passaggio è una delle sfide più rilevanti che le provocazioni di senso dell’intelligenza artificiale ci stanno già ponendo. Dunque, cibernetica e retorica. Come scrive Coleman, oltre al ‘front end’ e al ‘back end’, c’è un ‘deep end’ della cibernetica tutto da investigare … (Accoto 2024)


”… While machines might not be persons engaging in symbolic interaction with other humans, they might nonetheless add something persuasive as machines, located not in stylistics or lines of argument per se, but rather in the energies that attend the performance of computing “at work” as they carry out processes (like calculating and/or lampooning a president). The idea that machines can add something to rhetoric can be difficult for some people to accept … (Coleman, 2024)

AI non è prodotto o servizio, ma fabbrica (Accoto 2024)

<Se -come ho scritto- l’AI non è né prodotto né servizio, ma fabbrica, allora dobbiamo allargare la nostra prospettiva strategica oltre le metafore tradizionali. Certo, la metafora ecologica dell’ecosistema è sempre più adoperata per interpretare fenomeni economici ad alta inter-connessione e super-modularità come i business a piattaforma, i mercati a più versanti, le reti decentralizzate, i criptosistemi. E sicuramente quella ecosistemica è una lettura che offre significativi elementi analitici ed esplicativi. Insieme a questa, tuttavia, credo possa essere interessante incrociare ed esplorare anche un’ulteriore prospettiva. Traslando in questo caso non le metafore eco-biologiche, ma le modellizzazioni fisico-quantistiche. Un’interpretazione della meccanica quantistica sostiene, ad es., che un sistema quantistico probabilistico collassa in uno stato determinato solo quando è oggetto di misurazione. Se in ipotesi immaginiamo, allora, l’attuale computazione planetaria (come stack di infostrutture di misurazione e osservazione distribuita) come macchina astratta eminentemente misurativa, le sue operazioni di misurazione sarebbero l’atto che fa collassare in uno specifico stato d’esistenza le molte possibilità del mondo (e del business)? Ciò che è rilevante, allora, non è semplicemente il “datum” (dato) della misurazione, ma “l’actum” (atto) del misurare. Sorprendentemente, potremmo allora osare e dire che forse non esisteranno più le catene del valore con cui le imprese hanno immaginato servizi, industrie e mercati. Piuttosto, nel solco di questa suggestione filosofico-quantistica, ci saranno mondi costantemente simulati ed evocati, misurati e creati dentro e attraverso molteplici tecnoversi. Sempre più con dati, codice in runtime, algoritmi e protocolli, digital twin e simulazioni a varia scala, piattaforme in stack operazionalizzano i collassi (della funzione d’onda) del valore. Dunque, in questa mia incursione filosofica arrischiata, non avremmo più a che fare con ‘catene del valore’, ma con ‘collassi del valore’. In prospettiva, il valore non si produrrà più per concatenamento, ma per collassamento. Stack tecnologici, dunque, al pari di mega macchine/fabbriche quantistiche che collassano ininterrottamente e non senza vulnerabilità lo stato del mondo e con esso la creazione di valore di business. Se questo ha un qualche senso esplorativo, vanno ripensati modelli di pensiero e paradigmi culturali. Per passare concettualmente, strategicamente e operativamente, dalle classiche catene del valore agli attuali ecosistemi del valore ai futuri stack (quantistici) del valore. Tra scale, scope e speed, Fusion Strategy racconta con ricchezza di casi e modelli un mondo/un business industriale sempre più fatto di dati in real-time (datagraphs) e AI (anche generativa) che progressivamente si sta trasformando e ne esplora le strategie per competere nel passaggio dei paradigmi industriali> (Accoto 2024)

Un-AI o dell’incognita AI (Accoto 2024)

Sto ultimando la lettura dell’ultimo saggio di Roman Vladimirovich Yampolskiy (2024). L’autore è ascrivibile al filone tecno-culturale del “rischio esistenziale” dell’AI. Nei ringraziamenti d’apertura vengono citati Jaan Tallinn, Elon Musk e il Future of Life Institute come finanziatori parziali del suo lavoro di ricerca sull’AI safety. Il volume (qui sotto ne riporto la copertina) raccoglie i suoi studi più recenti che affrontano proprio tecnicamente e strategicamente le questioni della sicurezza nell’implementazione dell’AI. Il titolo provocatoriamente cita le 3 <Un> (unexplainable, unpredictable, uncontrollable, ma ce ne sono moltissime altre nel libro in sequenza) al centro delle sue ricerche. Il fronte intellettuale del rischio esistenziale mi sembra oggi in via di contenimento rispetto al clamore mediatico di qualche mese fa (l’orientamento dell’oggi è più sui rischi ‘non-esistenziali’, diremmo per contrapposizione, più immediati e urgenti: discriminazione, manipolazione, alienazione, sostituzione …). Peraltro, io sostengo che l’AI non è “rischio di esistenza”, ma “provocazione di senso”. E tuttavia può essere comunque interessante confrontarsi (e contro-argomentare nel caso di volta in volta) con le riflessioni e le esercitazioni di quanti prefigurano -da tecnici- situazioni estreme, inattese, sconosciute, inverificabili, ingestibili, inesplicabili, ingovernabili, incomprensibili). Il confronto e la discussione aperta con queste posizioni possono essere un esercizio speculativo e strategico utile a tenere la mente esplorativamente aperta e esercitata rispetto alle emergenze (nel senso di novità e rischiosità) a spettro più ampio delle vulnerabilità già note. E direi anche forse sono utili per controbilanciare alcune ingenuità filosofiche e politiche (human in-the-loop e in control, explainable AI, tech predictability/trust, machine alignment…) che circolano dentro un dibattito un pò troppo spesso tenuto sulla superficie delle questioni in essere e in divenire e poco scavato filosoficamente a ben guardare (Accoto 2024)

Il mondo come superficie e abisso dell’attacco (Accoto 2024)

Su Harvard Business Review Italia, un mio intervento tecno-filosofico su < tech & sec > per esplorare strategicamente le molte vulnerabilità del Pianeta Terra digitale. Perchè è il mondo, oggi, la superficie (e l’abisso) dell’attacco. Il mondo nel suo essere programmabile, il mondo nel suo esser-C (Accoto 2024). Un grazie al direttore di HBR Italia, Enrico Sassoon, per l’apprezzamento e per l’ospitalità. Buona lettura sul sito/blog di HBR Italia!

https://www.hbritalia.it

< Dai bracci meccanici agli abbracci robotici > (Accoto 2024)

“Noi e loro. Umani al tempo dei robot” è lo Speciale TG1 di Barbara Carfagna dedicato all’evoluzione e alla declinazione della robotica umanoide per come viene sviluppandosi in giro per il mondo. Settimana scorsa su RAI 1, una puntata ricca di prospettive e progetti planetari che ci porteranno, non senza complessità, dalla robotica industriale alla robotica sociale. Tra opportunità e vulnerabilità, lungo tutta la puntata i miei diversi interventi per collocare e leggere in una prospettiva culturale e filosofica questo passaggio (non scontato e non semplice) dai “bracci meccanici” agli “abbracci robotici” come l’ho definito con un’immagine provocatoria ed evocativa. Liberate dalle gabbie industriali dove le avevamo rinchiuse un tempo, le macchine si avviano a diventare agenti sociali ad autonomia e complessità crescente. Come e per chi gestiremo questo passaggio (vantaggio?) anche arrischiato di questa nuova automazione e della simulazione computazionale? Nel corso della puntata, ho raccontato di alcune potenziali linee di sviluppo: la robotica dei viventi (dal morbido al vivente), la robotica degli sciami (dal corpo allo sciame), la robotica degli agenti (dagli oggetti agli agenti). Infine, il richiamo alle evoluzioni ‘chimeriche’ che incrociano tecnologie diverse come robotica e blockchain (ma anche quantum computing e artificial intelligence e molto altro). Un grazie a Barbara Carfagna per l’invito ad accompagnarla e a contribuire a questa puntata dello Speciale TG1. In caso di interesse, l’intera puntata (1 ora) la si può rivedere su RAI Play