Forge is my philosophical tech lab. The philtech lab supports organisations and institutions in technically, critically and strategically thinking about code economy, data science, artificial intelligence, platform design and blockchain business.
Author: Cosimo Accoto
Research Affiliate at MIT | Author "Il Mondo Ex Machina" (Egea) | Philosopher-in-Residence | Business Innovation Advisor | www.cosimoaccoto.com
Nel preparare le lezioni universitarie per il nuovo insegnamento di ‘etica, responsabilità e contesti digitali’ che mi è stato assegnato a Unimore (II° semestre) così come nel predisporre i seminari e i tavoli executive di lavoro sulle forme istituenti delle nuove ingegnerie con i miei philtech lab, cerco sempre di tenere un punto di equilibrio tra le speculazioni più concettuali sul futuro e le sperimentazioni più operative nel presente. Le prime arrivano dai miei percorsi filosofici disturbanti e dall’aver cura del pensiero critico che un tempo si sarebbe detto continentale, l’altra dalla frequentazione e dall’innesto con i laboratori e i progetti soprattutto d’oltreoceano che sono all’opera per costruire in positivo quell’orizzonte. E’ un equilibrio faticoso, precario e mobile, indubbiamente, ma è anche, credo, l’unico modo di orientare (se non proprio governare) e valorizzare pensieri e azioni costruttive lontano da nichilismo e pessimismo tanto quanto da ottimismi e determinismi troppo ingenui o interessati. Un approccio, ad esempio, che ho ritrovato ben calibrato nel nuovo saggio di Derek Leben sulla fairness algoritmica. Perchè certamente non veniamo dal migliore dei mondi, ma forse non andiamo di necessità verso il peggiore. Sta anche a noi … (Accoto 2025)
La rubrica AI Pills di Pollicino AIdvisory continua come ogni settimana con il Prof. Cosimo Accoto, AI Strategic Senior Advisor.
Nel video, si evidenzia il passaggio epocale non solo dell’AI, ma, in special modo, dell’automazione e della nascita di nuove forme di coordinamento umano. Questo avviene tanto nel caso delle blockchain, quanto nel caso degli LLMs: letti istituzionalmente, sono nuovi modi per coordinare i rapporti umani.
Occorre, dunque, pensare meglio le risorse, pur, come si evidenzia, a fronte di vulnerabilità istituzionali: “se un tempo abbiamo detto code is law, oggi dobbiamo dire protocol is politics”.
Uno scatto a margine dell’incontro promosso da Nemetria in Fondazione Perugia con una sintesi della prospettiva filosofica e strategica che ho proposto alle imprese e alle organizzazioni impegnate nell’adozione dell’intelligenza artificiale. Ci rivedremo presto a valle dell’intervento per approfondire meglio insieme dimensioni progettuali e applicative dentro l’economia dei territori e dentro la cultura delle comunità. L’orizzonte strategico di cui abbiamo discusso è come passare dagli attuali approcci strumentali a quelli più strutturali e finanche istituzionali. Grazie degli apprezzamenti e dei riscontri e a presto!
” … Siamo abituati a pensare alle tecnologie e alle ingegnerie come innovazioni strumentali o strutturali. Accade però talvolta, anche se più raramente, che alcune sociotecnicalità siano invece più radicalmente istituenti vale a che dire che cambiano in profondità le forme e i modi con cui gli umani si coordinano per svolgere compiti e funzioni produttive, economiche e sociali e politiche. Pensiamo, per fare un esempio storico, alla divisione del lavoro che ha portato al sistema di fabbrica. La divisione del lavoro non è un’innovazione tecnologica, è un’innovazione istituzionale. Cambia il modo con cui la società e l’economia (e i rispettivi attori) si coordinano per produrre e far circolare le merci. Ecco, oggi stiamo assistendo alla nascita in potenza di nuove forme di coordinamento e quindi nuove istituzionalità umane.
Un altro esempio contemporaneo di nuova ingegneria istituente è la blockchain con i suoi registri distribuiti a consenso crittografico. Possiamo vedere nella catena dei blocchi semplicemente tecnicalità: programmi software, protocolli informatici, primitive crittografiche. Ma in realtà letta istituzionalmente è un modo nuovo di coordinare le interazioni di attori socioeconomici. Un altro esempio sono i modelli linguistici su larga scala dell’intelligenza artificiale. Siamo partiti considerandoli strumenti probabilistici di calcolo delle parole. E tecnicamente lo sono chiaramente. Ma nell’interazione iterata tra utenti che chiedono e macchine che rispondono si inizia a produrre quel coordinamento e allineamento cognitivo che porta alla costruzione di nuovi mercati. Un altro ancora sono i protocolli di comunicazione della computazione quantistica che non solo processa l’informazione in modi nuovi, ma che la fa circolare con nuove dinamiche di networking dell’informazione (entanglement) e quindi di coordinamento umano rinnovato nelle sue forme.
Abbiamo iniziato costruendo le macchine di Turing e queste stanno costruendo le nuove istituzioni di Turing …” (Accoto 2025)
Mentre le frontiere dell’ingegneria agenziale sono impegnate nella costruzione ed evoluzione tecnologica di “sistemi” multi-agenti (si veda il recente, ottimo, libro tecnico di Rothman 2025), in prospettiva e più strategicamente le economie e le imprese saranno presto chiamate a disegnare e istituire “mercati” multi-agenti. Il passaggio dall’idea di “sistema” multiagenziale all’idea di “mercato” multiagenziale è e sarà uno shift culturale significativo per organizzazioni e istituzioni. Se finora logiche e dinamiche di mercato (e della sua progettazione e manutenzione) sono state infatti eminentemente umane, ora di tratterà di immaginare come disegnare i meccanismi e le strategie per mercati (non solo sistemi) more-than-human: dal signaling delle preferenze al processing delle informazioni al nudging degli incentivi al making delle decisioni e così via. Questo passaggio dall’ingegneria all’economia sarà la vera sfida che attende nei prossimi mesi e anni imprese e leader: dall’essere agent orchestrator al divenire market designer (Accoto 2025)
Prestiamo attenzione perché, con i suoi cicli di vita e morte (e rinascita), la “Bolla” ad un certo punto poi diviene il “Pianeta”. E senza che ce ne accorgiamo. Divenire Pianeta: questo sembra essere il mandato avventato (e il destino incerto) della Bolla (delle bolle). Scrive nei blurb al libro Peter Thiel: “perchè non si può procrastinare indefinitamente il futuro”. Mi concentrerei, allora, piuttosto su quest’ultimo (il Pianeta e la sua immanenza al di là dell’imminenza) senza dare peso alla cronaca, ora avvilita ora eccitata, con i suoi noti ritmi/riti di insufflazione ed espirazione tecno-finanziaria. Cercando però di non cadere vittime di un ingenuo o interessato determinismo e/o accelerazionismo. Piuttosto, un focus strategico sulla natura e sulla forma di questa nuova terraformazione in corso e delle sue ingegnerie ed economie a partire da quelle simulative dell’artificializzazione dell’intelligenza e dei processi della nuova accumulazione originaria. Dunque, perché (accade) e per chi (accade) e come (accade) la bolla? Nella mia personale collezione di saggi che ruotano intorno al pensiero e all’azione palantiriani, tra filosofia, ingegneria ed economia, oggi aggiungo questo volume (Boom. Bubbles and the End of Stagnation). In una collana (non a caso forse) edita da Stripe, il senso della bolla tra speculazione finanziaria e speculazione filosofica …” (Accoto, 2025)
Un mio intervento filosofico disturbante intorno alle nuove condizioni di possibilità del significare e dell’agire umani nell’era delle macchine istituenti. Ne discuteremo insieme martedì 13 gennaio 2026 a STEP FuturAbility Discrict (inspired by Fastweb + Vodafone) in un workshop aperto al pubblico milanese in Piazza Olivetti 1. Vi aspettiamo per capire a chi spetta l’ultima parola!
<< …If automated systems and software are opaque by design, the human renders decisions transparent. If automated decisions risk subordinating humans to technocracy, the human provides the requisite dignity of human consideration. If automated systems discriminate on account of the way data encodes social bias, the human corrects errors and ensures decision quality. If automation produces non-reflective forms of mindless governance, the human grounds the legitimacy and authority of legal commands. If software dissolves accountability into the procurement, design and engineering of a decision system, the human provides a coherent locus of responsibility. If automation includes emergent and generative qualities, the human garners trust, and normalises regulatory strategies premised on risk management. These intuitions mean the human in the loop has become a sort of Talisman of the appeal to re-humanise – a symbolic regulatory apparatus. At the same time, however the human in the loop’s capacity to satisfy those demands has been questioned on a number of registers. (…) These arguments terminate in a conceptual and regulatory impasse. Human oversight of automated decisions may, at times, be ineffective or functionally impossible, but abandoning human agency in decision-making is politically and functionally inconceivable >> (Goldenfein, Lost in the Loop. Who is the “human” of the Human in the Loop?)
La nuova economia della macchina: da general-purpose a institutional technologies.
Dobbiamo andare oltre i paradigmi dell’intelligenza simulata (cognition senza mente e senza mondo) o della agentività macchinica (agency senza intenzionalità e senza responsabilità). E’ necessario per le imprese esplorare piuttosto e più strategicamente la potenza “istituente” delle nuove ingegnerie, la loro capacità di dare vita a nuove forme di istituzionalità più-che-umane (automation + augmentation + coordination). Dunque, né fintamente intelligente, né banalmente agente, ma più radicalmente istituente.
Per l’appunto, “nuova vitam instituere” come recitava il titolo del mio intervento all’ultima edizione della MIT Sloan Management Review Conference 2025 (slide sotto e articolo al primo commento).
Saranno mesi di forte sovraesposizione mediatica, ma anche di sperimentazione innovativa sulla frontiera ingegneristica dell’emergente economia agentiva. Al centro dell’attuale progettazione, sono identità, funzionalità, sicurezza e responsabilità istituenti degli agenti artificiali autonomi in un ecosistema di co-creazione di valore. In una prospettiva concreta, segnalo tre rilevanti iniziative, recenti e differenti, che stanno lavorando sulla creazione di trust negli agenti autonomi (e nelle architetture ed ecosistemi di economia agentica): “Loyal Agents” (Alex Pentland & C.), “Trustless Agents” (Marco Rossi & C.), “Identity Management for Agentic AI” (Tobin South & OpenID Foundation)
Più filosoficamente, nell’era degli ecosistemi multiagentici, la cocreazione di valore sarà un dispositivo “catallattico” (di scambio o transazionale), “simpoietico” (di coevoluzione o coopetitivo) e “prolettico” (di anticipazione o feedforward) con cui attori economici eterogenei -antropici (umani) e non antropici (agenti)- autonomamente e contestualmente scambieranno servizi-per-servizi integrando risorse di varia natura (operanti e operande, tangibili quanto intangibili, naturali e non, proprietarie e non proprietarie, automate ed eteromate, algoritmiche e protocologiche).
Con catallassi, simpoiesi e prolessi, questi ecosistemi multi-agente cercheranno così di valorizzare non solo gli ‘effetti di rete’ (network effects), ma anche gli ‘effetti di scala’ (scale effects) e gli ‘effetti di flusso’ (flow effects) su temporalità e spazialità more-than-human. Le nuove ingegnerie (come ad esempio i modelli linguistici su larga scala o i registri distribuiti a consenso crittografico o i protocolli comunicativi di una rete quantistica) andranno viste allora nella loro capacità “istituente” (non solo “agente”), come nuovi meccanismi e dispositivi di coordinamento di interazioni socioeconomiche più-che-umane. A quel punto il concetto stesso di ‘mercato’, come scrivono per altro verso Posner e Weyl, dovrà essere ripensato. Siamo pronti a ragionare sul potere istituente degli agenti autonomi?” (Accoto 2025)
“Like people, no agent stands alone but instead thrives in a community. People have policies and rules that govern their behavior and so do agents. Like people, no one single agent is probably in the position to address larger challenges, and like people, agents work in teams to solve bigger and more complex problems. People organize into multi-layered groups called governments to create frameworks for laws, policies, and regulations, and soon agents will evolve similar governance structures. People organize into modern ecosystems we call businesses to provide services that no individual person can do on their own, and soon so will agents also. Agentic Mesh provides the services that let agents collaborate. It makes agents discoverable, observable, and operable” (Broda & Broda, Agentic Mesh 2026)
AI: From Tokens to Markets (Accoto 2025) – qui una slide da un mio recente intervento corporate sulle frontiere delle nuove ingegnerie istituenti. Cos’è, dunque, filosoficamente un large language model: un text predictor, un knowledge engine o un market maker?
Come ho scritto altrove <<… sarà necessario che il nostro pensare intorno alle nuove ingegnerie (dalle intelligenze artificiali alle reti decentralizzate alle comunicazioni quantistiche) evolva oltre la dimensione “strumentale” -con cui ingenuamente molti le analizzano ancora- per andare verso una loro interpretazione più “strutturale” e finanche “istituzionale”. È strategico cominciare a pensare, ad esempio, ai modelli linguistici su larga scala o ai registri decentralizzati a consenso crittografico o ancora alle reti di quantum communication non come mere strumentalità tecnologiche (dagli algoritmi di back-propagation ai protocolli di zero-knowledge proof ai dispositivi sim-to-real/real-to-sim al quantum networking) alla base di “soluzioni” e “sistemi”, ma come emergenti forme di “istituzioni” socio-economiche. E cioè potenziali (certamente anche arrischiate) istituzionalità più-che-umane che si affiancheranno e si incroceranno (e col tempo anche in competizione direi) con altre, diverse e più antiche istituzioni come le imprese, i mercati, le burocrazie, gli stati. Esploreremo insieme l’orizzonte tecnologico per cogliere speculativamente questa sorprendente capacità “istituente” della tecnica … >> (Accoto 2025)
Un primo approfondimento più esteso lo potete trovare nell’articolo pubblicato e ora disponibile in open access
Accoto C. (2025), L’Intelligenza artificiale: soluzione, sistema o istituzione?, Sinappsi, XV, n. 2, pp. 8-17. Sinappsi è la rivista quadrimestrale di INAPP, l’Istituto Nazionale per l’Analisi delle Politiche Pubbliche