Nel giorno ufficiale dell’EU AI ACT col suo mandato catecontico, per le imprese si fanno più pressanti giuridicamente i temi tech dell’agency e della responsibility. Ma cosa dice la filosofia? Dire agency è spalancare una vertigine filosofica tutta da esplorare e scavare anche arrischiatamente. Da qualche anno, ho iniziato a investigare questo dominio concettuale cercando di calarlo strategicamente dentro le nuove ingegnerie e le nuove economie a supporto di imprese, istituzioni e associazioni (tema chiave nei miei philtech lab, i miei laboratori di filosofia dell’ingegneria). A partire da “Il mondo dato” (2017) dove parlavo di agentività strumentale e sociale del codice software per poi passare attraverso i dispositivi di automazione e autonomia robotica de “Il mondo ex machina” (2019) tra smart contract e stack di protocolli per arrivare alle operazioni simulative degli agenti autonomi dell’AI generativa ne “Il mondo in sintesi” (2022). Nella saga delle tre terraformazioni (la mia trilogia), ho affrontato l’interrogazione di senso di questa <capacità> direi meno ingenua e meno priva di intelligenza di quanto possa sembrare a prima vista. Un accenno lo trovate anche nel mio saggio breve, “The Latent Planet” (2024). Ma c’è una lunga storia di come abbiamo cercato, nel corso della civiltà moderna e contemporanea delle macchine, di comprendere e rendere operativo il concetto di agency dei sistemi di automazione e di autonomia macchinica. Andando via via anche oltre le cornici culturali di un umanesimo anestetico (impaurito dall’AI, arrabbiato con l’AI, depresso per l’AI o viceversa acriticamente entusiasta) che ci impedisce di cogliere, con consapevolezza piena, la stratificazione, la sovrapposizione, l’interdipendenza, la negoziazione di agenti umani e non umani, dentro le liminalità morfanti del loro nuovo divenire culturale e ingegneristico. Piuttosto dobbiamo valutare criticamente e valorizzare positivamente al meglio anche le implicazioni concettuali trasformative di dimensioni correlate che stanno cambiando sotto i nostri occhi: l’intenzionalità e la preterintenzionalità delle macchine, la causalità e la responsabilità more-than-human, l’opacità nativa della simulazione computazione e la sua intellegibilità e spiegabilità, il giudizio e la costruzione assemblata della decisione, l’allineamento ma anche il disallineamento, la cognizione sintetica del mondo e l’azione multiagenziale” (Accoto, 2024 postilla a The Latent Planet).
” …we would need to know more about the nature of the capacity of agency” (Handbook of Philosophy of Agency)
“ …relevant to modeling humans, but it is less defensible when developing synthetic agents” (Explainable Agency in Artificial Intelligence)
“ … these AI features create gaps in traditional responsibility practices” (Handbook of Philosophy of Responsibility)
“ … we need to move beyond a traditional understanding of responsibility” (Technology, Anthropology and the Dimensions of Responsibility)

