L’AI non è prodotto nè servizio, ma fabbrica (Accoto 2023)

“L’AI non è un prodotto e neppure un servizio. Piuttosto, è un assemblaggio sociotecnico cognitivo-produttivo che istanzia e orchestra nuove forme (e dinamiche) di organizzazione della produzione e, dentro queste, nuove forme (e dinamiche) della futura divisione del lavoro. Come ho scritto (su HBR) la cd. intelligenza artificiale non è mai ‘in sé’ e ‘per sé’ (puro artefatto strumentale), ma sempre ‘con altri’ (è sistema sociotecnico) e ‘per altri’ (è costruzione sociomorfica). Così, mi sembra di poter dire che le controversie correnti sul governo dell’AI sono filosoficamente ingenue e politicamente miopi. A fronte delle arrischiate uncanny valley che stiamo attraversando (e, in una qualche misura, anche già abitando), si sollevano richieste accorate -quando non proprio allarmate- di mettere a governo (giuridico, etico, economico, sociale, politico…), di volta in volta, il dato, l’algoritmo, il modello, il codice. A questo processo di ‘reificazione’ (vale a dire, l’isolare e il ridurre l’AI a cose e, in particolare, a mere tecnicalità), fa da contraltare, la ‘personificazione’ (cioè, l’antropomorfizzare macchine e interfacce assegnando loro, di volta in volta, intelligenza, coscienza, senzienza e così via). Sono entrambi approcci ingenui e miopi, per l’appunto, che non colgono l’articolazione assemblativa che, ideologicamente, chiamiamo intelligenza artificiale. Non solo conoscenza (ragione), ma lavoro (opera). Che non è solo pensiero (razionalità), ma anche azione (agentività). Che non riguarda solo l’umano con i suoi antropomorfismi e sociomorfismi, ma anche il nostro orizzonte sempre più more-than-human. Un orizzonte intricato, di assemblaggi, perturbazioni, aggrovigliamenti, speciazioni, automazioni, reticolati, derivati, stratificazioni, distribuzioni che turbano, oggi, il sonno di molti. Anche il discorso regolatorio e giuridico comincia a prendere consapevolezza che occorrerà dotarsi di sguardi perturbati e inconsueti per riuscire a cogliere un divenire poco familiare (ad es. “Three Liability Regimes for Artificial Intelligence”). Di quanta innovazione culturale saremo capaci? Quanto riusciremo ad essere aberranti nel nostro pensare il nuovo?” (Accoto 2023)

“…we propose three liability regimes for addressing the considerable responsibility gaps caused by AI-systems: vicarious liability for autonomous software agents (actants), enterprise liability for inseparable human-AI interactions (hybrids) and collective fund liability for interconnected AI systems (crowds) …We focus on three fundamental risks that AI systems pose: autonomous decision-making, association with humans, and systemic interconnectivity … We integrate insights from social theory, moral philosophy, and the philosophy of technology. These insights are particularly helpful for dealing with complex issues such as personification of algorithms, emergent properties of human-algorithm associations and distributed cognition of interconnected network…” (Beckers & Teubner)

L’era inflattiva dell’immagine sintetica (Accoto 2023)

Su EconomyUp un mio nuovo intervento sull’era generativo-inflattiva delle immagini sintetiche. Dopo l’esame dei linguaggi sintetici della scorsa puntata, è ora il turno di osservare da vicino una nuova uncanny (sexy e risky) valley, quella delle immagini di sintesi. Dalla produzione artistica alla diagnostica medica, dal marketing digitale al design industriale, l’era inflattiva dell’intelligenza artificiale generativa farà leva anche sulle potenzialità (e le vulnerabilità) dell’immagine sintetica. 

“Se l’immagine ‘latente’ in un processo meccanicamente fotografico era prodotta chimicamente, l’immagine ‘latente’ in un processo artificialmente generativo è prodotta algoritmicamente” … E dovremo parlare non più di “fotorealismo”, ma di “algorealismo” (Accoto 2023). Ma questo è un passaggio filosofico oltre che tecnologico e non dobbiamo sottovalutarlo. Mentre infuria in Italia la querelle legale su ChatGPT e i linguaggi sintetici (tema di un mio primo intervento) in ragione del provvedimento del Garante, su EconomyUp trovate oggi un mio nuovo contributo dedicato questa volta all’era delle immagini sintetiche. Una nuova, uncanny (sexy e risky) valley foriera di sorprendenti opportunità, ma sicuramente anche di altre controversie …
Se l’avete perso è qui sotto. Buona lettura!

Un grazie al direttore Iozzia per l’interesse e l’ospitalità

https://www.economyup.it/blog/e-cominciata-lera-dellimmagine-di-sintesi-come-funziona-quali-rischi-porta/

Prompt engineering come immanente chaos engineering (Accoto 2023)

“Filosoficamente e operativamente, il prompt engineering è una forma immanente ultima di chaos engineering” (Accoto 2023)

“È opinione diffusa e discorso circolante che bisogna ‘governare la tecnologia’. Da ultimo, in ordine di tempo, quella dell’intelligenza artificiale. A fronte delle arrischiate uncanny valley che stiamo attraversando (e, in una qualche misura, anche già abitando), si sollevano richieste accorate di mettere a governo (giuridico, etico, sociale, politico…) le ondate tecnologiche in essere e in divenire. Vulnerabilità e rischi di varia natura sono i fattori scatenanti queste volontà disciplinari e normative. Naturalmente, c’è un che di condivisibile e consolante (e anche di giusto) in questi richiami alla governabilità della dimensione tecnica. E, tuttavia, mi sembra però anche che queste esortazioni governamentali palesino tutte, in fondo, una certa naïveté culturale e filosofica. Se non anche un velato e intenzionale offuscamento e/o dirottamento del discorso. In che senso diciamo che la tecnologia è governabile? A quali condizioni immaginiamo si possa governare? Come, quando e per cosa deve essere sottoposta a governo la tecnica? Le sue intenzioni o le sue applicazioni? Le innovazioni del presente o le loro conseguenze all’orizzonte? E che dire dell’economia politica della tecnica? È solo ingegneria o è anche e soprattutto politica? Va da sé che, se necessita di regole, è perché è ritenuta o incapace da sé di governo (inabilità) oppure addirittura proprio renitente al governo (indisponibilità). L’ingovernabilità è temuta e negata. In tutti i casi e comunque, la governabilità è data e presupposta. La tecnologia è governabile, si può governare e si deve governare. E così sempre più, principi, valori, modelli, leggi, regole, pratiche sono evocati per incatenare, prometeicamente, la tecnica. Con un paradosso, la cibernetica, scienza del controllo, richiede di essere a sua volta controllata. Ma è proprio così linearmente e ingenuamente che stanno le cose? Che mandato (si) è dato alla tecnica?” (Accoto 2023)

———————-

Philosophically and operationally, prompt engineering is an ultimate immanent form of chaos engineering” (Accoto 2023).

“There is a widespread opinion and discourse that we need to ‘govern’ technology. Most recently, in the order of time, that of artificial intelligence. In view of the risky uncanny valleys we are currently passing through (and to some extent already inhabiting), heartfelt calls are being made for the (legal, ethical, social, political…) governance of existing and emerging technological waves. Vulnerabilities and risks of various kinds are the triggers of these disciplinary and normative wills. Of course, there is something sympathetic and comforting (and even right) in these calls for the governability of the technological dimension. And yet, it also seems to me that these governmental exhortations all reveal a certain cultural and philosophical naivety. If not a veiled and deliberate obfuscation and/or hijacking of the discourse. In what sense do we say that technology is governable? Under what conditions do we imagine that it can be governed? How, when and why does technology need to be governed? Its intentions or its applications? The innovations of the present or their consequences on the horizon? And what about the political economy of technology? Is it only technical or is it also and above all political? Of course, if it needs rules, it is because it is seen as either incapable of governing itself (ungovernability) or even unwilling to be governed (unwillingness). Ungovernability is feared and denied. In all cases, however, governability is given and assumed. Technology is governable, it can and must be governed. And so more and more principles, values, models, laws, rules, practices are invoked to chain technology in a Promethean way. Paradoxically, cybernetics, the science of control, also demands to be controlled. But is this really linear and naive? What mandate is given to technology?” (Accoto 2023)

Abitare nuove uncanny valley (Accoto 2023)

[MIT SpaceTech 2023] Atterrare, attraversare e finanche abitare nuove, uncanny valley: è il senso del nostro ‘divenire’ umani, nuovamente e diversamente ogni volta (dalle terre aliene dei modelli linguistici, sintetici e inflattivi, alla GPT fino alle lande desertiche delle missioni interplanetarie su Marte). Non potremo abitare in consapevolezza, fiducia e prosperità queste vallate perturbanti semplicemente restando umani, ma divenendo umani in modo diverso ancora una volta. Se l’umano è/diviene soglia come si dice postmodernamente, la filosofia è/diviene sempre fuori di sè … 

[photo: MIT SpaceTech 2023]

“Il doppio del mondo. Dai mirror world ai digital twin” (Accoto, MIT Sloan Management Review Italia, 1/2023)

[articolo] Pubblicato oggi un mio lungo articolo sul nuovo numero di MIT Sloan Management Review Italia (1/2023). Questo numero della rivista è dedicato al tema dei gemelli digitali e il titolo del mio articolo è: “Il doppio del mondo. Dai mirror world ai digital twin”. Un grazie di cuore ad Edizioni ESTE (casa editrice italiana della rivista) e al direttore della rivista Francesco Varanini per l’invito e l’ospitalità. Un numero ricco di contributi da leggere interamente per approfondire, tra opportunità e vulnerabilità, un paradigma trasformativo di assoluto rilievo per imprese, organizzazioni, istituzioni, professionisti, manager e cittadini.

Maggiori info per acquisti e abbonamenti sul sito di Este al link
https://www.este.it/mit-sloan-management-review-italia/

Simulacri dell’umana intelligenza (Accoto, HBR, marzo 2023)

Qui trovate il mio articolo pubblicato su Harvard Business Review (marzo 2023) “sull’era della parola sintetica”. Un grazie al direttore Enrico Sassoon per l’interesse verso le mie esplorazioni filosofiche arrischiate, per l’invito a contribuire allo speciale sull’intelligenza artificiale e l’ospitalità dentro le pagine dell’ultimo numero della rivista.

“Attraverseremo e abiteremo una nuova uncanny valley: l’era inflattiva dell’intelligenza artificiale generativa. Linguaggi macchinici, immagini artificiali, musiche sintetiche, mondi virtualizzati, identità avatariche e molto altro. Come ho scritto nel mio saggio “Il mondo in sintesi”, è un nuovo catalogo del reale che nasce popolato di contenuti, informazioni, creazioni, storie, simulazioni, giochi, esperienze che non hanno precedenti nella storia della civiltà umana. O meglio: questa è l’ennesima, nuova spinta mediale inflattiva che arriva a turbare e scardinare radicalmente logiche e dinamiche consolidate da qualche tempo per l’umano su questo pianeta. Tuttavia, un’era mediale inflazionaria non è tale solo per l’esplosione di tecniche riproduttive, contenuti mediali, veicoli distributivi o velocità di circolazione. “A media age does not become inflationary merely because of the multiplications of kinds, speed, and power of media, however. Media become inflationary when the scope of their representation of the world threatens the confines of their culture’s prior notions of reality” (Medialogies, Castillo & Egginton). È un attacco alla nozione di realtà e alla sua rappresentazione (storicamente determinata) che l’umano ha prodotto e di cui istanzia il collasso. A fronte di questo attacco e collasso, un umanesimo impaurito o arrabbiato, ma anche per converso ingenuamente entusiasta non ci aiuterà. Non sarà una soluzione un umanesimo che proponga timorosamente la restaurazione culturale del ‘tornare all’umano’ o del ‘restare umani’. Piuttosto, dobbiamo prepararci a sfide importanti e di lungo periodo al di là delle banalità e delle ingenuità che si possono leggere quotidianamente. Siamo in una uncanny valley tecnologica tutta da esplorare nuovamente nelle sue potenzialità e vulnerabilità. Come in altre epoche inflazionarie, abbiamo bisogno di un umanesimo che sappia coraggiosamente promuovere un’innovazione culturale. Come fece, ad esempio, Lorenzo Valla inventando nel 1440 la filologia (De falso credita et ementita Constantini donatione) a contrasto delle vulnerabilità della neonata parola “scritta” (e poi stampata) dopo l’era della parola “detta”. All’epoca, per cogliere i benefici di quell’era inflazionaria abbiamo avuto bisogno di fare innovazione culturale. Allo stesso compito siamo chiamati oggi dentro questa nuova era inflazionaria dell’intelligenza artificiale generativa” (Accoto 2023, postilla)

Simulacri dell’umana intelligenza (Accoto, HBR, marzo 2023)

Un mio lungo articolo è stato pubblicato nel numero in uscita della rivista Harvard Business Review Italia (marzo 2023). Si intitola “Simulacri dell’umana intelligenza” ed è inserito nello speciale di HBR sull’intelligenza artificiale (che trovate in edicola e in rete). Un grazie al direttore Enrico Sassoon per l’interesse verso le mie esplorazioni filosofiche e per l’invito a contribuire al nuovo numero. Buona lettura! cc 

In dialogo con Luca De Biase sulle intelligenze artificiali inflattivo-generative (Accoto 2023)

in dialogo con il direttore Luca De Biase, editor per l’innovazione al Sole24Ore, nel format di War Room InnovAction. Un grazie per l’interesse, per l’invito e l’ospitalità. Abbiamo conversato su diversi temi legati all’impatto dell’intelligenza artificiale e anzitutto sul superamento del paradigma tecno-centrico dell’AI. La cosiddetta ‘intelligenza artificiale’ non è mai da pensare ‘in sé’ e ‘per sé’ (artefatto macchinico), ma sempre ‘con altri’ e ‘per altri’ (assemblaggio sociotecnico) tra antropomorfismi e sociomorfismi. Poi abbiamo discusso dei nuovi linguaggi sintetici (GPT e affini) che simulano le competenze linguistiche umane (abbastanza bene quelle ‘formali’ interne al linguaggio, deboli o assenti quelle ‘funzionali’ tra linguaggio, pensiero e mondo); dell’innovazione culturale necessaria per fronteggiare le provocazioni intellettuali delle macchine mediali inflattivo-simulative (come fece Lorenzo Valla nel 1440 inventando la filologia per arginare le vulnerabilità all’arrivo della parola scritta e stampata dopo la parola detta); della novità epistemica e dei benefici dei gemelli digitali, una nuova rivoluzione nella conoscenza; di Leonardo da Vinci e di un’analogia tra le sue dissezioni cadaveriche e le contemporanee simulazioni computazionali; delle piattaforme come infostrutture planetarie e delle loro esternalità negative da arginare e negoziare con strategie nuove (il fact checking o l’educazione digitale non bastano). Un grazie ancora a Luca. Potete rivedere la conversazione (40 minuti) sotto linkata 👇