< AI è interrogazione e esercitazione di senso. In questa accezione, si, è anche rischio esistenziale per la specie sapiens. Perché è già un pensare che oltrepassa e oltrepensa questo mondo. L’ultima delle sue provocazioni è intorno alla natura del linguaggio, della parola e della scrittura. Su questo proprio investiga densamente < Last Words > dell’antropologo e linguista Paul Kockelman in uscita a fine 2024. Dunque, l’AI ci sferza culturalmente e filosoficamente rivendicando per sè un provocante (allettante e insidioso) disallineamento: può esistere e secondo quali modi di esistenza, di divenienza e di significanza, un linguaggio senza mente e senza mondo? E, dunque, sono queste le ultime parole umane che stiamo pronunciando prima di dare la parola definitiva alla macchina? E una volta data e presa la parola, l’avrà anche su decisioni e destini? Per rispondere a queste provocazioni intellettuali, abbiamo bisogno di (fare) innovazione culturale. Senza le seduzioni delle sedazioni, senza l’anestetica dell’etica (un’etica consolante e non sferzante l’umano). Perchè forse, a ben guardare, siamo già oltre filosoficamente. Perchè, mentre si discute ingenuamente su chi debba avere l’ultima parola (tra l’umano e la macchina), l’ultima parola in realtà è stata forse già detta. Perchè d’ora in poi la parola umana sarà e dirà altro … > (Accoto 2024, postilla a The Latent Planet)
Author: Cosimo Accoto
AI e l’anestetica dell’etica (Accoto 2024)
< Chi è, cos’è, da dove viene e come si diviene questo fantomatico “umano” che tutti vorrebbero al centro, in controllo, nel giro? Interrogati sul punto filosofi, antropologi e geografi faticano a trovarne tracce sul pianeta. Per alcuni abita in maniera prepotente e supponente la Terra. Eppure ci diciamo consolati e fiduciosi che c’è. Ma, mi chiedo provocatoriamente, con quali molti modi di esistenza, di divenienza e di significanza? Che sia anch’esso, da ultimo e di volta in volta, una “persona ficta” da rimettere in questione? Non possiamo semplicemente consolarci con l’arrogazione (e con l’arroganza anche talvolta) dell’umano, ma essere sferzati con l’interrogazione (e anzi proprio con l’interroganza di senso) sull’umano. Si racconta che il filosofo Diogene andasse in giro per la città di giorno con una lanterna accesa dicendo “cerco l’uomo”. Pochi ricordano però un altro episodio. Si narra che una volta gridò: “Ehi, uomini” e poi prese a dar colpi di bastone a chi era accorso urlando: “Ho chiamato uomini, non balordi”. Direi, un’etica giustamente sferzante l’umano e non solo consolante. Così, lontano dalle seduzioni delle sedazioni (deriva anestetica dell’etica), le ferite narcisistiche provocate oggi dall’AI ci richiedono provocanti di fare innovazione culturale. Di produrre, cioè, nuovo senso e significato per il divenire-umano e il divenire-planetario nuovi nell’era delle neo ingegnerie dell’AI … > (Accoto 2024 postilla a The Latent Planet)
<< …If automated systems and software are opaque by design, the human renders decisions transparent. If automated decisions risk subordinating humans to technocracy, the human provides the requisite dignity of human consideration. If automated systems discriminate on account of the way data encodes social bias, the human corrects errors and ensures decision quality. If automation produces non-reflective forms of mindless governance, the human grounds the legitimacy and authority of legal commands. If software dissolves accountability into the procurement, design and engineering of a decision system, the human provides a coherent locus of responsibility. If automation includes emergent and generative qualities, the human garners trust, and normalises regulatory strategies premised on risk management. These intuitions mean the human in the loop has become a sort of Talisman of the appeal to re-humanise – a symbolic regulatory apparatus. At the same time, however the human in the loop’s capacity to satisfy those demands has been questioned on a number of registers (…) These arguments terminate in a conceptual and regulatory impasse. Human oversight of automated decisions may, at times, be ineffective or functionally impossible, but abandoning human agency in decision-making is politically and functionally inconceivable >> (Goldenfein, Lost in the Loop. Who is the “human” of the Human in the Loop?)
Dall’isteria alla strategia: economia dell’AI (Accoto 2024)
Per allontanarsi dall’isteria della cronaca e focalizzarsi su una strategia più ponderata, sarà necessario dotarsi di pensiero e analisi. Ma difettano oggi le riflessioni improntate alla teoria e alla strumentazione economica. In questa prospettiva, è utile questo nuovo saggio appena uscito e in lettura <Artificial Intelligence. Economic Perspectives and Models>. Come scrivono gli autori, per le imprese è necessario arginare “l’incertezza” che circonda questa nuova ondata tecnologica che rimane in un’evoluzione caotica e sconosciuta (un pò differente da altre storie tecnologie d’impatto vissute).
<< … In the case of AI, the difference seems to be, at least from the present vantage point, that it is not a finished technology but a technology that is incrementally changing and still evolving. While AI currently (in its ML form) is data and energy intensive, and based on describing but not understanding intelligence, it is likely to keep on evolving. It is possible that it will become quite different in coming years. In this, AI is very different than electricity, a general-purpose technology to whom it is often compared. The scientific details of electricity are today the same as ever; it is only the way it is being engineered in applications that has differed. When the first car was driven out of the shop, its dangers were well known, and moreover, these have remained roughly similar. Nuclear technology, and its dangers, today is fundamentally the same as it was half a century ago. By contrast, AI is developing – it is a learning technology at the same time as humans are learning more about the nature of intelligence – and these learning processes mean that what precisely AI will evolve into – and when – is unknown >>
Occorre, allora, mettere in campo prospettive e modelli che ci consentano di leggere più strategicamente e competitivamente il fenomeno dell’AI.
<< … But the field of economics also needs to adjust its tools to be able to illuminate AI better. Key models in economics, for example, growth models, have until recently wholly abstracted from technology (and energy), focusing only on the nineteenth-century world of capital and labor as production factors. It was only in the 1990s that technology was endogenized, and the key feature of technology – as ideas that offer increasing returns and combinatorial possibilities – incorporated into economic growth models … A second way in which an “economics of AI” can help is in identifying how public policy toward AI can be made better. There is indeed much enthusiasm shown by governments to implement policies to make AI more “human-centered.” Much of this is unfortunately fed by the hype and hysteria that surrounds AI …>>
Una lettura interessante e opportuna per uscire dalla superficialità disciplinare di molti discorsi correnti e delle isterie dei mercati. E da molte ingenuità digiune di filosofia (Accoto, 2024)
< LLM Ops & Obs > (Accoto 2024)
< Dalle reti ai programmi dalle nuvole ai modelli (network, software, cloud, machine observability), l’osservazione dei sistemi informatici e computazionali è divenuta pratica vitale per la gestione operativa e l’innovazione creativa di business digitali, architetture di rete e dispositivi artificiali. Da ultimo, portare in produzione un modello linguistico (LLM) richiederà a imprese e organizzazioni di affrontare nuovamente e ulteriormente la questione ingegneristica dell’instrumentazione dell’osservabilità di risultati e comportamenti macchinici, in buona misura indeterministici e imprevedibili. Come valutare e come assicurare, allora, l’affidabilità di modelli e dispositivi linguistici su larga scala che incrociano, in maniera interconnessa, stratificata, dinamica oltre che fortemente innovativa, la computazione macchinica e la comunicazione umana, l’operazione di calcolo e il senso della parola? Pensare tecnicamente e strategicamente l’osservabilità significa progettare la capacità di comprendere al meglio il comportamento interno di un sistema (nel nostro caso un LLM in produzione) in base ai dati esterni (generati in fase di esecuzione) costantemente monitorati nei loro segnali informativi al fine di ottenere conoscenze rilevanti destinate a influenzare il sistema stesso.
“On the other end of the spectrum, in many cases an LLM is completely un-debuggable in the traditional sense. You can’t load debug symbols and step through each phase of execution with an LLM like you can with most software. Unless you’re an ML researcher by profession, chances are you don’t have any way to explain why an LLM emits a particular output for a given input. Yes, there are some controls you can place on it to affect the randomness of outputs—namely, the temperature and top_p sampling parameters—but they don’t guarantee repeatability of outputs. And when you combine this with an excessively broad class of inputs like natural language, you’re left with a system that’s incredibly powerful but very difficult to understand and guide into good behavior … Put differently, you should be aware of the following things when building with LLMs: Failure will happen—it’s a question of when, not if; Users will do things you can’t possibly predict; You will ship a bug fix that breaks something else; You can’t write unit tests for LLMs (or practice test-driven development); Early access programs won’t really help you” (Carter, 2024).
Dunque, chi e come (si) conosce il mondo e i suoi linguaggi sintetici? Nuovi attanti dell’osservazione, nuovi assemblaggi dell’osservabilità, nuove epifanie dell’osservabile si stanno evocando e si stanno producendo. Umane e sovrumane. Dunque, quanto e come, perché e da chi/cosa è osservabile un LLM? Non si tratta solo di un modo più complesso di osservare, ma proprio di un modo nuovo dell’osservare > (Accoto 2024, postilla, The Latent Planet)
[Tech & Sec] L’insicurezza nativa del codice (Accoto 2024)
Nel programma Casa Italia su RAI Italia (puntata di lunedì scorso) un mio breve commento su tech e sec discutendo di civiltà digitale e insicurezza informatica (a margine del recente convegno del Centro Studi Americani patrocinato dall’Agenzia Nazionale della Cybersicurezza). Il senso più ampio del mio discorso lo trovate nei due contributi che ho scritto per Harvard Business Review Italia questo mese:
1. Il mondo è la superficie (e l’abisso) dell’attacco
https://lnkd.in/dZZjNgVE
2. Il (di)segno della verità nell’era della simulazione
https://lnkd.in/d4piYSZC
< L’anestetica dell’etica > (Accoto 2024)
< Chi è, cos’è, da dove viene e come si diviene questo fantomatico “umano” che tutti vorrebbero al centro, in controllo, nel giro? Si dice che abiti in maniera prepotente e supponente il pianeta Terra. I geografi e gli antropologi contemporanei interrogati faticano a trovarne traccia. Eppure c’è: ma con quali modi di esistenza e di divenienza? Provocazione: che sia anch’esso e esso stesso allora, in fondo, solo una ‘persona ficta’? > (Accoto, 2024, postilla a The Latent Planet)
————-
<< If automated systems and software are opaque by design, the human renders decisions transparent. If automated decisions risk subordinating humans to technocracy, the human provides the requisite dignity of human consideration. If automated systems discriminate on account of the way data encodes social bias, the human corrects errors and ensures decision quality. If automation produces non-reflective forms of mindless governance, the human grounds the legitimacy and authority of legal commands. If software dissolves accountability into the procurement, design and engineering of a decision system, the human provides a coherent locus of responsibility. If automation includes emergent and generative qualities, the human garners trust, and normalises regulatory strategies premised on risk management.
These intuitions mean the human in the loop has become a sort of Talisman of the appeal to re-humanise – a symbolic regulatory apparatus.
At the same time, however the human in the loop’s capacity to satisfy those demands has been questioned on a number of registers. On one hand, there are empirical challenges to the human in the loop challenging its capacity to improve decision, satisfy dignitarian demands of rights (…)
Responses to the empirical unevenness of human in the loop requirements fall into two general classes. One group of commentators suggest the human in the loop’s failures stems from being not human enough. A more ‘human centric’ approach is necessary to recuperate the human in the loop (…)
Other scholars push the critique of human-centrism further, and identify fundamental incompatibilities between human and computational agency (…)
But these arguments terminate in a conceptual and regulatory impasse. Human oversight of automated decisions may, at times, be ineffective or functionally impossible, but abandoning human agency in decision-making is politically and functionally inconceivable … >>
(Goldenfein, Lost in the Loop – Who is the “human” of the Human in the Loop? 2024)
Il (di)segno della verità nell’era della simulazione (Accoto, HBR 2024)
Su Harvard Business Review, oggi, un mio nuovo contributo dedicato al (di)segno della verità nell’era della simulazione computazionale. Quali nuove “vulnerabilità”, ma anche “immunità” stanno emergendo in ragione di una computazione che si immonda e si fa mondo e verità? Di watermarking e dintorni, di tech, sec & trust. Perché dovremo non solo calcolare il rischio, ma rischiare il calcolo …
<< … E, tuttavia, la visione di corto raggio sull’immediato deve essere accompagnata dalla giusta prospettiva culturale sul cambio profondo che vivremo. Quindi, non dovremo solo imparare a gestire strategicamente il “calcolo del rischio”, ma più esistenzialmente il “rischio del calcolo”. Cioè, proprio, l’essere arrischiato nativo della computazione che oggi sempre più si fa mondo …>>
Un grazie al direttore di HBR Enrico Sassoon per l’interesse verso queste mie esplorazioni filosofiche e per l’ospitalità sul sito di HBR Italia dove lo trovate da leggere insieme ad un primo intervento sul <mondo come superficie (e abisso) dell’attacco>
Dalle macchine di Turing alle istituzioni di Turing? (Accoto 2024)
< È opinione comune che bisogna ‘governare la tecnologia’. Da ultimo, in ordine di tempo, quella dell’intelligenza artificiale. A fronte delle arrischiate uncanny valley che stiamo attraversando (e anche già abitando), si sollevano richieste accorate di mettere a governo (giuridico, etico, sociale, politico…) le ondate tecnologiche in essere e in divenire (intelligenze artificiali, monete crittografiche, computer quantistici ad es). Vulnerabilità e rischi di varia natura sono i fattori scatenanti queste volontà normative a tre fondamenti (mercato in us, persona in eu, stato in ch). Certo, c’è un che di condivisibile e consolante (e di giusto) in questi richiami alla governabilità della dimensione tecnica. E, tuttavia, mi sembra però anche che queste esortazioni governamentali palesino tutte, in fondo, una certa naïveté culturale e filosofica. In che senso diciamo che la tecnologia è governabile? A quali condizioni immaginiamo si possa governare? Come, quando e per cosa deve essere sottoposta a governo la tecnica? Le sue fondazioni o le sue applicazioni? Le innovazioni del presente o le loro conseguenze all’orizzonte? E che dire dell’economia politica della tecnica? È solo ingegneria o è anche e soprattutto politica? Va da sé che, se necessita di regole, è perché è ritenuta o incapace di auto-governo (inabilità) oppure addirittura proprio renitente al governo (indisponibilità). L’ingovernabilità è temuta e negata. In tutti i casi, la governabilità è data e presupposta. La tecnologia è governabile, si può governare e si deve governare. E così sempre più, principi, valori, modelli, leggi, regole, pratiche sono evocati dall’esterno per incatenare una tecnica scatenata. Con un paradosso, la cibernetica, scienza massima del controllo, richiederebbe di essere a sua volta controllata. Ma è proprio così? E se, invece, ruotando la questione, il governo delle nuove tecnologie non fosse anche e soprattutto da ultimo un tema di tecnologie del nuovo governare? E se (come suggeriscono Berg, Davidson, Potts) dopo aver costruito le “macchine” di Turing, avessimo in cantiere anche di costruire le “istituzioni” di Turing? Se così fosse la questione del governo della tecnologia va ripensata radicalmente rispetto agli attuali modelli e discorsi che mi sembrano umanamente comprensibili, ma ingenui filosoficamente e digiuni politicamente. E, dunque, fatte le macchine (Turing machines), bisognerà fare le istituzioni corrispondenti (Turing institutions)? A noi spetta di cogliere criticamente questo nuovo passaggio e divenire dell’agire politico (e/o impolitico, direbbe Esposito). Dove impolitico non significa antipolitico, ma ‘il politico stesso guardato dal suo confine esterno o interno’ (Esposito). Chiediamoci, allora: quali nuove progettualità, quali nuove vulnerabilità, ma anche immunità emergeranno in virtù dell’impolitica dell’intelligenza artificiale oltre l’anestetica dell’etica? > (Accoto 2024)
Dell’ultima parola (Accoto 2024)
“AI è provocazione di senso e interrogazione di senso, come ho scritto altrove. In questa accezione, si, è rischio esistenziale per la specie sapiens. L’ultima delle sue provocazioni è intorno alla natura del linguaggio, della parola e della scrittura. E su questo proprio si interroga densamente < Last Words > dell’antropologo e linguista Paul Kockelman in uscita a fine 2024. Dunque, l’AI ci sferza culturalmente e filosoficamente rivendicando per sè un provocante (allettante e insidioso) disallineamento: può esistere e secondo quali modi di esistenza e di potenza, un linguaggio senza mente e senza mondo? Ma forse, a ben guardare, l’ultima parola umana è già stata detta. Perché d’ora in poi la parola dirà e sarà altro. Nel mentre si discute ingenuamente su chi debba avere l’ultima parola, l’ultima in realtà è stata già detta …” (Accoto 2024, postilla a The Latent Planet)









