Se l’umano è soglia e il varco è linea, tornare a interrogarsi sulla nostra liminalità morfante, sul nostro essere soglia esitante di conoscenza, esperienza e intelligenza del mondo è uno dei compiti vitali della filosofia. <The Line> è il titolo del libro in scrittura di Jame Boyle che ha come sottotitolo “AI and the Future of Personhood”. Dentro una tradizione di pensiero giuridico in crescita su questi temi, il libro che ho iniziato a leggere riflette e discute dell’impatto di tecnologie e ingegnerie sulla categoria di <persona giuridica> e sulle sue trasformazioni in corso oltre l’umano (dalle corporation finanziarie alle specie bioingegnerizzate alle macchine a capacità computazionali crescenti). Una riflessione complessa e articolata che incrocia filosofia, giurisprudenza, economia e società. Se l’AI è una provocazione di senso, dobbiamo rispondere con l’innovazione culturale. Ai problemi tecnici si risponde con un pò di ingegneria, alle provocazioni intellettuali con lo sforzo (faticoso, difficile, dubbioso, rischioso) di fare innovazione culturale. Vale a dire produrre nuovi significati e sensi (anche arrischiatamente eretici e disturbanti, interroganti l’umano e poco accomodanti se si vuole) per un mondo in trasformazione rapida e profonda. E qui un aneddoto. Si racconta che il filosofo Diogene andasse in giro per la città di giorno con una lanterna accesa dicendo “cerco l’uomo”. Pochi ricordano però un altro episodio. Si narra che una volta gridò: “Ehi, uomini” e poi prese a dar colpi di bastone a chi era accorso urlando: “Ho chiamato uomini, non balordi”. Direi, un’etica giustamente sferzante l’umano e non solo consolante.
Scrive Boyle, “… The second side of the debate will have a very different character. Here the analogy is to corporate personhood. We did not give corporations legal personhood and constitutional rights because we saw the essential humanity, the moral potential, behind their web of contracts. We did it because corporate personality was useful. It was a way of aligning legal rights and economic activity. We wanted corporations to be able to make contracts, to get and give loans, to sue and be sued. Personality was a useful legal fiction, a social construct the contours of which—even now—we heatedly debate. Will the same be true for Artificial Intelligence? Will we recognize its personality so we have an entity to sue when the self-driving car goes off the road, or a robotic Jeeves to make our contracts and pay our bills? And is that approach also possible with the transgenic species, engineered to serve? Or will the debate focus instead on what makes us human and whether we can recognize those concepts beyond the species line, and thus force us to redefine legal personhood? The answer, surely, is “both” …. (MIT Press, 2024, forthcoming)
Author: Cosimo Accoto
L’economia del feedforward: dall’archivio all’oracolo (Accoto 2024)
<< Stiamo entrando nella feedforward economy (oltre la vecchia economia del feedback), l’economia della predizione. L’ultimo esempio in ordine di tempo è il modello linguistico su larga scala (LLM) in quanto “text predictor”. E, dunque, se finora abbiamo vissuto al <tempo dell’archivio>, ora cominciamo a fare esperienza del <tempo dell’oracolo>. L’orizzonte non è più semplicemente il ‘real-time’, ma il ‘near-time’: non il tempo presente, ma quello prossimo. Vivremo in un tempo costantemente anticipato anche inavvertitamente. Le architetture planetarie sensitive, connettive, cognitive, simulative e attuative (tra codice, sensori, dati, algoritmi, protocolli) creano un mondo in cui l’informazione non fluisce più dal passato al presente, ma dal futuro al presente. Il dispositivo tecnico oracolare (arrischiato) ha l’obiettivo di ridurre la latenza informazionale tra il tempo dell’accadimento futuro degli eventi e il tempo presente del processamento macchinico dei dati. In questo, si evoca e si valorizza lo scarto temporale (che è sempre anche politico) tra il tempo dell’umano e quello della macchina. Mitigando i rischi connessi all’incertezza. Stiamo così passando dal ridurre lo scarto tra passato e presente (skew time) al ridurre lo scarto tra futuro e presente (forward time). Con un provocazione paradossale, potremmo osare e dire che la tecnica inverte l’ordine del tempo: il futuro accade prima del presente. Perché crea valore di business questo passaggio anche filosofico? Perché come umani non abbiamo solo la necessità di gestire il sovraccarico informativo del presente, ma anche e sempre più quella di gestire l’incertezza informativa del futuro. Non vogliamo ammalarci (medicina preventiva), non vogliamo trovare traffico in strada (mobilità allertativa), non vogliamo che si rompa il macchinario in fabbrica (manutenzione predittiva), non vogliamo perder tempo a scegliere il prossimo film da vedere dal catalogo (medialità raccomandativa), non vogliamo essere sorpresi da attacchi informatici (cybersicurezza adescativa). Nuova età oracolare non senza vulnerabilità e nuove immunità, certo. Dopo l’uscita di ‘Prediction Machines (HBR 2018) e di ‘Power & Prediction’ (HBR 2022) per il quale molti dei nostri problemi, bisogni, necessità e desiderata verranno trasformati e ridisegnati come questioni di predizione e dopo la pubblicazione di “The Age of Prediction” (MIT Press 2023) sulla natura cangiante del rischio e della predizione correlata (con simulazione inflattiva di mondi), è in libreria e sto leggendo “Cultures of Prediction” (MIT Press 2024) per un’analisi storico-filosofica profonda della scienza del predire e delle sue culture matematiche ed epistemiche. Dunque, se la “produzione della predizione” si palesa sempre più essere il business del futuro (quale che sia il business), è fondamentale oggi per le imprese approfondire filosoficamente questo passaggio ingegneristico insieme culturale e strategico >> (Accoto 2024 postilla a The Latent Planet)
< Dell’ultima parola > (Accoto 2024)
< AI è interrogazione e esercitazione di senso. In questa accezione, si, è anche rischio esistenziale per la specie sapiens. Perché è già un pensare che oltrepassa e oltrepensa questo mondo. L’ultima delle sue provocazioni è intorno alla natura del linguaggio, della parola e della scrittura. Su questo proprio investiga densamente < Last Words > dell’antropologo e linguista Paul Kockelman in uscita a fine 2024. Dunque, l’AI ci sferza culturalmente e filosoficamente rivendicando per sè un provocante (allettante e insidioso) disallineamento: può esistere e secondo quali modi di esistenza, di divenienza e di significanza, un linguaggio senza mente e senza mondo? E, dunque, sono queste le ultime parole umane che stiamo pronunciando prima di dare la parola definitiva alla macchina? E una volta data e presa la parola, l’avrà anche su decisioni e destini? Per rispondere a queste provocazioni intellettuali, abbiamo bisogno di (fare) innovazione culturale. Senza le seduzioni delle sedazioni, senza l’anestetica dell’etica (un’etica consolante e non sferzante l’umano). Perchè forse, a ben guardare, siamo già oltre filosoficamente. Perchè, mentre si discute ingenuamente su chi debba avere l’ultima parola (tra l’umano e la macchina), l’ultima parola in realtà è stata forse già detta. Perchè d’ora in poi la parola umana sarà e dirà altro … > (Accoto 2024, postilla a The Latent Planet)
AI e l’anestetica dell’etica (Accoto 2024)
< Chi è, cos’è, da dove viene e come si diviene questo fantomatico “umano” che tutti vorrebbero al centro, in controllo, nel giro? Interrogati sul punto filosofi, antropologi e geografi faticano a trovarne tracce sul pianeta. Per alcuni abita in maniera prepotente e supponente la Terra. Eppure ci diciamo consolati e fiduciosi che c’è. Ma, mi chiedo provocatoriamente, con quali molti modi di esistenza, di divenienza e di significanza? Che sia anch’esso, da ultimo e di volta in volta, una “persona ficta” da rimettere in questione? Non possiamo semplicemente consolarci con l’arrogazione (e con l’arroganza anche talvolta) dell’umano, ma essere sferzati con l’interrogazione (e anzi proprio con l’interroganza di senso) sull’umano. Si racconta che il filosofo Diogene andasse in giro per la città di giorno con una lanterna accesa dicendo “cerco l’uomo”. Pochi ricordano però un altro episodio. Si narra che una volta gridò: “Ehi, uomini” e poi prese a dar colpi di bastone a chi era accorso urlando: “Ho chiamato uomini, non balordi”. Direi, un’etica giustamente sferzante l’umano e non solo consolante. Così, lontano dalle seduzioni delle sedazioni (deriva anestetica dell’etica), le ferite narcisistiche provocate oggi dall’AI ci richiedono provocanti di fare innovazione culturale. Di produrre, cioè, nuovo senso e significato per il divenire-umano e il divenire-planetario nuovi nell’era delle neo ingegnerie dell’AI … > (Accoto 2024 postilla a The Latent Planet)
<< …If automated systems and software are opaque by design, the human renders decisions transparent. If automated decisions risk subordinating humans to technocracy, the human provides the requisite dignity of human consideration. If automated systems discriminate on account of the way data encodes social bias, the human corrects errors and ensures decision quality. If automation produces non-reflective forms of mindless governance, the human grounds the legitimacy and authority of legal commands. If software dissolves accountability into the procurement, design and engineering of a decision system, the human provides a coherent locus of responsibility. If automation includes emergent and generative qualities, the human garners trust, and normalises regulatory strategies premised on risk management. These intuitions mean the human in the loop has become a sort of Talisman of the appeal to re-humanise – a symbolic regulatory apparatus. At the same time, however the human in the loop’s capacity to satisfy those demands has been questioned on a number of registers (…) These arguments terminate in a conceptual and regulatory impasse. Human oversight of automated decisions may, at times, be ineffective or functionally impossible, but abandoning human agency in decision-making is politically and functionally inconceivable >> (Goldenfein, Lost in the Loop. Who is the “human” of the Human in the Loop?)
Dall’isteria alla strategia: economia dell’AI (Accoto 2024)
Per allontanarsi dall’isteria della cronaca e focalizzarsi su una strategia più ponderata, sarà necessario dotarsi di pensiero e analisi. Ma difettano oggi le riflessioni improntate alla teoria e alla strumentazione economica. In questa prospettiva, è utile questo nuovo saggio appena uscito e in lettura <Artificial Intelligence. Economic Perspectives and Models>. Come scrivono gli autori, per le imprese è necessario arginare “l’incertezza” che circonda questa nuova ondata tecnologica che rimane in un’evoluzione caotica e sconosciuta (un pò differente da altre storie tecnologie d’impatto vissute).
<< … In the case of AI, the difference seems to be, at least from the present vantage point, that it is not a finished technology but a technology that is incrementally changing and still evolving. While AI currently (in its ML form) is data and energy intensive, and based on describing but not understanding intelligence, it is likely to keep on evolving. It is possible that it will become quite different in coming years. In this, AI is very different than electricity, a general-purpose technology to whom it is often compared. The scientific details of electricity are today the same as ever; it is only the way it is being engineered in applications that has differed. When the first car was driven out of the shop, its dangers were well known, and moreover, these have remained roughly similar. Nuclear technology, and its dangers, today is fundamentally the same as it was half a century ago. By contrast, AI is developing – it is a learning technology at the same time as humans are learning more about the nature of intelligence – and these learning processes mean that what precisely AI will evolve into – and when – is unknown >>
Occorre, allora, mettere in campo prospettive e modelli che ci consentano di leggere più strategicamente e competitivamente il fenomeno dell’AI.
<< … But the field of economics also needs to adjust its tools to be able to illuminate AI better. Key models in economics, for example, growth models, have until recently wholly abstracted from technology (and energy), focusing only on the nineteenth-century world of capital and labor as production factors. It was only in the 1990s that technology was endogenized, and the key feature of technology – as ideas that offer increasing returns and combinatorial possibilities – incorporated into economic growth models … A second way in which an “economics of AI” can help is in identifying how public policy toward AI can be made better. There is indeed much enthusiasm shown by governments to implement policies to make AI more “human-centered.” Much of this is unfortunately fed by the hype and hysteria that surrounds AI …>>
Una lettura interessante e opportuna per uscire dalla superficialità disciplinare di molti discorsi correnti e delle isterie dei mercati. E da molte ingenuità digiune di filosofia (Accoto, 2024)
< LLM Ops & Obs > (Accoto 2024)
< Dalle reti ai programmi dalle nuvole ai modelli (network, software, cloud, machine observability), l’osservazione dei sistemi informatici e computazionali è divenuta pratica vitale per la gestione operativa e l’innovazione creativa di business digitali, architetture di rete e dispositivi artificiali. Da ultimo, portare in produzione un modello linguistico (LLM) richiederà a imprese e organizzazioni di affrontare nuovamente e ulteriormente la questione ingegneristica dell’instrumentazione dell’osservabilità di risultati e comportamenti macchinici, in buona misura indeterministici e imprevedibili. Come valutare e come assicurare, allora, l’affidabilità di modelli e dispositivi linguistici su larga scala che incrociano, in maniera interconnessa, stratificata, dinamica oltre che fortemente innovativa, la computazione macchinica e la comunicazione umana, l’operazione di calcolo e il senso della parola? Pensare tecnicamente e strategicamente l’osservabilità significa progettare la capacità di comprendere al meglio il comportamento interno di un sistema (nel nostro caso un LLM in produzione) in base ai dati esterni (generati in fase di esecuzione) costantemente monitorati nei loro segnali informativi al fine di ottenere conoscenze rilevanti destinate a influenzare il sistema stesso.
“On the other end of the spectrum, in many cases an LLM is completely un-debuggable in the traditional sense. You can’t load debug symbols and step through each phase of execution with an LLM like you can with most software. Unless you’re an ML researcher by profession, chances are you don’t have any way to explain why an LLM emits a particular output for a given input. Yes, there are some controls you can place on it to affect the randomness of outputs—namely, the temperature and top_p sampling parameters—but they don’t guarantee repeatability of outputs. And when you combine this with an excessively broad class of inputs like natural language, you’re left with a system that’s incredibly powerful but very difficult to understand and guide into good behavior … Put differently, you should be aware of the following things when building with LLMs: Failure will happen—it’s a question of when, not if; Users will do things you can’t possibly predict; You will ship a bug fix that breaks something else; You can’t write unit tests for LLMs (or practice test-driven development); Early access programs won’t really help you” (Carter, 2024).
Dunque, chi e come (si) conosce il mondo e i suoi linguaggi sintetici? Nuovi attanti dell’osservazione, nuovi assemblaggi dell’osservabilità, nuove epifanie dell’osservabile si stanno evocando e si stanno producendo. Umane e sovrumane. Dunque, quanto e come, perché e da chi/cosa è osservabile un LLM? Non si tratta solo di un modo più complesso di osservare, ma proprio di un modo nuovo dell’osservare > (Accoto 2024, postilla, The Latent Planet)
[Tech & Sec] L’insicurezza nativa del codice (Accoto 2024)
Nel programma Casa Italia su RAI Italia (puntata di lunedì scorso) un mio breve commento su tech e sec discutendo di civiltà digitale e insicurezza informatica (a margine del recente convegno del Centro Studi Americani patrocinato dall’Agenzia Nazionale della Cybersicurezza). Il senso più ampio del mio discorso lo trovate nei due contributi che ho scritto per Harvard Business Review Italia questo mese:
1. Il mondo è la superficie (e l’abisso) dell’attacco
https://lnkd.in/dZZjNgVE
2. Il (di)segno della verità nell’era della simulazione
https://lnkd.in/d4piYSZC
< L’anestetica dell’etica > (Accoto 2024)
< Chi è, cos’è, da dove viene e come si diviene questo fantomatico “umano” che tutti vorrebbero al centro, in controllo, nel giro? Si dice che abiti in maniera prepotente e supponente il pianeta Terra. I geografi e gli antropologi contemporanei interrogati faticano a trovarne traccia. Eppure c’è: ma con quali modi di esistenza e di divenienza? Provocazione: che sia anch’esso e esso stesso allora, in fondo, solo una ‘persona ficta’? > (Accoto, 2024, postilla a The Latent Planet)
————-
<< If automated systems and software are opaque by design, the human renders decisions transparent. If automated decisions risk subordinating humans to technocracy, the human provides the requisite dignity of human consideration. If automated systems discriminate on account of the way data encodes social bias, the human corrects errors and ensures decision quality. If automation produces non-reflective forms of mindless governance, the human grounds the legitimacy and authority of legal commands. If software dissolves accountability into the procurement, design and engineering of a decision system, the human provides a coherent locus of responsibility. If automation includes emergent and generative qualities, the human garners trust, and normalises regulatory strategies premised on risk management.
These intuitions mean the human in the loop has become a sort of Talisman of the appeal to re-humanise – a symbolic regulatory apparatus.
At the same time, however the human in the loop’s capacity to satisfy those demands has been questioned on a number of registers. On one hand, there are empirical challenges to the human in the loop challenging its capacity to improve decision, satisfy dignitarian demands of rights (…)
Responses to the empirical unevenness of human in the loop requirements fall into two general classes. One group of commentators suggest the human in the loop’s failures stems from being not human enough. A more ‘human centric’ approach is necessary to recuperate the human in the loop (…)
Other scholars push the critique of human-centrism further, and identify fundamental incompatibilities between human and computational agency (…)
But these arguments terminate in a conceptual and regulatory impasse. Human oversight of automated decisions may, at times, be ineffective or functionally impossible, but abandoning human agency in decision-making is politically and functionally inconceivable … >>
(Goldenfein, Lost in the Loop – Who is the “human” of the Human in the Loop? 2024)
Il (di)segno della verità nell’era della simulazione (Accoto, HBR 2024)
Su Harvard Business Review, oggi, un mio nuovo contributo dedicato al (di)segno della verità nell’era della simulazione computazionale. Quali nuove “vulnerabilità”, ma anche “immunità” stanno emergendo in ragione di una computazione che si immonda e si fa mondo e verità? Di watermarking e dintorni, di tech, sec & trust. Perché dovremo non solo calcolare il rischio, ma rischiare il calcolo …
<< … E, tuttavia, la visione di corto raggio sull’immediato deve essere accompagnata dalla giusta prospettiva culturale sul cambio profondo che vivremo. Quindi, non dovremo solo imparare a gestire strategicamente il “calcolo del rischio”, ma più esistenzialmente il “rischio del calcolo”. Cioè, proprio, l’essere arrischiato nativo della computazione che oggi sempre più si fa mondo …>>
Un grazie al direttore di HBR Enrico Sassoon per l’interesse verso queste mie esplorazioni filosofiche e per l’ospitalità sul sito di HBR Italia dove lo trovate da leggere insieme ad un primo intervento sul <mondo come superficie (e abisso) dell’attacco>









