Dai LLMs ai LMSys: dai modelli ai sistemi (Accoto 2024)


< Portare in produzione reale, a scala industriale e con modularità automatizzata efficiente e sicura (tra infrastrutture, dati, algoritmi e applicazioni) un modello linguistico fondazionale implica uno sforzo strategico e ingegneristico non indifferente e non da tutti. Il prompt engineering fatto dall’umano (a cui molti oggi fanno riferimento) è solo la punta sdrucciolevole e più nota di un icerberg sottostante invisibile, impermanente e intrattabile (e, tuttavia, da gestire in qualche modo). Progettare e costruire questo iceberg immaginandolo e implementandolo con tutte le sue complessità richiederà visione e strategia (e moneta). Siamo chiamati ad una fatica erculea per molti versi e, in una certa misura, anche sisifea (utile o inutile questo dipenderà da come la faremo), sovrumana e insieme incessante. Non so quanta consapevolezza diffusa ci sia in merito alla superficie e all’abisso di questo Pianeta Terra Digitale che ci accingiamo ad abitare. Temo sia poca e insufficiente. Così come è ancora tutta da costruire la cognizione filosofica di questa nuova tettonica delle placche digitali … > (postilla a “The Latent Planet”, Accoto 2024)

(fig. 1. “Scalable and Efficient Systems for Large Language Models”, Lianmin Zeng, marzo 2024)(fig.2. “Building More Reliable and Scalable AI Systems with Language Programming” (Omar Khattab, marzo 2024)

Dai LLM ai LMSys: AI o della cognizione sintetica del mondo (Accoto 2024)

< Chi e come (si) conosce il mondo? L’intelligenza umana incorporata ha dominato il campo dell’osservazione e della cognizione del reale per lungo tempo reclamando a sè il primato della conoscenza del mondo. Lo ha fatto, almeno alle nostre latitudini, escludendo da queste possibilità animali e piante (eludendo, tra gli altri, il tema complesso delle ‘altre menti’ o delle ‘menti possibili’ oltre a quello delle ‘menti estese’). L’arrivo della cosiddetta intelligenza artificiale sembra aver nuovamente risvegliato questa supponenza umanocentrata. Almeno secondo due prospettive. Una prima tendenza incarna un umanesimo impaurito o arrabbiato. La seconda è, per converso, superficialmente entusiasta e tecnicamente galvanizzata. Quello timoroso o infuriato, a seconda dei casi, è un umanesimo che di fatto si ripiega su di sé (teso com’è a ricercare la sua essenza distintiva unicizzante e ad aggrapparsi a quella per cercare di preservare un nucleo eccezionale fondativo dagli attacchi della tecnica). Quello acclamante ed eccitato è viceversa un umanesimo in molti casi vittima in/consapevole dei propri antropomorfismi e sociomorfismi (si limita, cioè, a leggere l’AI come rispecchiamento/simulazione delle proprie capacità o, meglio, di quello che si pensa essere il modo dell’umano di percepire, osservare, conoscere, agire il mondo). Entrambe queste prospettive sono deboli e ingenue, pregiudizievoli e limitate e di parte. Ad osservare, conoscere e operare il mondo non è più solo “l’umano” (se mai fosse stato l’unico). Forme di osservazione, di cognizione e di esecuzione ‘more-than-human’ (macchiniche, rizomatiche, prolettiche, simpoietiche, chimeriche, alterosomiche, catallattiche, programmatiche, automatiche) sono da qualche tempo in divenire e in dispiegamento. Ci chiedono di allargare il nostro sguardo oltre i confini culturali dati del naturale, del nativo, dell’autentico, dell’essenziale, del corporeo umanomorfico. E nel caso dei modelli linguistici (LLMs e varianti) di considerare non solo la punta dell’iceberg (modelli e applicazioni), ma l’intera infrastruttura che istanzia quelle capacità linguistico-macchiniche nuove (LMSys*). Così occorre passare dall’esame dei “modelli linguistici su larga scala” alla comprensione dei “sistemi dei modelli linguistici su larga scala” (*Zeng, 2024, Scalable and Efficient Systems for Large Language Models), vale a dire all’intera infrastruttura/infostruttura hardware/software che produce poi quella “cognizione” sintetica programmabile, automabile, componibile come punta dell’iceberg. Cogliere questa emergenza filosofico-ingegneristica è parte dell’innovazione culturale necessaria a significare nuovamente e prosperare strategicamente nell’era della cognizione sintetica post-antropocentrica” (Accoto 2024)

VLLMs: dall’immagine alla parola (Accoto 2024)

< Video LLMs: dall’immagine alla parola? > (Accoto 2024)
< Come si passa tecnicamente dai frame visuali di lunghezza crescente ai token testuali che descrivono azioni e comportamenti in un video (Video LLMs)? Come fa una macchina a guardare e interpretare un filmato lungo e rispondere ad una “video query”? Ad oggi la pratica video-to-text è limitata a pochi secondi (10-15 in genere), ma il tentativo che si sta facendo (qui ad esempio Meta, Adobe e Boston University) è quello di estendere la capacità delle macchine di leggere le immagini filmiche e di individuarne il contenuto anche in video di lunghezza crescente. Ma come si tenta di farlo, oggi, tecnicamente? Entrare in profondità nelle tecnicalità in costruzione dell’AI generativa consente di valutare in prospettiva opportunità e vulnerabilità in termini di strategie di business e pratiche sociali. Ma consente anche da un punto di vista più filosofico di affrontare nuovamente la questione della relazione tra mondo e linguaggio, tra realtà registrata dalle macchine e modi di interpretarla delle macchine, tra segno del mondo e senso del mondo … > Accoto 2024 (postilla a “The Latent Planet”, 2024)

Oplus_0

AI Forum 2024 (VI edizione, Accoto)

[evento] Sarò ospite e speaker al prossimo AI Forum 2024 (VI edizione), il Forum dell’Associazione Italiana per l’Intelligenza Artificiale dedicato alle imprese. Un grazie agli organizzatori e in particolare al prof. Gianluigi Greco Presidente di AIXIA (Associazione Italiana per l’Intelligenza Artificiale) e ora anche Coordinatore del Comitato del Governo Italiano per le Strategie sull’AI per l’interesse verso le mie esplorazioni filosofico-ingegneristiche sull’intelligenza artificiale e per l’invito amichevole a contribuire a questa nuova edizione. Ci vediamo di persona a Milano il 4 aprile a Palazzo Mezzanotte insieme ad un super interessante e nutrito gruppo di speaker

Back to MIT campus (Accoto 2024)

Back to MIT campus per continuare le mie esplorazioni filosofiche indisciplinate … ed è il tempo del mio pensare arrischiato e della mia nuova scrittura 

philtech | philosophy | technology | culture | innovation | AI | planetary | intelligence

|| terremotare – terraformare il mondo || Accoto 2024


Una mia lunga intervista su Ad Media Lab (grazie a Roberto Siconolfi per lo stimolo delle domande

“La prerogativa storica della parola (simulata) ai soli umani mostra segni di cedimento. Passaggio che la teoria letteraria e la filosofia continentale avevano anticipato. In questo senso l’AI generativa è, come ho scritto, una provocazione di senso (che cos’è la scrittura? ci importa chi è l’autore? chi può parlare?) … così facendo si terremota il precedente assemblaggio sociotecnico per l’appunto e se ne terraforma uno nuovo tutto da costruire…” (Accoto 2024)

< Dalle Macchine di Turing alle Istituzioni di Turing? > (Accoto 2024)


<< È opinione comune e discorso circolante che bisogna ‘governare la tecnologia’. Da ultimo, in ordine di tempo, quella dell’intelligenza artificiale. A fronte delle arrischiate uncanny valley che stiamo attraversando (e, in una qualche misura, anche già abitando), si sollevano richieste accorate di mettere a governo (giuridico, etico, sociale, politico…) le ondate tecnologiche in essere e in divenire. Vulnerabilità e rischi di varia natura sono i fattori scatenanti queste volontà disciplinari e normative. Naturalmente, c’è un che di condivisibile e consolante (e anche di giusto) in questi richiami alla governabilità della dimensione tecnica. E, tuttavia, mi sembra però anche che queste esortazioni governamentali palesino tutte, in fondo, una certa naïveté culturale e filosofica. In che senso diciamo che la tecnologia è governabile? A quali condizioni immaginiamo si possa governare? Come, quando e per cosa deve essere sottoposta a governo la tecnica? Le sue fondazioni o le sue applicazioni? Le innovazioni del presente o le loro conseguenze all’orizzonte? E che dire dell’economia politica della tecnica? È solo ingegneria o è anche e soprattutto economia politica? Va da sé che, se necessita di regole, è perché è ritenuta o incapace di auto-governo (inabilità) oppure addirittura proprio renitente al governo (indisponibilità). L’ingovernabilità è temuta e negata. In tutti i casi e comunque, la governabilità è data e presupposta. La tecnologia è governabile, si può governare e si deve governare. E così sempre più, principi, valori, modelli, leggi, regole sono evocati dall’esterno per incatenare, prometeicamente, una tecnica scatenata. Con un paradosso, la cibernetica, scienza massima del controllo, richiederebbe di essere a sua volta controllata. Ma è proprio così? E se, invece, ruotando la questione, il governo delle nuove tecnologie non fosse anche e soprattutto da ultimo un tema di tecnologie del nuovo governare? E se (come suggeriscono Berg, Davidson, Potts) dopo aver costruito le “macchine” di Turing, fosse in cantiere anche l’idea di costruire le “istituzioni” di Turing? Se così fosse la questione del governo della tecnologia va ripensata radicalmente rispetto agli attuali modelli e discorsi che mi sembrano umanamente comprensibili e necessari anche, ma ingenui filosoficamente e digiuni politicamente. Dunque, fatte le macchine (Turing machines), bisognerà fare le istituzioni corrispondenti (Turing institutions)? A noi spetta di cogliere criticamente questo nuovo passaggio e divenire dell’agire politico (e/o impolitico, direbbe Esposito). Dove impolitico non significa antipolitico, ma ‘il politico stesso guardato dal suo confine esterno o interno’ (Esposito). Dunque, quali nuove progettualità, quali opportunità e vulnerabilità emergeranno dall’impolitica dell’intelligenza artificiale? >> (Accoto 2024)

* image: An Ecosystem Framework of AI Governance, Wirtz, Langer, Weyerer 

AIFORUM 2024

Sarò ospite e speaker al prossimo AI Forum 2024. Un grazie agli organizzatori e in particolare al prof. Gianluigi Greco Presidente di AIXIA (Associazione Italiana per l’Intelligenza Artificiale) e ora anche Coordinatore del comitato del Governo Italiano per le strategie sull’AI per l’interesse e per l’invito amichevole a contribuire a questa nuova edizione

< Il digitale come ambiente estremo > (Accoto 2024)

[evento] Un frame dell’incontro organizzato settimana scorsa da Il Prisma a Milano. Il mio talk su < Il digitale come ambiente estremo > (al pari dello spazio extraterrestre con Valentina Sumini e della montagna d’alta quota con Emilio Previtali). Un grazie a Walter Mariotti (direttore di Domus) per la moderazione e l’invito e a Stefano Carone (founder e managing partner di Prisma) per l’accoglienza e l’apprezzamento. Una conversazione intorno al migrare e all’abitare anche in ambienti estremi come i pianeti extraterrestri con l’architetta spaziale Valentina Sumini oppure sulle montagne oltre gli 8000 con l’esploratore e alpinista Emilio Previtali. Il mio passaggio concettuale ha raccontato il cambio di paradigma da Blue Marble (fotografia, 1972) a Earth-2 (simulazione, 2022) esplorando il digitale come ambiente estremo (dal codice/scrittura di programmazione agli algoritmi di intelligenza artificiale generativa). Ho ricordato, en passant, lo stupore e lo shock del filosofo Martin Heidegger di fronte alle prime fotografie del nostro pianeta in bianco e nero scattate dal satellite Lunar Orbiter 1 nel 1966. Come allora dovremo tornare a chiederci sorpresi e spaesati: cosa e come diviene l’umano in questa migrazione dal Pianeta Terra Analogico verso il Pianeta Terra Digitale, in questa nuova terraformazione che stiamo evocando che è, da ultimo, un’esperienza di spaesamento (e non di allineamento)? Di nuovo un grazie a Walter e Stefano per l’invito