< Dai LLMs ai LMSys: dai modelli ai sistemi > (Accoto 2024)

< Portare in produzione reale, a scala industriale e con modularità automatizzata efficiente e sicura (tra infrastrutture, macchine, dati, algoritmi e applicazioni) un modello linguistico fondazionale implica uno sforzo strategico e ingegneristico non indifferente e non da tutti. Il prompt engineering fatto dall’umano (a cui molti oggi fanno riferimento) è solo la punta sdrucciolevole e più nota di un icerberg sottostante invisibile, impermanente e intrattabile (e, tuttavia, da gestire in qualche modo). Progettare e costruire questo iceberg immaginandolo e implementandolo con tutte le sue complessità richiederà visione e strategia (e moneta e talento). Siamo chiamati ad una fatica erculea per molti versi e, in una certa misura, anche sisifea (utile o inutile questo dipenderà da come la faremo), sovrumana e insieme ininterrotta. Non so quanta consapevolezza diffusa ci sia in merito alla superficie e all’abisso di questo Pianeta Terra Digitale che ci accingiamo ad abitare. Temo sia poca e insufficiente. Così come è tutta ancora da costruire la cognizione filosofica di questa tettonica delle placche digitali. La cognizione del mondo si fa nuova, dunque, evocando pensieri (e strumenti) inesplorati e sorprendenti. Provocanti, in una significativa misura. Perchè con il dispiegarsi planetario dell’intelligenza artificiale, noi non affronteremo solo problemi tecnici con vulnerabilità e rischi reali di discriminazioni, manipolazioni, deprivazioni, polarizzazioni, alienazioni, contraffazioni. Piuttosto e più radicalmente noi fronteggeremo delle provocazioni intellettuali. A partire da quella primaria sulla natura dell’umano (chi siamo? o meglio, chi diveniamo?) declinata poi in molte altre domande di senso e di scopo: può esistere una scrittura impermanente senza l’autore come accade per i modelli linguistici su larga scala? e una fotografia realistica senza rappresentazione isomorfica come avviene per le immagini sintetiche? e un’autonomia decisionale astensiva -e non estensiva- dell’umano come immaginata dagli agenti artificiali? Questi non sono solo problemi. Sono provocazioni. E se ai problemi tecnici lavoreremo, nel tempo e a tentativi, per trovare una soluzione ingegneristica di qualche tipo (informatica, legale, istituzionale e così via), alle provocazioni intellettuali dovremo invece rispondere, di necessità, con l’innovazione culturale. A questo compito più alto siamo oggi chiamati tutti e tutte (superando l’attuale deriva anestetica dell’etica): alla produzione di nuovo senso e di nuovi significati per questo nostro abitare terrestre con le sue nuove zolle computazionali … > (postilla a “The Latent Planet”, Accoto 2024)

(images: “Scalable and Efficient Systems for Large Language Models”, Lianmin Zeng, marzo 2024)

Dai bracci meccanici agli abbracci robotici (Accoto 2024)

“Noi e loro. Gli umani al tempo dei robot” è lo Speciale TG1 di Barbara Carfagna dedicato all’evoluzione e alla declinazione della robotica umanoide per come viene sviluppandosi in giro per il mondo. Ieri sera su RAI 1, una puntata ricca di prospettive e progetti planetari che ci porteranno, non senza complessità, dalla robotica industriale alla robotica sociale. Tra opportunità e vulnerabilità, lungo tutta la puntata i miei diversi interventi per collocare e leggere in una prospettiva culturale e filosofica questo passaggio (non scontato e non semplice) dai “bracci meccanici” agli “abbracci robotici” come l’ho definito con un’immagine evocativa. Un grazie a Barbara Carfagna per l’invito ad accompagnarla e a contribuire in questa puntata dello Speciale TG1. In caso di interesse, l’intera puntata di ieri sera si può rivedere su RAI Play

Dai LLMs ai LMSys: dai modelli ai sistemi (Accoto 2024)


< Portare in produzione reale, a scala industriale e con modularità automatizzata efficiente e sicura (tra infrastrutture, dati, algoritmi e applicazioni) un modello linguistico fondazionale implica uno sforzo strategico e ingegneristico non indifferente e non da tutti. Il prompt engineering fatto dall’umano (a cui molti oggi fanno riferimento) è solo la punta sdrucciolevole e più nota di un icerberg sottostante invisibile, impermanente e intrattabile (e, tuttavia, da gestire in qualche modo). Progettare e costruire questo iceberg immaginandolo e implementandolo con tutte le sue complessità richiederà visione e strategia (e moneta). Siamo chiamati ad una fatica erculea per molti versi e, in una certa misura, anche sisifea (utile o inutile questo dipenderà da come la faremo), sovrumana e insieme incessante. Non so quanta consapevolezza diffusa ci sia in merito alla superficie e all’abisso di questo Pianeta Terra Digitale che ci accingiamo ad abitare. Temo sia poca e insufficiente. Così come è ancora tutta da costruire la cognizione filosofica di questa nuova tettonica delle placche digitali … > (postilla a “The Latent Planet”, Accoto 2024)

(fig. 1. “Scalable and Efficient Systems for Large Language Models”, Lianmin Zeng, marzo 2024)(fig.2. “Building More Reliable and Scalable AI Systems with Language Programming” (Omar Khattab, marzo 2024)

Dai LLM ai LMSys: AI o della cognizione sintetica del mondo (Accoto 2024)

< Chi e come (si) conosce il mondo? L’intelligenza umana incorporata ha dominato il campo dell’osservazione e della cognizione del reale per lungo tempo reclamando a sè il primato della conoscenza del mondo. Lo ha fatto, almeno alle nostre latitudini, escludendo da queste possibilità animali e piante (eludendo, tra gli altri, il tema complesso delle ‘altre menti’ o delle ‘menti possibili’ oltre a quello delle ‘menti estese’). L’arrivo della cosiddetta intelligenza artificiale sembra aver nuovamente risvegliato questa supponenza umanocentrata. Almeno secondo due prospettive. Una prima tendenza incarna un umanesimo impaurito o arrabbiato. La seconda è, per converso, superficialmente entusiasta e tecnicamente galvanizzata. Quello timoroso o infuriato, a seconda dei casi, è un umanesimo che di fatto si ripiega su di sé (teso com’è a ricercare la sua essenza distintiva unicizzante e ad aggrapparsi a quella per cercare di preservare un nucleo eccezionale fondativo dagli attacchi della tecnica). Quello acclamante ed eccitato è viceversa un umanesimo in molti casi vittima in/consapevole dei propri antropomorfismi e sociomorfismi (si limita, cioè, a leggere l’AI come rispecchiamento/simulazione delle proprie capacità o, meglio, di quello che si pensa essere il modo dell’umano di percepire, osservare, conoscere, agire il mondo). Entrambe queste prospettive sono deboli e ingenue, pregiudizievoli e limitate e di parte. Ad osservare, conoscere e operare il mondo non è più solo “l’umano” (se mai fosse stato l’unico). Forme di osservazione, di cognizione e di esecuzione ‘more-than-human’ (macchiniche, rizomatiche, prolettiche, simpoietiche, chimeriche, alterosomiche, catallattiche, programmatiche, automatiche) sono da qualche tempo in divenire e in dispiegamento. Ci chiedono di allargare il nostro sguardo oltre i confini culturali dati del naturale, del nativo, dell’autentico, dell’essenziale, del corporeo umanomorfico. E nel caso dei modelli linguistici (LLMs e varianti) di considerare non solo la punta dell’iceberg (modelli e applicazioni), ma l’intera infrastruttura che istanzia quelle capacità linguistico-macchiniche nuove (LMSys*). Così occorre passare dall’esame dei “modelli linguistici su larga scala” alla comprensione dei “sistemi dei modelli linguistici su larga scala” (*Zeng, 2024, Scalable and Efficient Systems for Large Language Models), vale a dire all’intera infrastruttura/infostruttura hardware/software che produce poi quella “cognizione” sintetica programmabile, automabile, componibile come punta dell’iceberg. Cogliere questa emergenza filosofico-ingegneristica è parte dell’innovazione culturale necessaria a significare nuovamente e prosperare strategicamente nell’era della cognizione sintetica post-antropocentrica” (Accoto 2024)

VLLMs: dall’immagine alla parola (Accoto 2024)

< Video LLMs: dall’immagine alla parola? > (Accoto 2024)
< Come si passa tecnicamente dai frame visuali di lunghezza crescente ai token testuali che descrivono azioni e comportamenti in un video (Video LLMs)? Come fa una macchina a guardare e interpretare un filmato lungo e rispondere ad una “video query”? Ad oggi la pratica video-to-text è limitata a pochi secondi (10-15 in genere), ma il tentativo che si sta facendo (qui ad esempio Meta, Adobe e Boston University) è quello di estendere la capacità delle macchine di leggere le immagini filmiche e di individuarne il contenuto anche in video di lunghezza crescente. Ma come si tenta di farlo, oggi, tecnicamente? Entrare in profondità nelle tecnicalità in costruzione dell’AI generativa consente di valutare in prospettiva opportunità e vulnerabilità in termini di strategie di business e pratiche sociali. Ma consente anche da un punto di vista più filosofico di affrontare nuovamente la questione della relazione tra mondo e linguaggio, tra realtà registrata dalle macchine e modi di interpretarla delle macchine, tra segno del mondo e senso del mondo … > Accoto 2024 (postilla a “The Latent Planet”, 2024)

Oplus_0

AI Forum 2024 (VI edizione, Accoto)

[evento] Sarò ospite e speaker al prossimo AI Forum 2024 (VI edizione), il Forum dell’Associazione Italiana per l’Intelligenza Artificiale dedicato alle imprese. Un grazie agli organizzatori e in particolare al prof. Gianluigi Greco Presidente di AIXIA (Associazione Italiana per l’Intelligenza Artificiale) e ora anche Coordinatore del Comitato del Governo Italiano per le Strategie sull’AI per l’interesse verso le mie esplorazioni filosofico-ingegneristiche sull’intelligenza artificiale e per l’invito amichevole a contribuire a questa nuova edizione. Ci vediamo di persona a Milano il 4 aprile a Palazzo Mezzanotte insieme ad un super interessante e nutrito gruppo di speaker

Back to MIT campus (Accoto 2024)

Back to MIT campus per continuare le mie esplorazioni filosofiche indisciplinate … ed è il tempo del mio pensare arrischiato e della mia nuova scrittura 

philtech | philosophy | technology | culture | innovation | AI | planetary | intelligence

|| terremotare – terraformare il mondo || Accoto 2024


Una mia lunga intervista su Ad Media Lab (grazie a Roberto Siconolfi per lo stimolo delle domande

“La prerogativa storica della parola (simulata) ai soli umani mostra segni di cedimento. Passaggio che la teoria letteraria e la filosofia continentale avevano anticipato. In questo senso l’AI generativa è, come ho scritto, una provocazione di senso (che cos’è la scrittura? ci importa chi è l’autore? chi può parlare?) … così facendo si terremota il precedente assemblaggio sociotecnico per l’appunto e se ne terraforma uno nuovo tutto da costruire…” (Accoto 2024)

< Dalle Macchine di Turing alle Istituzioni di Turing? > (Accoto 2024)


<< È opinione comune e discorso circolante che bisogna ‘governare la tecnologia’. Da ultimo, in ordine di tempo, quella dell’intelligenza artificiale. A fronte delle arrischiate uncanny valley che stiamo attraversando (e, in una qualche misura, anche già abitando), si sollevano richieste accorate di mettere a governo (giuridico, etico, sociale, politico…) le ondate tecnologiche in essere e in divenire. Vulnerabilità e rischi di varia natura sono i fattori scatenanti queste volontà disciplinari e normative. Naturalmente, c’è un che di condivisibile e consolante (e anche di giusto) in questi richiami alla governabilità della dimensione tecnica. E, tuttavia, mi sembra però anche che queste esortazioni governamentali palesino tutte, in fondo, una certa naïveté culturale e filosofica. In che senso diciamo che la tecnologia è governabile? A quali condizioni immaginiamo si possa governare? Come, quando e per cosa deve essere sottoposta a governo la tecnica? Le sue fondazioni o le sue applicazioni? Le innovazioni del presente o le loro conseguenze all’orizzonte? E che dire dell’economia politica della tecnica? È solo ingegneria o è anche e soprattutto economia politica? Va da sé che, se necessita di regole, è perché è ritenuta o incapace di auto-governo (inabilità) oppure addirittura proprio renitente al governo (indisponibilità). L’ingovernabilità è temuta e negata. In tutti i casi e comunque, la governabilità è data e presupposta. La tecnologia è governabile, si può governare e si deve governare. E così sempre più, principi, valori, modelli, leggi, regole sono evocati dall’esterno per incatenare, prometeicamente, una tecnica scatenata. Con un paradosso, la cibernetica, scienza massima del controllo, richiederebbe di essere a sua volta controllata. Ma è proprio così? E se, invece, ruotando la questione, il governo delle nuove tecnologie non fosse anche e soprattutto da ultimo un tema di tecnologie del nuovo governare? E se (come suggeriscono Berg, Davidson, Potts) dopo aver costruito le “macchine” di Turing, fosse in cantiere anche l’idea di costruire le “istituzioni” di Turing? Se così fosse la questione del governo della tecnologia va ripensata radicalmente rispetto agli attuali modelli e discorsi che mi sembrano umanamente comprensibili e necessari anche, ma ingenui filosoficamente e digiuni politicamente. Dunque, fatte le macchine (Turing machines), bisognerà fare le istituzioni corrispondenti (Turing institutions)? A noi spetta di cogliere criticamente questo nuovo passaggio e divenire dell’agire politico (e/o impolitico, direbbe Esposito). Dove impolitico non significa antipolitico, ma ‘il politico stesso guardato dal suo confine esterno o interno’ (Esposito). Dunque, quali nuove progettualità, quali opportunità e vulnerabilità emergeranno dall’impolitica dell’intelligenza artificiale? >> (Accoto 2024)

* image: An Ecosystem Framework of AI Governance, Wirtz, Langer, Weyerer