L’intelligenza della decisione al tempo dell’AI (Accoto 2024)

< L’atto del decidere (e dell’agire) collassa una particolare idea (ipotesi) del futuro. Se il passato risulta essere immutabile poiché nessuna decisione presa nel presente potrà più modificarlo (escludendo i viaggi nel tempo), il futuro avrebbe la qualità di essere mutabile e di dipendere in questo, per l’appunto, dalle nostre decisioni al presente. In questa prospettiva (ma ne esistono altre e anche contrarie come insegnano le diverse filosofie del tempo), è come se il mondo ramificasse costantemente futuri possibili da cui derivano i presenti che le nostre decisioni attualizzano. Nostre oppure di (con) altri modelli/agenti dotati dello stesso potere di presentificare il mondo, cioè di creare il nostro presente. Perchè di fatto l’automatizzazione algoritmica dei processi decisionali mette oggi in questione la visione dei sistemi di supporto alle decisioni come mere tecnologie “estensive” dell’umano. Piuttosto fa emergere l’idea di sistemi di sottrazione delle decisioni e cioè di tecnologie “astensive” dell’umano (ostensive > estensive > astensive dell’umano). O, meglio direi, nell’assemblaggio dinamico, perturbato e stratificato umani-macchine (come è il caso dei sistemi decisionali artificialmente potenziati raccontato in “Decision Intelligence”, 2024), l’arrivo dell’intelligenza artificiale riconfigura radicalmente modi, tempi, luoghi e agenti del decidere e della decisione. “Human-in-the-loop” si dice, ingenuamente, ma ci si dimentica di dire che l’umano e il loop di domani non saranno più quelli di ieri e di oggi. La macchina artificialmente intelligente, dunque, come attore in cerca di autonomia (operational autonomy) che si costruisce computazionalmente modelli del mondo (e del business) e che sta tra il processare le informazioni sulla situazione e la scelta dell’azione da intraprendere per attualizzare uno dei futuri possibili (tutti calcolati e valutati probabilisticamente). Quello migliore (meno rischioso e più opportuno per l’impresa evitandogli errori fatali), si dice, avendo l’AI capacità predittive più-che-umane (o diversamente umane o macchiniche proprio e anche in condizioni cognitive estreme). Ma, chiediamoci, possiamo e come esserne certi? Certamente, la macchina può (come accade per l’umano) istanziare modi del fallimento del processo decisionale nuovi e assai rischiosi. Uno degli snodi filosofici per me più rilevanti è però qui un altro: siamo sicuri di sapere che cosa sia, filosoficamente, un errore? Per fare un esempio semplice: nella gara di Go tra Lee Sedol, il campione mondiale coreano e AlphaGo, il supercomputer di DeepMind una delle mosse vincenti a sorpresa della macchina era stata giudicata e derisa dagli esperti umani come un madornale errore di strategia. Al contrario, via via che il gioco proseguiva, si è poi dimostrata essere non un errore clamoroso, ma una decisione e una mossa strategiche vincenti di straordinaria inventiva. Dunque, torno a chiedermi, cos’è filosoficamente, un errore?… > (Accoto 2024)

Published by

Unknown's avatar

Cosimo Accoto

Research Affiliate at MIT | Author "Il Mondo Ex Machina" (Egea) | Philosopher-in-Residence | Business Innovation Advisor | www.cosimoaccoto.com