“La questione della responsabilità attraversa e interessa anche il discorso filosofico da tempo. Oggi sempre più si intreccia alle rivoluzioni tecnologiche che stiamo vivendo. Di più, direi. Queste ultime -e tra queste gli sviluppi dell’intelligenza artificiale- impongono proprio un ripensamento dei più tradizionali e consolidati orizzonti di pensiero. Dalla responsabilità individuale nel presente del soggetto agente di Max Weber all’apertura alla dimensione della responsabilità del futuro e planetaria di Hans Jonas, per citare tra i molti due momenti recenti nella concettualizzazione della responsabilità, il pensiero filosofico ha dovuto affrontare ogni volta e nuovamente l’analisi di un concetto estremamente rilevante e distintivo per l’agire umano. Ma è ancora solo umano? In che misura, oggi, questa idea e pratica di responsabilità è erosa -e scardinata fors’anche- da forme tecniche e artificiali di agentività a cui sono demandati controlli, operazioni e decisioni? Secondo quali nuovi orizzonti di senso stiamo progettando la cosiddetta responsible AI? Come si ridisegna la responsabilità nell’era della neoautomazione? Chi, per cosa, a chi e come sarà chiamato a rispondere e per converso chi o cosa verrà deresponsabilizzato?” (Accoto 2021)
“This book proposes three liability regimes to combat the wide responsibility gap caused by AI systems – vicarious liability for autonomous software agents (actants); enterprise liability for inseparable human-AI interactions (hybrids); and collective fund liability for interconnected AI systems (crowds). Based on information technology studies, the book first develops a threefold typology that distinguishes individual, hybrid and collective machine behaviour. A subsequent social sciences analysis specifies the socio-technical configurations of this threefold typology and theorises their social risks when being used in social practices: actants raise the risk of digital autonomy, hybrids the risk of double contingency, crowds the risk of opaque interconnections. The book demonstrates that it is these specific risks to which the law needs to respond, by recognising personified algorithms as vicarious agents, human-machine associations as collective enterprises, and interconnected systems as risk pools – and by developing corresponding liability rules” (Three Liability Regimes of Artificial Intelligence, Beckers & Teubner, forthcoming 2021)

https://www.bloomsbury.com/us/three-liability-regimes-for-artificial-intelligence-9781509949335