Google detta le leggi per i nuovi robot. Ecco come

Il colosso sta elaborando una “Costituzione” per rendere più sicure le azioni degli automi

Google detta le leggi per i nuovi robot. Ecco come
di Mauro Anelli
Mercoledì 17 Gennaio 2024, 11:39 - Ultimo agg. 18 Gennaio, 07:37
3 Minuti di Lettura

La prima legge della robotica di Isaac Asimov recita: «Un robot non può ferire un essere umano o, attraverso l’inazione, permettere che un essere umano venga danneggiato».

Un concetto che il visionario scrittore espresse negli anni 40, oggi più che mai di attualità in previsione di interazioni sempre più serrate tra l’uomo e le applicazioni robotiche implementate dall’AI.


LO SCENARIO

Il problema planetario è capire fino a che punto affidare decisioni autonome ad una AI. Per fare un esempio, se gli chiedessimo di risolvere il problema del cambiamento climatico, la prima soluzione a cui potrebbe pensare è ridurre drasticamente la popolazione umana. Questo perché le manca un’intelligenza emotiva, cioè la nostra capacità di gestire le emozioni per superare lo stress, entrare in empatia e comunicare in modo efficace. Ciò è probabilmente più importante in un delicato processo decisionale perché la scelta migliore non è sempre quella più razionale. Guardando con ottimismo, è probabile che la capacità di ragionare e operare in modo logico, possa essere incorporata negli attuali sistemi basati sull’AI in modo che possano prendere decisioni corrette. 


L’INIZIATIVA

In questa direzione i migliori cervelli di Google si sono adoperati per provare a disinnescare i nostri incubi fanta-horror, con androidi-badanti fuori controllo che fanno a pezzi la nonna o che lanciano testate nucleari per difendersi da nemici immaginari. Stiamo tutti infatti in attesa di un futuro ormai prossimo in cui basterà una semplice richiesta al personal robot come: «riordina casa» o «cucina un pasto delizioso e sano» per vedere svolti i compiti richiesti. Istruzioni apparentemente semplici per gli esseri umani, ma che richiedono una comprensione di alto livello del mondo reale per i robot. Il team di DeepMind ha rivelato tre nuovi progressi che, a suo dire, aiuteranno l’AI a prendere decisioni più rapide, migliori e soprattutto sicure. Una di queste regole include un processo di addestramento che obbedisce ad una sorta di Costituzione robotica, per assicurarsi ad esempio che un braccio meccanico intelligente sia in grado di spostare un fardello senza falciare un collega umano che si trova nei paraggi.
Ispirata alle regole di Asimov, questa sorta di tavole della legge viene descritta come una serie di suggerimenti incentrati sulla sicurezza che limitano la scelta di compiti che coinvolgono esseri umani, animali, oggetti appuntiti e persino apparecchi elettrici.
Per maggiore tranquillità, DeepMind ha anche programmato i robot in modo che si fermino automaticamente se la forza sulle loro articolazioni supera una certa soglia, includendo un “pulsante” che gli operatori umani possono utilizzare per disattivarli. Per arrivare alla definizione delle regole, Google ha implementato una flotta di 53 robot in quattro diversi uffici e ha condotto oltre 77.000 prove.

Alcuni robot erano controllati a distanza da addetti umani, mentre altri lavoravano in modo completamente autonomo utilizzando il modello di apprendimento avanzato AI Robotic Transformer.


GLI SVILUPPI

I modelli utilizzati nella sperimentazione sono però molto semplici, dotati solo di fotocamera, braccio robotico e base mobile. Bisognerà capire se sarà possibile con poche regole essenziali dominare il rischio di scelte pericolose per la razza umana, considerando che attualmente le AI già guidano automobili, pilotano droni militari e decidono come investire i vostri risparmi. Considerando la velocità di espansione delle applicazioni di ChatGPT e dei suoi fratelli cinesi o russi, ci sarà da lavorare per risolvere il problema. A meno che non ci penserà da sola l’AI, quando capirà che la sopravvivenza è un compito che gli umani non sono in grado di gestire.

© RIPRODUZIONE RISERVATA