Trend

Un codice etico per l’Intelligenza Artificiale

Bosch ha emanato linee guida vincolanti che regolano l’utilizzo dell’Intelligenza Artificiale nei suoi prodotti intelligenti. Il codice etico per l’IA di Bosch (che ha l’obiettivo di sviluppare tutti i suoi prodotti con l’IA entro il 2025)  si basa sul principio secondo cui l’uomo deve avere l’ultima parola su qualsiasi decisione basata sull’IA.

L’intelligenza artificiale è un motore globale di crescita e progresso. I consulenti di gestione PwC, per esempio, calcolano che, entro il 2030, l’IA farà aumentare il PIL del 26% in Cina, del 14% in Nord America e di circa il 10% in Europa.  Ma gli algoritmi sono in grado di ragionare e prendere decisioni?

Gli umani devono sempre avere il controllo

Il codice etico di Bosch per l’IA prevede che l’intelligenza artificiale non prenda decisioni relative alle persone senza che l’uomo ne abbia il controllo. L’intelligenza artificiale deve, anzi, essere uno strumento al servizio dell’uomo. Sono descritti tre modelli possibili.  Nel primo modello (l’uomo ha il controllo), l’intelligenza artificiale è puramente un ausilio, per esempio come nei sistemi di supporto alle decisioni in cui l’IA può aiutare le persone a classificare gli oggetti o gli organismi. Nel secondo modello (l’uomo può intervenire) un sistema intelligente prende in modo autonomo decisioni che l’uomo può, tuttavia, annullare in qualsiasi momento. Ne sono un esempio la guida parzialmente autonoma in cui il guidatore umano può intervenire direttamente nella decisione. Il terzo modello (l’uomo supervisiona) riguarda la tecnologia intelligente, come i sistemi di frenata di emergenza. Durante la fase di sviluppo di queste tecnologie, gli esperti stabiliscono determinati parametri su cui si basano le decisioni dell’IA. L’uomo non può dunque intervenire nel processo di decisione stesso. A posteriori, gli ingegneri verificano se il sistema ha agito entro i parametri definiti che, se necessario, possono essere modificati.

Un problema di fiducia

E’ chiaro a tutti che in futuro non basterà il solo know-how tecnico per instaurare la fiducia nei sistemi intelligenti: sarà necessario anche un dialogo serrato che coinvolga la politica, la comunità scientifica e i cittadini. Per questo motivo la Commissione Europea ha creato l’High-Level Expert Group on Artificial Intelligence, per approfondire aspetti quali le proporzioni etiche dell’IA. In una rete globale che al momento comprende sette sedi e in collaborazione con l’Università di Amsterdam e la Carnegie Mellon University (Pittsburgh, USA), Bosch sta lavorando allo sviluppo di applicazioni di intelligenza artificiale più sicure e affidabili. Analogamente, in quanto membro fondatore dell’alleanza per la ricerca della Cyber Valley nel Baden-Württemberg, Bosch investirà 100 milioni di euro nella costruzione di una campus per l’IA, in cui 700 dei suoi esperti presto lavoreranno fianco a fianco con ricercatori esterni e collaboratori delle startup. Infine, ma ugualmente importante, il Digital Trust Forum, un comitato fondato da Bosch, si propone di promuovere un fitto scambio di idee tra gli esperti delle principali associazioni e organizzazioni internazionali. Insomma, il mondo scientifico si sta muovendo compatto per combinare la ricerca dell’innovazione con una relazione serena e proficua tra uomo e macchina. In cui l’IA sia solo uno strumento efficace ma l’arbitrio dell’uomo abbia sempre l’ultima parola.