I mecenati dell’IA avvertono: l'”intelligenza” artificiale deve essere testata e regolamentata

I padrini dell'IA mettono in guardia da conseguenze devastanti se i programmi sfuggono al controllo.

I principali esperti di IA, tra cui il CEO di OpenAI Sam Altman, hanno rilasciato una dichiarazione in cui chiedono che la mitigazione dei rischi potenziali dell’IA sia una priorità tanto quanto una guerra nucleare o una pandemia. La concisa dichiarazione, rilasciata da un’organizzazione ombrello di leader dell’IA, mira a stimolare la discussione e a sensibilizzare il crescente numero di esperti preoccupati per i gravi rischi associati all’IA avanzata. Tra i firmatari figurano figure di spicco come Geoffrey Hinton e Yoshua Bengio, due dei tre “padrini dell’IA”, oltre a Demis Hassabis, CEO di DeepMind di Google, e Dario Amodei, CEO dell’azienda di IA Anthropic.

La dichiarazione arriva mentre i politici e i leader dell’industria tecnologica si riuniscono in Svezia per la riunione del Consiglio per il commercio e la tecnologia UE-USA per discutere della regolamentazione dell’IA. Altman di OpenAI dovrebbe incontrare il capo dell’industria dell’UE Thierry Breton per discutere l’attuazione dei prossimi regolamenti dell’UE sull’IA. Altman aveva precedentemente espresso preoccupazione per le regole proposte, ma ha poi ammorbidito la sua posizione.

Sebbene la dichiarazione non affronti rischi specifici o strategie di mitigazione, fa riferimento ai recenti commenti di Yoshua Bengio che sottolineano i potenziali rischi associati al perseguimento da parte dell’IA di obiettivi in conflitto con i valori umani. Questi rischi includono la presenza di attori umani malintenzionati che istruiscono l’IA a intraprendere attività dannose, l’interpretazione errata di obiettivi specificati in modo inappropriato, l’emergere di sotto-obiettivi con conseguenze negative e lo sviluppo di comportamenti egoistici da parte dell’IA per garantire la propria sopravvivenza.

Bengio propone di incrementare la ricerca sulla sicurezza delle IA, di limitare temporaneamente l’inseguimento di obiettivi reali da parte delle IA e di vietare le armi autonome letali. La dichiarazione e i risultati di Bengio contribuiscono al dialogo in corso sull’etica dell’IA e sulla necessità di uno sviluppo e di una regolamentazione responsabili, per garantire che i benefici dell’IA siano massimizzati riducendo al minimo i rischi potenziali.

Exit mobile version