LA COMMISSIONE PROPONE NUOVE REGOLE E AZIONI PER L'ECCELLENZA E LA FIDUCIA NELL'INTELLIGENZA ARTIFICIALE

La Commissione europea ha proposto una serie di regole e azioni mirate a rendere l’Europa polo mondiale per l’Intelligenza Artificiale (IA) affidabile. Gli strumenti messi in campo prevedono un nuovo quadro giuridico ed un piano coordinato con gli Stati membri e perseguono lo scopo di garantire sicurezza e diritti fondamentali di persone ed imprese rafforzando al contempo lo sviluppo dell’IA in tutta l’Unione.

Le regole previste dal nuovo regolamento garantiranno un approccio flessibile basato sui rischi specifici posti dall’adozione di sistemi di IA mentre il piano coordinato descrive i cambiamenti strategici e gli investimenti necessari, a livello di Stato membro, per lo sviluppo di un’intelligenza artificiale antropocentrica, sostenibile, sicura, inclusiva e affidabile.

La tassonomia dei rischi sarà così articolata:

  • Rischio inaccettabile: saranno vietati i sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone;
  • Rischio alto: i sistemi di IA ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato;
  • Rischio limitato: tali sistemi saranno soggetti a specifici obblighi di trasparenza;
  • Rischio minimo: il regolamento non prevede alcun adempimento.

La proposta della Commissione prevede che siano le autorità nazionali di vigilanza del mercato gli organismi competenti a supervisionare le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione e stimolerà lo sviluppo di norme per l’IA.

Riferimenti

  • Commissione Europea

https://ec.europa.eu/commission/presscorner/detail/en/IP_21_1682