Ue, no a riconoscimento facciale in luoghi pubblici - il Centro Tirreno - Quotidiano online
Il sito "il Centro Tirreno.it" utilizza cookie tecnici o assimiliati e cookie di profilazione di terze parti in forma aggregata a scopi pubblicitari e per rendere più agevole la navigazione, garantire la fruizione dei servizi, se vuoi saperne di più leggi l'informativa estesa, se decidi di continuare la navigazione consideriamo che accetti il loro uso.
24
Ven, Set

Ue, no a riconoscimento facciale in luoghi pubblici

Esteri
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

 

L'Ue non diventerà come la Cina, dove i sistemi di riconoscimento facciale o di identificazione biometrica in remoto vengono utilizzati su scala massiccia per controllare la popolazione. Nella proposta di regolamento sull'intelligenza artificiale presentata oggi dalla Commissione Europea, tutti i sistemi di identificazione biometrica in remoto vengono considerati "ad alto rischio" e sono pertanto soggetti a severa regolamentazione. L'uso di questi sistemi in luoghi accessibili al pubblico a fini di applicazione della legge è proibito, in linea di principio. 

Sono previste limitate eccezioni, che vengono strettamente regolate, per esempio per la ricerca di bambini scomparsi, per prevenire una minaccia terroristica "specifica ed imminente" o per localizzare o identificare o perseguire un sospetto autore di un reato grave. Questo utilizzo delle tecniche di riconoscimento biometrico in remoto deve essere autorizzato dall'autorità giudiziaria, o da un'altra istituzione indipendente, e deve avere limiti appropriati nel tempo, nello spazio e per i database utilizzati. 

Le nuove regole sull'intelligenza artificiale saranno applicate direttamente in tutti gli Stati membri e seguono un approccio basato sul rischio. I sistemi di intelligenza artificiale (Ai in gergo) che comportano "rischi inaccettabili", che costituiscono in altre parole una "chiara minaccia" per la vita e alla sicurezza delle persone, verranno vietati. 

Tra questi figurano sistemi e applicazioni di Ai che manipolano il comportamento umano, come ad esempio i giochi che utilizzano l'assistenza vocale incoraggiando comportamenti rischiosi da parte di minori e sistemi che permettono ai governi di effettuare classificazioni nella società ('social scoring' in gergo). 

Sotto i sistemi a rischio inaccettabile ci sono quelli a rischio elevato, che includono le tecnologie di Ai utilizzate in infrastrutture critiche come i trasporti, che possono mettere a rischio la vita e la salute dei cittadini; i sistemi di formazione, che potrebbero determinare l'accesso all'educazione e il percorso professionale delle persone, come i sistemi che valutano gli esami. 

 

Ti potrebbero interessare anche:
article-top-ads-ct-cca-002