Ia, Cerutti (Politecnico di Milano): "Intelligenza artificiale utile, ma con il controllo dell’uomo"
Il sito "il Centro Tirreno.it" utilizza cookie tecnici o assimiliati e cookie di profilazione di terze parti in forma aggregata a scopi pubblicitari e per rendere più agevole la navigazione, garantire la fruizione dei servizi, se vuoi saperne di più leggi l'informativa estesa, se decidi di continuare la navigazione consideriamo che accetti il loro uso.
02
Gio, Mag

Ia, Cerutti (Politecnico di Milano): "Intelligenza artificiale utile, ma con il controllo dell’uomo"

Economia
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

(Adnkronos) - “Intelligenza artificiale? Certo che sì, ma guidata dall'esperto che è in grado di capire quando la macchina sbaglia". Lo ha detto Sergio Cerutti, responsabile scientifico della commissione bioingegneria del concorso “Idea”, durante il panel “Etica ed innovazione nella bioingegneria del

futuro” che si è svolto nella sessione pomeridiana della giornata conclusiva degli “Stati generali delle ingegnerie digitali”, organizzati a Milano dall’Ordine degli ingegneri. 

Durante il suo intervento Cerutti, dipartimento di Bioingegneria, B-cube Lab, Politecnico di Milano, si è soffermato su etica e intelligenza artificiale: “Qualunque ingegnere che si trovi a progettare un impianto, un'apparecchiatura, un device, non può non affrontare un problema etico, a maggior ragione in un settore applicativo in ambito ospedaliero e clinico, dove bisogna intendere qual è il soggetto umano che verrà sottoposto a delle indagini attraverso l'utilizzo di apparecchiature magari invasive o che presentano un grado di pericolosità. In ambito costo-beneficio l'aspetto etico deve essere sempre tenuto in considerazione -ha contestualizzato Cerutti- L'uso massiccio degli algoritmi può comportare la perdita della capacità di intervento dell'uomo di svolgere compiti di alto livello di specializzazione. Avere sempre più ‘delegati automatici’ controllati dall'intelligenza artificiale potrebbe portare all'incapacità di capire criticamente quando il programma di intelligenza artificiale commette un errore”, ha concluso. 

Ho scritto e condiviso questo articolo
Author: Red AdnkronosWebsite: http://ilcentrotirreno.it/Email: Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.