Le cinque sfide etiche dell’Intelligenza artificiale
Dalla Privacy al lavoro, e poi nell’Automazione, nella salute, nelle applicazioni e nei servizi Smart, in politica, nel marketing e in molto altro ancora: lo sviluppo impetuoso dell’Intelligenza artificiale apre importanti questioni etiche in molti settori, in molte attività quotidiane.
Con incognite su come procedere, come programmare tutta questa Artificial intelligence (AI), come affrontare i cambiamenti in atto, punti interrogativi a cui, da più parti, servono risposte adeguate ma complesse.
Sono cinque, secondo diversi studiosi, tra sociologi ed esperti di Digital transformation, le principali sfide etiche poste dall’Intelligenza artificiale, da affrontare e risolvere. Riguardano il rapporto tra fiducia e controllo nel rapporto tra Uomo e AI; il cambiamento dei profili di responsabilità e la ‘sostituzione’ dell’attività umana con l’AI; il rischio di erodere l’autodeterminazione umana e il suo “libero arbitrio”; il rischio di svalutazione delle competenze e delle capacità umane; il rischio di replicare non solo le qualità, ma anche errori e difetti dell’agire umano.
Uomo e AI, fiducia versus controllo
Uno dei principali nodi da sciogliere, nel rapporto tra Uomo e Intelligenza artificiale, riguarda il fatto di determinare il livello di fiducia con cui delegare alla Macchina certe operazioni, e, in maniera complementare e speculare, il livello di controllo da mantenere tra le mani per verificare come sta funzionando questa intelligenza ‘programmata’. Un aspetto tanto più delicato quanto più aumenta la posta in gioco.
Sostituzione dell’attività umana e responsabilità
Con la crescente diffusione delle applicazioni di Artificial intelligence, destinata a moltiplicarsi, un altro degli effetti più immediati riguarda la sempre maggiore sostituzione dell’attività umana con l’AI. E quindi anche la ‘rimozione’ della responsabilità umana, che passa in misura sempre più consistente sul lato Macchina.
Ma se qualcosa non funziona o va storto, la responsabilità di chi è? Di chi ha programmato il sistema di Intelligenza artificiale? Di chi l’ha prodotto? Del proprietario? Incognite molto delicate e che attendono soluzioni non facili da definire, soprattutto a livello internazionale, dove misure e normative possono essere molto diverse tra loro.
Il rischio di svalutare o perdere le competenze
Più aumentano i livelli di automazione, fiducia e delega nei confronti dell’Artificial intelligence, più cresce la possibilità che, soprattutto nel lungo periodo, si possano svalutare o anche perdere delle competenze e capacità umane, che non vengono più utilizzate come un tempo perché rimpiazzate da quelle tecnologiche.
Evitare di replicare errori e difetti dell’Uomo
I programmatori dei sistemi di Intelligenza artificiale sono uomini e donne in carne e ossa, a parte naturalmente le applicazioni di Machine learning che ‘imparano’ direttamente dai dati disponibili e altre istruzioni automatizzate. Quindi un altro rischio da tenere presente e scongiurare riguarda la possibilità che errori e difetti dell’agire umano possano essere trasferiti, volutamente e non, alle Macchine e ai computer.
Etica e Hi-tech, qualcosa si muove
Ma, oltre che i singoli individui, la gestione e il governo del mondo digitale e dell’Intelligenza artificiale riguardano scenari molto più grandi. In Italia, tra fine 2018 e l’inizio di quest’anno, il Ministero dello Sviluppo Economico ha formato e reso operativa la ‘squadra’ di professionisti ed esperti che collaboreranno con il Ministero e il Governo per elaborare la strategia nazionale sull’Intelligenza artificiale, insieme all’analogo Team in materia di tecnologie Blockchain.
Continua a leggere in Innovation Post