Esistono oramai numerosi contesti nei quali gli algoritmi scelgono, spesso sostituendosi, in tutto o in parte, al loro umano genitore.
Ma allora qual è la differenza tra noi e loro?
La risposta, vale a dire l’elemento che qualifica la differenza, non può che essere l’etica.
Il giudizio etico deve allora diventare anche computabile ed eseguibile dalla macchina.
Da questa lucida e originale analisi nasce il termine algoretica, coniato, come attesta l’Accademia della Crusca, da Paolo Benanti (frate francescano e docente di Teologia morale e bioetica presso la Pontificia Università Gregoriana), secondo il quale “l’algoretica diventa quella declinazione tra computabilità e criterio etico che ha bisogno di essere inclusa all’interno dei codici per poter dare alla macchina dei guard rail, all’interno dei quali potersi muovere evitando scelte di un certo tipo”.
Lo strato superiore rappresentato dall’algoretica deve essere dunque grattato da mani operose, affinché frammenti se ne distacchino e, diventando codici numerici, possano germogliare negli strati inferiori popolati dagli algoritmi.
Certo poi c’è da comprendere a quali mani occorre affidarsi in questa operazione di costruzione di un’etica degli algoritmi.
Quanto appena detto è però un passaggio indispensabile per collocare le nuove tecnologie in una prospettiva umanistica (human in the loop) ed etica.
Diversamente ragionando, il rischio potrebbe essere quello di cambiamenti così radicali da mettere in forse il futuro dell’uomo.
Ecco la parola sulla quale occorre, quindi, ragionare: futuro.
L’etica e l’IA è legata alla dimensione futura in almeno tre modi, secondo le speculazioni filosofiche di Fabio Fossa.
Continua a leggere l'approfondimento su etica e AI di Marco Cramarossa su Blastonline.it.
L'articolo continua dopo la pubblicità