Intelligenza artificiale applicata alla reazione di fusione: cosa ci dice l’etica al riguardo

La recente notizia dell’applicazione dell’intelligenza artificiale per la reazione di fusione ci fa riflettere sull’utilizzo delle macchine.

Come pubblicato sulla rivista Nature, gli scienziati della società Alphabet hanno presentato un primo esempio di machine learning che in laboratorio ha ottenuto degli esiti positivi nel controllo di un reattore a fusione nucleare.

 L’unica strada apparentemente percorribile

Per alcuni scienziati l’utilizzo dell’intelligenza artificiale nel campo della fusione nucleare sembra l’unica strada possibile, in quanto effettuare questa operazione manualmente richiede tempi troppo lunghi; le macchine appaiono dunque più adatte dell’uomo nell’eseguire questo compito, possiamo realmente credere che una macchina possa arrivare a sostituire un uomo? In merito a questo punto i pareri degli esperti differiscono, ma sicuramente tutti concordano sul non dover oltrepassare la cosiddetta singolarità: un momento futuro in cui l’intelligenza artificiale si autoprogrammerà e per l’uomo sarà impossibile controllarla.

L’utilizzo delle macchine intorno a noi

Gli algoritmi e l’intelligenza artificiale vengono ormai applicati in vari campi inerenti alla vita umana, dai più ai meno semplici: in California, per esempio, le richieste di libertà condizionata dei detenuti vengono decise da un sistema di algoritmi che prende in considerazione fattori quali la provenienza sociale del detenuto, i suoi precedenti e altre componenti che per alcuni esperti sono discutibili o comunque non costituiscono un valido metro di giudizio. Altro esempio di uso quotidiano sono le driverless car: macchine programmate affinché in caso si trovassero in pericolo di investire 10 persone, la macchina dirotterebbe automaticamente verso il marciapiede per ucciderne una, perché utilitaristicamente è meglio ucciderne solo una che dieci. In merito a questi utilizzi i pareri sono discordanti.

Siamo gli artefici del nostro destino

Sicuramente non possiamo evitare questo progressivo e sempre maggiore utilizzo delle intelligenze artificiali, però possiamo normarlo. Il filosofo Nick Bostrom ritiene che interfacciandoci con l’intelligenza artificiale siamo come bambini che giocano con una bomba, dobbiamo da subito porci dei limiti per evitare una catastrofe. A tal proposito sono state proposte alcune leggi che ne regolino l’utilizzo, fra le più famose sicuramente troviamo le leggi della robotica di Asimov. Mai come di questi tempi infatti, in cui il ricorso all’intelligenza artificiale è sempre più frequente, dobbiamo normare l’utilizzo di queste nuove tecnologie, per evitare di compiere da soli dei danni verso noi stessi.

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.