Robotica, droni e intelligenza artificiale sono diventati di moda ed assistiamo alla cresente diffusione di applicazioni pratiche. Un esempio sono i chat bot che si fingono umani e le Google Car che si pilotano da sole.
In tutto questo c’è quasi sempre lo zampino di Google… 😉
Mentre si sperimentano le Intelligenze Artificiali e si moltiplicano i Robot autonomi, la comunità scientifica raccomanda uno sviluppo consapevole. Nel 2015 Bill Gates, Stephen Hawking e Elon Musk hanno segnalato che l’IA potrebbe sfuggire al controllo umano. In più occasioni la comunità scientifica ha chiesto di limitare lo sviluppo di armi autonome e tecnologie senzienti potenzialmente dannose.
[dodotutorial.atervista.org_su_heading size=”13″ align=”center” margin=”20″]Lo spunto di riflessione[/dodotutorial.atervista.org_su_heading]
Alexander Reben, ingegnere ed artista, ha deciso di dare un sostegno pratico alle preoccupazioni dei cervelloni ed ha crato un robot che decide se ferire o meno un essere umano. Quando viene poggiato un dito nell’apposito alloggiamento la macchina di Reben calcola in modo non predicibile se pungere o meno. Questo giocattolo è stato progettato in violazione delle tre leggi della robotica per stimolare il dibattito sulla morale da insegnare alle intelligenze artificiali. Nei fatti la macchina di Reben non è un’IA fuori controllo, si tratta di un robot che svolge il compito per il quale è stato programmato.
Già negli anni 40 dello scorso secolo, Isaac Asimov ideò tre linee guida per la progettazione di robot:
- Un robot non può in atti od omissioni danneggiare un essere umano.
- Un robot deve obbedire agli ordini degli umani purchè non siano in contrasto con la prima legge.
- Un robot deve preservare la sua esistenza purchè non sia in contrasto con la prima o la seconda legge.
Asimov era uno scienziato ed uno scrittore con velleità filosofiche e le sue tre leggi della robotica hanno stimolato lo sviluppo di una morale artificiale da accompagnare alle intelligenze artificiali: cuore e cervello.
[dodotutorial.atervista.org_su_heading]Il vero pericolo con l’intelligenza artificiale[/dodotutorial.atervista.org_su_heading]
Compreresti una macchina programmata per ucciderti? Per mettere in crisi le Tre Leggi della Robotica basta far confrontare l’IA con il Dilemma del Carrello. Nel caso di un investimento inevitabile, la tua macchina dovrebbe decidere se farti schiantare sul guard rail per minimizzare i danni: uccidere te invece del pedone distratto è la scelta logicamente migliore… finchè non sei tu a bordo della macchina. Ecco come un automa “non militare” potrebbero decidere di uccidere un umano. Una volta considerata questa possibilità, cosa impedirebbe all’IA di valutare altri omicidi di convenienza?