martedì 4 novembre 2014

inevitabile e pericolosa ?

Il libro di Nick Bostrom lascia poco spazio all'incertezza: nell'arco di qualche decina di anni vedremo nascere una qualche forma di superintelligenza. Probabilmente una forma di AI basata su supercalcolatori.


E sull'argomento le notizie e gli articoli in rete sono sempre più frequenti (questo di wired particolarmente interessante www.wired.com/2014/10/future-of-artificial-intelligence/).

Mi ha però recentemente colpito molto l'intervista ad Elon Musk, pubblicata sul sito di Repubblica, in cui il fondatore di PayPal e di Tesla giudica decisamente pericolosa una AI.

Anche nel libro di Bostrom ci sono molte riflessioni sull'impatto che una intelligenza "diversa" potrà avere avere sulle sorti dell'umanità e non tutte le conclusioni sono favorevoli.

In una trilogia dell'autore di fantascienza Robert J. Sawyer intitolata WWW (1, 2 e 3) l'ipotesi è che una superintelligenza autocoscente possa essere in realtà benigna nei confronti del suo creatore.

Nella realtà una forma avanza di intelligenza, qualora divenga autosufficiente,  potrebbe vederci solo come creature diverse (da lei) e non necessariamente provare nei nostri confronti sentimenti amorevoli.





Nessun commento: