3 miti da sfatare sull’intelligenza artificiale e sui rischi che corriamo

Da Siri alle auto che si guidano da sole, l’intelligenza artificiale è tra noi e si sta evolvendo rapidamente. Accade spesso che, quando si parla di AI, questa venga associata ad un robot con caratteristiche umane, ma in realtà i suoi ambiti applicativi possono essere molteplici.

LEGGI ANCHE: VIDEO Boston Dynamics sta costruendo automi che camminano come noi e cani e gatti robot

L’intelligenza artificiale oggi è definita “debole”, in quanto essa è progettata per svolgere determinate funzioni,per esempio il riconoscimento facciale o le ricerche sul web: l’obiettivo  di molti ricercatori al lavoro su questa tecnologia è quello di sviluppare un’intelligenza artificiale “forte” in grado di superare gli esseri umani in quasi tutti i compiti cognitivi.

Quali saranno le conseguenze?

Artificial-Intelligence

La progettazione di sistemi  AI più intelligenti può portare a degli sviluppi decisivi in numerosi settori, correndo il rischio di lasciare l’intelletto umano molto indietro.

Nonostante la creazione di una super intelligenza artificiale rappresenti un grande passo per l’umanità, utile (forse) a sradicare le guerre, la povertà e le malattie, molti esperti hanno espresso la loro preoccupazione riguardante l’incapacità di allineare gli obiettivi umani con quelli artificiali.

Perché l’intelligenza artificiale può essere pericolosa

Una gran parte dei ricercatori concorda sul fatto che un’intelligenza artificiale super intelligente non sia in grado di mostrare emozioni umane come l’amore o l’odio. Non ci sarebbe ragione, dunque, per aspettarsi che diventi intenzionalmente benevola o malevola.

Invece, quando si pensa a come l’AI possa diventare pericolosa, gli scenari possibili sono due: l’intelligenza artificiale potrebbe essere programmata per diventare pericolosa o potrebbe essere programmata per essere utile, ma sviluppare autonomamente un metodo distruttivo per raggiungere i suoi obiettivi.

Nel primo caso, l’intelligenza artificiale  può diventare estremamente dannosa: basti immaginare armi autonome, sistemi di intelligenza artificiale programmati per uccidere che, nelle mani della persona sbagliata, potrebbero facilmente causare vittime in modo massivo. Inoltre, una corsa agli armamenti di intelligenza artificiale potrebbe inavvertitamente portare a una guerra con conseguenze davvero disastrose.

Per non correre il rischio di essere intralciati dal nemico, queste armi potrebbero essere progettate per essere estremamente difficili da “spegnere”, così gli umani potrebbero facilmente perdere il controllo della situazione. Questo rischio è presente anche con una AI ristretta, ma cresce con l’aumentare dei livelli di intelligenza e autonomia dell’intelligenza artificiale.

Nel secondo caso, si corre il rischio che gli obiettivi artificiali non siano allineati con quelli umani: ad esempio, se chiediamo ad un auto intelligente di condurci all’aeroporto il più velocemente possibile, questa potrebbe eseguire letteralmente la richiesta, non badando a ostacoli o alla sicurezza. Uno scenario da film probabilmente, ma che l’intelligenza artificiale avanzata possa non avere le competenze giuste per comprendere gli ordini, è una preoccupazione reale.

I miti riguardo il futuro dell’Intelligenza Artificiale

robot

Ci sono controversie affascinanti su cui i maggiori esperti del mondo non sono d’accordo, come l’impatto di questa tecnologia sul mercato del lavoro; ci sono però anche molti esempi di sterili pseudo-controversie causate spesso da conclusioni troppo azzardate. Cerchiamo di chiarire insieme alcuni di questi “miti” che fanno a volte molto discutere sul futuro dell’AI.

Il primo mito riguarda il tempo: quanto ci vorrà prima che le macchine superino di molto l’intelligenza umana? Le due opinioni principali e contrarie utilizzano questo secolo come punto di riferimento: l’AI si svilupperà prima/dopo del 2100. La verità è che non ci sono dati che possano dirci con certezza il tempo che questa tecnologia impiegherà per arrivare al massimo della sua espressione: l’unica cosa che possiamo attualmente fare è prepararci già dal punto di vista della sicurezza, per prevenire i pericoli di cui parlavamo sopra.

Il secondo mito sostiene che gli unici a preoccuparsi degli effetti negativi dell’AI siano coloro che non ne conoscono davvero le potenzialità. Falso anche questo: anche i ricercatori più affermati che lavorano sull’Intelligenza Artificiale sono i primi a nutrire molti dubbi e preoccupazioni sul suo futuro.

chatbot-intelligenza-artificiale

Il terzo mito è quello più discusso: le macchine non hanno obiettivi come possono averli gli umani. Sbagliato: l’intelligenza artificiale ha degli obiettivi e può svilupparne di nuovi, il problema è se questi siano più o meno allineati con quelli degli esseri umani. Facciamo un esempio: un ipotetico missile comandato dall’AI non ha forse l’obiettivo di uccidere, ma ha l’obiettivo di seguire le fonti di calore, poco importa se queste siano di animali, umani adulti o umani bambini.

Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *