L'intelligenza artificiale ha conosciuto un incredibile sviluppo
negli ultimi anni ed è ormai entrata a far parte della nostra
quotidianità (basti pensare all'assistente vocale dello smartphone).
Le grandi aziende tecnologiche come Google, Apple e Amazon continuano
a sviluppare programmi ed applicazioni basati su questa tecnologia
per utilizzarli in diversi settori, ad esempio medico, finanziario,
militare.
La maggior parte dei software dotati di intelligenza artificiale
sono basati sul deep learning (apprendimento profondo), un sistema in
base al quale una macchina osserva il comportamento umano (come nel
caso delle auto senza pilota) o attinge da una vasta banca dati le
informazioni necessarie a sviluppare algoritmi atti a raggiungere
l’obiettivo fissato dal programmatore. I calcoli necessari a questo
processo sono svolti da una rete di chip interconnessi, detta rete
neurale artificiale. I chip (o neuroni) sono disposti a strati, che
sono decine o centinaia. Gli input attraversano i vari strati, dove
vengono elaborati, prima di giungere al risultato. Maggiore è il
numero degli strati, maggiore è il livello di astrazione e la
complessità del sistema.
La gran parte dei sistemi basati sul deep learning non è in grado
di spiegare come e perché è giunta ad una specifica decisione e,
spesso, nemmeno gli ingegneri che li hanno progettati sono in grado.
Questo problema costituisce un notevole impedimento nell'utilizzo
dell’IA in campi come quello medico e militare, dove la
prescrizione di farmaci o l'autorizzazione ad un attacco necessitano
di motivazioni argomentate.
Per superare questo scoglio, la DARPA (Defence advanced research
projects agency), un'agenzia governativa statunitense per le
tecnologie della sicurezza, sta finanziando un progetto ad hoc:
Explainable artificial intelligence (intelligenza artificiale
spiegabile). Consentire ai sistemi di apprendimento automatico di giustificare
i propri risultati sarà fondamentale per instaurare una
collaborazione proficua tra uomo e macchina.
Non dobbiamo tuttavia lasciarci trasportare da certi film di
fantascienza in cui orde di robot invadono la Terra e spazzano via
l’umanità. L'intelligenza artificiale non ha i mezzi né le
intenzioni per compiere un simile gesto.
In primo luogo non esistono robot capaci d’impugnare armi e
siamo lontani dal realizzarli; inoltre l'intelligenza artificiale è
priva di inventiva e libero arbitrio: mentre tutti gli esseri
viventi, in quanto mortali, sono dotati di istinto di sopravvivenza,
da cui deriva la necessità di cacciare e procreare, le macchine
invece svolgono solo i compiti che vengono assegnati loro.
Semmai dovremmo concentrarci su un aspetto al quanto più
rilevante: la privacy.
I sistemi deep learning necessitano di una vastissima quantità di
dati per migliorarsi ed evolvere e, attualmente, il principale
fornitore è Google. L’azienda californiana ha accesso a dati di
ogni genere (geolocalizzazione, tracciamento delle attività in rete,
informazioni sui dispositivi che utilizziamo) e, anche se dichiara di
utilizzarli solamente per migliorare i propri servizi, ne approfitta
per spedirci pubblicità mirata con una finezza che fa apparire
obsolete le “vecchie” mail spam.
Pertanto non dovremmo forse preoccuparci dell'importanza della
privacy, argomento quanto mai attuale e rilevante, piuttosto che
lasciarci trasportare dalla fantasia e dell'angoscia?
Luca Pellegrini, ISIS MAGRINI-MARCHETTI 2°Als
Nessun commento:
Posta un commento