PRIVACY E INTELLIGENZA ARTIFICIALE: UN PERICOLO REALE


L'intelligenza artificiale ha conosciuto un incredibile sviluppo negli ultimi anni ed è ormai entrata a far parte della nostra quotidianità (basti pensare all'assistente vocale dello smartphone). Le grandi aziende tecnologiche come Google, Apple e Amazon continuano a sviluppare programmi ed applicazioni basati su questa tecnologia per utilizzarli in diversi settori, ad esempio medico, finanziario, militare.

La maggior parte dei software dotati di intelligenza artificiale sono basati sul deep learning (apprendimento profondo), un sistema in base al quale una macchina osserva il comportamento umano (come nel caso delle auto senza pilota) o attinge da una vasta banca dati le informazioni necessarie a sviluppare algoritmi atti a raggiungere l’obiettivo fissato dal programmatore. I calcoli necessari a questo processo sono svolti da una rete di chip interconnessi, detta rete neurale artificiale. I chip (o neuroni) sono disposti a strati, che sono decine o centinaia. Gli input attraversano i vari strati, dove vengono elaborati, prima di giungere al risultato. Maggiore è il numero degli strati, maggiore è il livello di astrazione e la complessità del sistema.
La gran parte dei sistemi basati sul deep learning non è in grado di spiegare come e perché è giunta ad una specifica decisione e, spesso, nemmeno gli ingegneri che li hanno progettati sono in grado.
Questo problema costituisce un notevole impedimento nell'utilizzo dell’IA in campi come quello medico e militare, dove la prescrizione di farmaci o l'autorizzazione ad un attacco necessitano di motivazioni argomentate.
Per superare questo scoglio, la DARPA (Defence advanced research projects agency), un'agenzia governativa statunitense per le tecnologie della sicurezza, sta finanziando un progetto ad hoc: Explainable artificial intelligence (intelligenza artificiale spiegabile). Consentire ai sistemi di apprendimento automatico di giustificare i propri risultati sarà fondamentale per instaurare una collaborazione proficua tra uomo e macchina.
Non dobbiamo tuttavia lasciarci trasportare da certi film di fantascienza in cui orde di robot invadono la Terra e spazzano via l’umanità. L'intelligenza artificiale non ha i mezzi né le intenzioni per compiere un simile gesto.
In primo luogo non esistono robot capaci d’impugnare armi e siamo lontani dal realizzarli; inoltre l'intelligenza artificiale è priva di inventiva e libero arbitrio: mentre tutti gli esseri viventi, in quanto mortali, sono dotati di istinto di sopravvivenza, da cui deriva la necessità di cacciare e procreare, le macchine invece svolgono solo i compiti che vengono assegnati loro.
Semmai dovremmo concentrarci su un aspetto al quanto più rilevante: la privacy.
I sistemi deep learning necessitano di una vastissima quantità di dati per migliorarsi ed evolvere e, attualmente, il principale fornitore è Google. L’azienda californiana ha accesso a dati di ogni genere (geolocalizzazione, tracciamento delle attività in rete, informazioni sui dispositivi che utilizziamo) e, anche se dichiara di utilizzarli solamente per migliorare i propri servizi, ne approfitta per spedirci pubblicità mirata con una finezza che fa apparire obsolete le “vecchie” mail spam.
Pertanto non dovremmo forse preoccuparci dell'importanza della privacy, argomento quanto mai attuale e rilevante, piuttosto che lasciarci trasportare dalla fantasia e dell'angoscia?




Luca Pellegrini, ISIS MAGRINI-MARCHETTI 2°Als

Nessun commento:

Posta un commento