"Un uomo di vetro", che potrebbe vedere violati persino i propri pensieri. E che, in ogni caso - di fronte a ogni nuova frontiera tecnologica - appare esposto al rischio di una sempre più inevitabile "solitudine digitale".
E' questo lo scenario inquietante, futuribile ma nemmeno troppo, tracciato dal Garante della privacy, Pasquale Stanzione, presentando la Relazione annuale dell'attività svolta dall'Authority nel 2022, in cui ha ribadito come le neotecnologie debbano essere al servizio della persona. E quanto la velocità del loro progresso renda sempre più problematico garantire che ciò davvero accada.
A rendere ancora più precari gli equilibri tra etica e modernità, tra innovazione e libertà, c'è proprio l'intelligenza artificiale e il moltiplicarsi dei suoi usi, compresi "quelli vietati perchè potenzialmente idonei a violare la dignità umana o ad amplificare le discriminazioni dalle quali, invece, proprio le macchine avrebbero dovuto liberarci", ha rilevato ancora Stanzione.
"E' vero che resta il divieto di ricorrere alle tecniche subliminali o intenzionalmente manipolative, ma - sebbene pensate proprio per favorire l'inclusione - certe applicazioni rischiano paradossalmente di “determinare ulteriore divario, anche per effetto di discriminazioni algoritmiche sempre più opache e difficili da individuare”.
Ecco allora che "il monitoraggio centralizzato dell'accesso alle prestazioni sociali necessita di cautele, tali da evitarne la degenerazione in una forma di controllo sociale panottico, se non, addirittura, di totalitarismo digitale". Ecco che nel settore investigativo i doverosi 'no' ai sistemi di polizia predittiva e rilevazione delle emozioni vanno estesi al riconoscimento facciale in luoghi pubblici.
Nella vicenda ChatGPT, "l'intervento del Garante ha consentito di indirizzare lo sviluppo di questa forma d'intelligenza artificiale generativa in una direzione compatibile con la tutela della persona, contrastando lo sfruttamento di quei frammenti dell'io che sono i dati personali".
Nel campo delle neuroscienze, soprattutto i sistemi di brain reading, avverte il Garante, "devono sempre garantire, come primo dei "neurodiritti", la privacy mentale, condizione ineludibile di autodeterminazione". Tra le garanzie necessarie per impedire effetti negativi dell'I.A., "quelle già sancite dalla disciplina di protezione dei dati - rappresentano "un presidio essenziale". E concorrono alla definizione del "limite che l'uomo deve saper opporre alla tecnica.
"Nel rapporto impari con la tecnica e la sua potenza geometrica - ha sottolineato ancora il Garante - la più grande vulnerabilità della persona è la sua solitudine, il suo confrontarsi, quasi inerme, con un potere che rischia di divenire insindacabile e totalizzante". Vale per gli adulti, e vale - ancora di più - per i minori che, più degli altri, sembrano sedotti dal fenomeno della violenza non solo "assistita", ma addirittura "filmata e poi esibita sul web". E che pur di guadagnare visibilità sui social, si spingono "sino al punto di mettere a rischio la vita degli altri. Rischiando sempre più spesso di "divenire spettatori inerti del male" o, addirittura, come nel caso di Casal Palocco a Roma, di "sacrificare la vita di un bambino per un like in più".
La tutela preventiva assicurata dall'age verification è il necessario complemento della tutela remediale accordata dal Garante, in particolare rispetto al cyberbullismo e al revenge porn, che si conferma essere un presidio essenziale per ragazze e ragazzi vittime di un uso violento della rete, purtroppo anche da parte dei loro coetanei.
Nei mesi scorsi l'Onu e molte agenzie internazionali avevano affermato non a caso che i recenti progressi dell’intelligenza artificiale (AI) rappresentano una grave minaccia per i diritti umani.
In particolare l'Alto Commissario delle Nazioni Unite per i Diritti Umani, chiedeva che vengano messe in atto “efficaci misure di salvaguardia”. “Sono profondamente turbato dai potenziali danni derivanti dai recenti progressi dell‘intelligenza artificiale“, ha dichiarato Volker Turk in una breve dichiarazione. “La dignità umana e tutti i diritti umani sono seriamente minacciati”, ha aggiunto.
Turk ha lanciato “un appello urgente alle aziende e ai governi affinché sviluppino rapidamente misure di salvaguardia efficaci”. “Seguiremo da vicino la questione, apporteremo la nostra esperienza specifica e faremo in modo che la dimensione dei diritti umani rimanga centrale nell’evoluzione della questione”, ha chiarito.
Decine di Paesi, tra cui gli Stati Uniti e la Cina, hanno sollecitato in questi giorni la regolamentazione dello sviluppo e dell’uso dell’intelligenza artificiale in campo militare, citando il rischio di “conseguenze indesiderate”. Il testo, firmato da più di 60 Paesi, solleva anche preoccupazioni sulla “questione del coinvolgimento umano, nonché sulla mancanza di chiarezza in materia di responsabilità” e sulle “potenziali conseguenze indesiderate”.
Ma l’AI si sta diffondendo anche nella vita quotidiana, dagli smartphone alla salute e alla sicurezza. E’ diventata il nuovo campo di battaglia per i giganti di Internet, con Microsoft che ha iniziato a puntare miliardi su ChatGpt. L’intelligenza artificiale promette una rivoluzione nella ricerca su Internet e in altri usi ancora da inventare. Ma gli esperti avvertono che presenta anche dei rischi (violazione della privacy, algoritmi distorti, ecc.) che richiederanno una regolamentazione, difficile da mettere in atto dato il rapido progresso di queste tecnologie. Diversi Paesi democratici vogliono quindi regolamentare il settore: la stessa Unione Europea è al centro di questi sforzi normativi e il suo progetto di legge “AI Act”, che dovrebbe incoraggiare l’innovazione e prevenire gli abusi, potrebbe essere finalizzato alla fine del 2023 o all’inizio del 2024, per entrare in vigore nel giro di qualche anno.