Fino a poco tempo fa, il funzionamento delle Intelligenze Artificiali (IA) non era chiaro a tutti. E’ innegabile che queste tecnologie, presenti da molti anni in forme diverse rispetto a quelle attuali, abbiano subito un’evoluzione esponenziale. Attualmente, si stanno diffondendo a livello globale in vari contesti in modo più incisivo rispetto all’avvento dei primi motori di ricerca su Internet.
La rapida evoluzione delle IA ha radici nelle avanzate tecniche di machine learning, che consentono a questi sistemi di apprendere automaticamente e assimilare conoscenze in modo molto rapido. Questa modalità di apprendimento automatico ha integrato la tradizionale programmazione informatica, rendendo le IA parte integrante di molteplici contesti nella nostra realtà aumentata.
Le IA sono progettate per assistere l’umanità, e la gestione di tali dispositivi richiede una particolare attenzione al rispetto e alla tutela dei diritti umani e delle minoranze. Un controllo costante è essenziale per prevenire che i bias del sistema possano generare discriminazioni.
La domanda che sorge spontanea è: e se l’IA potesse rappresentare un’opportunità per superare il rischio di discriminazione? E se le Intelligenze Artificiali fossero un’occasione per sostenere le minoranze, affrontare situazioni di difficoltà e trattare alcune patologie?
Le IA sono già operative nel riconoscimento facciale, nell’analisi dello sguardo, nella traduzione plurilingue e nella risposta a quesiti complessi. L’interessante prospettiva è: e se potessero offrire un sostegno significativo anche nel campo medico, aiutando pazienti e caregiver a gestire le difficoltà comunicative associate a specifiche condizioni, come ad esempio i disturbi dello spettro autistico?
Lo spettro autistico è un termine che indica un insieme di alterazioni dello sviluppo cerebrale, caratterizzato da varie intensità e manifestazioni individuali. L’autismo non è un disturbo definito con certezza e coinvolge bambini che presentano difficoltà nella comunicazione e nell’interazione sociale. Questi bambini possono manifestare problemi nella comprensione del pensiero altrui e nell’espressione di sé attraverso il linguaggio verbale, la gestualità o i movimenti facciali.
Il legame che una persona con disturbo autistico crea con la famiglia o con il caregiver è di estrema importanza. Questa figura è in grado di interpretare il linguaggio della persona autistica, che può comprendere espressioni anche gestuali. Il caregiver interviene, se necessario, per calmare crisi e paure della persona autistica.
Partendo da questa premessa, si è pensato di sviluppare uno strumento di decodificazione delle esigenze dei soggetti autistici facendo interagire le Intelligenze Artificiali in queste situazioni. Questo consentirebbe alle IA di offrire supporto alle persone con autismo, imparando da loro e collaborando virtualmente con i caregiver. Tale approccio potrebbe generare impatti positivi sia a livello sociale sia lavorativo, migliorando l’ambiente di vita del caregiver, della sua famiglia e della persona con disturbo autistico stessa.
Le norme giuridiche a tutela dei dati sensibili sanitari sono fondamentali, specialmente quando si tratta di informazioni relative a persone autistiche, per evitare discriminazioni o utilizzi impropri. Le Intelligenze Artificiali (IA) che operano su tali dati sono considerate operatori IT ad alto rischio, e in caso di BIAS (prevenzione discriminazioni) o danni, dovrebbero rispondere in modo oggettivo. Questo significa che la responsabilità oggettiva sussiste indipendentemente dall’esistenza di dolo o colpa, poiché trattano dati ad alto rischio.
La legislazione prevede diverse misure di sicurezza per la tutela di questi dati all’interno dei sistemi di intelligenza artificiale, che includono chat o sistemi di aiuto in realtà aumentata per percorrere piccoli tragitti in autonomia. Alcune di queste misure sono:
Protocolli di Sicurezza Avanzati: Devono essere attuati protocolli di sicurezza avanzati per proteggere le informazioni scambiate tra utenti e chat-IT. Ciò può includere l’uso di crittografia dei dati o la richiesta di autenticazione rinforzata basata su token, garantendo che solo gli utenti autorizzati possano controllare i dati e chi ne ha accesso.
Norme GDPR per la Protezione dei Dati Personali: Si devono rispettare le norme del GDPR in materia di protezione dei dati personali. Questo implica il principio di minimizzazione dei dati raccolti, l’anonimato dei dati quando possibile e il diritto alla cancellazione e all’oblio del dato.
Norme HIPAA: Laddove previsto, alla disciplina europea si aggiunge il rispetto delle norme HIPAA, la normativa americana per le aziende che trattano dati sanitari chiamata “Health Insurance Portability and Accountability Act”.
Queste misure mirano a garantire un utilizzo sicuro, etico e conforme alle normative dei dati sensibili sanitari, specialmente quando le IA sono coinvolte nell’assistenza a persone con disturbi dello spettro autistico.
Recentemente, alcuni terapeuti sono stati consultati riguardo alla possibilità di utilizzare ChatGPT in ambito terapeutico e comunicativo per assistere persone con disturbi dello spettro autistico. Si ritiene che l’Intelligenza Artificiale possa apprendere a comunicare con tali individui, tenendo conto delle sue “regole” lessicali, offrendo un possibile ausilio anche per i caregiver.
Particolarmente importante in questo contesto è il monitoraggio di una terza persona durante l’inserimento e la lettura dei dati, nonché nella fase iniziale di apprendimento dell’IA attraverso il machine learning, che potrebbe migliorare autonomamente la codificazione del linguaggio in relazione alla persona autistica.
È essenziale considerare regole e normative che tutelino la sicurezza dell’utente, specialmente considerando l’alto rischio associato a questo settore e la possibilità che le risposte della chat possano non essere sempre precise.
Nell’uso e nella sperimentazione di ChatGPT per semplificare la comunicazione delle persone con autismo, il programma ha dimostrato di facilitare l’inserimento di tali individui nella comunicazione, esprimendosi per sensazioni connesse al tempo e al clima, rendendo il linguaggio più comprensibile per il soggetto in questione, grazie al collegamento con il mondo naturale.
Altre sperimentazioni di Intelligenza Artificiale finalizzate a supportare problemi cognitivi, questa volta con ripercussioni fisiche oltre che legate al linguaggio, sono in corso presso le università italiane. Si sta studiando la possibilità di sviluppare un sistema di realtà aumentata e semplificata per consentire piccole azioni in autonomia a ragazzi con disturbi dello spettro autistico. Questi supporti mirano ad aiutarli a superare sfide visibili ma non per questo meno gravi o superabili rispetto ad altri esseri umani.
Questi progetti nascono con l’obiettivo di affrontare le principali difficoltà legate ai disturbi dello spettro autistico, tra cui difficoltà adattative, problemi nella comunicazione sociale e deficit del comportamento adattativo. Attraverso l’utilizzo di Intelligenza Artificiale, si spera che i ragazzi con tali problematiche possano compiere azioni autonome, come prendere la metropolitana, grazie a un training con l’aiuto di un personaggio virtuale nella realtà aumentata. Il software in sviluppo consentirebbe loro di ricevere stimoli audio e video, essere chiamati per nome dall’IA, agevolando così la partecipazione a piccole attività in autonomia, come prendere mezzi pubblici, visitare musei o muoversi in centri commerciali. Nei progetti di sviluppo di questa IA ad hoc per lo spettro autistico, si prevede anche il coinvolgimento di caregiver e terapisti come ponte tra la persona che richiede aiuto e l’intelligenza artificiale.
L’integrazione delle intelligenze artificiali nella realtà fisica e virtuale sta richiedendo una gestione attenta e un controllo giuridico adeguato. È cruciale non solo seguire le regole di protezione dei dati personali all’interno delle IA, conformemente alle norme del GDPR, mirate a eliminare o ridurre i rischi il più possibile, ma anche eseguire una verifica accurata dei dati inseriti e della loro correttezza.
Il monitoraggio del corretto apprendimento delle IA è essenziale, sia nella fase iniziale sia durante il processo di apprendimento automatico. Ciò richiede due diligence tecniche e giuridiche periodiche. Inoltre, è fondamentale implementare meccanismi di controllo mirati per prevenire violazioni dei diritti umani e discriminazioni.
Diverse strategie di controllo potrebbero essere considerate durante l’utilizzo delle IA. Ad esempio, potrebbero essere gestite attraverso un accesso autenticato del caregiver, o tramite una serie di alert che notificano al familiare eventuali deviazioni della chat su significati ambigui o pericolosi.
In ogni caso, il metodo più efficiente per valutare l’efficacia dei sistemi di IA in ambiti sanitari è la sperimentazione. Sperimentare e valutare i risultati ottenuti può essere un passo significativo, specialmente in assenza di alternative, a condizione che il monitoraggio umano rimanga una priorità elevata.