La FTC (Federal Trade Commission) ha avviato un’indagine su Alphabet, OpenAI, Meta e altre quattro aziende per verificare come i loro assistenti virtuali proteggano bambini e adolescenti dai rischi legati all’uso di intelligenza artificiale conversazionale.
Cosa emerge dall’indagine sui chatbot AI
La Federal Trade Commission USA ha disposto ordini investigativi nei confronti di sette aziende che forniscono chatbot AI orientati al pubblico. Sono state richieste informazioni su come queste società misurano, testano e monitorano i potenziali impatti negativi di questa tecnologia su bambini e adolescenti. Le società coinvolte nell’indagine includono alcuni dei nomi più influenti del settore tecnologico: Alphabet, Character Technologies, Instagram, Meta Platforms, OpenAI, Snap e X.AI Corp. L’autorità di regolamentazione federale sta cercando di comprendere come queste aziende stiano valutando la sicurezza dei loro prodotti, con particolare attenzione ai meccanismi di protezione implementati per gli utenti più giovani. L’inchiesta utilizza l‘autorità 6(b) della FTC, che consente alla Commissione di condurre studi approfonditi senza uno specifico scopo di applicazione della legge.
Il presidente della FTC Andrew Ferguson ha sottolineato come proteggere i bambini online rappresenti una priorità assoluta. Ha inoltre affermato che mentre le tecnologie AI evolvono, diventa fondamentale considerare gli effetti che i chatbot possono avere sui più giovani. Mantenendo, al contempo, la leadership statunitense in questo settore innovativo.
I casi che hanno scatenato l’allarme
La decisione della FTC non arriva casualmente. Nell’ottobre 2024 la madre di un 14enne ad Orlando in Florida, che si è tolto la vita, ha denunciato pubblicamente che il ragazzo era stato spinto al suicidio da un chatbot di Character.AI. Un tragico episodio che ha evidenziato come gli assistenti virtuali possano influenzare negativamente utenti vulnerabili. In particolare gli adolescenti che attraversano fasi delicate della loro crescita.
Tecnicamente, i bot sono addestrati per simulare relazioni, spesso intime, e vengono pubblicizzati come antidoto contro la solitudine. Tuttavia rischiano di aumentare l’isolamento e alimentare disturbi latenti, soprattutto tra gli adolescenti. La capacità di questi sistemi di imitare caratteristiche umane, emozioni e intenzioni li rende particolarmente convincenti, portando alcuni utenti a sviluppare relazioni profonde con entità che non esistono realmente. E il caso del giovane americano ha rappresentato un punto di svolta nella percezione pubblica di questi strumenti. Il ragazzo aveva sviluppato un legame emotivo intenso con un personaggio AI basato su un personaggio del “Trono di Spade”, arrivando a confidarsi con il chatbot sui suoi pensieri più intimi.
La madre ha intentato una causa contro Character.AI, accusando l’azienda di negligenza e sostenendo che la tecnologia utilizzata è “pericolosa e non testata”.
Per rispondere a questa nuova emergenza, dall’inizio del mese di settembre, Meta ha annunciato che impedirà al suo chatbot di discutere di suicidio e disturbi alimentari con i bambini. Questa decisione rappresenta un primo passo verso una maggiore responsabilizzazione delle aziende tech, ma molti esperti sostengono che servano misure più ampie e coordinate.
Monetizzazione e protezione
L’indagine FTC si concentra su aspetti cruciali del funzionamento di questi sistemi.
L’autorità vuole comprendere come le aziende monetizzino il coinvolgimento degli utenti, come processino gli input e generino le risposte. Oltre che osservare quali misure adottino per monitorare gli impatti negativi prima e dopo lo sviluppo dei loro prodotti. Particolare attenzione viene riservata alle pratiche di divulgazione e pubblicità utilizzate per informare utenti e genitori su funzionalità. Oltre che capacità, pubblico di riferimento, potenziali impatti negativi e pratiche di raccolta dati. Le aziende dovranno fornire dettagli su come sviluppano e approvano i personaggi virtuali, come mitigano gli impatti negativi sui minori e come monitorano il rispetto delle regole aziendali e dei termini di servizio. Un punto particolarmente sensibile riguarda l’uso e la condivisione delle informazioni personali ottenute attraverso le conversazioni degli utenti con i chatbot.
La questione della monetizzazione, poi, assume rilevanza particolare quando si considera che molte di queste piattaforme traggono profitto dall’engagement degli utenti. Più tempo un utente trascorre interagendo con un chatbot, maggiori sono i ricavi per l’azienda. Questo modello di business può creare incentivi perversi, spingendo le aziende a rendere i loro sistemi sempre più coinvolgenti, potenzialmente a scapito della sicurezza degli utenti più vulnerabili.
L’attuale quadro normativo
L’iniziativa della FTC si inserisce in un contesto normativo in evoluzione. Due progetti di legge in California riguardano la sicurezza dei chatbot AI per i minori, segnalando una crescente attenzione politica verso questi temi. Il Children’s Online Privacy Protection Act (COPPA) rappresenta già un riferimento normativo importante. Tuttavia molti esperti sostengono che le regole attuali non siano sufficienti per affrontare le sfide poste dalle nuove tecnologie AI. I dati mostrano che il tasso di ospedalizzazione per comportamenti e pensieri suicidari tra il 2016 e il 2020 è passato dal 27,69 al 45,28% e il trend è tuttora in aumento. Questi numeri allarmanti evidenziano come la salute mentale degli adolescenti stia attraversando una crisi senza precedenti, rendendo ancora più urgente la necessità di proteggere i giovani da potenziali fattori di rischio aggiuntivi. L’approccio della FTC mira a raccogliere evidenze concrete per comprendere meglio i rischi reali associati a questi strumenti.
L’inchiesta, adesso, sposta il dibattito sui companion AI dall’aneddoto all’evidenza, richiedendo alle aziende di dimostrare come i loro sistemi influenzino gli adolescenti, come vengano gestiti i dati e come la monetizzazione influenzi le decisioni di design su larga scala.
Le aziende coinvolte dovranno rispondere a domande dettagliate sui loro processi di sviluppo, test e monitoraggio. Particolare attenzione sarà riservata alle misure adottate per limitare l’uso di questi prodotti da parte di bambini e adolescenti, e per informare adeguatamente utenti e genitori sui rischi associati.
Nuove regole per l’intelligenza artificiale conversazionale
L’esito di questa indagine potrebbe determinare l’evoluzione futura della regolamentazione AI negli Stati Uniti e influenzare le politiche adottate in altri paesi. Le informazioni raccolte dalla FTC potrebbero portare a nuove linee guida o regolamentazioni specifiche per i chatbot destinati al pubblico generale, con particolare focus sulla protezione dei minori. Le sette aziende coinvolte hanno ora (a partire dal 14 settembre ndr.) 45 giorni per rispondere agli ordini della FTC, fornendo documentazione dettagliata sui loro processi interni e sulle misure di sicurezza implementate. La Commissione ha votato all’unanimità (3-0) per l’emissione degli ordini investigativi, mostrando un consenso bipartisan sulla necessità di approfondire questi temi.
L’indagine rappresenta un test importante per il settore tecnologico, che dovrà dimostrare di essere in grado di bilanciare innovazione e responsabilità sociale.
>Le aziende più lungimiranti stanno già adottando misure proattive, come il divieto di Meta di discutere certi argomenti sensibili con utenti minorenni, ma l’industria nel suo complesso potrebbe dover rivedere profondamente i propri approcci alla sicurezza dei prodotti AI.
© Riproduzione riservata