Con lo sviluppo dei sistemi di AI (artificial intelligence), si è ormai da anni sentita la necessità di porre l’attenzione su quelli che sono dei principi fondamentali a rispetto dei diritti di chi è soggetto all’utilizzo di questa nuova tecnologia che ormai coinvolge gran parte dei nostri ambiti di interesse.
Primo fra tutti è il principio di trasparenza nonché la necessità a una maggiore chiarezza in relazione ai parametri di funzionamento dell’algoritmo e alle misure poste in atto per tutelare i diritti e le libertà degli interessati.
Di seguito ti illustriamo la recente indagine del Garante sull'AI.
Primo fra tutti è il principio di trasparenza nonché la necessità a una maggiore chiarezza in relazione ai parametri di funzionamento dell’algoritmo e alle misure poste in atto per tutelare i diritti e le libertà degli interessati.
Di seguito ti illustriamo la recente indagine del Garante sull'AI.
LA NUOVA INDAGINE DEL GARANTE SUI SISTEMI AI: DI COSA SI TRATTA
Alla luce di dette premesse, il Garante privacy ha così aperto un’indagine sulla raccolta di dati personali on line per addestrare gli algoritmi al fine proprio di verificare l’adozione delle più adeguate misure di sicurezza da parte di siti pubblici e privati.
È ormai risaputo, infatti, l’utilizzo da parte di diverse piattaforme dell’IA, le quali proprio attraverso il webscraping raccolgono una grande quantità di dati, anche personali, pubblicati per specifiche finalità (cronaca, trasparenza amministrativa ecc.) all’interno di siti internet gestiti da soggetti pubblici e privati.
Difatti, già in tempi non lontani il Garante italiano aveva bloccato l’accesso a ChatGPT per motivi di privacy, dichiarando che la famosa chatbot di OpenAi andava a raccogliere e, di conseguenza, a trattare i dati personali degli utenti italiani senza una adeguata informativa e senza una base giuridica valida.
Inoltre, il Garante aveva posto una critica sul fatto che ChatGPT potesse produrre informazioni senza alcun limite su persone, luoghi o fatti, senza però garantire una adeguata gestione del rischio.
Il blocco di ChatGPT fu imposto a fine marzo 2023 e sollevato poi a fine aprile, a seguito dell’implementazione da parte di OpenAI delle modifiche al fine di conformarsi alle condizioni imposte dal Garante, tra cui una maggiore trasparenza sul trattamento dei dati, la possibilità per gli utenti di scegliere se consentire o meno l’uso delle loro conversazioni per addestrare gli algoritmi di ChatGPT e maggiori controlli per proteggere i minori di 13 anni.
LA NUOVA INDAGINE DEL GARANTE SUI SISTEMI AI: QUALI SONO I RISCHI
L’intelligenza artificiale può assumere un ruolo fondamentale sotto molti aspetti, ma da ciò conseguono anche una serie di rischi sociali e culturali che non consentono di prescindere dal perseguimento di specifiche regole.
Ed ecco perché sembra essere importante coinvolgere le autorità garanti nell’evoluzione normativa al fine di migliorare la regolamentazione e limitare l’eccessiva libertà di trattamento dei dati.
Le preoccupazioni del Garante per la Privacy sono state condivise anche dal Codacons, il quale ritiene opportuno avviare una indagine di questo tipo per poter esser certi che le misure di sicurezza adottare dai siti internet pubblici e non abbiano il via libera alla raccolta massiva di dati personali a fini di addestramento degli algoritmi di intelligenza artificiale da parte di soggetti terzi.
Il Codacons stesso dichiara, infatti, che “Particolari rischi per la sicurezza emergono proprio da un potenziale uso improprio, che possa essere intenzionale o possa derivare da problemi di controllo non intenzionali relativi all’allineamento con l’intento umano. Sicurezza informatica, biotecnologia, disinformazione sono solo alcuni dei temi che devono essere approfonditi e disciplinati in modo uniforme a livello internazionale”.
Proprio su tali aspetti il Codacons sta organizzando per il prossimo febbraio un convegno sull’Intelligenza Artificiale, al quale sarà invitato a partecipare anche il Garante per la privacy.
Alla luce delle suddette problematiche e preoccupazioni, il Garante ha quindi rivolto “un invito alle associazioni di categoria interessate, alle associazioni di consumatori, ad esperti e rappresentanti del mondo accademico affinché facciano pervenire i loro commenti e contributi sulle misure di sicurezza adottate e adottabili contro la raccolta massiva di dati personali a fini di addestramento degli algoritmi.
In conclusione, ciò che viene ripetutamente sottolineato, al fine di non compromettere i propri diritti e le proprie libertà, è di porre sempre attenzione all’utilizzo di sistemi che non ci danno le opportune indicazioni e informazioni su come vengono effettivamente tutelati i nostri dati.
È importante fare attenzione a chi o cosa concediamo il via libera nel trattare i nostri dati personali.
Se vuoi avere un aiuto ad adeguare la tua attività al GDPR ed in generale alla normativa privacy, contattaci subito!
Scrivici all’indirizzo di posta elettronica info@abinnovationconsulting.com, oppure compila il modulo seguente.