Blog

ChatGPT: o que o bloqueio na Itália nos diz sobre seus riscos em relação aos dados pessoais?

O ChatGPT, famosa tecnologia de inteligência artificial, está na mira dos reguladores de proteção de dados. Países como a Itália, por exemplo, decidiram bloquear o chatbot por preocupações de que a OpenAI esteja violando o Regulamento Geral de Proteção de Dados (RGPD ou GDPR) da União Europeia por meio do tratamento indevido de dados pessoais dos usuários.

A OpenAI está sendo acusada de não verificar a idade dos utilizadores do ChatGPT e criticou a ausência de base legal que fundamentasse a coleta e o armazenamento massivo de dados pessoais. Diante disso, estabelece o final de abril como prazo para a OpenAI atender às adaptações necessárias para conformidade com a GDPR.

A atitude da autoridade de proteção de dados italiana foi a primeira deste tipo no ocidente, no entanto, outros países também manifestaram preocupações similares. Assim, podem ser avaliados alguns riscos em razão do uso deste tipo de plataforma em relação ao tratamento de dados pessoais.

No que diz respeito à ausência de controle de idade dos usuários, as principais preocupações envolvem o tratamento de dados de crianças, o que pode ser analisado por aspectos como: coleta dos seus dados sem consentimento dos pais e exposição destas crianças a respostas impróprias para sua idade, fornecidas pelo ChatGPT. Este é um assunto crítico, pois, apesar da variação das idades utilizadas como critério para caracterização de “crianças”, há um padrão nas legislações de proteção de dados no mundo relacionado ao maior grau de proteção para estes dados.

Com relação ao uso massivo de dados pessoais, a autoridade italiana entendeu que não há base legal para o seu tratamento com finalidade de treinar a plataforma (Como foram obtidos? Foram garantidos os direitos dos titulares? Quais os resultados deste treinamento em relação aos dados pessoais?).

Esta situação exemplificativa envolvendo o ChatGPT estressa uma discussão que há muito vem preocupando especialistas.

Esta situação exemplificativa envolvendo o ChatGPT estressa uma discussão que há muito vem preocupando especialistas: os limites da inteligência artificial (inclusive em relação às questões éticas e que envolvam dados pessoais), bem como a ausência de regulamentação do setor para o estabelecimento destes limites e outros controles.

É uma nova tecnologia que, apesar de não ter regulamentação específica na maioria dos países, deve respeitar as demais legislações aplicáveis, como é o caso da privacidade e proteção de dados pessoais.

Está gostando do conteúdo? Compartilhe!

Posts Recentes

Alameda Franca, 267 – Conjunto 22 | Jardim Paulista – São Paulo/SP | (11) 3809-6800 | mkr@mkr.com.br

© 2021 MKR Consultoria, Serviços e Tecnologia. Todos os direitos reservados

plugins premium WordPress