IAs falham em vulgarizar informações sobre proteção de dados e os direitos do usuário
As plataformas mais populares de perceptibilidade sintético generativa operam no Brasil descumprindo os requisitos mínimos da LGPD (Lei Universal de Proteção de Dados), segundo estudo feita pelo CTS (Núcleo de Tecnologia e Sociedade), vinculado à escola de recta da FGV (Instauração Getúlio Vargas) no Rio.
A legislação atual requer, entre outras exigências:
- ter uma política de privacidade;
- a divulgação das políticas de privacidade em português;
- informar quais tipos de dados são tratados;
- divulgação de informações claras sobre os direitos dos usuários;
- identificar a pessoa responsável pelo tratamento dos dados;
- detalhamento do processo de transferência de dados para fora do Brasil.
Os pesquisadores analisaram 14 critérios nas políticas de privacidade de 7 ferramentas mais populares utilizadas pelo público brasílico (ChatGPT, Gemini, Claude, Copilot, Grok, DeepSeek e Meta AI). Foi constatado que nenhuma plataforma obedece de forma integral às condições da lei. O Guia de Segurança da Informação para Agentes de Tratamento de Pequeno Porte também foi consultado para examinar parâmetros.
Gemini, Claude e a MetaAI são os que mais atendem às determinações avaliadas: 10 no totalidade.
Unicamente 3 critérios são cumpridos pelas plataformas analisadas: todas têm uma política de privacidade, informam quais serão os dados tratados e identificam o controlador dos dados.
A perceptibilidade sintético chinesa DeepSeek e o Grok, de Elon Musk falham em mais de 7 exigências. Elas não divulgam a política de privacidade em português, além de não deixarem evidente quais são as medidas tomadas para a proteção de dados e os direitos do usuário. O ChatGPT, IA mais conhecida entre os brasileiros, não cumpre os 2 últimos requisitos, além de não vulgarizar porquê os dados tratados são protegidos.
Os dados que são compartilhados com países estrangeiros também precisam de atenção, segundo a lei brasileira. A ação é permitida somente para nações que tenham práticas adequadas sobre o tema. O Gemini, Copilot e a Meta AI descumprem essas determinações.
A falta de privacidade é “assustadora”
Em entrevista para o jornal O Mundo, o coordenador do CTS, Luca Belli, diz que a privacidade garantida pelas ferramentas de IA generativa variam de “inferior para tremendo“.
“Não estamos avaliando boas práticas ou padrões elevados, só o cumprimento do imprescindível. Mesmo assim, nenhuma das plataformas analisadas os aplica integralmente“, destaca o professor.
Além de estarem infringindo uma lei pátrio, a falta de transparência e a irregularidade no manuseio dos dados, geram também um debate sobre a capacidade do país em inspeccionar e empregar a regulamentação nas plataformas do exterior.