Agronegócio

Caso Meta: 7 vezes em que a justiça brasileira pressionou Big Techs

Published

on

A atualização da Meta permitia o uso de dados pessoais para treinar sistemas de inteligência artificial generativa

A Autoridade Nacional de Proteção de Dados (ANPD), órgão responsável por monitorar a aplicação e gestão de dados no Brasil, suspendeu, em uma ação inédita, a nova política de privacidade da Meta. A medida preventiva foi publicada no Diário Oficial da União nesta terça-feira (2).

A atualização da Meta permitia o uso de dados pessoais para treinar sistemas de inteligência artificial generativa. Com a suspensão, o tratamento de dados dos titulares para essa finalidade em todos os produtos da empresa, inclusive de pessoas não usuárias de suas plataformas, está proibido sob pena de multa diária de R$50 mil por dia de descumprimento.

Em defesa, a Meta declarou estar desapontada com a decisão e disse que sua abordagem sobre o assunto cumpre com as leis de privacidade e regulações no Brasil”. “Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, disse a empresa.

Leia também

Para que a liberação ocorra, a dona do Facebook, Instagram, WhatsApp e Threads, precisará mostrar adequação da política, com exclusão do trecho correspondente ao tratamento de dados pessoais para fins de treinamento de IA generativa, bem como declaração atestando a suspensão do tratamento de dados pessoais para treinamento de IA generativa no Brasil.

“O principal problema identificado pela ANPD foi o tratamento de dados pessoais para fins de treinamento de sistemas de inteligência artificial sem o consentimento explícito dos usuários. Além disso, a ANPD criticou a falta de transparência da Meta, a limitação dos direitos dos titulares e o risco para crianças e adolescentes”, explica Antonielle Freitas, DPO (Data Protection Officer) do escritório Viseu Advogados.

“Não basta para a LGPD você não causar riscos, é necessário também demonstrar que você se preparou e tomou proativamente medidas para assegurar que o tratamento de dados será realizado com o máximo cuidado e de acordo com os princípios de proteção de dados estabelecidos na legislação.” Marcelo Cárgano, advogado especialista em direito digital do escritório Abe Advogados.

O caso é inédito envolvendo políticas de IA no Brasil, mas não na pressão da justiça brasileira para com Big Techs. Nos últimos anos, foram vários os casos em que empresas foram notificadas, em muitos deles, por se negarem a fornecer dados de usuários para investigações.

Veja momentos emblemáticos em que a justiça brasileira pressionou Big Techs:







 

O post Caso Meta: 7 vezes em que a justiça brasileira pressionou Big Techs apareceu primeiro em Forbes Brasil.

Leave a Reply

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Popular

Exit mobile version