A Autoridade Nacional de Proteção de Dados (ANPD) proferiu, nesta terça-feira (2), a primeira medida preventiva de sua história contra a Meta —dona do Instagram, Facebook e WhatsApp— para suspender imediatamente o uso de dados de usuários para treinar modelos de inteligência artificial generativa.
A ANPD justifica a decisão pelo “risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados” e determinou uma multa de R$ 50 mil por dia de descumprimento.
A Meta começou a utilizar as publicações abertas de usuários do Facebook e do Instagram para treinar IAs generativas (como o ChatGPT), segundo a alteração que a big tech fez em sua política de privacidade em 22 de maio. A mudança nos termos de uso não foi divulgada em informe público no Brasil, que concentra 113,5 milhões de pessoas ativas no Instagram e 102 milhões, no Facebook.
Procurado, o conglomerado de mídias sociais diz cumprir as leis de privacidade e regulações do país. “Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos.”
A página da política de privacidade da Meta que trata do uso de dados pessoais para treinamento de modelos de IA generativa segue no ar na manhã desta terça-feira (2), assim como o formulário para se opor à prática (veja como fazer no fim da reportagem).
Um responsável legal da empresa tem cinco dias úteis para entregar à ANPD uma declaração atestando a interrupção desse tratamento de dados. A aplicação da multa começa depois desse prazo.
A Meta tem dez dias corridos para recorrer ao conselho diretor da ANPD, se quiser tentar reverter a decisão cautelar.
Em seu pronunciamento, o conglomerado diz que a decisão da ANPD atrasa a chegada de benefícios da IA para as pessoas no Brasil.
Uma dessas soluções é o gerador de figurinhas do WhatsApp, que relacionou fuzis a pessoas negras em teste feito pela Folha. Essas tecnologias geram textos, imagens e áudios, em respostas condicionadas por quantidades massivas de dados —o processo é chamado de treinamento.
Na avaliação de ANPD, há indícios “de tratamento de dados pessoais com base em hipótese legal inadequada, falta de transparência, limitação aos direitos dos titulares e riscos para crianças e adolescentes”. Foram essas as constatações preliminares para sustentar a medida preventiva.
A área técnica da agência reguladora conduzirá posteriormente uma análise com duração de até um ano das condutas da dona do Instagram, a fim de tomar uma decisão definitiva.
A diretora da ANPD Miriam Wimmer afirma que o corpo técnico irá investigar se “houve prejuízo para os consumidores”, uma vez que a empresa não especificou quando iniciou o tratamento e não há informação se a empresa já usou esses dados. “Essa ainda é uma decisão cautelar, uma cognição”.
A autoridade de proteção de dados diz que, embora os usuários pudessem se opor ao tratamento de dados, “havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito”.
O acesso ao formulário para pedir interrupção desse uso de informações pessoais requeria passar por cinco páginas de configurações no Instagram, como mostrou a Folha. O preenchimento do documento incluía mais três etapas.
“A LGPD [Lei Geral de Proteção e Dados] dá grande ênfase à transparência, porque essa é uma grande condição para que o titular possa exercer seus direitos”, diz Wimmer.
Em 2021, quando houve alterações na política de privacidade do WhatsApp, a ANPD já havia recomendado que a Meta disponibilizasse “em destaque”, na primeira página da política de privacidade, apontou a associação Data Privacy Brasil em nota. Esse seria “um padrão obscuro de mascaramento de informações”.
A avaliação preliminar também indicou que dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta. Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, “o que não foi verificado” nessa primeira análise da ANPD.
Segundo Wimmer, esta é a primeira vez que a autoridade de proteção de dados impõe uma medida preventiva contra um gigante da tecnologia.
A decisão da agência reguladora foi tomada em resposta a questionamento do Idec (Instituto de Defesa de Consumidores) sobre a política da Meta. Para o instituto, a conduta caracteriza violações à LGPD e ao Código de Defesa do Consumidor (CDC).
O Idec disse que a holding anunciara as alterações da política de privacidade apenas na Europa. “A Meta trata os brasileiros como cidadãos de segunda classe e reforçou isso ao ter uma abordagem diferente com os europeus”, afirma à Folha a advogada do Idec Camila Contri.
“Não adianta essa retórica de inovação se for para prejudicar os consumidores”, diz Contri. “Para beneficiar o país, uma inovação precisa cumprir e respeitar a lei”, acrescenta.
No último dia 14, a Meta decidiu adiar o lançamento de seu pacote de IA, Meta AI, na União Europeia (UE), após o órgão regulador europeu ter pedido mais informações à empresa sobre como seria o tratamento de dados direcionado ao desenvolvimento de modelos de inteligência artificial, que tinha data de início planejada para 26 de junho nos países do bloco.
A política de mineração de fotos de usuários brasileiros do Facebook e do Instagram, entretanto, continuou.
Nos Estados Unidos, onde não há legislação de proteção de dados, usuários reclamam de negativas da Meta ao pedido de oposição ao uso de dados pessoais para treinamento de IAs generativas, de acordo com o New York Times.
O Idec também acionou a Senacon (Secretaria Nacional do Consumidor) para denunciar uma possível omissão da empresa em relação ao dever de orientar o consumidor.
“A Meta deveria garantir aos titulares informações claras, precisas e facilmente acessíveis por meio, tanto de sua política de privacidade, quanto ostensivamente por mensagens e emails, como ocorreu na UE”, disse a entidade na notificação à Senacon.
A Senacon, por sua vez, notificou a Meta para que a empresa explique o uso de dados pessoais de brasileiros para treinar sua IA.
“As empresas de internet devem entender que o Brasil possui leis e que essas leis prevalecem sobre os seus termos de uso”, disse o secretário Wadih Damous.
Fonte: Folha de S. Paulo
www.contec.org.br