A Meta AI, nova ferramenta de inteligência artificial da Meta, chegou ao Brasil em 2024 e se integra ao WhatsApp, Facebook, Instagram e Messenger, com a promessa de oferecer diversas funcionalidades para os usuários, como busca na internet e geração de imagens personalizadas. No entanto, o lançamento dessa IA foi precedido de desafios relacionados ao cumprimento da Lei Geral de Proteção de Dados Pessoais (LGPD), colocando a privacidade dos usuários no centro do debate jurídico.
O Que é Meta AI?
A Meta AI é uma inteligência artificial generativa integrada nas plataformas da Meta. Ela foi desenvolvida para concorrer com outros chatbots avançados, como o ChatGPT, e oferece uma gama de funcionalidades que vão desde buscas na internet diretamente nos aplicativos até a geração de imagens personalizadas. Além disso, a Meta AI pode ser usada para organizar eventos em grupos de conversa ou fornecer sugestões de restaurantes e destinos de viagem.
Com cerca de 500 milhões de usuários ativos mensalmente, a ferramenta busca se consolidar como a IA mais utilizada no mundo, oferecendo integração tanto nos aplicativos quanto em uma versão web acessível no site “meta.ai”.
Desafios Legais: A Relação Entre a Meta AI e a LGPD
A chegada da Meta AI ao Brasil enfrentou barreiras devido ao descumprimento inicial das exigências da LGPD. A Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/18) regula o tratamento de dados pessoais no Brasil, impondo obrigações às empresas quanto à coleta, armazenamento e compartilhamento de informações pessoais. A ferramenta da Meta teve que ajustar sua política de privacidade para atender aos requisitos da LGPD, garantindo maior transparência e controle aos usuários sobre o uso dos seus dados.
Como a Meta AI Impacta a Privacidade dos Usuários?
Embora a Meta AI seja uma ferramenta integrada e útil para diversas tarefas cotidianas, o seu funcionamento levanta questões sobre a privacidade e segurança dos dados. Cada interação realizada através da Meta AI pode gerar um volume significativo de dados pessoais, que devem ser tratados em conformidade com a LGPD.
Coleta e Tratamento de Dados
• A Meta AI coleta dados dos usuários ao interagir em conversas e realizar buscas personalizadas.
• A LGPD exige que o consentimento seja obtido previamente sempre que dados pessoais forem coletados, salvo em casos de legítimo interesse.
Transparência e Direito de Revisão
Assim como previsto nos artigos 18 e 20 da LGPD, os usuários devem ter clareza sobre quais dados são coletados e como são utilizados. A Meta, portanto, é obrigada a fornecer um meio transparente para que o titular dos dados possa revisar e corrigir informações pessoais tratadas pela IA.
Limitação e Bloqueio da Ferramenta
Embora não seja possível desinstalar a Meta AI, os usuários podem optar por bloquear ou silenciar a IA no WhatsApp, Facebook e Messenger. Essa possibilidade se alinha ao princípio da autodeterminação informativa da LGPD, permitindo que os indivíduos tenham maior controle sobre a sua exposição e o tratamento dos seus dados.
Riscos e Cuidados com a Meta AI
O uso de ferramentas como a Meta AI requer que os usuários e as empresas estejam atentos a possíveis violações de privacidade. A administração inadequada dos dados coletados pode resultar em sanções por parte da Autoridade Nacional de Proteção de Dados (ANPD), que é o órgão responsável pela fiscalização do cumprimento da LGPD.
Os riscos mais comuns incluem:
1. Vazamento de Dados: Como a ferramenta processa grandes volumes de informações, falhas de segurança podem comprometer a privacidade dos usuários.
2. Decisões Automatizadas: A LGPD garante que decisões automatizadas que impactem o usuário possam ser revisadas, o que é essencial para quem utiliza a IA para consultas ou planejamentos.
3. Uso Indevido de Dados: A Meta deve limitar o uso dos dados coletados ao propósito informado, sob pena de incorrer em infração às normas da LGPD.
Escritórios de advocacia podem oferecer consultoria especializada para:
• Ajustes em políticas de privacidade e termos de uso, garantindo a adequação à LGPD.
• Análise de riscos e mitigação de vazamento de dados.
• Capacitação de empresas quanto ao uso responsável de IAs integradas, como a Meta AI.
Fonte: techtudo