Questão 5 – Lei Geral de Proteção de Dados (LGPD)

Ano: 2026 Banca: FAFIPA Órgão: Prefeitura de Rio Branco do Sul – PR Prova: FAFIPA – 2026 – Prefeitura de Rio Branco do Sul – PR – Procurador

Ferramentas de IA Generativa, como o Microsoft Copilot, estão sendo integradas a suítes de escritório. No contexto do tratamento de dados sensíveis em órgãos públicos, qual o principal risco de segurança ao utilizar essas ferramentas sem uma conta corporativa (Enterprise) protegida?

Alternativas

A O Copilot impede o envio de e-mails via Outlook se o texto não for revisado por um humano em até 10 minutos.

B A ferramenta pode apagar o sistema operacional Windows caso detecte que o usuário está pesquisando sobre softwares de código aberto (Linux).

C O uso de IA generativa desabilita automaticamente a criptografia BitLocker de todas as planilhas Excel abertas.

D Os dados inseridos no prompt (entrada) podem ser utilizados pela empresa desenvolvedora para retreinar o modelo, podendo expor informações sigilosas em respostas futuras para outros usuários.

E A IA pode sofrer um curto-circuito físico no processador se o texto inserido contiver erros de sintaxe.

Com base nos princípios de segurança da informação e proteção de dados aplicáveis ao uso de Inteligência Artificial (IA) Generativa, a alternativa correta é a D.

Fundamentação Técnica e Jurídica

O principal risco de segurança ao utilizar ferramentas de IA generativa (como o Microsoft Copilot, ChatGPT ou similares) em versões voltadas ao consumidor final (sem proteção corporativa/Enterprise) reside no tratamento dos dados de entrada (prompts).

  1. Retreinamento de Modelos: Em contas gratuitas ou pessoais, os termos de uso geralmente permitem que a empresa desenvolvedora utilize as interações dos usuários para treinar e aprimorar seus modelos de linguagem. Isso significa que, se um servidor público inserir dados sensíveis ou informações sigilosas em um prompt, esses dados passam a integrar a base de conhecimento da IA.
  2. Vazamento de Informações: Uma vez que a informação é absorvida pelo modelo, ela pode ser reproduzida em respostas futuras para outros usuários (inclusive externos ao órgão público), configurando um vazamento de dados ou quebra de sigilo funcional/estatal.
  3. Proteção Enterprise: As contas corporativas (Enterprise) oferecem o que se chama de “Proteção de Dados Comerciais”, garantindo contratualmente que os dados inseridos não sejam salvos pela desenvolvedora nem utilizados para treinar modelos públicos, mantendo a conformidade com a Lei Geral de Proteção de Dados (LGPD).

Apoio Doutrinário

A doutrina jurídica destaca que o uso de IA generativa sem regras claras expõe as instituições a riscos severos:

“Tais dados podem vir a ser utilizados para finalidades distintas e por terceiros como fornecedores, parceiros e empresas afiliadas à OpenAI, sem a prévia notificação do usuário. […] os dados inseridos devem se limitar apenas àqueles não identificáveis e não confidenciais.”

Tais dados podem vir a ser utilizados para finalidades distintas e por terceiros como fornecedores, parceiros e empresas afiliadas à OpenAI, sem a prévia notificação do usuário . Neste sentido faz-se importante destacar que dados pessoais fornecidos pelo usuário podem não identificar diretamente um indivíduo, porém ao combinar este dado com a base de dados do ChatGPT viabiliza-se sua identificação, invadindo sua privacidade, tratando dados pessoais sem o conhecimento ou consentimento do indivíduo e, infringindo a Lei Geral de Proteçâo de Dados Pessoais LGPD. Isto posto, os dados inseridos devem se limitar apenas aqueles não identificáveis e não confidenciais. No cenário educacional, é importante que as instituições gerenciem seus riscos de segurança da informação e conscientizem seus estudantes para que não insiram conteúdos confidenciais, dados pessoais, dados pessoais sensíveis, bem como não acessem ou criem conteúdos prejudiciais por meio da IA generativa . Tais conceitos e diretrizes devem ser trazidos aos estudantes por meio da definição de regras de uso e conscientização dos alunos, preparando-os não só para os desafios do presente como também para os do futuro. Para concretizar um pouco mais o risco ao qual se expõe com a interação com a ferramenta sem a definição de regras específicas, destaca-se o caso recente de uma grande e renomada empresa da tecnologia que proibiu a utilização do ChatGPT durante o exercício laboral por conta de uma série de incidentes decorrentes da inserção de conteúdos sigilosos e códigos de desenvolvimento de produtos, classificados como segredo de negócio, na plataforma por seus empregados . Portanto, é importante que as instituições de ensino adotem normas de utilização de ferramentas de IA generativa, bem como sejam promovidas ações de conscientização quanto ao uso seguro e recomendado dessas plataformas. V.4… A presença de Vieses A IA generativa precisa ser alimentada por grandes bases de dados para o seu treinamento, tais bases podem vir carregadas com vieses que são reproduzidos nas respostas geradas pela ferramenta. A depender da forma do comando inserido na plataforma podem ser acessadas respostas completamente tendenciosas e consideradas prejudiciais. A presença de viéses inconscientes na IA generativa é um grande desafio a ser enfrentado na utilização do ChatGPT na educação. Além do risco de reprodução de preconceitos, a ferramenta pode produzir respostas que reforçam estereótipos e visões sociais, culturais e econômicas limitadas do mundo. Para minimizar respostas tendenciosas e prejudiciais seria necessário um grande trabalho na base de dados, antes que seja realizado o treinamento da IA generativa, para a redução dos vieses. Isso poderia se dar, por exemplo, através de aplicação de filtros nos conteúdos ou da curadoria das bases utilizadas para treinamento, visando a garantia da qualidade das informações, no lugar da quantidade . Além disso, a utilização de uma linguagem inclusiva atrelada à implementação de um processo contínuo de monitoramento e revisão das respostas geradas pela ferramenta, visando identificar e corrigir eventuais vieses que estejam sendo reproduzidos, são algumas das medidas que podem ser adotadas para minimizar esse problema. VI. Oportunidades de uso de ferramentas de IA Generativa na educação A IA generativa apresenta diversas oportunidades na educação de crianças e adolescentes. Através das ferramentas, os estudantes podem ter acesso a um vasto repertório de informações em diferentes áreas, possibilitando o desenvolvimento de sua curiosidade e criatividade. Além disso, a utilização de IA generativa pode ajudar a personalizar o ensino, oferecendo atividades de acordo com o ritmo e estilo de aprendizagem de cada aluno

(THOMAZ, Alan. Inteligência Artificial Generativa: Desafios, Oportunidades e o Uso Ético na Educação In: THOMAZ, Alan. Tecnologia, Privacidade e Proteção de Dados para Crianças e Adolescentes – 2023. Editora Lumen Juris. 2023. Disponível em: https://www.jusbrasil.com.br/doutrina/tecnologia-privacidade-e-protecao-de-dados-para-criancas-e-adolescentes-2023/5782394871. Acesso em: 6 de Maio de 2026.)

Além disso, o treinamento de modelos fundacionais com dados de usuários representa um desafio direto ao direito fundamental à proteção de dados:

“O treinamento de IAs generativas representa […] desafios à ordem jurídica no que tange ao direito fundamental à proteção de dados em […] níveis: […] a proteção dos dados fornecidos pelos usuários quando utilizam essas ferramentas, seja diretamente por meio da interface com o usuário, seja indiretamente, quando algoritmos reutilizam esses dados para posterior treinamento;”

O treinamento de IAs generativas representa, nesse sentido, desafios à ordem jurídica no que tange ao direito fundamental à proteção de dados em, pelo menos, seis níveis: (i) proteção dos dados publicamente disponíveis na web contra o uso de práticas de scraping e harvesting não consentidas; (ii) a proteção dos dados fornecidos pelos usuários quando utilizam essas ferramentas, seja diretamente por meio da interface com o usuário, seja indiretamente, quando algoritmos reutilizam esses dados para posterior treinamento; (iii) as consequências para os direitos individuais em relação aos seus dados, tanto em relação aos dados coletados para o aprendizado de modelos quanto àqueles que possam ser fornecidos por esses sistemas, como conteúdo criado por IA generativa; – (iv) a adoção de parâmetros para o treinamento de modelos algorítmicos e de medidas de gestão para a mitigação de vieses, discriminações, ilicitudes e abusividades; (v) informações sobre as categorias e as fontes de dados pessoais utilizadas no contexto do desenvolvimento e emprego de IA; e (vi) o estabelecimento de distinções claras entre as possibilidades de utilização das bases legais legítimas para o treinamento da IA generativa sob a LGPD. Em atenção a isto, tanto a União Europeia quanto o Brasil – além de outros países – estão trabalhando em normas com o objetivo de regulamentar a inteligência artificial, incluindo dados de treinamento (que englobam dados de validação e teste ). Isso se deve ao fato de que todo o comportamento da máquina será baseado nos dados utilizados em seu treinamento, entre outros aspectos… No que tange especificamente ao interesse legítimo, traduz-se no fornecimento, mantimento, melhoria e desenvolvimento de produtos, serviços e tecnologias de aprendizado de máquina do Google (treinamento da IA), bem como na manutenção da funcionalidade, segurança e confiabilidade da aplicação, incluindo-se detecção, prevenção e resposta a fraudes e abusos, riscos de segurança e problemas técnicos e, por fim, para o cumprimento de obrigações em relação aos parceiros comerciais. Verifica-se em ambas as aplicações de internet que a base legal eleita como adequada para o treinamento da IA generativa é o “legítimo interesse” do controlador ou de terceiros. Não configura, pois, uma sugestão, mas uma escolha daqueles que utilizam dados pessoais para esta finalidade, razão pela qual se justifica uma apreciação pormenorizada da estrutura dessa base legal, seus desafios e os seus limites em relação à proteção de dados pessoais e do titular, como se passa a analisar. 2. PARÂMETROS DO LEGÍTIMO INTERESSE PARA O TREINAMENTO DE IAS GENERATIVAS Em uma sociedade baseada em dados e inteligência artificial, o legítimo interesse tem especial relevância – independentemente do setor empregado e do modelo de negócios adotado por determinado nicho empresarial –, pois representa uma abertura à inovação e ao desenvolvimento econômico, como é o caso do desenvolvimento e do treinamento de modelos fundacionais generativos. Entretanto, a escolha dessa base legal autorizativa para o tratamento de dados pessoais com tais finalidades não é isenta de críticas nem de desafios, considerando que existem limites e parâmetros a serem considerados em razão da proteção dos dados pessoais e aos interesses e direitos fundamentais com ela correlacionados. 2.1. Legítimo interesse no GDPR e na LGPD A previsão do legítimo interesse como uma base legal autorizadora para o tratamento de dados pessoais não é nova

(CAPANEMAA, Allan. 40 Ia Generativa e Governança de Dados Pessoais: Parâmetros Legais da Base do Legítimo Interesse para Modelos Fundacionais In: CAPANEMAA, Allan. Direito Digital : Direito Privado e Internet – 6ª Ed 2025. Editora Foco. 2025. Disponível em: https://www.jusbrasil.com.br/doutrina/direito-digital-direito-privado-e-internet-6-ed-2025/5518713378. Acesso em: 6 de Maio de 2026.)

Deixe um comentário