IA generativa, vulnerabilidade informacional e governança: o novo risco sistêmico no Brasil

Por que regulação digital, letramento crítico e arquitetura de decisão passaram a compor a mesma agenda de infraestrutura crítica

A tese é direta: o problema brasileiro não é apenas a chegada da Inteligência Artificial generativa. O problema é a chegada dessa capacidade de produção sintética a um ambiente que já combina baixa proficiência média em leitura analítica, conectividade desigual, incentivos econômicos orientados por engajamento e um quadro regulatório que começou a endurecer, mas ainda reorganiza mais do que encerra as estratégias de influência. O efeito prático é uma nova camada de risco para empresas, plataformas, governos e instituições que dependem de confiança, previsibilidade e legitimidade.

Isso muda o enquadramento do debate. IA generativa já não pode ser tratada como uma pauta restrita à tecnologia da informação. Ela afeta a qualidade do ambiente informacional em que consumidores decidem, investidores avaliam risco, reguladores monitoram condutas e organizações constroem ou perdem reputação. A combinação entre produção sintética em escala, curadoria frágil e capacidade desigual de verificação transformou o tema em uma questão de infraestrutura crítica. É nesse ponto que tecnologia, governança, ESG, risco reputacional e compliance passam a ocupar o mesmo tabuleiro (SPRINGER / AI & SOCIETY, 2025; EUROPEAN PARLIAMENT, 2025; BRASIL, 2025).

1. O problema central não é o deepfake perfeito; é a escala sem curadoria

O debate público costuma se fixar no caso extremo: o vídeo hiper-realista, o áudio clonado, a fraude espetacular. Isso chama atenção, mas não descreve o risco dominante. O problema estrutural é mais banal e, por isso mesmo, mais perigoso. A IA generativa reduziu o custo de produzir textos, imagens, vídeos curtos, comentários e peças persuasivas em escala industrial. Em vez de uma operação rara e sofisticada, o mercado passa a conviver com abundância. O que circula não precisa ser impecável; basta ser plausível, emocionalmente ajustado e barato de multiplicar.

Esse deslocamento altera a lógica de risco. Quando o volume cresce mais rápido do que a capacidade de auditoria, a curadoria vira gargalo econômico e institucional. A organização perde capacidade de separar sinal de ruído, a arena pública se degrada e a resposta reativa se torna mais cara. A literatura recente sobre desinformação e IA é clara ao indicar que grandes modelos de linguagem conseguem gerar conteúdos convincentes, explorar vieses cognitivos e influenciar percepções em temas sensíveis, inclusive políticos e regulatórios (SPRINGER / AI & SOCIETY, 2025; LARSON et al., 2025; NATURE COMMUNICATIONS, 2025). O ponto, portanto, não é apenas evitar o grande incidente. É operar num ambiente em que a pressão narrativa se torna contínua.

Quadro de decisão

Como funciona (mecanismo)Tensões e escolhas (trade-offs)Efeito executivo (custo, prazo, risco)
Modelos generativos reduzem o custo de produzir textos, áudios e imagens persuasivas em grande escala (SPRINGER / AI & SOCIETY, 2025).Ganho de produtividade vem acompanhado de perda de controle sobre origem, contexto e qualidade.Cai o custo unitário de produção, mas sobe o custo de verificação e correção.
A produção sintética deixa de depender de grandes operações centralizadas e passa a ser distribuída.A descentralização amplia acesso à ferramenta, mas dilui accountability e dificulta rastreabilidade.O risco reputacional se torna recorrente e menos previsível.
Plataformas priorizam retenção e engajamento, não verificabilidade do conteúdo (CULPEPPER; THELEN, 2020).Alcance rápido pode aumentar resultado comercial no curto prazo, mas fragiliza confiança no médio prazo.O ganho imediato pode ser neutralizado por litígio, retrabalho e desgaste de marca.
Conteúdo plausível, ainda que imperfeito, já é suficiente para contaminar o fluxo informacional (LARSON et al., 2025).Focar apenas no caso extremo deixa a organização cega para o risco cumulativo.A resposta tardia eleva OPEX corretivo e reduz capacidade de defesa institucional.
A influência deixa de ser evento excepcional e passa a ser pressão contínua sobre o ambiente decisório.Investir cedo em governança parece custoso; reagir depois costuma ser mais caro.O atraso aumenta prazo de adaptação e materializa risco quando a margem de manobra já é menor.

2. Baixa proficiência não determina manipulação, mas reduz o custo de manipular

Este ponto exige rigor. Os dados educacionais não autorizam um argumento determinista sobre comportamento individual. Pessoas com alta escolaridade também podem aderir a falsidades, vieses e teorias conspiratórias. A leitura correta é mais sofisticada: quando uma sociedade apresenta menor proficiência média em leitura analítica, interpretação de nuances argumentativas e resolução de problemas, sua resistência agregada a mensagens emocionalmente calibradas tende a ser menor. Em termos econômicos, a fricção cognitiva coletiva cai. E é sobre essa redução de custo marginal que a IA generativa opera com maior eficiência.

Os resultados do PISA 2022 ilustram com clareza esse ponto de partida. No domínio da leitura, o Brasil registrou 410 pontos, ante 476 da média da Organização para a Cooperação e Desenvolvimento Econômico. Apenas 50% dos estudantes brasileiros atingiram o Nível 2 ou superior, contra 74% na média da OCDE. No topo da distribuição, onde se concentram competências de distinção entre fato e opinião com base em pistas implícitas e manejo de conceitos abstratos, apenas 2% dos estudantes brasileiros alcançaram os Níveis 5 ou 6, ante 7% na média da OCDE. Em letramento financeiro, 45% dos estudantes brasileiros não atingiram o nível básico de proficiência, contra 18% na média da OCDE (OCDE, 2023a; OCDE, 2023b; OCDE, 2024). O que esses números mostram não é incapacidade automática. Mostram um ambiente em que a checagem custa mais e, por isso, manipular custa menos.

Quadro de decisão

Como funciona (mecanismo)Tensões e escolhas (trade-offs)Efeito executivo (custo, prazo, risco)
Menor proficiência média em leitura e análise reduz a capacidade agregada de checar, contextualizar e resistir a mensagens calibradas (OCDE, 2023a; OCDE, 2023b).O risco é transformar vulnerabilidade estrutural em estigma individual, o que gera diagnóstico ruim.Políticas mal desenhadas desperdiçam recursos e não reduzem exposição real.
Apenas 2% dos estudantes brasileiros atingiram os Níveis 5 ou 6 em leitura no PISA 2022, contra 7% na OCDE (OCDE, 2023b).O dado é forte, mas precisa ser lido como indicador sistêmico, não como sentença individual.A subestimação desse quadro aumenta risco informacional e reduz qualidade do debate público.
No letramento financeiro, 45% ficaram abaixo do nível básico, contra 18% na OCDE (OCDE, 2024).Educação crítica exige investimento de prazo mais longo, enquanto o risco já é imediato.Adiar a agenda reduz custo hoje, mas eleva passivo futuro.
Mensagens geradas por IA podem ser adaptadas para explorar vieses e predisposições específicas (MATZ et al., 2024; HACKENBURG et al., 2024).Personalização aumenta eficácia, mas reduz transparência e amplia assimetria entre emissor e receptor.O risco cresce sem necessidade de grande evento público.
Letramento crítico passa a ser requisito cívico e componente de segurança informacional (EUROPEAN PARLIAMENT, 2025).O retorno institucional é difuso e menos visível do que projetos de tecnologia ou mídia.Sem patrocínio executivo, a agenda tende a perder prioridade orçamentária.

3. A conectividade brasileira ampliou acesso, mas não garantiu capacidade de verificação

A vulnerabilidade educacional se agrava quando se observa a infraestrutura real de acesso. O país avançou em conectividade, mas boa parte dessa inclusão ocorreu sob condições materiais limitadas. Estar online não equivale a ter meios adequados para verificar, comparar, auditar e contextualizar informações. O acesso restrito a telas pequenas, planos limitados e ambientes concentrados em plataformas reduz a capacidade prática de abrir múltiplas fontes, fazer busca aprofundada, comparar versões e verificar origem. Trata-se de uma limitação cognitiva mediada por infraestrutura.

A TIC Domicílios 2024 torna essa fratura visível. Nas classes D/E, 73% acessam a internet exclusivamente pelo telefone celular. Na classe C, o percentual é 43%. Nas classes A/B, 12%. O padrão também varia por região e escolaridade, reforçando a correlação entre vulnerabilidade socioeconômica, menor escolaridade e acesso restrito a dispositivos (CETIC.BR, 2024). O efeito é claro: a audiência não está apenas conectada; ela está desigualmente equipada para checar o que consome. Em termos executivos, isso tem implicação direta para marketing, comunicação, reputação, proteção de públicos vulneráveis e desenho de políticas de transparência. Uma organização pode cumprir formalmente uma obrigação de informação e, ainda assim, falhar materialmente se a sua comunicação for operada em ambientes em que a verificação é onerosa para o usuário.

Quadro de decisão

Como funciona (mecanismo)Tensões e escolhas (trade-offs)Efeito executivo (custo, prazo, risco)
O acesso exclusivo por celular dificulta pesquisa comparativa, auditoria de origem e checagem cruzada (CETIC.BR, 2024).A expansão da conectividade amplia mercado, mas não garante qualidade do consumo informacional.Alcance cresce, mas a capacidade de compreensão crítica pode não acompanhar.
Nas classes D/E, 73% acessam a internet apenas pelo celular; nas A/B, 12% (CETIC.BR, 2024).A eficiência comercial de formatos móveis convive com maior assimetria informacional.O risco reputacional aumenta quando a comunicação depende de compreensão rápida e baixa fricção.
A “internet de plataforma” reduz contato com web aberta e diversidade de fontes.Conveniência e escala aumentam retenção, mas concentram mediação em poucos intermediários.Cresce a dependência de algoritmos e cai o controle sobre contexto de recepção.
Feeds contínuos e vídeos curtos favorecem consumo acelerado e avaliação superficial.Formatos leves elevam engajamento, mas diluem fronteiras entre informação, publicidade e entretenimento.O custo de correção sobe quando a mensagem já circulou sem contexto.
A infraestrutura material do usuário condiciona sua capacidade prática de auditoria.Transparência formal pode não ser suficiente se não houver legibilidade operacional da mensagem.Compliance meramente formal pode falhar diante de fiscalização ou crise pública.

4. O legado da Cambridge Analytica foi metodológico, e a IA o distribuiu

A Cambridge Analytica permanece relevante não apenas pelo escândalo, mas pela arquitetura metodológica que expôs. O caso revelou um pipeline de alto valor estratégico: captar sinais comportamentais, inferir predisposições, adaptar mensagens, testar narrativas e otimizar distribuição. Esse arranjo ficou associado ao uso de segmentação psicográfica, frequentemente descrita em torno do modelo Big Five ou OCEAN: Openness, Conscientiousness, Extraversion, Agreeableness e Neuroticism. A contribuição histórica do caso foi mostrar que influência em escala pode ser tratada como problema de dados, linguagem e experimentação contínua (BAKIR, 2020; FTC, 2019).

A IA generativa reduziu dramaticamente o custo desse pipeline. Hoje, pequenas equipes, produtores de conteúdo, grupos políticos, operações comerciais e estruturas informais conseguem testar linguagem, estética e enquadramento com ferramentas acessíveis e sem a mesma necessidade de grandes aparatos técnicos. O microdirecionamento deixa de ser apenas problema de compra de mídia e passa a ser também um problema de síntese dinâmica. A literatura recente já mostra que modelos de linguagem podem reforçar estratégias de persuasão personalizada e aumentar a eficácia de mensagens sob determinadas condições experimentais (MATZ et al., 2024; HACKENBURG et al., 2024). O risco executivo é evidente: o que antes parecia uma ameaça externa pode passar a existir dentro da própria organização, via adoções informais, sem política, sem homologação e sem trilha de auditoria.

Quadro de decisão

Como funciona (mecanismo)Tensões e escolhas (trade-offs)Efeito executivo (custo, prazo, risco)
O pipeline psicográfico combina sinais comportamentais, inferência de traços e adaptação de mensagem (BAKIR, 2020).Mais precisão persuasiva aumenta eficácia, mas eleva risco ético e regulatório.O ganho de conversão pode ser anulado por contencioso e dano de marca.
O caso Cambridge Analytica evidenciou uso indevido de dados em larga escala e resultou em multa de US$ 5 bilhões ao Facebook pelo FTC (FTC, 2019).Casos extremos reforçam pressão regulatória, mas também geram respostas formais insuficientes.A empresa que aprende apenas com o escândalo tende a reagir tarde.
A IA generativa automatiza a criação de múltiplas variações textuais e visuais em tempo real (MATZ et al., 2024).Escala e personalização ampliam performance, mas tornam revisão manual mais difícil.Sem governança, o prazo de aprovação se rompe ou o risco explode.
Pequenos operadores passam a acessar capacidades antes restritas a grandes campanhas.Democratização tecnológica favorece competição, mas multiplica superfícies de risco.O ambiente fica mais ruidoso, mais litigioso e mais difícil de monitorar.
A lógica da persuasão personalizada pode migrar para shadow IT corporativo.Agilidade local entra em choque com compliance, proteção de dados e accountability.Descobrir o uso apenas depois do incidente aumenta custo de remediação.

5. O ECA Digital é avanço institucional, mas tende a deslocar o jogo para zonas cinzentas

A entrada em vigor do Estatuto Digital da Criança e do Adolescente, consubstanciado na Lei n.º 15.211/2025, representa um marco relevante na governança digital brasileira. O texto proíbe perfilamento comportamental, uso de dados psicográficos e autodeclaração simplificada de idade para fins de publicidade dirigida a crianças e adolescentes, além de vedar práticas de design manipulativo, os chamados dark patterns, e ampliar deveres das plataformas em ambientes onde o acesso desse público seja provável ou previsível (BRASIL, 2025; SENADO FEDERAL, 2026). O avanço é real. O problema é que, em regulação de plataformas, fechar uma rota explícita frequentemente desloca os incentivos para rotas indiretas.

É por isso que a suficiência da lei deve ser tratada com prudência. Se o targeting explícito se torna mais arriscado, agentes racionais tendem a migrar para conteúdo híbrido, distribuição orgânica, personalização indireta e testes massivos de peças sintéticas para que o próprio algoritmo identifique públicos de maior aderência. O efeito de segunda ordem é tornar a influência menos visível e a fiscalização mais complexa. O ponto mais sensível da lei está justamente na superação da noção estrita de intencionalidade: não basta afirmar que a peça “não foi feita para menores”; o ambiente, a interface e a previsibilidade de acesso passam a integrar a arquitetura de responsabilidade (BRASIL, 2025; SENADO FEDERAL, 2026). Em linguagem executiva, a obrigação sai do criativo isolado e entra na lógica de distribuição, design e governança.

Quadro de decisão

Como funciona (mecanismo)Tensões e escolhas (trade-offs)Efeito executivo (custo, prazo, risco)
A Lei n.º 15.211/2025 proíbe perfilamento comportamental e uso de dados psicográficos para publicidade dirigida a menores (BRASIL, 2025).A proteção aumenta, mas o mercado tende a buscar canais substitutivos.Compliance mínimo deixa de bastar como estratégia defensiva.
O critério de acesso provável amplia a responsabilidade para ambientes onde a presença de menores seja previsível (BRASIL, 2025).A proteção jurídica melhora, mas cresce a incerteza operacional para marcas, agências e plataformas.O risco se desloca da peça isolada para a jornada completa do usuário.
Dark patterns entram no radar regulatório como prática vedada (BRASIL, 2025).Interfaces menos manipulativas podem reduzir conversão imediata.O custo de curto prazo pode comprar resiliência regulatória no médio prazo.
A restrição ao targeting explícito favorece conteúdo híbrido e personalização indireta.A influência se torna menos visível e mais difícil de provar.Sem indicadores próprios, a organização reage tarde e com menor capacidade probatória.
Grandes plataformas absorvem custos regulatórios com mais facilidade do que operadores menores (CULPEPPER; THELEN, 2020).A regulação protege, mas pode elevar barreiras de entrada e concentrar mercado.Dependência de poucos intermediários aumenta risco estratégico.

6. A agenda real é de governança: conteúdo, dados, ESG e risco reputacional

O maior erro de enquadramento é tratar IA generativa como uma ferramenta de produtividade isolada. O problema decisivo não é tecnológico; é de governança. Quando uma organização usa IA para produzir comunicação externa, campanhas, conteúdos institucionais, atendimento ou materiais de decisão, ela altera sua arquitetura de responsabilidade. A partir daí, passam a importar de forma simultânea transparência, rastreabilidade, revisão humana, critérios de aceite, proteção de dados, integridade informacional e capacidade de prova. Em outras palavras, a discussão deixa de ser sobre software e passa a ser sobre controle interno.

Esse ponto conecta IA à agenda de ESG e risco reputacional. Governança, aqui, não é uma camada cosmética. É o mecanismo que separa eficiência operacional de passivo institucional. A literatura recente em resiliência democrática e desinformação aponta justamente para a necessidade de combinar regulação adaptativa, alfabetização midiática, responsabilidade de produção e monitoramento contínuo do risco (ROMANISHYN; MALYTSKA; GONCHARUK, 2025; EUROPEAN PARLIAMENT, 2025). Para empresas, isso se traduz em separar geração de publicação, documentar revisão humana, homologar ferramentas, monitorar uso informal, registrar decisões e criar indicadores de exposição. O custo existe, sobretudo no começo. Mas é menor do que o custo de correção em ambiente litigioso, com fiscalização crescente e reputação sob pressão.

Quadro de decisão

Como funciona (mecanismo)Tensões e escolhas (trade-offs)Efeito executivo (custo, prazo, risco)
Separar geração de publicação transforma saída de IA em rascunho e exige validação humana.A velocidade cai um pouco, mas a confiabilidade sobe.OPEX inicial aumenta, porém o custo de crise tende a cair.
Trilhas de auditoria registram fonte, contexto, responsável e justificativa de uso.Documentar consome tempo, mas reduz opacidade decisória.A organização ganha capacidade probatória e resposta mais rápida.
Homologação de ferramentas limita shadow IT em atividades críticas.Controle excessivo pode gerar resistência; controle frouxo gera invisibilidade do risco.O desafio é equilibrar autonomia operacional e accountability.
Checklists de conteúdo sensível padronizam aceitação e revisão.Procedimentos demais burocratizam; procedimentos de menos deixam lacunas graves.O prazo estabiliza quando a regra vira rotina e não exceção.
Indicadores de risco informacional permitem gestão baseada em evidência.Medir exige método e disciplina, mas operar sem baseline encarece qualquer reação.O board passa a decidir com dados próprios, não apenas por manchetes.

O que muda até o horizonte de tempo conhecido

Até o horizonte de tempo conhecido, três cenários são plausíveis. No cenário base, a adoção de IA continua avançando, o ECA Digital reorganiza práticas e as organizações começam a estruturar controles mínimos. No cenário otimista, empresas e instituições antecipam exigências, treinam equipes e integram tecnologia, compliance, comunicação e jurídico em uma governança mais madura. No cenário estressado, incidentes reputacionais e controvérsias regulatórias aceleram a pressão institucional, comprimindo prazos de adequação e elevando custos de conformidade. Nenhum desses cenários elimina a incerteza. O ponto é que a janela de adaptação ainda existe, mas tende a se estreitar à medida que o ambiente ficar mais litigioso e mais exigente em evidência.

CenárioPremissasSinais precocesImpacto em custo/prazo/riscoResposta recomendada
BaseAdoção de IA segue crescendo; regulação reorganiza práticas; controles mínimos começam a surgir.Mais revisão jurídica de campanhas, primeiras políticas internas, maior cautela em targeting.Custo moderado de adequação; prazo administrável; risco ainda elevado, porém mais visível.Estruturar baseline de exposição, trilha de auditoria e piloto de governança.
OtimistaOrganizações antecipam exigências, homologam ferramentas e treinam equipes.Menor uso informal, indicadores periódicos, integração entre áreas críticas.Custo inicial maior, mas melhor previsibilidade e menor risco reputacional.Escalar governança, revisar fornecedores e consolidar reporte executivo.
EstressadoIncidentes públicos, pressão regulatória e reação social aceleram endurecimento institucional.Crises de marca, questionamentos sobre publicidade e IA, maior judicialização.OPEX corretivo alto, prazo comprimido, risco jurídico e reputacional materializado.Ativar resposta de crise, congelar fluxos críticos e executar remediação com PMO dedicado.

Recomendações práticas

90 dias

  • Mapear todos os usos de IA generativa em conteúdo, marketing, comunicação e operações, com evidência documental de ferramenta, finalidade, responsáveis e tipos de dado.
  • Classificar os fluxos por criticidade regulatória e reputacional, com critério de aceite baseado em matriz de risco validada por jurídico, compliance e liderança executiva.
  • Instituir política transitória de separação entre geração e publicação, exigindo evidência de revisão humana em amostra auditável.
  • Definir checklist obrigatório para materiais sensíveis, com fonte primária, data, contexto, contraponto e avaliação de risco reputacional.
  • Criar baseline de incidentes, retrabalho, tempo de revisão e rastreabilidade para que decisões futuras sejam baseadas em evidência.

180 dias

  • Implantar trilha de auditoria nos fluxos priorizados, com registro de decisões, responsáveis e justificativas, validada por amostragem.
  • Homologar ferramentas autorizadas e restringir shadow IT em atividades críticas, com comunicação formal às áreas e aceite registrado.
  • Treinar marketing, comunicação, jurídico, compliance e lideranças, com avaliação aplicada e simulação de casos reais como critério de conclusão.
  • Monitorar sinais de contorno regulatório no pós-ECA Digital, com indicadores próprios sobre conteúdo híbrido, personalização indireta e exposição de públicos vulneráveis.
  • Executar piloto de observatório de risco informacional, com metodologia explícita, dados preservados e relatório de lições aprendidas.

12 meses

  • Escalar a governança para canais e unidades de maior materialidade, condicionando expansão à evidência de redução de risco no piloto.
  • Integrar métricas de risco informacional ao ciclo executivo e ao reporte de governança, para elevar o tema ao nível do board.
  • Revisar contratos com fornecedores de tecnologia, mídia e conteúdo, incluindo transparência de uso de IA, logs e responsabilização.
  • Consolidar política permanente de uso de IA em conteúdo, dados e relacionamento com públicos, com revisão periódica e atualização regulatória.
  • Publicar protocolo interno de responsabilização e correção para incidentes de conteúdo sintético, com testes documentados e cadeia decisória definida.

Conclusão

A discussão sobre IA generativa no Brasil entrou em uma fase em que simplificações já não ajudam. Não se trata apenas de mais uma ferramenta de automação. Trata-se de uma convergência entre produção sintética em escala, vulnerabilidade informacional, assimetria material de acesso e regulação em consolidação. Esse encontro muda a natureza do risco. Tecnologia, reputação, proteção de públicos vulneráveis, governança de conteúdo e compliance passam a operar no mesmo sistema. Quem continuar tratando essas frentes em silos verá o problema tarde demais, quando ele já tiver saído da operação e alcançado marca, confiança e capacidade de defesa institucional.

A boa notícia é que a janela de intervenção ainda está aberta. Regulação é necessária. Letramento crítico é necessário. Governança corporativa de IA é necessária. Mas nenhum desses instrumentos, isoladamente, é suficiente. A suficiência emerge da coordenação entre arquitetura de decisão, disciplina operacional, responsabilidade de produção e inteligência de risco contínua. Em termos executivos, a escolha não é entre adotar ou não adotar IA. A escolha é entre governar a adoção agora, com custo controlado e aprendizado acumulado, ou reagir depois, sob pressão, com menor prazo, maior passivo e menor autonomia estratégica.

Implementação Estratégica

O rigor técnico que estrutura a produção analítica do think-tank Tech & Energy é a base que sustenta os serviços de consultoria e PMO. O objetivo não é apenas interpretar tendências. É transformar tese em execução, com critérios de aceite, governança, rastreabilidade e capacidade real de implementação. Em um ambiente no qual IA, regulação digital, proteção de públicos vulneráveis e risco reputacional passaram a interagir de forma mais densa, a diferença entre diagnóstico e entrega se tornou decisiva. É nesse espaço que atuamos: conectando análise estratégica, desenho de controles, priorização executiva e implantação disciplinada.

  • Diagnóstico de maturidade digital e de exposição ao risco informacional, com inventário de fluxos, ferramentas, dados e responsáveis.
  • Elaboração de matrizes de risco regulatório e reputacional, segmentadas por canal, formato, público e arquitetura de distribuição.
  • Desenho de arquitetura de governança para uso de IA em conteúdo, com critérios de aceite, revisão humana e trilha de auditoria.
  • Estruturação de indicadores, KPIs e SLAs para monitoramento de conteúdo sintético, conformidade e resposta a incidentes.
  • PMO de adequação regulatória e transformação operacional em marketing, comunicação, compliance e tecnologia, com marcos, evidências e reporte executivo.
  • Treinamento para transferência de tecnologia e treinamento de equipes, garantindo que as soluções implantadas permaneçam operacionais, auditáveis e sustentáveis ao longo do tempo.

Referências

BAKIR, Vian. Psychological operations in the information environment: the Cambridge Analytica case. Frontiers in Communication, v. 5, p. 1-14, 2020.

BRASIL. Lei n.º 15.211, de 18 de setembro de 2025. Estatuto Digital da Criança e do Adolescente. Diário Oficial da União: Brasília, DF, 18 set. 2025.

CENTRO REGIONAL DE ESTUDOS PARA O DESENVOLVIMENTO DA SOCIEDADE DA INFORMAÇÃO (CETIC.BR). TIC Domicílios 2024. São Paulo: NIC.br, 2024.

CULPEPPER, Pepper D.; THELEN, Kathleen. Are we all Amazon primed? Consumers and the politics of platform power. Comparative Political Studies, v. 53, n. 2, p. 288-318, 2020.

EUROPEAN PARLIAMENT. Artificial intelligence and media literacy: challenges and opportunities. Brussels: European Parliamentary Research Service, 2025.

FEDERAL TRADE COMMISSION (FTC). FTC imposes $5 billion penalty and sweeping new privacy restrictions on Facebook. Washington, D.C.: FTC, 2019.

HACKENBURG, Kobi; TAPPIN, Ben M.; HEWITT, Luke et al. Evaluating the persuasive influence of political microtargeting with large language models. Proceedings of the National Academy of Sciences, v. 121, e2403116121, 2024.

LARSON, J. et al. Generative propaganda: evidence of AI’s impact from a state-backed disinformation campaign. PNAS Nexus, v. 4, n. 4, pgaf083, 2025.

MATZ, S. et al. The potential of generative AI for personalized persuasion at scale. Scientific Reports, v. 14, p. 4692, 2024.

NATURE COMMUNICATIONS. LLM-generated messages can persuade humans on policy issues. Nature Communications, 2025.

ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OCDE). PISA 2022 Results (Volume I): The State of Learning and Equity in Education. Paris: OECD Publishing, 2023a.

ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OCDE). PISA 2022 Results (Volume I and II): Country Notes — Brazil. Paris: OECD Publishing, 2023b.

ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OCDE). PISA 2022 Results (Volume IV): Factsheets — Brazil. Paris: OECD Publishing, 2024.

ROMANISHYN, O.; MALYTSKA, M.; GONCHARUK, A. AI-driven disinformation: policy recommendations for democratic resilience. Frontiers, 2025.

SENADO FEDERAL. ECA Digital, para proteção on-line de crianças e adolescentes, entra em vigor. Brasília: Senado Federal, 17 mar. 2026.