Veículo: Mercado e consumo
Clique aqui para ler a notícia na fonte
Região:
Estado:
Alcance:

Data: 18/03/2026

Editoria: Shopping Pátio Higienópolis
Assuntos:

Anúncios feitos por IA no varejo: e agora? Quem responde?

A Inteligência Artificial virou ferramenta padrão de publicidade no varejo. Mas quando o algoritmo erra —  e ele erra — , a multa, a ação judicial e a mancha na reputação chegam com o seu CNPJ.

Imagine entrar em um e-commerce, ver um produto com uma descrição impecável, preço atraente e avaliações elogiosas. Tudo gerado automaticamente por IA. Agora imagine que parte dessas informações estava errada, exagerada ou era simplesmente falsa. Esse cenário, antes hipotético, já é rotina em centenas de operações varejistas no Brasil.

Descrição de produto gerada em segundos. Preço dinâmico ajustado automaticamente. Oferta personalizada entregue antes de o consumidor terminar de pensar. A IA generativa entrou de vez na operação de varejo e trouxe consigo uma eficiência real e um risco jurídico que a maioria das empresas ainda não mapeou.

A IA generativa entrou de vez no varejo nacional. Ferramentas que criam textos de produtos, imagens sintéticas, preços dinâmicos e até chats de atendimento autônomo se multiplicam a cada trimestre. A promessa é eficiência, e ela se cumpre. O problema é que, na mesma velocidade em que a IA gera conteúdo, ela também pode gerar responsabilidade jurídica.

O problema não é a tecnologia. O problema é a crença de que, se foi o algoritmo que errou, a empresa não responde. O Código de Defesa do Consumidor discorda, e ele não tem paciência para explicações técnicas.

A IA não sabe o que é verdade, ela sabe o que soa certo

Modelos de linguagem são construídos para gerar texto plausível, coerente e convincente. Não para verificar fatos. Uma descrição de produto pode afirmar que um suplemento “auxilia na perda de peso” porque isso combina com o padrão do nicho, sem que nenhum humano tenha aprovado essa afirmação. E aí o art. 37 do CDC entra em cena: publicidade enganosa, aquela capaz de induzir o consumidor a erro sobre características, qualidade ou preço do produto, é proibida. Não existe exceção para conteúdo automatizado.

“Se a IA publicou e você assina o CNPJ, o erro é seu. Simples assim.”

LGPD: os dados que alimentam a IA também têm dono

A personalização de anúncios por IA depende de dados comportamentais, como navegação, histórico de compra, localização e perfil demográfico. E esses dados têm dono: o consumidor. A LGPD exige base legal para cada uso. Consentimento, legítimo interesse documentado ou cumprimento de obrigação legal. Escolha uma, mas escolha e registre.

O art. 20 da LGPD garante ao consumidor o direito de solicitar a revisão humana de decisões tomadas exclusivamente por algoritmos que afetem seus interesses. Isso inclui ofertas, preços e segmentações. A ANPD já sinalizou em 2024 que sistemas de recomendação e publicidade automatizada exigem transparência reforçada. Quem ainda trata isso como burocracia futura está atrasado.

O Marco Regulatório de IA vai chegar — e vai cobrar registro

O PL 2.338/2023 classifica sistemas de IA por nível de risco. Ferramentas que influenciam decisões econômicas de consumidores, como precificação dinâmica, segmentação avançada, geração de conteúdo de produto, podem ser enquadradas como de risco elevado. Isso traz obrigações concretas: auditabilidade, explicabilidade, avaliação de impacto e documentação de mitigação de riscos.

Quem não se preparar agora vai correr atrás do prejuízo quando a lei entrar em vigor, e o custo de adequação retroativa tende a ser maior do que o de prevenção.

Cases reais de 2026

Em março de 2026, o Procon-SP multou a Shopee em R$ 14,1 milhões por falhas em informações essenciais e descumprimento de ofertas, destacando responsabilidade solidária de marketplaces, um  cenário agravado pelo uso de IA em descrições automáticas.

Outro: a Amazon foi multada em R$ 2,7 milhões pelo Procon-MPMG, em novembro de 2025, com impactos em 2026, por descumprimento de ofertas e atrasos, ilustrando os riscos de falhas na precificação dinâmica falha. O STJ tem reforçado a vinculação da oferta publicitária, mesmo em casos de erros “automáticos”.  O PL 6.707/2025, em tramitação, isenta consumidor de provar nexo em danos por IA autônoma, prevendo indenizações por dark patterns em recomendações .

O que fazer antes que o problema apareça

  • Revisão humana obrigatória para conteúdo em categorias sensíveis, como saúde, alimentos, financeiro, infantil;
  • Rótulo de conteúdo automatizado: o consumidor tem direito de saber quando está lendo texto gerado por IA;
  • Registro log e rastreabilidade de todo conteúdo gerado: quem o ativou, qual modelo foi utilizado e  quando foi ao ar;
  • Política interna documentada, com responsável designado e canal de reporte de falhas;
  • Revisão periódica dos modelos, para detectar alucinações recorrentes e informações desatualizadas;
  • Cláusulas contratuais com fornecedores de IA, definindo responsabilidades em caso de conteúdo danoso.

A IA amplifica tudo — inclusive o erro

A Inteligência Artificial não escolhe lados. Ela multiplica a capacidade de encantar e de enganar na  mesma proporção. O varejista que entende isso trata a IA como ferramenta poderosa, que precisa de piloto, não como piloto automático.

A inovação que não tem governança não é inovação. É risco parcelado em 12 vezes, com juros de CDC, LGPD e reputação.

O caminho é a inovação responsável: incorporar IA com consciência de que a tecnologia amplifica tanto a capacidade de encantar quanto a de enganar e de que, juridicamente, ambas as consequências recaem sobre quem assina o CNPJ.