Com a chegada da Inteligência Artificial generativa, o universo da criação de conteúdo no varejo passou por uma verdadeira transformação. Hoje, é comum vermos textos de produtos, imagens promocionais e até vídeos inteiramente produzidos com apoio de IA. Mas, afinal, quem detém os direitos sobre esse material? Pelas normas brasileiras, a resposta é direta: só pessoas físicas podem ser autoras de obras protegidas por direitos autorais. Ou seja, a IA pode até auxiliar, mas é sempre a criatividade humana que garante a proteção legal do conteúdo.
Isso não impede o uso de IA como ferramenta. Ela funciona como um pincel nas mãos de um artista ou como uma câmera para um cineasta. O diferencial está em quem a guia e imprime sua visão única nesse processo. O simples apertar de um botão não basta. É necessário envolver seleção, direção criativa, edição ou qualquer forma de participação ativa e pessoal no resultado.
Inclusive, o INPI tem desenvolvido normas para explicar esse cenário. O importante é valorizar a presença da mão humana, seja na escolha, ajuste ou no direcionamento criativo durante a geração do conteúdo.
O dilema da fiscalização
A detecção de infrações aos direitos autorais em conteúdos produzidos por IA é um verdadeiro desafio. Os sistemas conseguem ser treinados com milhares de obras protegidas sem deixar rastros evidentes de suas fontes. Como identificar se uma imagem de IA realmente “copiou” uma fotografia específica? Ferramentas automatizadas de detecção estão surgindo, mas, na ponta final, ainda é indispensável o olhar atento de especialistas humanos para separar inspiração legítima de cópia indevida. É uma disputa constante entre criadores, infratores e fiscalizadores.
Quem assume a responsabilidade por danos causados por IA?
Quando um algoritmo gera algum prejuízo, as regras clássicas da responsabilidade civil continuam valendo, mas adaptadas para o contexto digital moderno. A legislação recente, incluindo o novo Marco Regulatório, trouxe facilidades para as vítimas comprovarem suas alegações, como a inversão do ônus da prova em situações de difícil apuração.
Cadeia de responsabilidades: do algoritmo ao usuário
A distribuição de responsabilidades nesse ecossistema é complexa. Desenvolvedores, fornecedores de dados, operadores de infraestrutura e usuários finais compõem uma cadeia extensa, na qual cada elo participa de modo diferente. O Marco Regulatório buscou dividir obrigações: programadores devem priorizar a segurança; fornecedores devem manter um ambiente ético e controlado; operadores precisam garantir a supervisão humana. Apesar do esforço, este é um território com muitos pontos nebulosos, que exige constante revisão e aprimoramento das regras.
Casos brasileiros: exemplos práticos de IA no varejo
Algumas empresas brasileiras têm dado bons exemplos de uso responsável da IA. O Magazine Luiza, por exemplo, implementou sua assistente virtual Lu de modo transparente, sempre deixando claro quando o atendimento é automatizado e permitindo o fácil acesso ao suporte humano. Já o Carrefour utiliza a IA para gerenciar estoques e evitar perdas, mas estabelece auditorias internas para prevenir qualquer viés discriminatório e documentar decisões para futuras revisões regulatórias.
Outro exemplo interessante é o Big Box Supermercados, que ajustou o preço de milhares de itens com IA, mas só utiliza critérios objetivos, como a flutuação de mercado, evitando qualquer diferenciação baseada em características pessoais dos clientes.

Lições do exterior: o que aprender com outros mercados
A experiência internacional também traz aprendizados valiosos. Gigantes como a Amazon enfrentaram problemas de discriminação de gênero em processos seletivos automáticos, demonstrando a importância da checagem de dados usados para treinar a IA. Em outras situações, plataformas sofreram sanções por praticar preços diferenciados baseados na localização dos usuários ou em perfis econômicos presumidos. Transparência e critérios claros são cada vez mais necessários para evitar escândalos e problemas jurídicos.
Maturidade em IA: o caminho da evolução nas empresas
Ao observar a adoção da Inteligência Artificial nas empresas brasileiras, percebe-se que o avanço depende de múltiplos fatores, que vão além da simples implementação tecnológica. O gráfico a seguir ilustra um framework de maturidade em IA, mostrando como diferentes dimensões — como gestão de dados, engenharia de tecnologia, governança, capital humano e estrutura organizacional — evoluem ao longo dos estágios: do inicial ao avançado.

Matriz de maturidade organizacional em IA mostrando progressão evolutiva em 7 dimensões críticas
Cada dimensão é avaliada de acordo com seu nível de maturidade, indicando uma progressão contínua e equilibrada. Empresas que conquistam alta maturidade em IA geralmente investem em governança robusta, qualificação de equipes, infraestrutura sólida e, principalmente, estratégias organizacionais alinhadas com o uso ético e eficiente da tecnologia. Esse amadurecimento é fundamental para garantir que a IA seja aplicada de forma responsável, respeitando direitos e promovendo inovação sustentável no setor varejista.
E o futuro?
A regulamentação brasileira sobre a IA está apenas começando. Depois de aprovado no Senado, o Marco Regulatório segue para debates na Câmara, onde devem ser feitos ajustes, levando em conta experiências internacionais e as particularidades nacionais. Espera-se que, setores mais diretamente ligados ao consumidor, como o varejo, sejam prioridade na criação de regras específicas. Órgãos como a ANPD e o Procon já discutem medidas detalhadas para garantir segurança jurídica e ética nesta nova era de inovação.
Valéria Toriyama e Ana Paula Caseiro Camargo são advogadas do Caseiro e Camargo Advocacia Estratégica.
*Este texto reproduz a opinião do autor e não reflete necessariamente o posicionamento da Mercado&Consumo.
Imagem: Shutterstock

