IA com câmeras no ponto de venda: o que a lei diz, o que o mercado teme e o que a tecnologia já resolveu.

Por Bruno Lago  |  Head Comercial & de Produtos – Global.IA

Toda vez que o assunto de visão computacional em lojas aparece numa reunião de diretoria, alguém sussurra a palavra ‘LGPD’. A conversa migra do potencial da tecnologia para o risco jurídico. O projeto morre antes de receber um orçamento. É um padrão tão previsível que virou piada interna em muitas equipes de inovação. O problema, contudo, não é a lei, é não saber o que ela diz.

O medo que paralisa e o medo que protege

Há dois tipos de medo no debate sobre IA em ambientes físicos. Um nasce do conhecimento e é útil, ele impede abusos reais. O outro nasce da confusão entre tecnologias muito diferentes empacotadas no mesmo alarmismo. O varejo brasileiro está pagando caro pelo segundo tipo.

A preocupação legítima existe: sistemas de reconhecimento facial que constroem perfis biométricos persistentes sem que o consumidor saiba, bancos de dados de imagem usados para fins além do declarado. Isso aconteceu em outros mercados, e a legislação brasileira foi construída para isso.

O problema começa quando esse cenário é colado em qualquer câmera que processe algum dado sobre presença humana. Pelo mesmo raciocínio, o sensor de porta automática viola privacidade. O termômetro de testa na farmácia coleta biometria. O detector de fumaça do shopping é vigilância.

O problema não é a câmera. É o que você faz com o que ela enxerga.

Essa distinção, entre sistemas que identificam e sistemas que apenas descrevem presença agregada, é onde o debate jurídico e técnico deveria começar. Raramente começa.

O que a LGPD realmente diz

A Lei Geral de Proteção de Dados tem um artigo que pouca gente cita nessas discussões. O Art. 12 é direto: dados anonimizados não são dados pessoais. Sobre eles, a LGPD simplesmente não se aplica.

Art. 12, LGPD — Dados Anonimizados >>> Os dados anonimizados não serão considerados dados pessoais para os fins desta Lei, salvo quando o processo de anonimização ao qual foram submetidos for revertido, utilizando exclusivamente meios próprios, ou quando, com esforços razoáveis, puder ser revertido.

A palavra que importa é ‘revertido’. Se a anonimização é tecnicamente irreversível, se não existe caminho de volta do dado processado para a identidade individual, esse dado está fora do escopo da lei. O debate que realmente importa não é ‘pode ou não usar câmeras’, mas sim ‘o processo de anonimização adotado é genuinamente irreversível?’. A resposta depende da arquitetura técnica de cada sistema.

O que é hash irreversível, sem jargão

A técnica funciona assim: você transforma a representação matemática de um rosto capturado num frame em uma sequência alfanumérica única, o hash, por meio de uma função de mão única. Não existe algoritmo que reconverta esse hash ao rosto original. É como transformar papel em cinza: você pode provar que queimou, mas não reconstrói o documento.

Sistemas que operam dessa forma processam presença e comportamento sem armazenar imagem, sem construir perfil biométrico persistente, sem vincular nenhum evento de audiência a uma identidade. O que sobra é: alguém olhou para esse display às 14h23, por 3,7 segundos, era aparentemente adulto jovem. Sem nome. Sem CPF. Sem foto.

Esse dado não é apenas permitido pela LGPD. Ele é incapaz de violar privacidade por construção, não porque alguém declarou que é seguro, mas porque a identidade nunca entrou na equação.

O EU AI Act e a distinção que importa

Quando o Regulamento Europeu de IA foi aprovado em 2024, a manchete que circulou foi: ‘Europa proíbe reconhecimento facial em espaços públicos’. A manchete estava errada, ou ao menos incompleta, e a imprecisão importa.

O AI Act classifica como alto risco os sistemas de identificação biométrica remota em tempo real usados em espaços de acesso público. A palavra central é identificação. Sistemas que detectam presença, estimam faixa etária de forma demográfica sem vincular a indivíduos, e medem padrões de atenção estão fora dessa categoria.

Distinção técnica — EU AI Act >>> Identificação biométrica (alto risco): reconhece QUEM é a pessoa. Classificação demográfica (permitida com salvaguardas): estima características gerais, faixa etária, gênero, sem identificar o indivíduo. Sistemas de análise de fluxo e atenção sem identificação individual operam na segunda categoria.

O Brasil ainda não tem regulação equivalente, mas a ANPD já sinalizou que adotará critérios similares de classificação de risco para sistemas de IA. Quem entende essa distinção hoje tem menos surpresa amanhã.

Não é toda câmera que viola privacidade. É toda câmera que armazena identidade sem consentimento.

Como a tecnologia resolveu o que o direito ainda debate?

O debate jurídico sobre IA em ambientes físicos costuma acontecer com anos de atraso em relação ao estado da tecnologia. Enquanto juristas discutem os limites do consentimento para uso de câmeras em lojas, existem arquiteturas que tornam boa parte do debate irrelevante, não por burlar a lei, mas por operar abaixo do threshold que ela regula.

Uma plataforma de analytics de audiência pode ser projetada desde a origem para não coletar dado pessoal nenhum. O processamento ocorre localmente no dispositivo, dentro da loja. Os frames de vídeo nunca saem do equipamento. O que vai para a nuvem são apenas metadados anonimizados: contagem de presença, estimativa de faixa etária, tempo de atenção, distribuição horária. Comportamento agregado, sem ancoragem de identidade.

No Brasil, algumas empresas de analytics físico já operam dessa forma, com certificação simultânea em LGPD, GDPR, EU AI Act e CCPA. A Global IA, por exemplo, aplica o hash irreversível na borda, no próprio dispositivo, antes de qualquer transmissão, e mantém ciclos regulares de auditoria técnica e pentest. Privacidade como propriedade de arquitetura, não como promessa contratual.

Isso tem uma implicação prática direta para varejistas: a responsabilidade jurídica sobre um dado depende de qual dado existe para ser responsabilizado. Se o sistema foi projetado para nunca criar dado pessoal identificável, não há titular, não há violação potencial. O DPO que precisa aprovar tem menos trabalho, e mais segurança, do que numa análise de câmeras de segurança convencionais, que gravam imagem identificável de todos os clientes o dia inteiro.

Para quem avalia fornecedores: a distinção entre processamento on-premise e cloud-first é central para o perfil de risco real. Sistemas que processam na borda e transmitem apenas metadados têm exposição radicalmente diferente dos sistemas que enviam vídeo bruto para processamento remoto.

As objeções que aparecem em toda reunião

“Vocês estão filmando meus clientes sem consentimento.”

O sistema não filma clientes. Processa presença de forma anonimizada, sem armazenar imagem, sem criar perfil biométrico. O Art. 12 da LGPD enquadra esse dado como não-pessoal, não há consentimento exigível porque não há titular identificável. Um contador de pessoas na entrada da loja funciona pelo mesmo princípio. Visão computacional com anonimização na borda faz o mesmo, com mais granularidade.

“E se o dado for hackeado?”

A resposta depende do que existe para ser hackeado. Num sistema com anonimização na borda, o banco de dados comprometido contém séries temporais de presença e atenção, sem imagem, sem identidade. Roubar esse banco é tão revelador quanto roubar o livro de registro de entrada de um hotel: você sabe que alguém esteve lá, mas não sabe quem. A superfície de ataque que realmente importa, identidade vinculada a comportamento, não existe na arquitetura.

“Nosso jurídico vai levar meses.”

Isso é um problema de documentação, não de tecnologia. O jurídico precisa de material para analisar e defender internamente. Um kit de conformidade bem estruturado, mapeamento do Art. 6º da LGPD, base legal documentada no legítimo interesse (Art. 7º, IX), Registro de Atividades de Tratamento, DPA customizável, laudos técnicos, transforma semanas em dias. O DPO não precisa descobrir nada: o trabalho está feito.

“Meus clientes vão reclamar quando souberem.”

O Edelman Trust Barometer de 2024 mostrou que transparência proativa sobre uso de tecnologia aumenta a percepção de confiança no varejista. Um aviso claro na loja, ‘Esta unidade usa análise de fluxo e audiência para melhorar sua experiência. Nenhum dado pessoal é coletado.’, funciona bem melhor do que silêncio. O problema nunca foi a tecnologia ser conhecida. Foi quando ela era descoberta.

“Isso não é mais invasivo do que câmeras de segurança?”

É o oposto. Câmeras de segurança convencionais gravam imagem identificável de todos os clientes, o dia inteiro, por semanas. Esse material pode ser requisitado por autoridades, ser vazado, ou ser usado para fins além da segurança. Um sistema de analytics com anonimização na borda coleta menos dado pessoal do que a câmera de segurança que já existe na entrada da loja. O argumento de privacidade, paradoxalmente, favorece a tecnologia nova.

O que fazer agora?

O varejo brasileiro está num ponto de inflexão. A tecnologia de analytics físico amadureceu. A legislação está estabelecida, e é mais permissiva do que o mercado imagina, para as arquiteturas corretas. O que falta é literacia de compliance no nível gerencial. As empresas que saírem na frente serão as que conseguirem explicar, com clareza, por que sua arquitetura não coleta dado pessoal, e por que isso importa para o negócio.

Na prática, isso significa quatro movimentos concretos:

  1. Entender a distinção entre dado anonimizado (fora do escopo da LGPD) e dado pseudonimizado (dentro do escopo) antes de contratar qualquer fornecedor de analytics.
  2. Exigir documentação de arquitetura técnica, não apenas declarações de conformidade. A pergunta certa é: o hash é aplicado antes ou depois da transmissão? O processamento é na borda ou na nuvem?
  3. Envolver o DPO desde o início da conversa, não depois que o projeto foi decidido. Compliance construído junto ao produto é mais barato do que compliance costurado depois.
  4. Comunicar proativamente ao consumidor. Transparência é a melhor defesa jurídica e a mais barata de todas.

Para fechar

A IA no ponto de venda não precisa escolher entre ser útil e ser ética. Essa é uma falsa dicotomia que o mercado mantém viva, em parte por desconhecimento. Sistemas projetados com privacidade como propriedade técnica resolvem o problema antes que ele exista.

A lei brasileira, lida com atenção, é aliada da inovação responsável. O Art. 12 da LGPD não é obstáculo, é um mapa. Ele diz exatamente onde a tecnologia opera sem restrição: no território do dado genuinamente anonimizado, onde não há titular, não há risco.

Quem entender isso vai parar de perder tempo em reuniões onde a palavra ‘LGPD’ mata projetos antes do orçamento. E vai começar a construir o que o varejo físico precisa: métricas de audiência comparáveis às do digital, com mais rigor de privacidade do que qualquer pixel de rede social.

O dado mais seguro não é aquele bem protegido. É aquele que nunca foi criado.

Sobre o autor

Bruno Lago é Head Comercial e de Produtos da Global IA, empresa de analytics de ambientes físicos por visão computacional. Atua no cruzamento entre tecnologia, compliance e estratégia comercial para varejo, mídia e indústria no Brasil.

Ricardo Vieira
Ricardo Vieirahttp://www.digitalstoremedia.com.br
Ricardo Vieira atua em diferentes canais e segmentos há 30 anos no varejo brasileiro, é fundador da ABRAMEDIA e da DIGITAL STORE MEDIA, criado para fomentar todo ecossistema de Retail Media no mercado brasileiro, também dirige o Clube do Varejo, criado em 2019 para desenvolver pequenos varejistas. Ele também fundou e preside o Instituto Nacional do Varejo (INV), promovendo a indústria varejista desde 2017 com soluções inovadoras. Desde 2006, é sócio-diretor da TRADIUM, focada em soluções tecnológicas! Criou o Retail Media Academy, Retail Media News e Retail Media Show para fomentar a excelência em mídia e varejo. Com expertise em inteligência de vendas, trade marketing, CRM e fidelidade, Ricardo lidera projetos de inteligência para indústria e varejo. Sua trajetória inclui papéis significativos como VP de Sustentabilidade na ABRALOG e Coordenador Regional de Projetos na Ambev.

DEIXE UM COMENTÁRIO

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Ler mais

— Publicidade —

Conteúdos relacionados

Ecommerce no varejo regional trava crescimento no Brasil e expõe um problema estrutural que vai além do canal digital

Baixa penetração no GMV, experiência fragmentada e ausência de inteligência sobre o shopper revelam por que muitas redes regionais do alimentar e farma ainda...

Agentes de IA inauguram uma nova era na compra de mídia e reposicionam o papel do Retail Media no centro da decisão

Com o avanço do agentic media buying, algoritmos deixam de apenas otimizar campanhas e passam a tomar decisões estratégicas de investimento, desafiando modelos operacionais,...

IA conversacional redefine a jornada de compra e inaugura uma nova disputa por visibilidade entre marcas e varejistas

Com um quarto dos consumidores dos EUA usando IA para compras até 2026, a batalha migra do clique para a recomendação e inaugura o...

IA pode destravar bilhões em marketing, mas a mensuração ainda é o gargalo estrutural

A inteligência artificial já deixou de ser uma promessa para se tornar um vetor real de eficiência em marketing. No entanto, existe um paradoxo...