Setor essencial, riscos exponenciais
O setor de utilities, composto por empresas que operam serviços de interesse coletivo como energia elétrica, saneamento básico, abastecimento de água, gás e telecomunicações, representa uma infraestrutura vital para o funcionamento da sociedade e da economia. Em razão de sua natureza essencial, esse setor é fortemente regulado, fiscalizado por agências especializadas e submetido a obrigações contratuais e normativas rigorosas.
Nesse contexto, a adoção de tecnologias baseadas em inteligência artificial tem avançado rapidamente. A busca por eficiência operacional, automação de processos e melhoria na experiência do consumidor impulsiona o uso de IA. Ferramentas inteligentes já são utilizadas para prever picos de consumo, realizar manutenção preditiva, automatizar atendimentos, detectar fraudes e até mesmo tomar decisões sobre interrupções e tarifações.
Embora a inovação seja necessária, ela não elimina os deveres legais dessas empresas. Ao contrário, a sofisticação tecnológica amplia o dever de diligência, a responsabilidade por falhas e o potencial de responsabilização civil, administrativa e até criminal diante de efeitos adversos à população ou ao meio ambiente.
Ausência de lei específica não significa ausência de risco
Apesar de o Brasil ainda não contar com uma lei geral de inteligência artificial, como já ocorre na União Europeia com o AI Act, a realidade jurídica nacional impõe diversas obrigações aplicáveis ao uso dessas tecnologias. O ordenamento brasileiro, por meio da Lei Geral de Proteção de Dados (LGPD), do Código de Defesa do Consumidor (CDC), do Marco Civil da Internet, do Código Civil e de regulações setoriais específicas, já é capaz de enquadrar condutas automatizadas e exigir accountability.
A ausência de uma norma setorial específica para IA não configura uma zona cinzenta permissiva. Qualquer uso de tecnologia que envolva o tratamento de dados pessoais, decisões automatizadas ou impacto em direitos fundamentais está sujeito a obrigações legais claras. O uso de IA no setor de utilities é um caso emblemático da necessidade de governança antecipada.
Decisões automatizadas e impacto sobre direitos fundamentais
As decisões automatizadas representam um dos pontos mais críticos no uso de IA por empresas de serviços essenciais. O desligamento automático do fornecimento de energia por inadimplência, a priorização de ordens de serviço baseada em critérios algorítmicos ou o bloqueio de linhas de telecomunicação por IA antifraude são exemplos de ações que, embora eficientes, podem impactar diretamente a dignidade da pessoa humana.
O artigo 20 da LGPD garante ao titular de dados o direito de revisão de decisões automatizadas que afetem seus interesses. No caso das utilities, a materialidade do impacto é imediata, pois trata-se do acesso a água, energia ou comunicação, elementos indispensáveis à vida em sociedade. A opacidade do algoritmo ou a terceirização da tecnologia não afastam a responsabilidade da concessionária ou prestadora.
Além disso, o Código de Defesa do Consumidor, ao prever a responsabilidade objetiva do fornecedor de serviços, torna irrelevante a discussão sobre dolo ou culpa técnica em muitos casos. A falha na prestação do serviço, ainda que causada por um sistema de IA, pode gerar indenizações por danos materiais e morais.
Dados pessoais: insumo estratégico que exige governança ativa no setor de utilities
No setor de utilities, o uso de inteligência artificial tem avançado sobre bases de dados altamente sensíveis, como perfis de consumo energético, históricos de inadimplência, hábitos de utilização de água e energia, geolocalização de unidades consumidoras e registros de interações em canais de atendimento automatizados. Tais informações, muitas vezes tratadas de forma automatizada por sistemas preditivos e classificadores de risco, configuram dados pessoais nos termos da Lei Geral de Proteção de Dados (LGPD), exigindo cuidados redobrados.
A LGPD impõe que operadores e controladores observem princípios como finalidade, necessidade, transparência e responsabilização, o que implica não apenas um tratamento adequado e proporcional, mas também a adoção de medidas técnicas e organizacionais de governança de dados. No caso das utilities, essa responsabilidade é ainda mais crítica diante da dependência crescente de fornecedores terceirizados para soluções de IA embarcadas em serviços como corte remoto automatizado, resposta à demanda, tarifação dinâmica e atendimento virtual.
Em maio de 2025, a Autoridade Nacional de Proteção de Dados (ANPD) publicou a Norma Técnica nº 1/2025, que esclarece a aplicação da LGPD em cenários de tratamento de dados pessoais com decisões automatizadas por meio de IA. A norma reforça obrigações já previstas na legislação, mas com especial ênfase na explicabilidade dos algoritmos, na possibilidade de revisão humana significativa e na adoção de medidas para mitigação de vieses e impactos discriminatórios, pontos diretamente aplicáveis a práticas comuns no setor.
A norma orienta que empresas implementem mecanismos de auditoria algorítmica contínua, elaborem relatórios de impacto à proteção de dados pessoais (DPIAs) sempre que houver alto risco, e mantenham documentação clara dos critérios utilizados nas decisões automatizadas, especialmente naquelas com efeitos significativos sobre os titulares, como corte ou reclassificação tarifária.
Em um setor onde a confiança pública e a prestação de serviços essenciais estão em jogo, a adoção de IA precisa estar acompanhada de robusta governança de dados, com participação ativa das áreas jurídica, de compliance e tecnologia. O descumprimento dessas diretrizes pode resultar não apenas em sanções administrativas, mas em severos danos reputacionais e questionamentos judiciais por práticas discriminatórias ou abusivas.
A responsabilidade solidária na cadeia de fornecimento
A contratação de soluções de IA desenvolvidas por terceiros não exonera a empresa contratante de suas obrigações legais. A jurisprudência e a própria LGPD reforçam a lógica da responsabilidade solidária entre os agentes de tratamento, especialmente quando o risco afeta consumidores finais.
Por isso, a due diligence pré-contratual deve avaliar não apenas a qualidade técnica do sistema, mas também sua governança algorítmica, capacidade de explicabilidade, protocolos de segurança da informação e conformidade com a legislação vigente. Cláusulas contratuais bem redigidas e a exigência de relatórios de impacto à proteção de dados (RIPDs) tornam-se práticas indispensáveis.
Regulação setorial e fiscalização algorítmica
As agências reguladoras, como a ANEEL (energia elétrica), ANA (água), ANATEL (telecomunicações) e ANP (gás), já exigem padrões mínimos de qualidade, continuidade e transparência dos serviços prestados. O uso de inteligência artificial que comprometa a rastreabilidade, a auditabilidade ou a previsibilidade dos processos pode ser questionado pelas autoridades.
A ausência de um modelo de governança da IA pode comprometer a manutenção de concessões públicas ou gerar multas regulatórias significativas. A expectativa é que essas agências avancem para exigir auditorias algorítmicas, avaliações de impacto regulatório e protocolos de supervisão humana de decisões automatizadas.
Governança de IA como estratégia jurídica e reputacional
O cenário atual exige que as empresas do setor de utilities integrem a governança de IA à sua estratégia de compliance e responsabilidade corporativa. Isso inclui:
- Mapear o uso atual e futuro de IA nas operações
- Classificar os riscos associados a cada sistema
- Estabelecer políticas internas de governança algorítmica
- Assegurar a revisão humana em decisões sensíveis
- Promover treinamento contínuo das equipes técnicas e jurídicas
- Documentar avaliações de impacto regulatório e de privacidade
A negligência nesse processo pode expor a organização a litígios, sanções administrativas, perda de contratos e danos irreparáveis à reputação. Em um setor cuja função social é indiscutível, esse risco é particularmente sensível.
Considerações finais
A inteligência artificial aplicada ao setor de utilities representa uma oportunidade de modernização relevante, mas traz consigo responsabilidades proporcionais ao seu impacto. A inovação não pode ser tratada como um escudo para o descumprimento de normas já vigentes, nem como argumento para justificar práticas opacas e tecnicamente irresponsáveis.
Cabe às empresas anteciparem-se ao avanço regulatório e agirem com diligência jurídica desde já, implementando políticas de governança algorítmica robustas e orientadas à proteção dos direitos fundamentais. O futuro do setor não será apenas digital. Será também, e sobretudo, regulado.

