O Alerta do Caso Folha x OpenAI
O recente embate judicial entre a Folha de S. Paulo. e a OpenAI é um divisor de águas. A Folha alega que a OpenAI utiliza seu conteúdo jornalístico para treinar modelos de IA e distribuí-lo, sem autorização ou remuneração, inclusive burlar paywalls. Isso aponta diretamente para violações de Direitos Autorais (pela Lei de Direitos Autorais LDA) e Concorrência Desleal (pela Lei da Propriedade Industrial LPI).
O processo mostra que o Poder Judiciário já está avaliando o uso de IA à luz das leis existentes, como evidenciam os pedidos de cessação do uso, indenização por perdas e danos, e até a destruição de modelos de IA treinados ilicitamente. Este caso é um marco: a propriedade intelectual e a concorrência desleal já têm instrumentos para lidar com a IA.
Os Múltiplos Riscos da IA no Cenário Jurídico Atual
Os desafios legais da IA vão muito além da propriedade intelectual, e nossa legislação já os aborda. Vejamos alguns dos pontos mais críticos:
- Privacidade de Dados e LGPD: O uso de vastos volumes de dados para treinar IAs levanta questões cruciais. Coleta e tratamento inadequados, vieses algorítmicos que podem gerar discriminação, vazamentos e a necessidade de explicar decisões automatizadas são riscos reais. A LGPD exige conformidade plena, e suas sanções já são uma realidade.
- Riscos Éticos e de Discriminação: Algoritmos de IA podem reproduzir e até amplificar preconceitos presentes nos dados. Isso esbarra em princípios constitucionais de não discriminação e no direito à informação do consumidor (CDC), que exige transparência e explicabilidade nas decisões da IA.
- A Questão da Responsabilidade Civil: Quando um sistema de IA causa um dano, a pergunta “quem paga a conta?” é respondida pelo Código Civil e pelo Código de Defesa do Consumidor. Seja por vício do produto/serviço ou por ato ilícito (negligência na programação, testes ou supervisão), a responsabilidade já é prevista, independentemente de uma lei específica para IA.
O Imperativo da Proatividade Jurídica
O caso Folha x OpenAI é um poderoso lembrete: a complacência com os riscos da IA não é uma opção. Empresas que desenvolvem ou utilizam inteligência artificial precisam entender que a ausência de uma “Lei da IA” não é um passe livre. Pelo contrário, as leis existentes já estão sendo ativamente aplicadas nos tribunais.
É crucial adotar uma postura proativa, incorporando conformidade legal e ética em todas as etapas do uso da IA. Isso inclui auditoria de dados rigorosa, avaliação contínua de riscos, governança robusta da IA e, fundamentalmente, consultoria jurídica especializada para antecipar problemas e mitigar riscos.
Os riscos jurídicos da IA não são um papo para o futuro; eles são desafios atuais que exigem ação imediata. A prevenção e a conformidade constante são os pilares para navegar com segurança neste novo cenário tecnológico e jurídico. Ignorar essa realidade pode, de fato, custar muito caro.

