Mitos e verdades sobre Inteligência Artificial na legislação brasileira


Especialista em Direito Digital explica o que desmistifica a regulação do uso do ChatGPT no Brasil

O Brasil tem leis sobre o uso de IA? Quem é punido se o ChatGPT contribui para a divulgação de uma informação falsa? Como evitar violações à propriedade intelectual? O advogado Rodrigo Azevedo, sócio coordenador da Área de Propriedade Intelectual e Direito Digital do escritório Silveiro Advogados, tira dúvidas a respeito de questões polêmicas sobre o uso de ferramentas de IA no país.

1. Não existe uma legislação específica sobre Inteligência Artificial no Brasil.

VERDADE – Está em trâmite no Senado o Projeto de Lei 2338/2023 (Marco Legal para Inteligência Artificial), que busca regular a matéria ao proteger direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis. “Trata-se de um passo importante e necessário para endereçar os riscos do uso dos sistemas de Inteligência Artificial, sem frear o desenvolvimento tecnológico no Brasil”, afirma Azevedo.

2. Enquanto não houver lei específica, o uso de IA não está sujeito a qualquer norma legal no Brasil

MITO – “Embora não exista uma normativa específica que regule o uso dos sistemas de IA no Brasil, o ordenamento jurídico brasileiro possui diversas leis que se aplicam à contratação e utilização de ferramentas dessa natureza”, explica o especialista. Como exemplos, cita o Código de Defesa do Consumidor (para situações envolvendo defeitos em produtos como dispositivos de voz com IA), o Marco Civil da Internet (para casos envolvendo deep fakes na internet), a Lei da Propriedade Industrial ou a Lei dos Direitos Autorais (para violações à propriedade intelectual) e a LGDP (a Lei Geral de Proteção de Dados, para questões envolvendo dados pessoais).

3. Ferramentas de Inteligência Artificial podem discriminar pessoas

VERDADE – “A discriminação algorítmica é um dos riscos presentes no uso de sistemas de IA que exigirão controles e explicações dos desenvolvedores de IA”, explica o advogado. Segundo ele, tratamentos de dados que gerem resultados discriminatórios podem suscitar a aplicação da LGPD (Lei Geral de Proteção de Dados), fazendo com que os provedores dessas aplicações sejam responsabilizados perante os cidadãos prejudicados. Já há precedentes nesse sentido na União Europeia.

4. Profissionais liberais não estão autorizados a usar o ChatGPT nas suas atividades profissionais

MITO – “Efetivamente, têm sido divulgados alguns casos pontuais de responsabilização de profissionais por informações equivocadas trazidas por ferramentas de Inteligência Artificial, por violação à privacidade ou à propriedade intelectual. Contudo, a legislação brasileira não proíbe o uso desses recursos por profissionais liberais”, explica Azevedo. Basta que se adotem as cautelas apropriadas, como checar os resultados propostos pela ferramenta, evitar reproduzi-los diretamente e não incluir dados pessoais ou informações confidenciais de clientes.

5. Ferramentas de Inteligência Artificial podem violar direitos de propriedade intelectual

VERDADE – O especialista explica que atualmente há um debate global sobre eventuais violações de direitos autorais dos criadores de conteúdos que são utilizados como base de aplicações de IA. “A resposta para essa questão dependerá principalmente do quanto os materiais de base são reproduzidos – mesmo que parcialmente – pela ferramenta, ou, de outro lado, se são apenas utilizados para aprendizagem da máquina. Isso porque o direito autoral protege a expressão, e não as ideias subjacentes às obras.” A recomendação é não reproduzir os conteúdos gerados por ferramentas de IA, mas que estes sirvam de inspiração para criações independentes, realizadas pelo usuário. “Outra alternativa é contratar versão paga das ferramentas, a qual normalmente possui mais salvaguardas contra a violação de direitos de terceiros e, inclusive, permite a inserção de modelos de documentos do próprio usuário”, diz Azevedo.

6. Ferramentas de Inteligência Artificial podem contribuir para disseminar notícias falsas e desinformação

VERDADE – “A própria OpenAI adverte em seu website que, às vezes, o ChatGPT escreve respostas que soam muito plausíveis, mas que são incorretas ou não fazem sentido. Isso acontece porque esses modelos de linguagem aprendem a imitar padrões de textos que foram alimentados durante o treinamento, e não porque ele de fato compreende o que está escrevendo”, diz o advogado. “É importante sempre checar a informação trazida pelo ChatGPT, a fim de se evitar a reprodução de notícias falsas.” O PL das Fake News, atualmente em tramitação, tenta endereçar o tema. “A matéria é extremamente controvertida pois envolve dois valores igualmente importantes para a sociedade: a liberdade de expressão, de um lado, e o combate à desinformação e às fraudes em geral, de outro.”

Assessoria Silveiro Advogados