Aguarde, carregando...

23 de julho de 2025 | Morad

EU, ROBÔ E A RESPONSABILIDADE CIVIL: QUEM RESPONDE PELOS ERROS DA INTELIGÊNCIA ARTIFICIAL?

EU, ROBÔ E A RESPONSABILIDADE CIVIL: QUEM RESPONDE PELOS ERROS DA INTELIGÊNCIA ARTIFICIAL?

O filme Eu, Robô (2004), inspirado nas obras de Isaac Asimov, antecipa um dilema cada vez mais presente no Direito contemporâneo: quem deve responder quando uma inteligência artificial causa danos? A trama, ambientada em um futuro dominado por robôs autônomos, expõe uma tensão central do nosso tempo, se sistemas capazes de decidir e agir por conta própria provocam prejuízos, a quem incumbe a responsabilidade civil?

O debate é atual e necessário. A inteligência artificial (IA) já faz parte do cotidiano profissional, transformando a maneira como empresas tomam decisões, otimizam operações e interagem com clientes. Sistemas automatizados avaliam o risco de crédito, recomendam tratamentos médicos, realizam triagem de currículos, fazem reconhecimento facial e, mais recentemente, redigem petições jurídicas e até decisões judiciais. Contudo, essas ferramentas não são infalíveis e, quando falham, a pergunta inevitável emerge: quem responde civilmente pelo dano causado?

A Ascensão das Decisões Automatizadas

Do score de crédito ao diagnóstico médico, a IA impacta milhões de vidas diariamente. Porém, seu uso não está livre de falhas. Casos de exclusão indevida de contas bancárias, negativas injustificadas de crédito, discriminação algorítmica em seleções de emprego ou até diagnósticos incorretos, ilustram os potenciais prejuízos materiais e morais causados por decisões automatizadas.

O problema jurídico central é identificar quem deve responder nesses casos: o programador que criou o sistema? A empresa que o implementa? O fornecedor da tecnologia? A ausência de um sujeito claro e único torna a responsabilização um campo desafiador, especialmente quando os sistemas são capazes de “aprender” e tomar decisões não previstas originalmente.

Exemplos reais de falhas da IA

Um motorista foi excluído da plataforma por alegado descumprimento do código de conduta da empresa. O caso foi submetido à analise judicial através do REsp 2.135.783 em 2024. A ministra Nancy Andrighi ressaltou a possibilidade de o motorista solicitar a revisão de decisão automatizada que afetam diretamente seu perfil profissional.

Em outro caso, o Watson For Oncology, sistema da IBM, sugeriu tratamentos considerados inadequados por médicos em hospitais parceiros. Embora o caso não tenha gerado ações judiciais divulgadas, demonstra o risco da utilização de IAs em setores de alta sensibilidade, como a saúde.

Em ambos casos, é possível observar que decisões tomadas por inteligência artificial podem vir a causar sérios danos aos usuários. Estamos diante de uma ferramenta poderosa que não pode operar à margem da responsabilidade civil. Não há neutralidade nos algoritmos, há escolhas humanas, mesmo que ocultas por camadas de código.

 

 

Fundamentos da Responsabilidade Civil no Ordenamento Brasileiro

O Código Civil brasileiro prevê, nos artigos 186 e 927, que todo aquele que causar dano a outrem, por ação ou omissão voluntária, negligência ou imprudência, deve repará-lo. Isso estabelece as bases da responsabilidade subjetiva, que exige a comprovação de culpa.

Entretanto, em diversos contextos, especialmente nas relações de consumo, aplica-se a responsabilidade objetiva, bastando a demonstração do dano e do nexo causal. É o que prevê o Código de Defesa do Consumidor (CDC), que impõe a responsabilização de toda a cadeia de fornecedores quando há falha na prestação de serviço.

Assim, se um sistema de IA utilizado para análise de crédito gera prejuízo a um consumidor, a empresa poderá ser responsabilizada independentemente de culpa, sobretudo se a atividade representar risco inerente à sua operação?

O questionamento vem tomando conta da jurisprudência e buscando acompanhar os desafios o legislativo Brasileiro apresentou projeto de lei para regulamentar a responsabilidade da inteligência artificial.

Projeto de Lei nº 2.338/2023: Caminhos para Regulamentar a Responsabilidade da IA

Diante da crescente complexidade das tecnologias autônomas, o Brasil iniciou a construção de um marco legal para regular o uso da inteligência artificial. O Projeto de Lei nº 2.338/2023, em tramitação no Congresso Nacional, busca estabelecer princípios éticos e regras claras para o desenvolvimento e uso responsável da IA.

O projeto prevê em ser art. 13 a classificação dos sistemas de IA conforme o grau de risco, exigindo medidas proporcionais de supervisão, transparência e prestação de contas, especialmente nos chamados “sistemas de alto risco”. A proposta é inspirada na regulação europeia e visa mitigar danos antes que eles ocorram.

O destaque está no artigo 27, §1º, que admite a responsabilidade objetiva do fornecedor ou operador de sistema de inteligência artificial que causar dano patrimonial, moral, individual ou coletivo.

Possível notar que o projeto de lei apresenta uma clara tendencia pela responsabilização dos fornecedores.

Como as Empresas Devem se Prevenir

Em um cenário regulatório em evolução, é fundamental que empresas adotem medidas preventivas para reduzir o risco de responsabilização civil. Algumas boas práticas incluem:

  • Supervisão humana qualificada: decisões automatizadas devem ser acompanhadas de revisão por pessoas capazes de intervir e corrigir falhas;
  • Transparência com o consumidor: contratos e termos de uso devem informar que determinada análise ou decisão é feita com base em IA;
  • Auditoria e testes dos algoritmos: identificação de vieses e falhas deve ser contínua e documentada;
  • Capacitação das equipes jurídica e técnica: compreensão dos riscos legais associados aos sistemas adotados;
  • Políticas internas de governança algorítmica: estruturas de compliance voltadas à IA e à proteção de dados devem ser implementadas.

Essas medidas, além de reduzirem riscos legais, fortalecem a imagem institucional e demonstram respeito aos direitos dos usuários.

Conclusão: Inteligência Artificial, Responsabilidade Humana

A inteligência artificial não é, e não pode ser, um território sem responsabilidade. Por mais autônomo que seja um sistema, suas consequências são sentidas por pessoas e empresas reais e a responsabilidade, portanto, continua sendo humana e jurídica.

Negligenciar esse fato pode levar empresas e desenvolvedores a litígios custosos, danos reputacionais e, pior, à violação de direitos fundamentais. O Marco Legal da Inteligência Artificial, se aprovado, será um passo importante para equilibrar inovação e proteção, oferecendo ao Brasil uma base sólida para enfrentar os desafios da era algorítmica.

Visão Geral da Privacidade

Este site usa cookies para que possamos oferecer a melhor experiência de usuário possível.
As informações de cookies são armazenadas em seu navegador e executam funções como reconhecê-lo quando você retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.

https://morad.com.br/politica-de-privacidade/