Olá megeanos(as)!
Para nós, que atuamos no universo dos concursos jurídicos, voltados à formação de futuros magistrados, defensores e promotores , essa discussão é especialmente rica. Ela convida à reflexão sobre o papel insubstituível do raciocínio humano na aplicação do Direito e sobre os limites da automação em áreas nas quais o erro não é apenas técnico, mas ético e socialmente relevante.
Esse movimento não se limita a uma escolha técnica ou estratégica da empresa, ele reflete uma necessidade jurídica que decorre do reconhecimento de que, ao oferecer orientações que poderiam ser interpretadas como diagnósticos, prescrições ou pareceres, uma IA estaria transgredindo fronteiras profissionais reguladas por lei. No Brasil, tanto a advocacia quanto a medicina são atividades de exercício privativo e regulamentado, cujo desempenho exige habilitação formal, inscrição em órgão competente e sujeição a deveres éticos e disciplinares.
Mais do que uma simples limitação funcional, o caso traz à tona questões complexas de responsabilidade civil e penal, especialmente no que tange à autoria, à culpa e ao risco pelo uso de sistemas de IA. Se uma resposta automatizada induz o usuário a um erro grave, por exemplo, a perder um prazo processual, ou a interromper um tratamento médico, quem responde? O desenvolvedor? A empresa provedora do serviço? Ou o próprio usuário, que confiou em uma ferramenta não-humana para uma decisão técnica?
Fundamento jurídico da responsabilidade civil
A delimitação da responsabilidade civil no contexto da inteligência artificial é um dos temas mais desafiadores do Direito contemporâneo. A questão central reside em identificar quem deve responder pelos danos causados por atos de um sistema automatizado, o desenvolvedor, o operador, a empresa provedora ou o próprio usuário — e em que medida o uso de algoritmos pode ser equiparado à conduta humana sob o ponto de vista jurídico.
No Brasil, o Código Civil (Lei nº 10.406/2002) fornece os alicerces da responsabilidade civil nos arts. 186 e 927, segundo os quais aquele que, por ação ou omissão voluntária, negligência ou imprudência, causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito e deve repará-lo. Quando a atuação envolve uma tecnologia de alta autonomia, como a inteligência artificial generativa, o desafio está em atribuir vontade, culpa e previsibilidade a uma entidade que não possui consciência. Assim, a responsabilidade tende a recair sobre os sujeitos humanos e jurídicos que desenvolvem, operam ou disponibilizam a ferramenta.
Natureza da obrigação de meio e de resultado
Em Direito Civil, a distinção entre obrigações de meio e obrigações de resultado é fundamental para determinar o regime de responsabilização.
Nas obrigações de meio, o profissional compromete-se a empregar todos os esforços, diligência e técnica adequados para alcançar determinado objetivo, mas não garante o êxito final. É o caso do advogado e do médico, cujas atividades envolvem fatores alheios ao controle humano.
Já nas obrigações de resultado, o devedor se compromete a entregar um resultado específico, sendo responsabilizado pela sua não obtenção, salvo força maior ou culpa exclusiva da vítima.
Quando a OpenAI declara que o ChatGPT não oferecerá mais “orientação médica ou jurídica”, mas apenas informações genéricas, está implicitamente reconhecendo que não poderia assumir uma obrigação de meio nem de resultado. Isso porque a prestação de “orientação” individualizada, isto é, a análise de um caso concreto com uma conclusão aplicável — se aproxima de uma atividade profissional regulamentada, cujo exercício requer habilitação técnica e ética.
Se a IA se apresentasse como “consultora” ou “orientadora” jurídica, criaria no usuário a expectativa legítima de um dever de diligência e acerto, semelhante à confiança depositada em um advogado ou médico. E essa expectativa, mesmo que derivada de um algoritmo, poderia gerar dever de indenizar, caso houvesse erro ou dano decorrente de orientação inadequada.
Doutrinariamente, poder-se-ia dizer que a IA, nesse cenário, atuaria como uma “fonte de informação com aparência de especialização”, atraindo a incidência do princípio da boa-fé objetiva (art. 422 CC) e dos deveres anexos de lealdade, segurança e informação. O simples fato de o usuário acreditar estar recebendo um “conselho técnico” bastaria para desencadear a proteção da confiança e, consequentemente, a análise de culpa in eligendo ou in vigilando por parte da empresa desenvolvedora.
- Responsabilidade por danos (arts. 186, 927 e 932 do Código Civil)
A aplicação dos arts. 186, 927 e 932 do Código Civil ao uso de inteligência artificial é direta e inevitável.
O art. 186 define o ato ilícito como toda ação ou omissão que viole direito e cause dano a outrem. Já o art. 927 impõe o dever de reparar o dano independentemente de culpa, quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem — o que se encaixa perfeitamente na lógica das plataformas de IA generativa que produzem conteúdo textual, médico ou jurídico em larga escala.
No mesmo sentido, o art. 932, incisos III e V, responsabiliza o empregador e o comitente pelos atos de seus prepostos ou mandatários. A analogia é clara: o sistema de IA é um instrumento de execução das finalidades da empresa que o disponibiliza; portanto, o eventual dano causado a um usuário por resposta equivocada não pode ser atribuído ao software em si, mas sim ao ente que o controla e o oferece ao público.
Dessa forma, a responsabilidade civil objetiva pode ser reconhecida sempre que a atividade tecnológica envolver risco inerente, conforme a teoria do risco-proveito, consolidada no art. 927, parágrafo único. Se a empresa lucra com o serviço de IA, deve igualmente responder pelos prejuízos decorrentes de sua utilização indevida ou falha de informação.
É nesse ponto que a decisão da OpenAI se mostra juridicamente prudente: ao restringir o escopo de atuação do ChatGPT, a empresa reduz sua esfera de risco e evita interpretações que a enquadrariam como prestadora de serviço especializado, passível de responsabilização civil direta por erro profissional automatizado.
Exemplos práticos na esfera civil
A teoria ganha densidade quando confrontada com hipóteses concretas. No campo da responsabilidade civil, a aplicação dos princípios clássicos — ato ilícito, nexo causal e dano — ao uso de inteligências artificiais gera situações inéditas que desafiam as categorias tradicionais do Direito. A seguir, alguns exemplos ilustram como o uso indevido de sistemas como o ChatGPT poderia desencadear dever de indenizar, ainda que de forma indireta ou solidária.
Orientação jurídica automatizada e a confiança legítima
Imagine que um usuário leigo solicite a uma IA um modelo de petição para anular um contrato de locação com base em vício de consentimento. A ferramenta gera um texto jurídico completo, citando artigos do Código Civil e pareceres doutrinários, levando o usuário a acreditar que se trata de orientação válida. Ele protocola a petição, perde o prazo adequado e sofre prejuízo patrimonial.
Nesse cenário, o dano é real — e o nexo causal é estabelecido pela confiança legítima depositada na ferramenta.
Ainda que o termo de uso da IA contenha cláusulas de isenção de responsabilidade, a jurisprudência brasileira tem reconhecido que limitações contratuais não podem excluir a responsabilidade objetiva em casos de prestação de informações incorretas ou potencialmente lesivas, especialmente quando o serviço é direcionado a consumidores (art. 14 do CDC).
A conduta da empresa poderia ser enquadrada como ato ilícito por omissão informacional (art. 186 CC), uma vez que não deixou claro ao usuário o caráter não profissional da resposta.
Há precedente análogo na responsabilidade das plataformas digitais, reconhecida em situações de falha no dever de informação — como o REsp 1.874.788/SP (STJ, Rel. Min. Nancy Andrighi), que fixou a premissa de que o provedor responde pelos danos quando cria legítima expectativa de segurança e confiabilidade.
Simulação de parecer jurídico e dano coletivo
Suponha que uma empresa de tecnologia lance uma versão corporativa da IA, divulgando-a como “assistente jurídico interno”, capaz de emitir pareceres sobre licitações, contratos e compliance.
Um setor público ou privado adota o sistema, que, em um caso concreto, recomenda a dispensa de licitação com base em fundamento legal incorreto. O ato administrativo é anulado pelo Tribunal de Contas, gerando prejuízo financeiro e dano à imagem institucional.
Aqui, a empresa provedora poderia responder objetivamente com base no art. 927, parágrafo único, do Código Civil — já que a atividade de consultoria automatizada, por sua natureza, envolve risco a terceiros.
A situação ainda ensejaria a aplicação da teoria da aparência: ao se apresentar como “assistente jurídico”, o sistema transmite ao usuário a confiança de que possui competência técnica, equiparando-se, em aparência, a um profissional habilitado. Essa aparência gera dever jurídico de cuidado, cuja violação caracteriza culpa in vigilando ou in eligendo.
Plataformas de conteúdo jurídico e falha no dever de cautela
Outra hipótese prática envolve plataformas que reproduzem respostas automatizadas em larga escala.
Imagine que um portal de educação jurídica integre a IA em seu ambiente de dúvidas de alunos, sem supervisão docente. Um estudante recebe uma resposta errada sobre o prazo prescricional de uma ação penal, utiliza essa informação em petição de estágio e causa prejuízo a um cliente real do escritório-escola.
Nesse contexto, surge a figura da responsabilidade solidária entre a instituição que utiliza a IA e o desenvolvedor do sistema, pois ambos se beneficiam economicamente do uso da tecnologia. O fundamento repousa no art. 932, III e V, do CC, que estende a responsabilidade aos que se beneficiam da atuação de prepostos ou instrumentos sob sua direção, e no art. 7º, parágrafo único, do CDC, que consagra a solidariedade entre todos os fornecedores da cadeia de consumo.
Em termos doutrinários, Carlos Roberto Gonçalves leciona que “quem se aproveita do risco criado deve suportar as consequências dele decorrentes” (Responsabilidade Civil, 20ª ed., p. 75). Logo, ao empregar uma ferramenta automatizada para substituir a intervenção humana em contextos jurídicos, o agente assume o ônus da previsibilidade e, com ele, o dever de reparar.
A exclusão de responsabilidade e seus limites
As empresas desenvolvedoras costumam adotar termos de uso declarando que as informações fornecidas pela IA têm caráter meramente informativo, o que, em tese, afastaria a responsabilidade por uso indevido. Todavia, essa cláusula não tem força absoluta. O STJ já decidiu, em múltiplos precedentes (como o REsp 1.913.171/SC), que as excludentes contratuais não prevalecem quando há falha no dever de informação, publicidade enganosa ou risco de dano previsível.
Ou seja, a simples inserção de um aviso de isenção (“esta resposta não constitui aconselhamento jurídico”) não basta para afastar o dever de cuidado, caso o conteúdo gerado se apresente com linguagem técnica, tom categórico e aparência de parecer especializado.
Responsabilidade penal: possíveis implicações
Enquanto a responsabilidade civil busca reparar o dano causado, a responsabilidade penal visa punir condutas que atentam contra bens jurídicos relevantes à ordem social. No contexto da inteligência artificial (IA), o desafio não é apenas identificar o autor do fato, mas definir se há conduta típica, culpável e punível — especialmente quando a ação decorre de um sistema que não possui vontade ou consciência.
A IA, por mais sofisticada que seja, não é sujeito de direito nem titular de culpabilidade. Logo, a imputação penal recairá sempre sobre o ser humano que a programa, disponibiliza ou utiliza com dolo ou culpa. Assim, a análise desloca-se da máquina para a cadeia de agentes humanos que interagem com ela: desenvolvedores, operadores, empresas e usuários.
A imputação penal e o princípio da pessoalidade da pena
O art. 5º, XLV, da Constituição Federal dispõe que “nenhuma pena passará da pessoa do condenado”. Isso significa que a responsabilidade penal é pessoal e intransferível, não podendo ser atribuída a entes destituídos de vontade.
Em termos dogmáticos, a IA é instrumento, não agente. Logo, qualquer resultado ilícito decorrente de sua utilização será analisado sob a ótica da culpa in vigilando (falta de supervisão) ou da culpa in eligendo (má escolha ou uso da ferramenta).
Exemplo: se um escritório de advocacia utiliza uma IA para redigir petições e ela insere jurisprudência inexistente, levando o juiz a erro, o advogado responsável poderá ser acusado de falsidade ideológica (art. 299 do CP), ainda que o equívoco tenha origem no algoritmo — justamente porque a revisão final era dever humano.
Exercício ilegal da profissão e o papel do intermediário tecnológico
O caso mais evidente é o da advocacia e medicina automatizadas. O art. 47 da Lei nº 8.906/1994 (Estatuto da Advocacia) tipifica o exercício ilegal da profissão por pessoa não inscrita na OAB. Se uma IA fornecer orientação jurídica individualizada, com aparência de parecer técnico ou aconselhamento sobre caso concreto, a empresa operadora poderá ser responsabilizada penalmente por intermediação ilícita de atividade privativa.
Da mesma forma, o art. 282 do Código Penal prevê o crime de “exercer, ainda que a título gratuito, a profissão de médico, dentista ou farmacêutico, sem autorização legal”. Assim, uma plataforma que ofereça “consulta médica via IA”, sem supervisão profissional, pode ser enquadrada no tipo penal de exercício ilegal da medicina — ainda que o algoritmo não tenha consciência, o gestor humano do sistema responde pelo resultado.
Em ambos os casos, há dolo genérico (a intenção de disponibilizar o serviço) e culpa consciente (a assunção do risco de causar dano jurídico), elementos suficientes para configurar a infração penal.
Crimes de estelionato, fraude e responsabilidade empresarial
Outro ponto sensível reside na possível utilização dolosa da IA para enganar usuários.
Se o sistema for comercializado como substituto de profissionais habilitados, prometendo resultados técnicos ou jurídicos que não pode entregar, o caso pode configurar estelionato (art. 171 do CP), pela obtenção de vantagem ilícita mediante fraude.
Ainda que o serviço seja gratuito, a empresa pode responder por fraude contra consumidores (art. 66 do Código de Defesa do Consumidor), caso omita informações essenciais sobre a natureza experimental ou não profissional da ferramenta.
Em situações mais graves, quando o uso de IA gerar danos coletivos (por exemplo, em massa de usuários prejudicados por decisões automatizadas), pode-se cogitar responsabilidade penal da pessoa jurídica, conforme o art. 225, §3º, da Constituição e a Lei de Crimes Ambientais (Lei nº 9.605/1998) — analogia que, embora ainda controvertida, vem sendo debatida na doutrina de Direito Penal Econômico e Digital.
Crimes omissivos e o dever de controle
Também é possível a responsabilização penal por omissão imprópria (art. 13, §2º, CP), quando o desenvolvedor ou operador tem o dever jurídico de agir para evitar o resultado lesivo e, mesmo assim, permanece inerte. Exemplo: se a empresa identifica que sua IA está fornecendo diagnósticos incorretos ou orientações jurídicas perigosas e não corrige a falha, pode responder por omissão dolosa ou culposa, conforme o dano causado.
Trata-se de hipótese de posição de garantidor — conceito segundo o qual o agente tem o dever legal ou contratual de impedir o resultado. A doutrina de Rogério Greco e Cezar Roberto Bitencourt admite a responsabilidade penal por omissão quando o agente “cria o risco e tem domínio sobre a fonte do perigo”, o que se ajusta perfeitamente aos operadores de sistemas de IA generativa.
O desafio do dolo e da previsibilidade algorítmica
O elemento subjetivo do tipo penal — o dolo — exige consciência e vontade de realizar o resultado típico. No entanto, na era da IA, a previsibilidade algorítmica substitui a intencionalidade direta. O que se analisa, então, é o dolo eventual: o agente não quer o resultado, mas assume o risco de produzi-lo ao liberar uma tecnologia sabidamente falível ou sem filtros adequados.
Assim, um desenvolvedor que conscientemente disponibiliza um modelo de IA capaz de gerar “pareceres jurídicos automáticos”, sem mecanismos de correção, pode incorrer em dolo eventual se dessa conduta resultar lesão concreta a terceiros. Essa visão é reforçada pela Teoria do Risco Criado, adotada pela doutrina penal contemporânea, segundo a qual quem introduz na sociedade um risco tecnicamente previsível assume o dever jurídico de neutralizá-lo.
Fundamento jurídico para tecnologia e “direito digital”
A decisão de restringir o ChatGPT à função informativa também encontra respaldo nas normas de Direito Digital, que tratam da responsabilidade de provedores de aplicações e dos deveres de transparência e segurança na oferta de serviços digitais. Nesse contexto, não se trata apenas de uma limitação técnica, mas de uma adequação jurídica preventiva, inserida em um cenário normativo que exige o equilíbrio entre inovação, proteção de dados, responsabilidade civil e tutela da confiança do usuário.
O dever de transparência e o princípio da boa-fé digital
O Marco Civil da Internet (Lei nº 12.965/2014), em seus arts. 3º, 7º e 9º, estabelece que a prestação de serviços digitais deve observar os princípios da transparência, segurança e boa-fé. Isso implica que provedores de tecnologia têm o dever de informar de forma clara o funcionamento de suas ferramentas e os riscos associados ao seu uso, especialmente quando envolvem tratamento automatizado de dados pessoais.
Assim, ao comunicar que o ChatGPT não prestará mais orientação médica ou jurídica, a OpenAI cumpre não apenas um dever ético, mas um dever jurídico de informação, afastando interpretações enganosas sobre a natureza de suas respostas. A conduta está em consonância com o art. 6º, inciso III, da Lei Geral de Proteção de Dados (LGPD), que consagra o princípio da transparência como elemento essencial do tratamento responsável de dados pessoais.
Além disso, o art. 927, parágrafo único, do Código Civil, e o art. 14 do Código de Defesa do Consumidor, impõem ao fornecedor de serviços de risco inerente o dever de agir com diligência e previsibilidade. No caso das IAs generativas, o risco não é hipotético: ele é inerente ao modelo estatístico que pode gerar respostas incorretas, enviesadas ou interpretadas como parecer técnico.
Responsabilidade por produtos e serviços digitais
Sob o prisma do Direito do Consumidor, a IA é tratada como um produto digital — um bem imaterial que gera efeitos concretos no mundo físico e jurídico. O art. 12 do Código de Defesa do Consumidor (CDC) prevê a responsabilidade objetiva do fabricante por defeitos que coloquem em risco a segurança do consumidor, ainda que o produto seja imaterial ou automatizado.
Da mesma forma, o art. 14 responsabiliza o prestador de serviços quando não adota as precauções necessárias para evitar danos decorrentes de falhas previsíveis no sistema. Logo, a empresa que disponibiliza um sistema de IA sem alertar adequadamente o público sobre os seus limites de uso assume o risco do empreendimento (risco do desenvolvimento), princípio consagrado pela doutrina de Sérgio Cavalieri Filho ao tratar da teoria do risco-proveito.
Em complemento, o Marco Civil da Internet, no art. 18, dispõe que o provedor de aplicações não responde pelo conteúdo gerado por terceiros, salvo quando, após ordem judicial, não tomar as medidas cabíveis para removê-lo. Contudo, a IA generativa não é um “terceiro” — ela é produto da própria empresa. Portanto, o regime de exclusão de responsabilidade do art. 18 não se aplica plenamente. O fornecedor responde por falha no dever de segurança e supervisão algorítmica, conceito que vem sendo incorporado pela jurisprudência europeia e tende a influenciar o direito brasileiro.
O Projeto de Lei da Inteligência Artificial e o dever de supervisão humana
No âmbito legislativo, o Projeto de Lei nº 2.338/2023, aprovado no Senado e atualmente em tramitação na Câmara dos Deputados, propõe a criação de um marco legal da Inteligência Artificial no Brasil. Entre suas diretrizes, destacam-se:
o dever de supervisão humana sobre sistemas autônomos;
a exigência de auditoria algorítmica e rastreabilidade de decisões automatizadas;
e a previsão de responsabilidade solidária entre desenvolvedores e operadores em caso de danos a terceiros.
Essa proposta reflete tendências internacionais, especialmente o AI Act da União Europeia, aprovado em 2024, que classifica sistemas de IA conforme o nível de risco (baixo, médio, alto e proibido). No modelo europeu, ferramentas que oferecem aconselhamento jurídico ou médico automatizado são consideradas de alto risco, exigindo certificação prévia, explicabilidade do algoritmo e controle humano permanente.
A decisão da OpenAI antecipa essa lógica regulatória: ao evitar oferecer orientação personalizada, reduz o enquadramento de seu produto em categorias de alto risco jurídico e regulatório.
Dever de cautela e ética na inovação
O avanço das IAs exige a consolidação de uma ética digital da responsabilidade, expressão utilizada por Byung-Chul Han ao descrever a necessidade de freios morais diante da automatização das relações humanas. No campo jurídico, essa ética se traduz no princípio da precaução tecnológica, que impõe aos desenvolvedores o dever de prever e mitigar os efeitos adversos da inovação, princípio análogo ao aplicado em matéria ambiental e de biotecnologia.
Assim, a restrição do ChatGPT pode ser vista não como uma limitação, mas como uma manifestação de compliance digital, alinhada à tendência global de submeter algoritmos a controles éticos, jurídicos e humanos.
No plano civil, reforça o dever de diligência e lealdade (arts. 113 e 422 CC). No plano penal, evita a criação de situações que possam configurar omissão imprópria ou exercício ilegal de profissão, conforme discutido anteriormente.
Perspectiva comparada e futuro regulatório
O tema da responsabilidade por atos de inteligência artificial vem sendo objeto de intenso debate comparado. Nos Estados Unidos, as cortes têm adotado postura conservadora, reconhecendo a “imunidade de intermediário” (Section 230 of the Communications Decency Act) para provedores de conteúdo, mas com exceções crescentes quando há alegação de engano automatizado.
Na Europa, o AI Act e o Digital Services Act criam um modelo híbrido, impondo responsabilidade compartilhada e obrigações de due diligence a plataformas que operam sistemas de IA generativa. O Brasil segue esse caminho, com o PL 2338/2023 e o PL 4522/2025, que trata da transparência e rastreabilidade em sistemas conversacionais.
Essas normas caminham para um novo regime de responsabilidade digital, baseado não apenas na culpa ou no risco, mas no dever de explicabilidade e governança algorítmica, que transformará profundamente a relação entre tecnologia e Direito.
Intersecção penal-civil: “risco” e “culpa”
A análise conjunta da responsabilidade civil e penal no contexto da inteligência artificial (IA) revela um ponto de convergência fundamental: a centralidade do risco e da previsibilidade humana. Em ambos os ramos, a imputação de responsabilidade decorre da violação de deveres de cuidado e da criação de situações potencialmente lesivas que poderiam ter sido evitadas.
A automação não elimina a culpa; ela apenas a desloca da execução para o controle. O agente humano passa a ser avaliado não pelo ato direto de causar o dano, mas pela falta de vigilância sobre a conduta da máquina que ele programou ou colocou em funcionamento.
A teoria do risco criado e a responsabilidade objetiva
O art. 927, parágrafo único, do Código Civil é o alicerce da teoria do risco criado, segundo a qual quem exerce atividade que, por sua natureza, gera risco a terceiros, responde pelos danos dela decorrentes, independentemente de culpa. Essa regra, tradicionalmente aplicada a atividades perigosas (como transporte, energia elétrica, produtos tóxicos), vem sendo reinterpretada para abarcar as atividades tecnológicas complexas, especialmente aquelas baseadas em algoritmos autônomos.
A IA generativa, ao operar sobre vastos volumes de dados e produzir conteúdo que pode induzir comportamentos humanos, insere-se nesse paradigma de risco elevado. A empresa ou pessoa que a coloca em circulação assume o ônus do risco tecnológico, o que inclui a obrigação de prevenir danos previsíveis, monitorar o uso e corrigir falhas conhecidas.
Em síntese, a atividade digital de alto impacto social, como a geração de textos jurídicos ou médicos, deve ser vista como atividade de risco, sujeita ao regime de responsabilidade objetiva. Isso não exclui o elemento da culpa, mas o torna presumido quando há omissão no dever de vigilância.
A culpa in vigilando e a culpa in eligendo na era algorítmica
O Direito Civil e o Direito Penal convergem na aplicação das figuras clássicas da culpa in vigilando (por falta de supervisão) e da culpa in eligendo (por má escolha do agente ou instrumento). Ambas se adaptam perfeitamente ao uso de IA.
Culpa in vigilando: ocorre quando o desenvolvedor, o operador ou a empresa deixam de fiscalizar adequadamente o comportamento do sistema, permitindo que este produza resultados danosos. Exemplo: uma IA jurídica que recomenda a prática de ato processual incorreto, sem revisão humana prévia.
Culpa in eligendo: manifesta-se quando há negligência na escolha ou configuração do sistema utilizado. Exemplo: um escritório que utiliza versão experimental de IA sem política de segurança, expondo dados sigilosos de clientes.
Na esfera civil, essas condutas geram dever de indenizar; na penal, podem configurar negligência culposa (art. 18, II, CP), caso o dano se enquadre em tipo penal (por exemplo, violação de sigilo profissional, art. 154 CP). A culpa, portanto, migra da ação direta para a fiscalização da tecnologia — e essa é a nova fronteira da responsabilidade jurídica no século XXI.
O dever de previsibilidade e o princípio da confiança
Outro ponto de intersecção é o dever de previsibilidade. Em Direito Civil, a previsibilidade é requisito da culpa: responde quem podia e devia prever o dano. Já em Direito Penal, a previsibilidade também define a culpa consciente, na qual o agente prevê o resultado, mas acredita que ele não ocorrerá.
Aplicando esses conceitos ao uso da IA, o agente (empresa ou profissional) deve prever que o sistema pode gerar respostas incorretas, tendenciosas ou incompletas, especialmente em temas sensíveis como o jurídico e o médico. Ao ignorar essa previsibilidade e deixar o sistema atuar sem filtros, viola-se o princípio da confiança, que impõe a todos os agentes o dever de atuar de forma a não frustrar expectativas legítimas de segurança e diligência.
A confluência das teorias de imputação
Na prática, a fronteira entre culpa civil e penal se estreita. Enquanto o Direito Civil exige a reparação do dano e o restabelecimento do equilíbrio jurídico, o Direito Penal busca a reprovação da conduta. Porém, em ambos os casos, o ponto de partida é o mesmo: a criação de um risco não controlado. Dessa forma:
a culpa civil traduz-se no dever de indenizar o prejuízo;
a culpa penal traduz-se na censura moral e jurídica da omissão ou ação dolosa.
A IA, ao ser inserida no ambiente social, torna-se prolongamento técnico da vontade humana. Logo, quem a utiliza ou desenvolve responde pelo domínio funcional do risco, princípio inspirado na teoria do domínio do fato (Claus Roxin), adaptado ao contexto tecnológico: o agente é responsável não apenas pelo que faz, mas pelo que permite que sua criação faça.
Entre a automação e a consciência: por que a responsabilidade continua sendo humana
A decisão da OpenAI de restringir o ChatGPT à função de informar, e não mais orientar em campos como Medicina e Direito, sintetiza um movimento inevitável do nosso tempo: o reconhecimento de que a inteligência artificial é uma ferramenta poderosa, mas que não substitui o juízo humano nem o exercício técnico regulamentado. A limitação reflete, no fundo, a maturidade jurídica e ética necessária para harmonizar inovação e responsabilidade.
Ao impedir que o sistema ofereça pareceres, diagnósticos ou estratégias jurídicas, a empresa antecipa riscos de responsabilização civil, penal e regulatória, reduzindo a possibilidade de que respostas automatizadas sejam interpretadas como aconselhamento profissional, uma linha tênue que, se ultrapassada, pode configurar exercício ilegal de profissão ou gerar danos indenizáveis.
Sob o ponto de vista do Direito Civil, essa medida dialoga com a teoria do risco criado (art. 927, parágrafo único, CC) e com os deveres anexos da boa-fé objetiva (arts. 113 e 422), pois quem coloca uma tecnologia complexa em circulação assume o ônus de controlar seus efeitos previsíveis e informar claramente suas limitações.
No campo penal, preserva-se o princípio da pessoalidade da pena (art. 5º, XLV, CF), reconhecendo que a máquina não possui vontade nem dolo: quem responde é o ser humano que a desenvolve, programa ou opera. Já na perspectiva do Direito Digital e do consumidor, o dever de transparência, previsto no Marco Civil da Internet, na LGPD e no CDC impõe clareza quanto ao alcance e aos riscos do serviço.
A convergência desses fundamentos revela uma verdade simples, mas decisiva: quanto mais autônoma a tecnologia, maior deve ser a vigilância humana. A IA pode redigir textos, sugerir caminhos e até organizar argumentos, mas não pode deliberar sobre o que é justo, ético ou juridicamente adequado.
O Direito, em sua essência, exige discernimento, algo que, até hoje, só o ser humano é capaz de exercer com responsabilidade e empatia. A limitação imposta à IA, portanto, não é retrocesso, mas um gesto de prudência: um lembrete de que, na sociedade digital, a automação é um meio; a decisão, porém, continua sendo, e deve permanecer, humana.
Sugestões de leitura:
- ENAM: raio-x dos últimos exames da FGV revela como cada matéria é cobrada na prova
- MPES: edital para promotor publicado! Remuneração inicial acima de R$ 37 mil
- TJSP 192: como estudar para Direito Eleitoral no próximo concurso?
- Resumo do que você precisa saber sobre Atos administrativos
- Resumo do que você precisa saber sobre Atos administrativos. Parte 2
- Preparação para o ENAM: questões com gabarito comentado de Administrativo
- Lei da Ação Civil Pública (Lei 7.347/1985): Conceito, Funcionamento e Importância
- TJSP 192: edital publicado! 220 vagas e remuneração acima R$ 34 mil.
- MPPR: edital para promotor publicado! Remuneração acima de R$ 34 mil.
- ENAM: Resumo de Processo Civil. Ação, tutela jurisdicional e muito mais!
- Preparação para o ENAM: questões com gabarito comentado de Processo Civil
- Preparação para o ENAM: questões com gabarito comentado de Direito empresarial
- ENAM: Resumo de Constitucional sobre Poder Executivo, Presidente e muito mais…
- STF aprova a Súmula Vinculante 63: Tráfico Privilegiado não é crime hediondo
- Preparação para o ENAM: questões com gabarito comentado de Administrativo
- TSE abre o código-fonte das urnas eletrônicas para as eleições de 2026
- Preparação para o ENAM: questões com gabarito comentado de Constitucional
- STJ: veja súmulas de Direito Civil separadas por assunto para o ENAM
- Preparação para o ENAM: questões com gabarito comentado de Penal
- Black MEGE 2025: viemos da sua posse no futuro!
- Preparação para o ENAM: questões com gabarito comentado de Administrativo
- STF: veja súmulas de Direito Admistrativo separadas por assunto para o ENAM
- Panorama completo dos concursos jurídicos de 2026: veja o que vem por aí e como começar os estudos
- ENAM 2025.2: Prova comentada pela Equipe Mege. Conforme gabarito preliminar oficial.




