A delimitação da responsabilidade civil no contexto da inteligência artificial é um dos temas mais desafiadores do Direito contemporâneo. A questão central reside em identificar quem deve responder pelos danos causados por atos de um sistema automatizado, o desenvolvedor, o operador, a empresa provedora ou o próprio usuário — e em que medida o uso de algoritmos pode ser equiparado à conduta humana sob o ponto de vista jurídico.
No Brasil, o Código Civil (Lei nº 10.406/2002) fornece os alicerces da responsabilidade civil nos arts. 186 e 927, segundo os quais aquele que, por ação ou omissão voluntária, negligência ou imprudência, causar dano a outrem, ainda que exclusivamente moral, comete ato ilícito e deve repará-lo. Quando a atuação envolve uma tecnologia de alta autonomia, como a inteligência artificial generativa, o desafio está em atribuir vontade, culpa e previsibilidade a uma entidade que não possui consciência. Assim, a responsabilidade tende a recair sobre os sujeitos humanos e jurídicos que desenvolvem, operam ou disponibilizam a ferramenta.
Em Direito Civil, a distinção entre obrigações de meio e obrigações de resultado é fundamental para determinar o regime de responsabilização.
Nas obrigações de meio, o profissional compromete-se a empregar todos os esforços, diligência e técnica adequados para alcançar determinado objetivo, mas não garante o êxito final. É o caso do advogado e do médico, cujas atividades envolvem fatores alheios ao controle humano.
Já nas obrigações de resultado, o devedor se compromete a entregar um resultado específico, sendo responsabilizado pela sua não obtenção, salvo força maior ou culpa exclusiva da vítima.
Quando a OpenAI declara que o ChatGPT não oferecerá mais “orientação médica ou jurídica”, mas apenas informações genéricas, está implicitamente reconhecendo que não poderia assumir uma obrigação de meio nem de resultado. Isso porque a prestação de “orientação” individualizada, isto é, a análise de um caso concreto com uma conclusão aplicável — se aproxima de uma atividade profissional regulamentada, cujo exercício requer habilitação técnica e ética.
Se a IA se apresentasse como “consultora” ou “orientadora” jurídica, criaria no usuário a expectativa legítima de um dever de diligência e acerto, semelhante à confiança depositada em um advogado ou médico. E essa expectativa, mesmo que derivada de um algoritmo, poderia gerar dever de indenizar, caso houvesse erro ou dano decorrente de orientação inadequada.
Doutrinariamente, poder-se-ia dizer que a IA, nesse cenário, atuaria como uma “fonte de informação com aparência de especialização”, atraindo a incidência do princípio da boa-fé objetiva (art. 422 CC) e dos deveres anexos de lealdade, segurança e informação. O simples fato de o usuário acreditar estar recebendo um “conselho técnico” bastaria para desencadear a proteção da confiança e, consequentemente, a análise de culpa in eligendo ou in vigilando por parte da empresa desenvolvedora.
A aplicação dos arts. 186, 927 e 932 do Código Civil ao uso de inteligência artificial é direta e inevitável.
O art. 186 define o ato ilícito como toda ação ou omissão que viole direito e cause dano a outrem. Já o art. 927 impõe o dever de reparar o dano independentemente de culpa, quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem — o que se encaixa perfeitamente na lógica das plataformas de IA generativa que produzem conteúdo textual, médico ou jurídico em larga escala.
No mesmo sentido, o art. 932, incisos III e V, responsabiliza o empregador e o comitente pelos atos de seus prepostos ou mandatários. A analogia é clara: o sistema de IA é um instrumento de execução das finalidades da empresa que o disponibiliza; portanto, o eventual dano causado a um usuário por resposta equivocada não pode ser atribuído ao software em si, mas sim ao ente que o controla e o oferece ao público.
Dessa forma, a responsabilidade civil objetiva pode ser reconhecida sempre que a atividade tecnológica envolver risco inerente, conforme a teoria do risco-proveito, consolidada no art. 927, parágrafo único. Se a empresa lucra com o serviço de IA, deve igualmente responder pelos prejuízos decorrentes de sua utilização indevida ou falha de informação.
É nesse ponto que a decisão da OpenAI se mostra juridicamente prudente: ao restringir o escopo de atuação do ChatGPT, a empresa reduz sua esfera de risco e evita interpretações que a enquadrariam como prestadora de serviço especializado, passível de responsabilização civil direta por erro profissional automatizado.
A teoria ganha densidade quando confrontada com hipóteses concretas. No campo da responsabilidade civil, a aplicação dos princípios clássicos — ato ilícito, nexo causal e dano — ao uso de inteligências artificiais gera situações inéditas que desafiam as categorias tradicionais do Direito. A seguir, alguns exemplos ilustram como o uso indevido de sistemas como o ChatGPT poderia desencadear dever de indenizar, ainda que de forma indireta ou solidária.
Imagine que um usuário leigo solicite a uma IA um modelo de petição para anular um contrato de locação com base em vício de consentimento. A ferramenta gera um texto jurídico completo, citando artigos do Código Civil e pareceres doutrinários, levando o usuário a acreditar que se trata de orientação válida. Ele protocola a petição, perde o prazo adequado e sofre prejuízo patrimonial.
Nesse cenário, o dano é real — e o nexo causal é estabelecido pela confiança legítima depositada na ferramenta.
Ainda que o termo de uso da IA contenha cláusulas de isenção de responsabilidade, a jurisprudência brasileira tem reconhecido que limitações contratuais não podem excluir a responsabilidade objetiva em casos de prestação de informações incorretas ou potencialmente lesivas, especialmente quando o serviço é direcionado a consumidores (art. 14 do CDC).
A conduta da empresa poderia ser enquadrada como ato ilícito por omissão informacional (art. 186 CC), uma vez que não deixou claro ao usuário o caráter não profissional da resposta.
Há precedente análogo na responsabilidade das plataformas digitais, reconhecida em situações de falha no dever de informação — como o REsp 1.874.788/SP (STJ, Rel. Min. Nancy Andrighi), que fixou a premissa de que o provedor responde pelos danos quando cria legítima expectativa de segurança e confiabilidade.
Suponha que uma empresa de tecnologia lance uma versão corporativa da IA, divulgando-a como “assistente jurídico interno”, capaz de emitir pareceres sobre licitações, contratos e compliance.
Um setor público ou privado adota o sistema, que, em um caso concreto, recomenda a dispensa de licitação com base em fundamento legal incorreto. O ato administrativo é anulado pelo Tribunal de Contas, gerando prejuízo financeiro e dano à imagem institucional.
Aqui, a empresa provedora poderia responder objetivamente com base no art. 927, parágrafo único, do Código Civil — já que a atividade de consultoria automatizada, por sua natureza, envolve risco a terceiros.
A situação ainda ensejaria a aplicação da teoria da aparência: ao se apresentar como “assistente jurídico”, o sistema transmite ao usuário a confiança de que possui competência técnica, equiparando-se, em aparência, a um profissional habilitado. Essa aparência gera dever jurídico de cuidado, cuja violação caracteriza culpa in vigilando ou in eligendo.
Outra hipótese prática envolve plataformas que reproduzem respostas automatizadas em larga escala.
Imagine que um portal de educação jurídica integre a IA em seu ambiente de dúvidas de alunos, sem supervisão docente. Um estudante recebe uma resposta errada sobre o prazo prescricional de uma ação penal, utiliza essa informação em petição de estágio e causa prejuízo a um cliente real do escritório-escola.
Nesse contexto, surge a figura da responsabilidade solidária entre a instituição que utiliza a IA e o desenvolvedor do sistema, pois ambos se beneficiam economicamente do uso da tecnologia. O fundamento repousa no art. 932, III e V, do CC, que estende a responsabilidade aos que se beneficiam da atuação de prepostos ou instrumentos sob sua direção, e no art. 7º, parágrafo único, do CDC, que consagra a solidariedade entre todos os fornecedores da cadeia de consumo.
Em termos doutrinários, Carlos Roberto Gonçalves leciona que “quem se aproveita do risco criado deve suportar as consequências dele decorrentes” (Responsabilidade Civil, 20ª ed., p. 75). Logo, ao empregar uma ferramenta automatizada para substituir a intervenção humana em contextos jurídicos, o agente assume o ônus da previsibilidade e, com ele, o dever de reparar.
As empresas desenvolvedoras costumam adotar termos de uso declarando que as informações fornecidas pela IA têm caráter meramente informativo, o que, em tese, afastaria a responsabilidade por uso indevido. Todavia, essa cláusula não tem força absoluta. O STJ já decidiu, em múltiplos precedentes (como o REsp 1.913.171/SC), que as excludentes contratuais não prevalecem quando há falha no dever de informação, publicidade enganosa ou risco de dano previsível.
Ou seja, a simples inserção de um aviso de isenção (“esta resposta não constitui aconselhamento jurídico”) não basta para afastar o dever de cuidado, caso o conteúdo gerado se apresente com linguagem técnica, tom categórico e aparência de parecer especializado.
Enquanto a responsabilidade civil busca reparar o dano causado, a responsabilidade penal visa punir condutas que atentam contra bens jurídicos relevantes à ordem social. No contexto da inteligência artificial (IA), o desafio não é apenas identificar o autor do fato, mas definir se há conduta típica, culpável e punível — especialmente quando a ação decorre de um sistema que não possui vontade ou consciência.
A IA, por mais sofisticada que seja, não é sujeito de direito nem titular de culpabilidade. Logo, a imputação penal recairá sempre sobre o ser humano que a programa, disponibiliza ou utiliza com dolo ou culpa. Assim, a análise desloca-se da máquina para a cadeia de agentes humanos que interagem com ela: desenvolvedores, operadores, empresas e usuários.
O art. 5º, XLV, da Constituição Federal dispõe que “nenhuma pena passará da pessoa do condenado”. Isso significa que a responsabilidade penal é pessoal e intransferível, não podendo ser atribuída a entes destituídos de vontade.
Em termos dogmáticos, a IA é instrumento, não agente. Logo, qualquer resultado ilícito decorrente de sua utilização será analisado sob a ótica da culpa in vigilando (falta de supervisão) ou da culpa in eligendo (má escolha ou uso da ferramenta).
Exemplo: se um escritório de advocacia utiliza uma IA para redigir petições e ela insere jurisprudência inexistente, levando o juiz a erro, o advogado responsável poderá ser acusado de falsidade ideológica (art. 299 do CP), ainda que o equívoco tenha origem no algoritmo — justamente porque a revisão final era dever humano.
O caso mais evidente é o da advocacia e medicina automatizadas. O art. 47 da Lei nº 8.906/1994 (Estatuto da Advocacia) tipifica o exercício ilegal da profissão por pessoa não inscrita na OAB. Se uma IA fornecer orientação jurídica individualizada, com aparência de parecer técnico ou aconselhamento sobre caso concreto, a empresa operadora poderá ser responsabilizada penalmente por intermediação ilícita de atividade privativa.
Da mesma forma, o art. 282 do Código Penal prevê o crime de “exercer, ainda que a título gratuito, a profissão de médico, dentista ou farmacêutico, sem autorização legal”. Assim, uma plataforma que ofereça “consulta médica via IA”, sem supervisão profissional, pode ser enquadrada no tipo penal de exercício ilegal da medicina — ainda que o algoritmo não tenha consciência, o gestor humano do sistema responde pelo resultado.
Em ambos os casos, há dolo genérico (a intenção de disponibilizar o serviço) e culpa consciente (a assunção do risco de causar dano jurídico), elementos suficientes para configurar a infração penal.
Outro ponto sensível reside na possível utilização dolosa da IA para enganar usuários.
Se o sistema for comercializado como substituto de profissionais habilitados, prometendo resultados técnicos ou jurídicos que não pode entregar, o caso pode configurar estelionato (art. 171 do CP), pela obtenção de vantagem ilícita mediante fraude.
Ainda que o serviço seja gratuito, a empresa pode responder por fraude contra consumidores (art. 66 do Código de Defesa do Consumidor), caso omita informações essenciais sobre a natureza experimental ou não profissional da ferramenta.
Em situações mais graves, quando o uso de IA gerar danos coletivos (por exemplo, em massa de usuários prejudicados por decisões automatizadas), pode-se cogitar responsabilidade penal da pessoa jurídica, conforme o art. 225, §3º, da Constituição e a Lei de Crimes Ambientais (Lei nº 9.605/1998) — analogia que, embora ainda controvertida, vem sendo debatida na doutrina de Direito Penal Econômico e Digital.
Também é possível a responsabilização penal por omissão imprópria (art. 13, §2º, CP), quando o desenvolvedor ou operador tem o dever jurídico de agir para evitar o resultado lesivo e, mesmo assim, permanece inerte. Exemplo: se a empresa identifica que sua IA está fornecendo diagnósticos incorretos ou orientações jurídicas perigosas e não corrige a falha, pode responder por omissão dolosa ou culposa, conforme o dano causado.
Trata-se de hipótese de posição de garantidor — conceito segundo o qual o agente tem o dever legal ou contratual de impedir o resultado. A doutrina de Rogério Greco e Cezar Roberto Bitencourt admite a responsabilidade penal por omissão quando o agente “cria o risco e tem domínio sobre a fonte do perigo”, o que se ajusta perfeitamente aos operadores de sistemas de IA generativa.
O elemento subjetivo do tipo penal — o dolo — exige consciência e vontade de realizar o resultado típico. No entanto, na era da IA, a previsibilidade algorítmica substitui a intencionalidade direta. O que se analisa, então, é o dolo eventual: o agente não quer o resultado, mas assume o risco de produzi-lo ao liberar uma tecnologia sabidamente falível ou sem filtros adequados.
Assim, um desenvolvedor que conscientemente disponibiliza um modelo de IA capaz de gerar “pareceres jurídicos automáticos”, sem mecanismos de correção, pode incorrer em dolo eventual se dessa conduta resultar lesão concreta a terceiros. Essa visão é reforçada pela Teoria do Risco Criado, adotada pela doutrina penal contemporânea, segundo a qual quem introduz na sociedade um risco tecnicamente previsível assume o dever jurídico de neutralizá-lo.
A decisão de restringir o ChatGPT à função informativa também encontra respaldo nas normas de Direito Digital, que tratam da responsabilidade de provedores de aplicações e dos deveres de transparência e segurança na oferta de serviços digitais. Nesse contexto, não se trata apenas de uma limitação técnica, mas de uma adequação jurídica preventiva, inserida em um cenário normativo que exige o equilíbrio entre inovação, proteção de dados, responsabilidade civil e tutela da confiança do usuário.
O Marco Civil da Internet (Lei nº 12.965/2014), em seus arts. 3º, 7º e 9º, estabelece que a prestação de serviços digitais deve observar os princípios da transparência, segurança e boa-fé. Isso implica que provedores de tecnologia têm o dever de informar de forma clara o funcionamento de suas ferramentas e os riscos associados ao seu uso, especialmente quando envolvem tratamento automatizado de dados pessoais.
Assim, ao comunicar que o ChatGPT não prestará mais orientação médica ou jurídica, a OpenAI cumpre não apenas um dever ético, mas um dever jurídico de informação, afastando interpretações enganosas sobre a natureza de suas respostas. A conduta está em consonância com o art. 6º, inciso III, da Lei Geral de Proteção de Dados (LGPD), que consagra o princípio da transparência como elemento essencial do tratamento responsável de dados pessoais.
Além disso, o art. 927, parágrafo único, do Código Civil, e o art. 14 do Código de Defesa do Consumidor, impõem ao fornecedor de serviços de risco inerente o dever de agir com diligência e previsibilidade. No caso das IAs generativas, o risco não é hipotético: ele é inerente ao modelo estatístico que pode gerar respostas incorretas, enviesadas ou interpretadas como parecer técnico.
Sob o prisma do Direito do Consumidor, a IA é tratada como um produto digital — um bem imaterial que gera efeitos concretos no mundo físico e jurídico. O art. 12 do Código de Defesa do Consumidor (CDC) prevê a responsabilidade objetiva do fabricante por defeitos que coloquem em risco a segurança do consumidor, ainda que o produto seja imaterial ou automatizado.
Da mesma forma, o art. 14 responsabiliza o prestador de serviços quando não adota as precauções necessárias para evitar danos decorrentes de falhas previsíveis no sistema. Logo, a empresa que disponibiliza um sistema de IA sem alertar adequadamente o público sobre os seus limites de uso assume o risco do empreendimento (risco do desenvolvimento), princípio consagrado pela doutrina de Sérgio Cavalieri Filho ao tratar da teoria do risco-proveito.
Em complemento, o Marco Civil da Internet, no art. 18, dispõe que o provedor de aplicações não responde pelo conteúdo gerado por terceiros, salvo quando, após ordem judicial, não tomar as medidas cabíveis para removê-lo. Contudo, a IA generativa não é um “terceiro” — ela é produto da própria empresa. Portanto, o regime de exclusão de responsabilidade do art. 18 não se aplica plenamente. O fornecedor responde por falha no dever de segurança e supervisão algorítmica, conceito que vem sendo incorporado pela jurisprudência europeia e tende a influenciar o direito brasileiro.
No âmbito legislativo, o Projeto de Lei nº 2.338/2023, aprovado no Senado e atualmente em tramitação na Câmara dos Deputados, propõe a criação de um marco legal da Inteligência Artificial no Brasil. Entre suas diretrizes, destacam-se:
o dever de supervisão humana sobre sistemas autônomos;
a exigência de auditoria algorítmica e rastreabilidade de decisões automatizadas;
e a previsão de responsabilidade solidária entre desenvolvedores e operadores em caso de danos a terceiros.
Essa proposta reflete tendências internacionais, especialmente o AI Act da União Europeia, aprovado em 2024, que classifica sistemas de IA conforme o nível de risco (baixo, médio, alto e proibido). No modelo europeu, ferramentas que oferecem aconselhamento jurídico ou médico automatizado são consideradas de alto risco, exigindo certificação prévia, explicabilidade do algoritmo e controle humano permanente.
A decisão da OpenAI antecipa essa lógica regulatória: ao evitar oferecer orientação personalizada, reduz o enquadramento de seu produto em categorias de alto risco jurídico e regulatório.
O avanço das IAs exige a consolidação de uma ética digital da responsabilidade, expressão utilizada por Byung-Chul Han ao descrever a necessidade de freios morais diante da automatização das relações humanas. No campo jurídico, essa ética se traduz no princípio da precaução tecnológica, que impõe aos desenvolvedores o dever de prever e mitigar os efeitos adversos da inovação, princípio análogo ao aplicado em matéria ambiental e de biotecnologia.
Assim, a restrição do ChatGPT pode ser vista não como uma limitação, mas como uma manifestação de compliance digital, alinhada à tendência global de submeter algoritmos a controles éticos, jurídicos e humanos.
No plano civil, reforça o dever de diligência e lealdade (arts. 113 e 422 CC). No plano penal, evita a criação de situações que possam configurar omissão imprópria ou exercício ilegal de profissão, conforme discutido anteriormente.
O tema da responsabilidade por atos de inteligência artificial vem sendo objeto de intenso debate comparado. Nos Estados Unidos, as cortes têm adotado postura conservadora, reconhecendo a “imunidade de intermediário” (Section 230 of the Communications Decency Act) para provedores de conteúdo, mas com exceções crescentes quando há alegação de engano automatizado.
Na Europa, o AI Act e o Digital Services Act criam um modelo híbrido, impondo responsabilidade compartilhada e obrigações de due diligence a plataformas que operam sistemas de IA generativa. O Brasil segue esse caminho, com o PL 2338/2023 e o PL 4522/2025, que trata da transparência e rastreabilidade em sistemas conversacionais.
Essas normas caminham para um novo regime de responsabilidade digital, baseado não apenas na culpa ou no risco, mas no dever de explicabilidade e governança algorítmica, que transformará profundamente a relação entre tecnologia e Direito.
A análise conjunta da responsabilidade civil e penal no contexto da inteligência artificial (IA) revela um ponto de convergência fundamental: a centralidade do risco e da previsibilidade humana. Em ambos os ramos, a imputação de responsabilidade decorre da violação de deveres de cuidado e da criação de situações potencialmente lesivas que poderiam ter sido evitadas.
A automação não elimina a culpa; ela apenas a desloca da execução para o controle. O agente humano passa a ser avaliado não pelo ato direto de causar o dano, mas pela falta de vigilância sobre a conduta da máquina que ele programou ou colocou em funcionamento.
O art. 927, parágrafo único, do Código Civil é o alicerce da teoria do risco criado, segundo a qual quem exerce atividade que, por sua natureza, gera risco a terceiros, responde pelos danos dela decorrentes, independentemente de culpa. Essa regra, tradicionalmente aplicada a atividades perigosas (como transporte, energia elétrica, produtos tóxicos), vem sendo reinterpretada para abarcar as atividades tecnológicas complexas, especialmente aquelas baseadas em algoritmos autônomos.
A IA generativa, ao operar sobre vastos volumes de dados e produzir conteúdo que pode induzir comportamentos humanos, insere-se nesse paradigma de risco elevado. A empresa ou pessoa que a coloca em circulação assume o ônus do risco tecnológico, o que inclui a obrigação de prevenir danos previsíveis, monitorar o uso e corrigir falhas conhecidas.
Em síntese, a atividade digital de alto impacto social, como a geração de textos jurídicos ou médicos, deve ser vista como atividade de risco, sujeita ao regime de responsabilidade objetiva. Isso não exclui o elemento da culpa, mas o torna presumido quando há omissão no dever de vigilância.
O Direito Civil e o Direito Penal convergem na aplicação das figuras clássicas da culpa in vigilando (por falta de supervisão) e da culpa in eligendo (por má escolha do agente ou instrumento). Ambas se adaptam perfeitamente ao uso de IA.
Culpa in vigilando: ocorre quando o desenvolvedor, o operador ou a empresa deixam de fiscalizar adequadamente o comportamento do sistema, permitindo que este produza resultados danosos. Exemplo: uma IA jurídica que recomenda a prática de ato processual incorreto, sem revisão humana prévia.
Culpa in eligendo: manifesta-se quando há negligência na escolha ou configuração do sistema utilizado. Exemplo: um escritório que utiliza versão experimental de IA sem política de segurança, expondo dados sigilosos de clientes.
Na esfera civil, essas condutas geram dever de indenizar; na penal, podem configurar negligência culposa (art. 18, II, CP), caso o dano se enquadre em tipo penal (por exemplo, violação de sigilo profissional, art. 154 CP). A culpa, portanto, migra da ação direta para a fiscalização da tecnologia — e essa é a nova fronteira da responsabilidade jurídica no século XXI.
Outro ponto de intersecção é o dever de previsibilidade. Em Direito Civil, a previsibilidade é requisito da culpa: responde quem podia e devia prever o dano. Já em Direito Penal, a previsibilidade também define a culpa consciente, na qual o agente prevê o resultado, mas acredita que ele não ocorrerá.
Aplicando esses conceitos ao uso da IA, o agente (empresa ou profissional) deve prever que o sistema pode gerar respostas incorretas, tendenciosas ou incompletas, especialmente em temas sensíveis como o jurídico e o médico. Ao ignorar essa previsibilidade e deixar o sistema atuar sem filtros, viola-se o princípio da confiança, que impõe a todos os agentes o dever de atuar de forma a não frustrar expectativas legítimas de segurança e diligência.
Na prática, a fronteira entre culpa civil e penal se estreita. Enquanto o Direito Civil exige a reparação do dano e o restabelecimento do equilíbrio jurídico, o Direito Penal busca a reprovação da conduta. Porém, em ambos os casos, o ponto de partida é o mesmo: a criação de um risco não controlado. Dessa forma:
a culpa civil traduz-se no dever de indenizar o prejuízo;
a culpa penal traduz-se na censura moral e jurídica da omissão ou ação dolosa.
A IA, ao ser inserida no ambiente social, torna-se prolongamento técnico da vontade humana. Logo, quem a utiliza ou desenvolve responde pelo domínio funcional do risco, princípio inspirado na teoria do domínio do fato (Claus Roxin), adaptado ao contexto tecnológico: o agente é responsável não apenas pelo que faz, mas pelo que permite que sua criação faça.
A decisão da OpenAI de restringir o ChatGPT à função de informar, e não mais orientar em campos como Medicina e Direito, sintetiza um movimento inevitável do nosso tempo: o reconhecimento de que a inteligência artificial é uma ferramenta poderosa, mas que não substitui o juízo humano nem o exercício técnico regulamentado. A limitação reflete, no fundo, a maturidade jurídica e ética necessária para harmonizar inovação e responsabilidade.
Ao impedir que o sistema ofereça pareceres, diagnósticos ou estratégias jurídicas, a empresa antecipa riscos de responsabilização civil, penal e regulatória, reduzindo a possibilidade de que respostas automatizadas sejam interpretadas como aconselhamento profissional, uma linha tênue que, se ultrapassada, pode configurar exercício ilegal de profissão ou gerar danos indenizáveis.
Sob o ponto de vista do Direito Civil, essa medida dialoga com a teoria do risco criado (art. 927, parágrafo único, CC) e com os deveres anexos da boa-fé objetiva (arts. 113 e 422), pois quem coloca uma tecnologia complexa em circulação assume o ônus de controlar seus efeitos previsíveis e informar claramente suas limitações.
No campo penal, preserva-se o princípio da pessoalidade da pena (art. 5º, XLV, CF), reconhecendo que a máquina não possui vontade nem dolo: quem responde é o ser humano que a desenvolve, programa ou opera. Já na perspectiva do Direito Digital e do consumidor, o dever de transparência, previsto no Marco Civil da Internet, na LGPD e no CDC impõe clareza quanto ao alcance e aos riscos do serviço.
A convergência desses fundamentos revela uma verdade simples, mas decisiva: quanto mais autônoma a tecnologia, maior deve ser a vigilância humana. A IA pode redigir textos, sugerir caminhos e até organizar argumentos, mas não pode deliberar sobre o que é justo, ético ou juridicamente adequado.
O Direito, em sua essência, exige discernimento, algo que, até hoje, só o ser humano é capaz de exercer com responsabilidade e empatia. A limitação imposta à IA, portanto, não é retrocesso, mas um gesto de prudência: um lembrete de que, na sociedade digital, a automação é um meio; a decisão, porém, continua sendo, e deve permanecer, humana.
Sugestões de leitura:
Olá megeanos(as)! Neste post trabalharemos questões com gabarito comentado de Processo Civil para o TJRJ…
Olá megeanos(as)! Foi publicado o novo edital do Exame Nacional da Magistratura (ENAM). Será o…
Olá megeanos(as)! A prova objetiva do MPSC foi aplicada dia 22/02/2026. Assim que tivemos acesso…
Olá megeanos(as)! A prova objetiva do TJPR foi aplicada dia 22/02/2026. Assim que tivemos acesso…
Olá megeanos(as)! Neste post trabalharemos questões com gabarito comentado de Direito Eleitoral para o TJRJ…
Olá megeanos(as)! A jurisprudência mais recente do STJ trouxe um ponto sensível e altamente explorável…
This website uses cookies.