O ChatGPT está a ouvir-te (e pode denunciar-te)

O caso OpenAI redefine a fronteira entre segurança pública e privacidade digital: o desafio de proteger a sociedade sem trair a confiança dos utilizadores. Entre promessas tecnológicas e zonas cinzentas regulatórias, a confiança na IA continua a ser uma aposta. Sussurros digitais num mundo que está sempre a ouvir.

A Grande Mudança: OpenAI admite denunciar às autoridades

Em setembro de 2025, a OpenAI fez uma revelação que abalou a comunidade tecnológica global: o ChatGPT monitoriza ativamente as conversas dos utilizadores e denuncia conteúdos potencialmente criminosos às autoridades policiais.

A notícia, que surgiu quase por acaso numa publicação do blogue da empresa, revelou que, quando os sistemas automáticos detetam utilizadores que «estão a planear causar danos a outras pessoas», as conversas são encaminhadas para canais especializados, onde uma pequena equipa treinada nas políticas de utilização as analisa. Se os revisores humanos determinarem que existe uma «ameaça iminente de danos físicos graves a outras pessoas», o caso pode ser encaminhado para as autoridades policiais¹.

O ChatGPT convida-o cordialmente a partilhar os seus pensamentos mais íntimos. Não se preocupe, tudo é confidencial... mais ou menos.

Fontes:

O contraste com as profissões «protegidas»

O Privilégio do Sigilo Profissional

Quando falamos com um psicólogo, um advogado, um médico ou um padre, as nossas palavras são protegidas por um mecanismo legal consolidado: o sigilo profissional. Este princípio, enraizado em séculos de tradição jurídica, estabelece que certas conversas são invioláveis, mesmo perante investigações criminais.

Características do sigilo profissional tradicional:

  • Proteção muito ampla: as comunicações permanecem confidenciais mesmo em caso de crimes confessados
  • Exceções limitadas e específicas: Somente em casos extremos definidos por lei, alguns profissionais podem/devem quebrar o sigilo profissional.
  • Controlo humano qualificado: A decisão de violar a confidencialidade permanece sempre nas mãos de um profissional qualificado.
  • Responsabilidade ética: Os profissionais estão sujeitos a códigos deontológicos que equilibram os deveres para com o cliente e a sociedade.

Os limites reais do sigilo profissional

Ao contrário do que se pensa, o sigilo profissional não é absoluto. Existem exceções bem definidas que variam de acordo com a categoria profissional:

Para os advogados (Art. 28 do Código Deontológico Forense): A divulgação é permitida quando necessária para:

  • O desenrolar da atividade de defesa
  • Impedir a prática de um crime de particular gravidade
  • Defender-se numa controvérsia contra o seu cliente
  • Processos disciplinares

Exemplo crítico: Se um cliente declara ao advogado que pretende cometer um homicídio, entre a proteção do direito de defesa e a proteção do bem da vida, deve prevalecer esta última e o advogado fica isento do sigilo profissional².

Para os psicólogos (Art. 13 do Código Deontológico): O sigilo pode ser violado quando:

  • Existe a obrigação de denunciar ou comunicar crimes passíveis de ação penal
  • Existem graves riscos para a vida ou a saúde física e mental do indivíduo e/ou de terceiros.
  • Existe um consentimento válido e comprovável do paciente

Distinção importante: O psicólogo privado tem maior discricionariedade do que o público, que, como funcionário público, tem obrigações de denúncia mais rigorosas³.

Fontes:

A IA como «não profissional»

O ChatGPT opera numa zona cinzenta completamente diferente:

Ausência de privilégio legal: As conversas com a IA não gozam de qualquer proteção legal. Como admitiu Sam Altman, CEO da OpenAI: «Se falar com um terapeuta, advogado ou médico sobre esses problemas, existe privilégio legal para isso. Existe confidencialidade médico-paciente, existe confidencialidade legal, qualquer coisa. E ainda não resolvemos isso para quando você fala com o ChatGPT"².

Processo automatizado: Ao contrário de um profissional humano que avalia caso a caso, o ChatGPT utiliza algoritmos para identificar conteúdos «problemáticos», removendo o julgamento humano qualificado da fase inicial de triagem.

Fontes:

As implicações práticas: um novo paradigma de vigilância

O Paradoxo da Confiança Tecnológica

A situação cria um paradoxo preocupante. Milhões de pessoas utilizam o ChatGPT como confidente digital, partilhando pensamentos íntimos, dúvidas, medos e até fantasias criminosas que nunca partilhariam com um ser humano. Como relata Sam Altman: «As pessoas falam sobre as coisas mais pessoais das suas vidas ao ChatGPT. As pessoas utilizam-no — especialmente os jovens — como terapeuta, coach de vida»⁴.

O risco da autocensura criminosa: A consciência de que as conversas podem ser monitoradas pode, paradoxalmente:

  • Empurrar os criminosos para canais mais ocultos
  • Impedir que pessoas com pensamentos violentos procurem ajuda
  • Criar um efeito de «arrefecimento» das comunicações digitais

Competência vs. Algoritmos: Quem decide o que é criminoso?

Um aspeto crucial destacado pelos críticos diz respeito à competência de quem toma as decisões finais.

Os profissionais humanos têm:

  • Anos de formação para distinguir entre fantasias e intenções reais
  • Códigos deontológicos que definem quando quebrar o sigilo
  • Responsabilidade legal pessoal pelas suas decisões
  • Capacidade de avaliar o contexto e a credibilidade

O sistema ChatGPT funciona com:

  • Algoritmos automatizados para a detecção inicial
  • Funcionários da OpenAI que não têm necessariamente formação clínica ou criminológica
  • Critérios de avaliação não públicos e potencialmente arbitrários
  • Ausência de mecanismos de controlo externos

Exemplo problemático: Como um algoritmo distingue entre:

  • Uma pessoa que escreve um thriller e procura inspiração para cenas violentas
  • Alguém que fantasia sem intenção de agir
  • Um indivíduo que realmente planeia um crime

Fontes:

Fontes:

A contradição da OpenAI: privacidade versus segurança

O Duplo Padrão

A admissão da OpenAI cria uma contradição gritante com as suas posições anteriores. A empresa resistiu firmemente às solicitações de dados dos utilizadores em processos judiciais, alegando proteção da privacidade. No caso contra o New York Times, a OpenAI argumentou veementemente contra a divulgação dos registos de chat para proteger a privacidade dos utilizadores⁴.

A ironia da situação: a OpenAI defende a privacidade dos utilizadores nos tribunais, ao mesmo tempo que admite monitorizar e partilhar dados com autoridades externas.

O impacto do caso New York Times

A situação complicou-se ainda mais com a ordem judicial que exige que a OpenAI guarde todos os registos do ChatGPT indefinidamente, incluindo conversas privadas e dados da API. Isto significa que conversas que os utilizadores acreditavam serem temporárias agora estão arquivadas permanentemente⁵.

Fontes:

Possíveis soluções e alternativas

Rumo a um «Privilégio IA»?

Como sugerido por Sam Altman, pode ser necessário desenvolver um conceito de «privilégio de IA» — uma proteção legal semelhante à oferecida aos profissionais tradicionais. No entanto, isso levanta questões complexas:

Opções regulatórias possíveis:

  1. Modelo de licenças: apenas IAs certificadas podem oferecer «privilégio conversacional»
  2. Formação obrigatória: quem lida com conteúdos sensíveis deve ter qualificações específicas
  3. Supervisão profissional: Envolvimento de psicólogos/advogados qualificados nas decisões de denúncia
  4. Transparência Algorítmica: Publicação dos critérios utilizados para identificar conteúdos «perigosos»

Soluções Técnicas Intermediárias

IA «Compartimentada»:

  • Sistemas separados para usos terapêuticos vs. gerais
  • Criptografia de ponta a ponta para conversas confidenciais
  • Consentimento explícito para cada tipo de monitorização

Abordagem «tripartida»:

  • Detecção automática apenas para ameaças imediatas e verificáveis
  • Revisão humana qualificada obrigatória
  • Processo de recurso para decisões contestadas

O Precedente dos Profissionais Digitais

Lições de outros setores:

  • Telemedicina: Desenvolveu protocolos para a privacidade digital
  • Assessoria jurídica online: Utiliza encriptação e verificações de identidade
  • Terapia digital: Apps especializadas com proteções específicas

Fontes:

O que significa para as empresas IA

Aulas para o setor

O caso OpenAI estabelece precedentes importantes para todo o setor de inteligência artificial:

  1. Transparência obrigatória: As empresas de IA deverão ser mais explícitas sobre as suas práticas de monitorização.
  2. Necessidade de estruturas éticas: É necessária uma regulamentação clara sobre quando e como a IA pode interferir nas comunicações privadas.
  3. Formação especializada: Quem toma decisões sobre conteúdos sensíveis deve ter competências adequadas
  4. Responsabilidade legal: Definir quem é responsável quando um sistema de IA comete um erro de avaliação

Recomendações Operacionais

Para empresas que desenvolvem IA conversacional:

  • Implementar equipas multidisciplinares (advogados, psicólogos, criminologistas)
  • Desenvolver critérios públicos e verificáveis para a denúncia
  • Criar processos de recurso para os utilizadores
  • Investir em formação especializada para o pessoal de revisão

Para empresas que utilizam IA:

  • Avaliar os riscos de privacidade antes da implementação
  • Informar claramente os utilizadores sobre os limites da confidencialidade
  • Considerar alternativas especializadas para utilizações sensíveis

O Futuro da Confidencialidade Digital

O dilema central: como equilibrar a prevenção de crimes reais com o direito à privacidade e à confidencialidade digital?

A questão não é meramente técnica, mas diz respeito a princípios fundamentais:

  • Presunção de inocência: monitorar conversas privadas implica suspeita generalizada
  • Direito à privacidade: Inclui o direito de ter pensamentos privados, mesmo que perturbadores.
  • Eficácia preventiva: Não está comprovado que a vigilância digital previna efetivamente crimes.

Conclusões: Encontrar o Equilíbrio Certo

A revelação da OpenAI marca um momento decisivo na evolução da inteligência artificial, mas a questão não é se a denúncia está certa ou errada em si: é como torná-la eficaz, justa e respeitosa dos direitos.

A necessidade é real: ameaças concretas de violência, planos de atentados ou outros crimes graves exigem intervenção. A questão não é se denunciar, mas como fazê-lo de forma responsável.

As diferenças fundamentais a resolver:

Formação e Competência:

  • Os profissionais humanos têm protocolos consolidados para distinguir entre ameaças reais e fantasias.
  • Os sistemas de IA necessitam de padrões equivalentes e supervisão qualificada
  • É necessária formação especializada para quem toma decisões finais

Transparência e Controlo:

  • Os profissionais atuam sob a supervisão das ordens profissionais.
  • A OpenAI necessita de critérios públicos e mecanismos de controlo externos
  • Os utilizadores devem saber exatamente quando e por que motivo podem ser denunciados.

Proporcionalidade:

  • Os profissionais equilibram, caso a caso, o dever de confidencialidade com a segurança.
  • Os sistemas de IA devem desenvolver mecanismos semelhantes, não algoritmos binários.

Para as empresas do setor, o desafio é desenvolver sistemas que protejam eficazmente a sociedade sem se tornarem instrumentos de vigilância indiscriminada. A confiança dos utilizadores é essencial, mas deve coexistir com a responsabilidade social.

Para os utilizadores, a lição é dupla:

  1. As conversas com a IA não têm as mesmas proteções que os profissionais tradicionais
  2. Isso não é necessariamente negativo se feito de forma transparente e proporcionada, mas é importante estar ciente disso.

O futuro da IA conversacional requer uma nova estrutura que:

  • Reconheça a legitimidade da prevenção criminal
  • Estabeleça padrões profissionais para quem gere conteúdos sensíveis
  • Garanta transparência nos processos decisórios
  • Proteja os direitos individuais sem ignorar a segurança

A pergunta certa não é se as máquinas devem denunciar crimes, mas como podemos fazer com que elas o façam (pelo menos) com a mesma sabedoria, formação e responsabilidade dos profissionais humanos.

O objetivo não é voltar a uma IA «cega» aos perigos reais, mas construir sistemas que combinem a eficiência tecnológica com a ética e a competência humana. Só assim poderemos ter o melhor dos dois mundos: segurança e direitos individuais protegidos.

Referências e fontes

  1. Futurismo - «OpenAI afirma que está a monitorizar as conversas dos utilizadores no ChatGPT e a denunciar o conteúdo à polícia»
  2. Escritório de Advocacia Puce - «Segredo Profissional do Advogado»
  3. A Lei para Todos - «O psicólogo que tem conhecimento de um crime deve denunciar o paciente?»
  4. TechCrunch - «Sam Altman alerta que não há confidencialidade legal ao usar o ChatGPT como terapeuta»
  5. Blog Shinkai - «Conversas do ChatGPT da OpenAI foram analisadas e denunciadas à polícia, provocando indignação dos utilizadores e receios em relação à privacidade»
  6. Simon Willison - «OpenAI critica ordem judicial para guardar todos os registos do ChatGPT, incluindo conversas apagadas»
  7. Success Knocks - «Processo judicial da OpenAI em 2025: recurso do NYT sobre os dados do ChatGPT»

Recursos para o crescimento das empresas