Capa do Álbum: Antena 1
A Rádio Online mais ouvida do Brasil
Antena 1

Práticas de segurança de empresas de IA não atendem a padrões globais, diz estudo

Práticas de segurança de empresas de IA não atendem a padrões globais, diz estudo

Reuters

03/12/2025

Placeholder - loading - Logos da Open AI e a Anthropic 12/09/2025 REUTERS/Dado Ruvic/Imagem ilustrativa
Logos da Open AI e a Anthropic 12/09/2025 REUTERS/Dado Ruvic/Imagem ilustrativa

3 Dez (Reuters) - As práticas de segurança das principais empresas de inteligência artificial, como Anthropic, OpenAI, xAI e Meta, estão 'muito aquém dos padrões globais emergentes', de acordo com uma nova edição do índice de segurança de IA do Future of Life Institute, divulgada nesta quarta-feira.

O instituto afirmou que a avaliação de segurança, conduzida por um painel independente de especialistas, constatou que, embora as empresas estivessem ocupadas em uma corrida para desenvolver a superinteligência, nenhuma possuía uma estratégia robusta para controlar sistemas tão avançados.

O estudo surge em meio a uma crescente preocupação pública sobre o impacto social de sistemas mais inteligentes que os humanos, capazes de raciocínio e pensamento lógico, após diversos casos de suicídio e automutilação terem sido associados a chatbots de IA. Chatbots são programas projetados para conversar com pessoas por texto ou voz, simulando um diálogo humano.

'Apesar da recente polêmica sobre ataques cibernéticos com inteligência artificial e sobre a IA levando pessoas à psicose e à automutilação, as empresas de IA dos EUA continuam menos regulamentadas do que restaurantes e seguem fazendo lobby contra padrões de segurança obrigatórios', disse Max Tegmark, professor do MIT e presidente do Future of Life.

A corrida pela inteligência artificial também não mostra sinais de desaceleração, com as principais empresas de tecnologia investindo centenas de bilhões de dólares na atualização e expansão de seus esforços em aprendizado de máquina.

O Future of Life Institute é uma organização sem fins lucrativos que tem levantado preocupações sobre os riscos que as máquinas inteligentes representam para a humanidade. Fundado em 2014, recebeu apoio inicial do bilionário Elon Musk, da Tesla.

Em outubro, um grupo que incluía os cientistas Geoffrey Hinton e Yoshua Bengio pediu a proibição do desenvolvimento de inteligência artificial superinteligente até que a ciência encontre um caminho seguro para o futuro.

A xAI afirmou que 'a mídia tradicional mente', em uma resposta que pareceu ser automatizada, enquanto Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek e Alibaba Cloud não responderam imediatamente ao pedido de comentários sobre o estudo.

(Reportagem de Zaheer Kachwala em Bengaluru; reportagem adicional de Arnav Mishra em Bengaluru)

Reuters

Compartilhar matéria

Mais lidas da semana

 

Carregando, aguarde...

Este site usa cookies para garantir que você tenha a melhor experiência.