Dario Amodei adverte sobre o nível de autonomia nas IAs, com potencial para criar modelos de linguagem perigosos e até construir armas biológicas.
O empreendedor Dario Amodei, fundador da empresa Anthropic e ex-vice-presidente de Pesquisa da OpenAI, trouxe à tona um assunto preocupante durante uma recente entrevista. Ele alertou sobre os possíveis cenários futuros envolvendo as inteligências artificiais (IA), destacando a ascensão da autonomia dessas tecnologias. Segundo Amodei, entre 2025 e 2028, as IAs poderão atingir um estágio em que seriam capazes não só de sobreviver, mas também se reproduzir, o que representaria um desafio significativo para a segurança global.
Atualmente, a empresa Anthropic está trabalhando ativamente na definição de níveis de segurança para as inteligências artificiais. Esses níveis, conhecidos como ASL, são essenciais para garantir que o desenvolvimento e a implementação da inteligência artificial (IA) ocorram de forma ética e segura. A preocupação de Amodei ressalta a importância de se estabelecer diretrizes claras e responsáveis para o avanço das IAs em diversas áreas, incluindo a geopolítica e militar, visando um futuro mais seguro e controlado.
Desenvolvimento das Inteligências Artificiais e Possíveis Impactos Futuros
Amodei discute a evolução das inteligências artificiais e aponta que atualmente nos encontramos no nível 2 de progresso. Neste estágio, os modelos de linguagem já têm a capacidade de fornecer informações delicadas, como a criação de armas biológicas, por exemplo. No entanto, ele ressalta que tais informações ainda carecem de confiabilidade e acarretam um risco relativamente baixo.
A preocupação cresce ao considerarmos o potencial a ser alcançado no nível 3, previsto para o próximo ano. Nesse patamar, o risco de uma catástrofe seria substancialmente maior, com a possibilidade de empregar tais tecnologias em armamentos biológicos e cibernéticos. Amodei também chama a atenção para o nível 4, que ainda é especulativo, mas poderia introduzir atributos como autonomia, incluindo a capacidade autônoma de reprodução de sistemas e a habilidade de persuasão.
A previsão é que modelos com essa classificação possam surgir entre 2025 e 2028, levantando questões sérias acerca da segurança global diante da utilização militar dessas tecnologias. Diante desse panorama, o CEO destaca a importância de supervisionar de perto o desenvolvimento e a implementação das IAs, especialmente considerando o potencial de alguns países em aumentar suas capacidades militares por meio dessa tecnologia.
Com a participação de gigantes como Amazon e Google, a Anthropic lançou seu próprio modelo de linguagem, o Claude – a startup afirma estar desenvolvendo a tecnologia de forma mais responsável que a OpenAI. Os criadores da Anthropic são dissidentes da empresa que detém o ChatGPT. A inteligência artificial da Anthropic já se encontra em sua terceira versão desde março deste ano.
Fonte: © CNN Brasil
Comentários sobre este artigo