OpenAI forma equipe para estudar riscos “catastróficos” de IA

OpenAI
Imagem: Bryce Durbin / TechCrunch

E aí, galera! Já imaginaram um mundo dominado por robôs superinteligentes? Parece coisa de filme de ficção científica, né? Mas a OpenAI, uma empresa de ponta no campo da IA, está levando a sério a possibilidade de riscos catastróficos associados à inteligência artificial. Isso é assustador ou emocionante? Você decide!

O Time de Preparação da OpenAI

OpenAI

A OpenAI montou um novo time chamado “Preparedness” (Preparação), liderado pelo diretor do Centro de Machine Learning do MIT, Aleksander Madry. Madry, que se juntou à OpenAI em maio, será o “Chefe de Preparação”. Que título legal, hein? Parece coisa de filme de super-herói!

Siga o Jovem Digital no Google Notícias

A principal responsabilidade desse time será rastrear, prever e proteger contra os perigos dos futuros sistemas de IA. Isso inclui desde sua capacidade de persuadir e enganar humanos (como em ataques de phishing) até suas habilidades para gerar códigos maliciosos.

Riscos Catastróficos: Ficção ou Realidade?

Alguns dos riscos que o time de Preparação está encarregado de estudar parecem mais… como direi… surreais. Por exemplo, a OpenAI listou “ameaças químicas, biológicas, radiológicas e nucleares” como áreas de grande preocupação.

Sam Altman, CEO da OpenAI, é conhecido por suas previsões sombrias sobre a IA, acreditando que ela “pode levar à extinção humana”. Mas, admito, não esperava que a OpenAI fosse dedicar recursos para estudar cenários dignos de romances distópicos de ficção científica. Vocês esperavam?

Estudando Riscos “Menos Óbvios”

A empresa também está aberta a estudar áreas de risco de IA “menos óbvias” e mais realistas, como eles mesmos disseram. Para marcar o lançamento do time de Preparação, a OpenAI está solicitando ideias para estudos de risco da comunidade. E adivinhem? Há um prêmio de $25.000 e um emprego na equipe de Preparação para as dez melhores submissões. Já pensou que loucura?

Siga o Jovem Digital no Google Notícias

Política de Desenvolvimento Informada por Riscos

O time de Preparação também será encarregado de formular uma “política de desenvolvimento informada por riscos”. Isso detalhará a abordagem da OpenAI para construir avaliações de modelos de IA e ferramentas de monitoramento, as ações de mitigação de riscos da empresa e sua estrutura de governança para supervisão em todo o processo de desenvolvimento do modelo.

Conclusão: A IA é Amiga ou Inimiga?

A revelação da equipe de Preparação veio após a OpenAI anunciar que formaria um time para estudar, direcionar e controlar formas emergentes de IA “superinteligente”. Sam Altman e Ilya Sutskever, cientista-chefe e co-fundador da OpenAI, acreditam que a IA com inteligência superior à dos humanos pode chegar dentro da década e que essa IA não será necessariamente benevolente.

Informações de TechCrunch

Comentário

Então, o que vocês acham, pessoal? A IA é uma amiga que trará benefícios para toda a humanidade, ou uma inimiga que pode causar o apocalipse robótico?

De qualquer forma, é bom saber que temos pessoas como Madry e sua equipe de Preparação cuidando de nós. E, quem sabe, talvez um de vocês seja o próximo a se juntar a eles!

Se você gostou deste artigo, compartilhe com seus amigos nerds e vamos continuar a conversa nas redes sociais do Jovem Digital!

Leia mais sobre Inteligência Artificial no Jovem Digital: Inteligência Artificial

OpenAI forma equipe para estudar riscos “catastróficos” de IA

Especialista em direitos trabalhistas e benefícios sociais, com foco em temas como INSS, FGTS, Seguro Desemprego e tudo relacionado à plataforma gov.br. Com uma ampla experiência no setor, Frank se dedica a trazer informações claras e práticas para ajudar seus leitores a entender e acessar seus direitos de forma simples e eficaz. No blog, ele oferece orientações detalhadas sobre os principais benefícios do governo, sempre com o compromisso de manter seu público bem-informado sobre as últimas atualizações.