E aí, galera! Já imaginaram um mundo dominado por robôs superinteligentes? Parece coisa de filme de ficção científica, né? Mas a OpenAI, uma empresa de ponta no campo da IA, está levando a sério a possibilidade de riscos catastróficos associados à inteligência artificial. Isso é assustador ou emocionante? Você decide!
Sobre o artigo
O Time de Preparação da OpenAI
A OpenAI montou um novo time chamado “Preparedness” (Preparação), liderado pelo diretor do Centro de Machine Learning do MIT, Aleksander Madry. Madry, que se juntou à OpenAI em maio, será o “Chefe de Preparação”. Que título legal, hein? Parece coisa de filme de super-herói!
A principal responsabilidade desse time será rastrear, prever e proteger contra os perigos dos futuros sistemas de IA. Isso inclui desde sua capacidade de persuadir e enganar humanos (como em ataques de phishing) até suas habilidades para gerar códigos maliciosos.
- Crianças podem? 10 Dicas para Explorar o ChatGPT com os Filhos
- Você viu? Seu Madruga consegue emprego em Hollywood graças à IA
- ChatGPT como usar
- Inteligência Artificial: 5 profissões com salário de até R$20 mil
- Como criar prompts para o ChatGPT do jeito certo
Riscos Catastróficos: Ficção ou Realidade?
Alguns dos riscos que o time de Preparação está encarregado de estudar parecem mais… como direi… surreais. Por exemplo, a OpenAI listou “ameaças químicas, biológicas, radiológicas e nucleares” como áreas de grande preocupação.
Sam Altman, CEO da OpenAI, é conhecido por suas previsões sombrias sobre a IA, acreditando que ela “pode levar à extinção humana”. Mas, admito, não esperava que a OpenAI fosse dedicar recursos para estudar cenários dignos de romances distópicos de ficção científica. Vocês esperavam?
Estudando Riscos “Menos Óbvios”
A empresa também está aberta a estudar áreas de risco de IA “menos óbvias” e mais realistas, como eles mesmos disseram. Para marcar o lançamento do time de Preparação, a OpenAI está solicitando ideias para estudos de risco da comunidade. E adivinhem? Há um prêmio de $25.000 e um emprego na equipe de Preparação para as dez melhores submissões. Já pensou que loucura?
Política de Desenvolvimento Informada por Riscos
O time de Preparação também será encarregado de formular uma “política de desenvolvimento informada por riscos”. Isso detalhará a abordagem da OpenAI para construir avaliações de modelos de IA e ferramentas de monitoramento, as ações de mitigação de riscos da empresa e sua estrutura de governança para supervisão em todo o processo de desenvolvimento do modelo.
Conclusão: A IA é Amiga ou Inimiga?
A revelação da equipe de Preparação veio após a OpenAI anunciar que formaria um time para estudar, direcionar e controlar formas emergentes de IA “superinteligente”. Sam Altman e Ilya Sutskever, cientista-chefe e co-fundador da OpenAI, acreditam que a IA com inteligência superior à dos humanos pode chegar dentro da década e que essa IA não será necessariamente benevolente.
Informações de TechCrunch
Comentário
Então, o que vocês acham, pessoal? A IA é uma amiga que trará benefícios para toda a humanidade, ou uma inimiga que pode causar o apocalipse robótico?
De qualquer forma, é bom saber que temos pessoas como Madry e sua equipe de Preparação cuidando de nós. E, quem sabe, talvez um de vocês seja o próximo a se juntar a eles!
Se você gostou deste artigo, compartilhe com seus amigos nerds e vamos continuar a conversa nas redes sociais do Jovem Digital!
Leia mais sobre Inteligência Artificial no Jovem Digital: Inteligência Artificial
Deixe uma resposta
Ver comentários