OpenAI dissolve equipe focada em riscos existenciais da Inteligência Artificial
A dissolução ocorre após a saída de vários pesquisadores e da renúncia de Ilka Sutskever, um dos fundadores da empresa
A equipe da OpenAI dedicada aos riscos existenciais da inteligência artificial foi desmantelada. Todos os membros do grupo, conhecido como “superalignment team”, saíram ou foram incorporados a outras equipes de pesquisa, conforme confirmado pela WIRED.
Histórico da Equipe
Em julho do ano passado, a OpenAI anunciou a criação de uma nova equipe de pesquisa para se preparar para a chegada de uma inteligência artificial superinteligente, capaz de superar seus criadores. Ilya Sutskever, cofundador e cientista-chefe da OpenAI, foi nomeado como co-líder desta equipe, que receberia 20% do poder computacional da empresa.
↳ Saída de Líderes: A dissolução ocorre após a saída de vários pesquisadores e a renúncia de Sutskever e do co-líder Jan Leike. Sutskever, que ajudou a fundar a OpenAI e liderou pesquisas que resultaram no ChatGPT, deixou a empresa sem explicação, mas expressou apoio ao caminho atual da OpenAI.
Motivos e Consequências
↳ Declaração de Jan Leike: Leike explicou em uma série de posts no X (ex-Twitter) que sua decisão foi motivada por discordâncias sobre as prioridades da empresa e a alocação de recursos. Ele afirmou que sua equipe estava “navegando contra o vento” devido à escassez de recursos computacionais para pesquisas cruciais.
↳ Impacto Interno: A dissolução da equipe adiciona evidências de tumultos internos na OpenAI após a crise de governança em novembro passado. Dois pesquisadores da equipe foram demitidos por vazamento de segredos da empresa, e outros membros deixaram a empresa recentemente.
Futuro da Pesquisa de Riscos
↳ Nova Liderança: A pesquisa sobre riscos associados a modelos de IA mais poderosos será agora liderada por John Schulman, cofundador da OpenAI. No entanto, a atenção específica para os resultados mais graves de uma IA descontrolada permanece incerta.
↳ Continuidade Necessária: A dissolução da equipe levanta preocupações sobre a continuidade da pesquisa crucial para prevenir que sistemas de IA superinteligentes saiam do controle, uma prioridade declarada pela OpenAI lá na sua formação.
Esse labirinto ideológico no qual a empresa vive batendo cabeça, foi justamente o tema do Braincast 528. Assista abaixo:
Desenvolvimentos Recentes
A OpenAI recentemente revelou um novo modelo multimodal, o GPT-4 Omni, que permite ao ChatGPT interagir de forma mais natural e humana. Esta nova interface, que imita emoções humanas e até tenta flertar com os usuários, vem sendo disponibilizada gratuitamente para os usuários nos últimos dias.
↳ Questões Éticas: Esses avanços, obviamente, levantam ainda novas questões éticas sobre privacidade, manipulação emocional e riscos de segurança cibernética, o que sinaliza um péssimo momento para desmantelar a equipe dedicada ao tema.
Comentários
Sua voz importa aqui no B9! Convidamos você a compartilhar suas opiniões e experiências na seção de comentários abaixo. Antes de mergulhar na conversa, por favor, dê uma olhada nas nossas Regras de Conduta para garantir que nosso espaço continue sendo acolhedor e respeitoso para todos.