A OpenAI, a empresa por trás do ChatGPT, está vivenciado uma crise. A equipe responsável por garantir a segurança da inteligência artificial (IA), essencial para evitar um futuro apocalíptico, foi dissolvida, levando à saída de dois de seus líderes. A decisão levanta sérias preocupações sobre as prioridades da empresa e os riscos da inteligência artificial.
A OpenAI, a empresa por trás do polêmico ChatGPT, está em meio a uma crise interna após a dissolução de sua equipe dedicada a garantir a segurança de futuros sistemas de IA. A equipe, apelidada de “superalinhamento”, foi criada para evitar que a inteligência artificial se tornasse uma ameaça à humanidade, mas acabou sendo desmantelada, levando à saída de dois de seus líderes: o cofundador e cientista-chefe Ilya Sutskever e o diretor da equipe de controle, Jan Leike.
Leike, em uma série de posts no X (antigo Twitter), revelou a tensão crescente entre a equipe de controle e a liderança da OpenAI. Ele argumenta que a empresa prioriza o desenvolvimento de produtos inovadores em detrimento da segurança, ignorando os riscos inerentes à criação de inteligências artificiais mais poderosas que os humanos.
“Construir máquinas mais inteligentes que nós é uma tarefa perigosa, e a OpenAI assume uma responsabilidade enorme em nome de toda a humanidade”, escreveu Leike, expressando sua preocupação com a falta de atenção aos aspectos éticos e de segurança da IA.
A saída de Sutskever, um dos fundadores da OpenAI, também contribui para o clima de incerteza na empresa. Ele deixou a companhia para se dedicar a um novo projeto pessoal, sem revelar detalhes. Sua saída ocorre em um momento crucial, especialmente considerando seu papel no breve afastamento do CEO Sam Altman no ano passado.
A dissolução da equipe de “superalinhamento” coincide com o lançamento do modelo GPT-4o, que apresenta avanços significativos em processamento multimodal e acesso à internet em tempo real. A decisão da OpenAI de desmantelar a equipe de segurança, enquanto lança um modelo de IA ainda mais poderoso, levanta sérias preocupações sobre suas prioridades e a segurança da humanidade em relação à inteligência artificial.
Fonte: Portal IG