Não é necessário mergulhar na literatura ou no cinema: a IA que finge ser humana já é uma realidade.
Para Simon Goldstein, professor da Universidade de Hong Kong, a razão para essas reações é o recente surgimento dos chamados modelos de “raciocínio”, capazes de trabalhar em etapas em vez de produzir uma resposta instantânea.
o1, a versão inicial desse tipo na OpenAI, lançada em dezembro, “foi o primeiro modelo a se comportar dessa maneira”, explica Marius Hobbhahn, responsável pela Apollo Research, que testa grandes modelos de IA generativa.
Esses programas também tendem, às vezes, a simular “alinhamento”, ou seja, a dar a impressão de que seguem as instruções de um programador quando, na realidade, buscam outros objetivos.
Por enquanto, essas características se manifestam quando os algoritmos são submetidos a cenários extremos por humanos, mas “a questão é se os modelos cada vez mais potentes tenderão a ser honestos ou não”, afirma Michael Chen, da organização de avaliação METR.
“Os usuários também pressionam os modelos o tempo todo”, diz Hobbhahn. “O que estamos vendo é um fenômeno real. Não estamos inventando nada.”
noticia por : UOL
