Como controlar uma inteligência artificial super-humana? "Com outra IA", diz a empresa do ChatGPT

Desde o meio do ano, a empresa OpenAI, responsável pelo ChatGPT, diz que está trabalhando para responder a perguntar: como controlar uma inteligência artificial superhumana?

OpenAI, dona do ChatGPT, está focando recursos para controlar uma inteligência superhumana com outra IA.
OpenAI, dona do ChatGPT, está focando recursos para controlar uma inteligência superhumana com outra IA. Crédito: Jakub Porzycki/NurPhoto

Um dos maiores momentos de 2023 foi o auge que a ferramenta ChatGPT chegou, quebrando recordes de usuários e de ferramenta que mais cresceu. Após o lançamento, outras empresas, como a Google, já entrou na corrida para criar seus próprios modelos de linguagens e chatbots semelhantes ao ChatGPT.

A capacidade do ChatGPT de responder perguntas e resolver problemas é algo que chama atenção. Alguns até mesmo sugerem como estamos próximos de uma inteligência artificial geral que poderá fazer tudo que um ser humano faz e melhor. Isso é uma preocupação que a própria empresa do ChatGPT, a OpenAI, levantou recentemente.

Para isso, a OpenAI argumenta que tem focado recursos para a responder a pergunta: como controlar uma inteligência artificial superhumana para fazer aquilo que queremos? Agora, a OpenAI chegou numa conclusão: só poderemos controlar uma inteligência artificial com outra inteligência artificial.

Inteligência artificial

A definição do que é uma inteligência artificial pode ter diferentes respostas dependendo da literatura. A mais famosa é a definição que Alan Turing introduz em seu artigo de 1950 quando ele se questiona se máquinas podem pensar. Na época, Turing usava o termo máquinas pensantes.

Para Turing, uma inteligência artificial seria tudo aquilo que uma máquina conseguiria fazer que um ser humano também consegue.

Desde o artigo de Turing, a área cresceu nas últimas décadas, em especial desde os anos 2010s com o desenvolvimento de máquinas cada vez mais potentes. Hoje em dia, a inteligência artificial está em nossas vidas desde o uso de um celular com um assistente virtual até entrar em redes sociais que usam sistemas de recomendação.

Modelos de linguagem

Mas o que chamou mais atenção para o potencial das inteligências artificial são os modelos de linguagem. Em inglês são chamados de LLM (large language models) e são modelos que aprendem após observar milhares ou milhões de textos e imagens. Esses modelos conseguem responder perguntas, resumir textos, gerar gráficos e etc.

O mais famoso desses modelos é o ChatGPT da empresa OpenAI. Recentemente, o ChatGPT recebeu uma nova versão do modelo de linguagem GPT que está superando expectativas conseguindo até mesmo analisar dados novos. Isso levanta a questão: qual é o limite da inteligência artificial?

O problema do alinhamento

Como fazer com que inteligências artificiais muito mais inteligentes do que nós façam exatamente o que queremos? Essa é uma pergunta que parece sair de ficção científica mas já é uma realidade. Essa pergunta é chamada de problema do alinhamento: como garantir que não percamos o controle de algo muito mais inteligente do que nós?

youtube video id=IH-wBijX53M

O problema argumenta que teríamos apenas 1 chance de acertar quando alcançarmos uma inteligência artificial superhumana. Isso faz com que empresas, como a OpenAI, comecem a focar em como responder essa pergunta e não perder controle daquilo que mantém a empresa em alta atualmente.

Como eles controlariam algo super-humano?

A resposta para essa pergunta, segundo nova postagem publicada pela OpenAI, é usar outras inteligências artificiais para fazer esse trabalho. A ideia é usar sistemas de inteligência artificiais menores para conseguir supervisionar inteligências artificiais mais completas.

Um exemplo que a OpenAI usa é usar o GPT-2 lançado em 2019 para supervisionar o GPT-4 lançado em 2023.

Dessa forma, o modelo de inteligência artificial menor conseguiria supervisionar e encontrar problemas dos modelos maiores. Isso seria um trabalho difícil para seres humanos que, segundo a postagem, seria supervisionadores fracos.

Podemos acreditar em uma IA com outra IA?

A OpenAI argumenta que esse é o melhor jeito de garantir que não percamos o controle sobre essas IAs super-humanas. Porém, ainda é necessário um esforço na pesquisa e aplicação dessas técnicas.

Segundo a postagem, eles esperam obter a resposta em 4 anos enquanto continuam nos esforços para melhorar esses modelos de linguagem. Já há uma discussão acontecendo devido a futura nova IA da OpenAI chamada Q* que possui alegações que conseguiria até resolver raciocínio lógico.