ChatGPT — o chatbot alimentado por inteligência artificial (IA) — sacudiu o mundo tecnológico. Lançado como um protótipo e disponibilizado para testes públicos em 30 de novembro de 2022, a ferramenta gerou uma grande euforia. Em menos de uma semana, reuniu 1 milhão de assinantes. As pessoas ficaram impressionadas e entusiasmadas com suas respostas quase humanas sobre uma ampla gama de assuntos.
O ChatGPT produziu poesia, prosa com estilo de escrita de Shakespeare, códigos de programação e prescrições médicas. Professores e educadores estão alarmados com o uso da ferramenta pelos alunos em suas tarefas. A mídia anunciou, entusiasticamente, que o ChatGPT passou nos exames de Direito, Medicina e Administração (embora este último dificilmente seja um sinal de inteligência).
Os resumos feitos por meio do ChatGPT para revistas de pesquisa médica enganaram cientistas, que acreditaram que humanos os escreveram. Toneladas de artigos anunciaram o desaparecimento de várias profissões, do jornalismo à escrita, da criação de conteúdo a advogados, professores, programadores e médicos. Empresas como Google e Baidu, sentindo-se ameaçadas pelo ChatGPT, apressaram-se em anunciar seus próprios chatbots alimentados por IA.
A tecnologia central por trás do ChatGPT é um modelo de IA chamado GPT-3, ou Transformador Gerador Pré-treinado 3 (GPT-3, na sigla em inglês). O qualificador "gerador" implica que o GPT pertence a uma classe de algoritmos de inteligência artificial capazes de gerar novos conteúdos como texto, imagens, áudio, vídeo, código de software etc. "Transformador" refere-se a um novo tipo de modelo de IA descrito pela primeira vez em um artigo de 2017 pelo Google.
Os modelos Transformadores aprendem sobre o contexto das palavras rastreando correlações estatísticas em palavras sequenciais semelhantes a dados em uma frase. Eles são uma mudança profunda no campo da IA, e têm levado a avanços significativos. Em um artigo de 2021, pesquisadores em Stanford chamaram de "modelos de fundação" e escreveram que sua "dimensão e alcance (...), nos últimos anos, ampliaram nossa imaginação sobre o que é possível".
Atualmente, os modelos mais populares de IA usam redes neurais, método de processamento de dados que simula um cérebro artificial usando computadores. Na realidade, mesmo com enormes avanços em componentes de computadores e densidade de chips, não estamos nem perto de simular o cérebro humano.
Em vez disso, as redes neurais artificiais podem ser pensadas como uma série de equações matemáticas cujos "pesos" ou parâmetros são ajustados para realizar regressões logísticas de forma eficaz. De certa forma, os modelos de IA usam "dados de treinamento" para realizar exercícios elaborados de ajuste de curvas. Uma vez treinadas, as equações das "curvas" que se ajustam aos dados de treinamento são usadas para prever ou classificar novos dados.
Antes dos Transformadores, os modelos de IA precisavam ser "treinados" por conjuntos de dados, que os humanos rotulam. Por exemplo, um modelo de IA de visão seria treinado usando milhões de imagens, cada uma rotulada manualmente por humanos como mostrando, por exemplo, um gato, uma pessoa, uma montanha ou um rio. Este processo, muito trabalhoso, limita os dados nos quais uma IA poderia ser treinada.
Os modelos Transformadores escapam desta limitação por meio de treinamento não supervisionado ou auto-supervisionado, ou seja, eles não precisam dos conjuntos de dados rotulados. Desta forma, eles podem ser treinados em trilhões de imagens e petabytes de dados de texto na Internet. Tais modelos de linguagem de IA também são chamados de "grandes modelos de linguagem", devido ao grande volume de dados sobre os quais são treinados. Os modelos desenvolvem correlações estatísticas entre palavras e partes de sentenças que aparecem juntas.
GPT-3 é um grande modelo de linguagem, gerador, baseado em Transformador. Uma vez treinado, dada uma sequência de palavras, ele pode prever a próxima palavra provável. Na verdade, ele prediz uma distribuição da próxima palavra mais provável. A próxima palavra é escolhida aleatoriamente, baseada nesta distribuição de probabilidade. Em quanto mais dados o modelo é treinado, mais coerente se torna sua saída, ao ponto de produzir não apenas passagens gramaticalmente corretas, mas aquelas que parecem significativas. No entanto, isso não significa que ele possa produzir passagens fatualmente precisas ou apropriadas.
O GPT-3.5 é um derivado do GPT-3, que utiliza o aprendizado supervisionado para aperfeiçoar sua produção. Humanos classificam e corrigem a saída do GPT-3, e a avaliação é incorporada de volta ao modelo. Foi relatado que a OpenAI terceirizou o trabalho de classificar dezenas de milhares de trechos de texto. Assim, o modelo é treinado para produzir resultados que não contenham falsidades óbvias ou conteúdo inapropriado - pelo menos desde que humanos classifiquem ou corrijam a categoria geral de tópicos aos quais o modelo é solicitado a responder.
O ChatGPT é a adaptação do GPT-3.5 para conversar com humanos. É um avanço significativo sobre as gerações anteriores de chatbots alimentados por IA, o que explica a excitação gerada por ele. Mas o ChatGPT é apenas um modelo de Transformador que tem sido implantado. O Google, por exemplo, construiu um modelo chamado BERT para entender as consultas dos usuários nas buscas do Google desde 2019.
No futuro, modelos baseados em Transformadores poderiam ajudar na criação e curadoria de conteúdo, em buscas e como auxiliares de pesquisa em campos como programação e até mesmo na descoberta de medicamentos (por meio de simulações de dobramento de proteína baseada em IA). Nós, entretanto, devemos entender que estamos na infância deste novo salto tecnológico e precisamos de muito mais pesquisa para levar algumas destas promessas e possibilidades à prática.
A OpenAI anunciou que tem um destino para o Santo Graal da IA - Inteligência Geral Artificial ou AGI (na sigla em inglês) - que se refere a máquinas que desenvolvem inteligência semelhante à humana. Embora os modelos transformadores sejam um avanço significativo na IA, devemos ser cautelosos em relação a uma reivindicação tão alta.
Muitos têm relatado que o ChatGPT fornece respostas incorretas ou sem sentido que parecem superficialmente significativas. Um médico relatou que o ChatGPT fez um diagnóstico médico impressionante - e uma afirmação estranha que parecia errada. Quando perguntado, ele forneceu uma referência de uma revista conceituada, referindo-se aos autores. O único problema era que a referência não existia. O ChatGPT tinha acabado de inventar do nada.
Isto significa que a tecnologia não só não é confiável, mas não pode realmente "entender" como nós, humanos, entendemos. Ela simplesmente gera conteúdo de acordo com seu modelo estatístico, o que é muito bom para nos enganar e nos fazer acreditar que ela pode.
Devemos nos proteger contra o modismo sobre um caminho para a AGI. Nossa inteligência e nossos instintos resultam de centenas de milhões de anos de evolução e mais de cem mil anos de desenvolvimento da sociedade humana. É improvável que mesmo máquinas muito poderosas com sofisticados algoritmos de aprendizagem, que consomem todos os textos escritos e imagens e sons que os humanos produziram, sejam capazes de desenvolver compreensão ou inteligência comparável à inteligência humana de qualquer forma. Entretanto, as máquinas podem aprender a realizar tarefas específicas muito bem usando os métodos descritos acima.
Com este amplo entendimento, analisamos algumas questões com tais modelos. Seu poder, para começar, vem da vasta quantidade de dados sobre os quais são treinados e do tamanho massivo de suas redes neurais de treinamento. O GPT-3 tem 175 bilhões de parâmetros, acima dos 1,5 bilhões para o GPT-2. A execução de tais modelos imensos requer enorme capacidade computacional.
O centro de treinamento da OpenAI é estimado em mais de 10.000 GPUs e 285.000 núcleos de CPU. A Microsoft, que investiu cerca de US$ 3 bilhões na OpenAI, se orgulhava de ser um dos maiores aglomerados de supercomputadores. Grande parte desse recurso pagou os custo de utilização dessa configuração. Há uma negociação para investir mais US$ 10 bilhões na empresa.
Tais pesquisas estão fora dos limites da maioria das instituições acadêmicas e até mesmo das empresas. Somente os maiores monopólios digitais, como o Google, Microsoft, Amazon, Facebook, etc., ou empresas por eles financiadas, podem arcar com tal preço e acesso a vastos dados de diversas fontes necessários para treinar o modelo.
O desenvolvimento e os benefícios econômicos resultantes de tais tecnologias futuras só chegariam para tais empresas, aumentando a expansão de seus monopólios digitais. Não apenas isso, é improvável que essas empresas compartilhem os dados usados para treinar os modelos ou as regras usadas para filtrar esses dados.
Isto levanta questões éticas, uma vez que estes modelos podem ser tendenciosos com base nas escolhas feitas com os dados. Temos exemplos do passado em que os modelos de IA desenvolveram um viés racial ou de gênero. É improvável que essas empresas e suas equipes de tecnologia tenham a capacidade ou a inclinação para lidar com tais questões.
Além da seleção de dados de treinamento, os modelos também são opacos. Mesmo as pessoas que trabalham neles não compreendem totalmente como funcionam, o que os parâmetros significam e a que correspondem os valores dos parâmetros na vida real. Estes são modelos gigantescos de regressão estatística baseados em quantidades enormes de dados que permitem "entender" as coisas sem supervisão.
Além disso, como disseram os pesquisadores de Stanford, os modelos são fundamentais na medida em que múltiplas adaptações e aplicações diferentes poderiam ser construídas a partir deles em campos não relacionados. Portanto, mesmo depois de totalmente desenvolvidos, os modelos podem funcionar na maioria dos casos, mas mesmo estas grandes empresas não vão considerar - muito menos a conta - os erros fatais que eles podem causar em qualquer campo.
A maioria das instituições acadêmicas não se daria ao luxo de adquirir tais configurações computacionais caras, e é improvável que estas empresas as disponibilizem para pesquisas acadêmicas. Portanto, não será possível para terceiros experimentar e revisar estes modelos.
Até agora, a ciência e a tecnologia têm progredido através de colaborações entre pares. Considerando os grandes danos que os algoritmos das mídias sociais têm desencadeado nas democracias e sociedades ao criar suas bolhas de filtragem e a proliferação de notícias falsas e de ódio, trememos ao pensar nos horrores desses novos modelos para as comunidades.
Mas a preocupação mais imediata será lidar com a perspectiva de extremo curto prazo dos monopólios tecnológicos e as startups como a OpenAI que eles estão financiando.
Os modelos de Transformadores são um salto crítico na tecnologia da IA, mas ainda estão em fase de pesquisa. Muito mais sobre como eles funcionam precisa ser entendido. Eles precisam de muitas gerações de melhorias antes de poderem ser implantados de forma responsável.
Entretanto, vemos esforços para lançar imediatamente o ChatGPT comercialmente. A OpenAI anunciou um "plano profissional" de US$ 42 dólares por mês (aproximadamente R$220) para o ChatGPT API. Isto abriria o modelo ChatGPT para que os desenvolvedores lançassem ofertas comerciais. Para aliviar os medos dos educadores, a OpenAI anunciou um serviço que identificaria os escritos produzidos pelo ChatGPT. Assim, após criar o problema do plágio, OpenAI poderia fazer uma matança vendendo a solução para escolas e universidades em todo o mundo!
Dada a propaganda exagerada e a ganância do capital de risco, já há ofertas para tornar redundantes operadores de suporte ao cliente, escritores, artistas, criadores de conteúdo, jornalistas, advogados, educadores e programadores de software em um futuro próximo. Isto trará sofrimento às pessoas que trabalham nestas áreas em termos de perda de empregos e, considerando o desdobramento prematuro, essas ofertas farão um grande desserviço às profissões.
Por exemplo, o jornalismo está esvaziado no mundo inteiro, e as organizações jornalísticas estão fazendo cortes profundos nos custos para sobreviver na era digital. As notícias e opiniões geradas pela IA podem exacerbar esta tendência. Como estes modelos geram superficialmente conteúdo razoável (e muitas profissões enfrentam pressões de custos), os gerentes seriam tentados a ignorar a supervisão humana do conteúdo gerado por IA, resultando em erros graves.
Há também preocupações éticas em torno da arte gerada por IA, como literatura e filmes. Enquanto produz peças de arte aparentemente novas, a IA na verdade aprende com os estilos artísticos existentes e os reproduz sem copiar o conteúdo. Assim, ela contorna a acusação de plágio, mas tais obras de arte equivalem a um plágio de alta tecnologia, pois os modelos são incapazes de ser criativos. Eles geram conteúdo baseado em algoritmos de previsão aprendidos.
Então, como a sociedade deve abordar tais preocupações?
Embora os modelos de IA baseados em transformadores representem um avanço substancial no aprendizado de máquinas, eles ainda estão em fase de pesquisa, e há muitas perguntas sem resposta sobre a ética e a regulamentação relativas ao seu uso. A pressa e a ganância indecorosas de seus criadores e financiadores podem causar grandes danos à sociedade.
Os governos devem agir rapidamente para evitar mais um ciclo de explosão tecnológica e os danos que eles trazem às sociedades. Devido a sua natureza fundadora, os governos devem tratar essas tecnologias como bens públicos. Os governos devem criar iniciativas públicas para financiar a pesquisa e o desenvolvimento dessas tecnologias promissoras para que elas sejam desenvolvidas com segurança e ética e implementadas para o bem maior da humanidade.
*Bappa Sinha é um tecnologista com mais de 25 anos de experiência em sistemas incorporados e software. É o Director de Tecnologia da Virtunet Systems e membro do Movimento de Software Livre da Índia.
Traduzido por: Flávia Chacon