O texto a seguir é referência para a questão.
ChatGPT: tecnologia, limitações e impactos
Virgilio Almeida, Ricardo Fabrino Mendonça e Fernando Filgueiras
Projetado para simular conversação humana, em resposta a solicitações ou perguntas, o ChatGPT gera conteúdos sintéticos
aparentemente convincentes, mas que podem estar incorretos. Assim, é preciso conhecer o alcance dos impactos sociais e políticos que
a nova tecnologia reserva e criar uma regulamentação que permita proteger a sociedade de possíveis consequências adversas.
O desenvolvimento de Inteligências Artificiais (IAs) baseadas em aprendizado de máquina (machine learning) já ocorre há algumas
[5] décadas. Quando o cientista da computação alemão Joseph Weizenbaum (1923-2008) criou, entre 1964 e 1966, o algoritmo Eliza,
contribuiu com aspectos teóricos para o processamento de linguagem natural e construiu a percepção sobre os impactos dessas
tecnologias na sociedade. Ao ver sua secretária no Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, fazer confidências
para Eliza, mesmo sabendo que se tratava de um programa de computador, Weizenbaum percebeu o poder dessa tecnologia.
A interação entre humanos e máquinas inteligentes implica relações de poder e enquadramento da ação humana na sociedade.
[10] Weizenbaum dedicou-se a discutir o poder político e social dessas tecnologias, apontando que, em alguns casos discutíveis, caberia
à sociedade estabelecer o controle daquilo que deveria ou não ser levado adiante.
Em novembro de 2022, a empresa de pesquisa em inteligência artificial sem fins lucrativos OpenAI anunciou sua nova ferramenta
de processamento de linguagem natural, o ChatGPT, um chatbot projetado para simular conversação humana, em resposta a
solicitações ou perguntas. ChatGPT é um modelo grande de linguagem (Large Language Model – LLM), com 175 bilhões de
[15] parâmetros, treinado em uma imensa base de dados, capaz de aprender de forma autônoma e produzir textos sofisticados,
aparentemente inteligentes. Os parâmetros são chave para os algoritmos de aprendizado de máquina, pois representam aquilo que
é aprendido pelo modelo com os dados de treinamento.
Esses modelos são treinados para corresponder à distribuição de conteúdo gerado por humanos, com resultados que mostram, em
muitos casos, a incapacidade dos humanos de distinguir os conteúdos sintéticos produzidos por máquinas. Embora os conteúdos
[20] sintéticos, como textos, artigos ou mesmo imagens, pareçam convincentes, é importante enfatizar que são criações fictícias dos
algoritmos que podem estar incorretos factualmente. Apesar dos avanços recentes dos modelos de linguagem, existem sérias
limitações que precisam ser analisadas.
Disponível em: https://cienciahoje.org.br/artigo/chatgpt-tecnologia-limitacoes-e-impactos/. Adaptado.
A expressão “adversas”, destacada na linha 3, pode ser substituída sem prejuízo de sentido por: