A notícia de que alguns cientistas listaram a OpenAI (empresa criadora de alguns sistemas de inteligência artificial, inclusive o ChatGPT) entre os autores de artigos científicos gerou reações imediatas tanto da comunidade de pesquisa quanto dos editores de periódicos revisados por pares. [1] Na realidade, o ChatGPT não é a primeira ferramenta de inteligência artificial a ser listada como coautora de um artigo científico: no ano passado apareceu um artigo escrito pelo bot GPT-3 em um site de publicações pré-impressão. GPT-3 é o precursor do sistema que nas últimas semanas está intrigando e preocupando muitos produtores de conteúdo, de jornalistas a cientistas. [2]
E esse nem é um dos autores mais inusitados, pois a crônica da produção científica contabiliza entre os coautores de artigos científicos vários animais e personagens inventados com nomes engraçados ou excêntricos. A começar pelo caso icônico do físico americano William Hoover, que incluiu entre os coautores de algumas de suas obras o pesquisador Stronzo Bestiale (“imbecil tosco”), expressão que Hoover ouviu por acaso durante uma viagem à Itália). [3]
A responsabilidade do autor
Então, por que tanta agitação pelo que parece ser uma evolução tecnológica já esperada? A resposta está na definição de autor de um artigo científico, fruto de anos de avaliação ética da pesquisa científica e após muitos casos de fraude científica, alguns dos quais (os mais marcantes) geraram estudos baseados em dados inteiramente inventados. [4] As fraudes científicas às vezes são cometidas apenas por alguns membros da equipe da pesquisa, mas a presença de vários autores faz com que seja difícil atribuir a responsabilidade específica a cada um.
Por isso, a norma aceita hoje é que todos os autores de um artigo científico são responsáveis pelo estudo completo e todos são responsáveis pela supervisão mútua. Há algumas exceções a essa regra (como os grandes ensaios clínicos colaborativos, com milhares de nomes), limitadas pela demanda cada vez mais comum de especificar, na parte inferior de cada artigo, qual foi a contribuição efetiva de cada autor, independentemente de sua posição na lista de coautores.
Os requisitos da autoria
Na versão mais recente das diretrizes, que foram atualizadas cerca de 20 vezes desde 1979, o International Committee of Medical Journal Editors recomenda que as avaliações de autoria sejam baseadas em quatro critérios. Para ser um dos autores, é preciso:
ter dado alguma contribuição importante para a concepção ou elaboração do trabalho ou para a aquisição, análise ou interpretação dos dados;
ter redigido a versão preliminar do artigo ou feito sua revisão crítica, acrescentando conteúdo intelectual importante;
ter aprovado a publicação da versão final;
concordar em ser responsabilizado por qualquer aspecto do trabalho, assegurando que as questões relacionadas com a exatidão ou com a integridade de cada parte do trabalho tenham sido devidamente pesquisadas e resolvidas.
Embora essas regras sejam aplicadas principalmente ao campo biomédico, também foram estendidas a outras disciplinas por meio de instituições como o Committee on Publication Ethics. [5]
Uma ferramenta notável
Voltando ao ChatGPT e a outros sistemas generativos (capazes de produzir textos baseados nas complexas leis que regem a linguagem natural), seu uso se choca com a maioria das regras que definem o direito à autoria, especialmente no que diz respeito à responsabilidade pelos resultados obtidos. E essa é a direção que os publicadores estão tomando: após o posicionamento da revista científica Nature, que decidiu não aceitar a inteligência artificial como autora, outros periódicos como o JAMA também seguiram o mesmo caminho. [6]
Isso não significa que essas ferramentas não possam ser utilizadas: o uso é permitido, mas deve ser mencionado na seção dedicada às metodologias com as quais o estudo foi realizado, como é feito para qualquer instrumento de pesquisa.
No entanto, os problemas não acabam por aí, particularmente nas áreas onde a precisão da informação é crucial.
"A comunidade editorial acadêmica imediatamente mostrou preocupação com o potencial uso indevido desses modelos de linguagem nas publicações científicas", escreveram os autores de um editorial no periódico JAMA.
"Alguns experimentaram fazer uma série de perguntas ao ChatGPT sobre tópicos controversos ou importantes (por exemplo, se as vacinas infantis causam autismo), bem como questões técnicas e éticas específicas relacionadas com a publicação. Os resultados mostraram que as respostas textuais do ChatGPT, embora sejam na sua maioria bem redigidas, são dificilmente diferenciáveis, [apresentam informações] desatualizadas, falsas ou inventadas, sem referências precisas ou completas e, pior ainda, com evidências inventadas e inexistentes para apoiar as alegações feitas.”
Além disso, os textos gerados com base em informações já publicadas podem se enquadrar na definição de plágio científico, mesmo que as ferramentas como o ChatGPT tenham a capacidade de recriar o texto com variações, a ponto de isso não ser detectado pelos programas antiplágio convencionais, mas somente pelos programas que os próprios criadores dessas ferramentas estão disponibilizando atualmente.
Por outro lado, "A OpenAI reconhece algumas limitações do modelo linguístico — como dar respostas plausíveis, porém incorretas ou desprovidas de sentido — e que a versão mais recente é parte de uma implementação iterativa aberta destinada ao uso humano, à interação e à resposta do usuário a fim de aprimorá-lo". Em essência, dizem os especialistas, o modelo não está pronto para ser usado como fonte de informações confiáveis sem supervisão e revisão humana precisas, pelo menos não na medicina.
Problemas éticos mais amplos
Há, no entanto, outras questões éticas sobre as quais a comunidade científica terá de refletir, já que o instrumento só melhorará com o tempo. Por exemplo, essa ferramenta poderia preencher a lacuna linguística entre cientistas nativos de língua inglesa e os outros, facilitando a publicação de pesquisas conduzidas e escritas em diversos idiomas.
Por outro lado, há um problema objetivo de superprodução de conteúdo científico, de modo que é quase impossível para um especialista acompanhar a evolução da sua área temática. Também não está claro por que razão a comunidade científica deveria promover uma ferramenta que aumente a velocidade e a quantidade de artigos, enquanto poderia estar interessada (se o instrumento permitisse) em fazer ciência de melhor qualidade e estatisticamente mais significativa. Enfim, o refinamento dessas ferramentas pode desvalorizar a capacidade de escrever um artigo, rebaixando-a de requisito essencial ao fazer científico para competência auxiliar, além de aprimorar a capacidade de verificação de dados e estrutura de texto a fim de manter intacta a responsabilidade humana sobre essa produção intelectual.
Enquanto isso, todos que planejam escrever algum artigo com a ajuda da inteligência artificial devem seguir as recomendações que os editores compartilharam recentemente:
as seções criadas com ajuda da inteligência artificial devem ser devidamente destacadas e a metodologia utilizada para gerá-las deve ser explicada no próprio artigo (incluindo o nome e a versão do programa utilizado, em prol da transparência);
a submissão de artigos inteiramente produzidos pela inteligência artificial, em particular se forem revisões sistemáticas da literatura, é fortemente desencorajada, pela imaturidade do sistema e também por sua tendência de perpetuar os vieses estatísticos e de seleção existentes nas instruções do criador da ferramenta, a menos que sejam estudos elaborados precisamente para avaliar a confiabilidade destes instrumentos (objetivo esse que deve, naturalmente, ser explicitado no próprio artigo);
a geração de imagens e seu uso em artigos científicos é desencorajada por ser contrária às normas éticas das publicações científicas, a menos que as imagens em questão sejam elas mesmas o objeto da pesquisa.
Este conteúdo foi originalmente publicado na Univadis – Medscape Professional Network
Siga o Medscape em português no Facebook, no Twitter e no YouTube
Créditos: Imagem principal: Dreamstime
Medscape Notícias Médicas © 2023
Citar este artigo: ChatGPT como coautor de artigos científicos: já virou realidade? - Medscape - 15 de março de 2023.
Comente