ChatGPT

Notizia

CasaCasa / Notizia / ChatGPT

Aug 18, 2023

ChatGPT

Puoi anche cercare questo autore in PubMed Google Scholar Hai pieno accesso a questo articolo tramite la tua istituzione. I chatbot AI come ChatGPT vengono collegati a database scientifici per creare

Puoi anche cercare questo autore in PubMed Google Scholar

Hai pieno accesso a questo articolo tramite il tuo istituto.

I chatbot basati sull'intelligenza artificiale come ChatGPT vengono collegati a database scientifici per creare esperienze di ricerca conversazionale.Credito: Gabby Jones/Bloomberg tramite Getty

I chatbot conversazionali basati sull’intelligenza artificiale che sono arrivati ​​ai motori di ricerca Internet, come Bard di Google e Bing di Microsoft, sembrano sempre più destinati a cambiare anche la ricerca scientifica. Il 1° agosto, il colosso editoriale olandese Elsevier ha rilasciato un'interfaccia AI basata su ChatGPT per alcuni utenti del suo database Scopus, mentre la società britannica Digital Science ha annunciato una sperimentazione chiusa di un assistente AI Large Language Model (LLM) per il suo database Dimensions. Nel frattempo, l'azienda statunitense Clarivate afferma che sta anche lavorando per portare gli LLM nel suo database Web of Science.

Gli LLM per la ricerca scientifica non sono una novità: aziende start-up come Elicit, Scite e Consensus dispongono già di tali sistemi di intelligenza artificiale, che aiutano a riassumere i risultati di un campo o a identificare gli studi migliori, basandosi su database scientifici gratuiti o (nel caso di Scite) accesso ad articoli di ricerca protetti da paywall attraverso partnership con editori. Ma le aziende che possiedono grandi database proprietari di abstract e riferimenti scientifici si stanno ora unendo alla corsa all’intelligenza artificiale.

Il chatbot di Elsevier, chiamato Scopus AI e lanciato come progetto pilota, è concepito come uno strumento leggero e giocoso per aiutare i ricercatori a ottenere rapidamente riassunti di argomenti di ricerca con cui non hanno familiarità, afferma Maxim Khan, un dirigente di Elsevier a Londra che ha supervisionato lo sviluppo dello strumento. In risposta a una domanda in linguaggio naturale, il bot utilizza una versione di LLM GPT-3.5 per restituire un paragrafo riassuntivo fluente su un argomento di ricerca, insieme ai riferimenti citati e ulteriori domande da esplorare.

In risposta a una domanda basata su testo, Scopus AI restituisce un riassunto fluido di un argomento di ricerca, nonché riferimenti pertinenti.Credito: Scopus AI

Una preoccupazione riguardo ai LLM per la ricerca, in particolare per la ricerca scientifica, è che sono inaffidabili. I LLM non comprendono il testo che producono; funzionano semplicemente sputando parole stilisticamente plausibili. I loro risultati possono contenere errori fattuali e pregiudizi e, come gli accademici hanno rapidamente scoperto, possono costituire riferimenti inesistenti.

L’intelligenza artificiale di Scopus è quindi vincolata: è stata indotta a generare la sua risposta solo facendo riferimento a cinque o dieci abstract di ricerca. L'intelligenza artificiale non trova gli abstract da sola: piuttosto, dopo che l'utente ha digitato una query, un motore di ricerca convenzionale li restituisce come pertinenti alla domanda, spiega Khan.

Molti altri sistemi di motori di ricerca basati sull’intelligenza artificiale adottano una strategia simile, osserva Aaron Tay, bibliotecario della Singapore Management University che segue gli strumenti di ricerca basati sull’intelligenza artificiale. Questa è talvolta chiamata generazione aumentata con recupero, perché LLM si limita a riassumere le informazioni rilevanti recuperate da un altro motore di ricerca. "LLM può ancora occasionalmente avere allucinazioni o inventare cose", afferma Tay, indicando una ricerca sui chatbot AI di ricerca su Internet, come Bing e Perplexity, che utilizzano una tecnica simile.

Elsevier ha limitato il suo prodotto AI alla ricerca solo degli articoli pubblicati dal 2018, in modo da raccogliere documenti recenti, e ha incaricato il suo chatbot di citare in modo appropriato gli abstract restituiti nella sua risposta, per evitare domande non sicure o dannose e per indicare se ci sono nessuna informazione rilevante negli abstract che riceve. Ciò non può evitare gli errori, ma li minimizza. Elsevier ha anche ridotto l'imprevedibilità della sua intelligenza artificiale scegliendo un'impostazione bassa per la "temperatura" del bot, una misura di quanto spesso sceglie di deviare dalle parole più plausibili nella sua risposta.

Gli utenti potrebbero semplicemente copiare e incollare i paragrafi del bot nei propri documenti, plagiando di fatto lo strumento? Questa è una possibilità, dice Khan. Elsevier ha finora affrontato questo problema con una guida che chiede ai ricercatori di utilizzare i riassunti in modo responsabile, dice. Khan sottolinea che i finanziatori e gli editori hanno emesso linee guida simili, chiedendo una divulgazione trasparente se gli LLM vengono utilizzati, ad esempio, per scrivere articoli o condurre revisioni tra pari, o in alcuni casi affermando che gli LLM non dovrebbero essere utilizzati affatto.