ChatGPT ar putea păcăli evaluatorii științifici. Un astfel de nivel de sofisticare ar putea alimenta o criză a integrității științifice, avertizează autorii unui nou studiu.
Noul chatbot ChatGPT a crescut în popularitate de la lansarea sa în urmă cu câteva luni, în special datorită performanței sale destul de excepționale. Prin urmare, cercetătorii au vrut să știe dacă este capabil să producă în mod convingător rezumate false care ar putea păcăli oamenii de știință să creadă că studiile sunt reale.
Pentru aceasta, cercetătorii de la Northwestern University și de la Universitatea din Chicago au cerut lui ChatGPT să genereze rezumate false de cercetare din 10 rezumate reale publicate în reviste medicale și au trimis articolele false, împreună cu adevărate, oamenilor de știință. Acestea au fost menite să facă distincția între real și fals și cel mai puțin putem spune este că rezultatele sunt alarmante.
Oamenii de stiinta nu pot face diferenta dintre rapoartele reale si cele scrise de ChatGPT
Recensorii umani cărora li s-a oferit o combinație de rezumate reale și false au putut identifica rezumate generate de ChatGPT doar în 68% din timp. De asemenea, evaluatorii au identificat greșit 14% din rezumatele reale ca fiind generate de AI.
De asemenea, cercetătorii au supus articolele scrise de chatGPT unui software de detectare a plagiatului. Dacă 100% dintre ele au fost într-adevăr unice, întrucât chatGPT generează răspunsuri fără a copia o sursă, doar 8% dintre ei au respectat cerințele de formatare impuse de jurnalele științifice.
Prin urmare, ChatGPT nu este încă aproape de a înlocui scriitorii în toate domeniile, dar chatbot-ul ar trebui să facă progrese mari în următorii câțiva ani. Publicațiile științifice academice se bazează pe un proces de depunere și revizuire a articolelor de către experți umani în domeniile relevante, dar dacă aceștia nu mai sunt capabili să facă diferența dintre articolele generate de o inteligență artificială și un om, acest lucru ar putea pune în pericol multe profesii.
Deocamdată, cercetătorii îndeamnă reviste și conferințe medicale care se bazează pe studii științifice să mențină „standarde științifice riguroase” și să implementeze detectoare de ieșire AI atunci când revizuiesc articole. Un student a dezvoltat, de asemenea, un software pentru a afla dacă un text a fost generat de chatGPT.