TechSpot praznuje 25. obletnico. TechSpot pomeni tehnično analizo in nasvet, ki mu lahko zaupate.
Zakaj je pomembno: Plagiatorstvo na osnovi umetne inteligence postaja vse bolj nadležen in nevaren pojav, zlasti za pristne publikacije znanstvenih raziskav. Mnogi ljudje (in raziskovalci) poskušajo razviti praktično rešitev proti tovrstni težavni malenkosti in zdi se, da nov pristop deluje še posebej dobro za določeno vrsto znanstvenih člankov.
ChatGPT je izjemno dober pri ponarejanju ustvarjalne vsebine, ki jo je ustvaril človek, čeprav dejanski strokovnjaki menijo, da je klepetalni robot precej „posran” in odveč kot pisec. Ko gre za znanstveno pisanje, pa se lahko chatboti spremenijo iz preprostih nadlog ali šolskih orodij za goljufanje v dejanske grožnje znanosti in ustreznim raziskovalnim praksam.
Nedavno objavljena raziskava znanstvenikov z Univerze v Kansasu predlaga potencialno rešitev za problem plagiatorstva, ki temelji na umetni inteligenci, in se ponaša z izjemno sposobnostjo razlikovanja dejanskega znanstvenega pisanja, ki ga je ustvaril človek, od izhoda ChatGPT „z več kot 99-odstotno natančnostjo.” Rezultat, očitno dosežen z algoritmi AI in posebej usposobljenim jezikovnim modelom.
Profesorica kemije Heather Desaire in njeni kolegi se borijo proti umetni inteligenci z umetno inteligenco in zdi se, da v zvezi s tem dosegajo zelo dobre rezultate: raziskovalci so se osredotočili na „perspektivne” članke, poseben slog člankov, objavljenih v znanstvenih revijah, da bi zagotovili preglede določenih raziskav teme.
Znanstveniki so izbrali 64 perspektivnih člankov o temah, ki segajo od biologije do fizike, nato pa so ChatGPT prosili, naj ustvari nove odstavke o isti raziskavi, da bi združili 128 „lažnih” člankov. Umetna inteligenca je izpljunila 1276 odstavkov, ki so bili nato uporabljeni za urjenje jezikovnega modela, ki so ga izbrali raziskovalci, da bi poskusili razvrstiti besedilo, ki ga je ustvarila umetna inteligenca.
Za testiranje na novo usposobljenega algoritma sta bila sestavljena še dva nabora podatkov, eden vsebuje 30 člankov o resničnih perspektivah in drugi s 60 članki, ki jih je ustvaril ChatGPT. Zdi se, da je algoritem z odliko prestal teste, ki so jih pripravili raziskovalci: klasifikator AI je lahko zaznal članke ChatGPT 100 % časa, medtem ko je natančnost zaznavanja posameznih lažnih odstavkov padla na 92 %.
Znanstveniki pravijo, da klepetalni roboti pokvarjajo besedilne vsebine z uporabo določenega „pisnega” sloga, zato bi njihovo „roko” lahko identificirali na precej učinkovit način. Človeški znanstveniki imajo običajno bogatejši besedni zaklad in pišejo daljše odstavke, ki vsebujejo več različnih besed in ločil. Poleg tega ChatGPT ni ravno znan po svoji ravni natančnosti in se izogiba podajanju specifičnih številk ali navajanju imen drugih znanstvenikov.
Raziskovalci iz Kansasa so svoj pristop proti plagiatorstvu umetne inteligence opredelili kot študijo „dokaz koncepta”, čeprav se je izkazala za zelo učinkovito pri prepoznavanju člankov z lažnimi perspektivami. Potrebne so nadaljnje raziskave (ki jih je izdelal človek), da se ugotovi, ali bi isti pristop lahko uporabili za druge vrste znanstvenih člankov ali splošne besedilne rezultate, ki jih ustvari umetna inteligenca.