TechSpot praznuje 25. obletnico. TechSpot pomeni tehnično analizo in nasvet, ki mu lahko zaupate.

Rezanje vogalov: Odvetniški stroški zagotovo niso poceni, zato, ko obdržimo pravno zastopanje, predvidevamo, da plačamo čas in strokovno znanje pravnega strokovnjaka. Namesto da bi zagotavljal običajne obdržane storitve, je en odvetnik z Manhattna poskušal skrajšati raziskovalni proces tako, da je ChatGPT dovolil, da citira svoje reference primerov za vložitev na zvezno sodišče. In kot je ugotovil na težji način, je preverjanje dejstev zelo pomembno, še posebej, če je vaša umetna inteligenca nagnjena k izmišljevanju dejstev.

Stranka je najela odvetnika Stevena A. Schwartza, da jo zastopa v primeru telesne poškodbe proti letalski družbi Avianca Airlines. Glede na trditev naj bi bila Schwartzova stranka med letom leta 2019 na mednarodno letališče Kennedy udarjena v koleno s servirnim vozičkom.

Kot bi pričakovali v tovrstni pravni situaciji, je letalska družba zaprosila zveznega sodnika na Manhattnu, naj zadevo zavrže, čemur je Schwartz takoj nasprotoval. Zaenkrat se sliši kot precej tipična izmenjava v sodni dvorani. To je, dokler se Schwartz, ki sicer nikoli prej ni uporabljal ChatGPT, ni odločil, da je čas, da tehnologiji prepustimo besedo.

V svojem ugovoru na zahtevo Aviance je Schwartz predložil 10-stransko poročilo, v katerem je navedel več pomembnih sodnih odločb. Citati so se nanašali na podobne primere, vključno z Martinez proti Delta Air Lines, Zicherman proti Korean Air Lines in Varghese proti China Southern Airlines. Glede na članek New York Timesa je zadnji citat celo zagotovil dolgo razpravo o zvezni zakonodaji in „učinku samodejnega zastaranja.”

Čeprav se sliši, kot da je Schwartz morda prišel oborožen in pripravljen na obrambo primera, obstaja en temeljni problem: nobeden od teh primerov ni resničen. Martinez, Zicherman in Varghese ne obstajajo. ChatGPT jih je vse izdelal z edinim namenom podpreti Schwartzovo predložitev.

Odvetnik iz New Yorka se sooča s sodno sankcijo, potem ko je uporabil #ChatGPT za pripravo pravnega zapisa, vloženega na sodišču v Manhattnu. Vsi primeri, ki jih je navedel #ChatGPT, so bili lažni. Na svetlejši strani stvari #AI morda ne bo kmalu nadomestil odvetnikov. https://t.co/fHGkQZhxRk

– Dr. Gideon Christian (@ProfXtian) 27. maj 2023

Ko se je sodnik P. Kevin Castel soočil z napako, je Schwartz priznal, da ni imel namena zavajati sodišča ali letalske družbe. Izrazil je tudi obžalovanje, ker se je zanašal na storitev umetne inteligence, in priznal, da nikoli ni uporabljal ChatGPT in se „… ni zavedal možnosti, da bi bila njegova vsebina lažna.” Po Schwartzovih izjavah je na eni točki poskušal preveriti verodostojnost citatov tako, da je AI vprašal, ali so primeri res resnični. Preprosto je odgovoril z „da”.

Sodnik Castel je odredil nadaljnjo obravnavo 8. junija, da bi razpravljali o možnih sankcijah v zvezi s Schwartzevimi dejanji. Castelov ukaz je nenavadne nove situacije natančno predstavil kot „okoliščino brez primere”, polno „lažnih sodnih odločitev, z lažnimi citati in lažnimi internimi citati.” In po krutem preobratu usode bi Schwartzov primer prav lahko končal kot eden od citatov, uporabljenih v prihodnjih sodnih primerih, povezanih z umetno inteligenco.

Preberi več