OpenAI е съдена за клевета, след като ChatGPT изфабрикува правни обвинения срещу радиоводещ
OpenAI е била засегната от това, което изглежда е първият съдебен иск за клевета в отговор на невярна информация, генерирана от ChatGPT.
Радиоводещият в Джорджия Марк Уолтърс съди компанията, след като ChatGPT заявява, че Уолтърс е обвинен в измама и присвояване на средства от организация с нестопанска цел. Системата генерира информацията в отговор на искане от трета страна, журналист на име Фред Рийл. Делото на Уолтърс е заведено на 5 юни във Върховния съд на окръг Гуинет в Джорджия и той иска неуточнено парично обезщетение от OpenAI.
Делото е забележително предвид широко разпространените оплаквания за невярна информация, генерирана от ChatGPT и други чатботове. Тези системи не разполагат с надежден начин да разграничат фактите от измислиците и при поискване на информация – особено ако са помолени да потвърдят нещо, което задаващият въпроса предполага, че е вярно – те често измислят дати, факти и цифри.
„Чух за този нов сайт, за който погрешно предположих, че е нещо като супер търсачка“
Обикновено тези измислици не правят нищо повече от това да подвеждат потребителите или да им губят времето. Но започват да се появяват случаи на такива грешки, които причиняват вреда. Сред тях са професор, който заплашва да провали класа си, след като ChatGPT твърди, че студентите му са използвали изкуствен интелект, за да пишат есетата си, и адвокат, който е изправен пред възможни санкции, след като е използвал ChatGPT, за да проучи фалшиви правни казуси. Въпросният адвокат наскоро заяви пред съдия: „Чух за този нов сайт, за който погрешно предположих, че е нещо като супер търсачка“
OpenAI включва малък отказ от отговорност на началната страница на ChatGPT, който предупреждава, че системата „понякога може да генерира невярна информация“, но компанията също така представя ChatGPT като източник на надеждни данни, описвайки системата в рекламно копие като начин да „получите отговори“ и „да научите нещо ново“ Самият главен изпълнителен директор на OpenAI Сам Алтман многократно е казвал, че предпочита да научава нова информация от ChatGPT, отколкото от книги.
Не е ясно обаче дали има правен прецедент, който да държи компания отговорна за системи за изкуствен интелект, генериращи невярна или клеветническа информация, или дали този конкретен случай има съществени основания.
Традиционно в САЩ раздел 230 защитава интернет фирмите от правна отговорност за информация, създадена от трета страна и хоствана на техните платформи. Не е известно дали тези защити се прилагат за системите с изкуствен интелект, които не просто се свързват с източници на данни, а генерират информация наново (процес, който също води до създаването от тях на неверни данни).
Съдебното дело за клевета, заведено от Уолтърс в Джорджия, би могло да провери тази рамка. В делото се посочва, че журналистът Фред Рийл е поискал от ChatGPT да обобщи реално дело на федерален съд чрез препратка към онлайн PDF файл. В отговор ChatGPT създава фалшиво резюме на делото, което е подробно и убедително, но е погрешно в няколко аспекта. Обобщението на ChatGPT съдържаше някои фактически верни сведения, но също така и неверни твърдения срещу Уолтърс. В него се казваше, че се смята, че Уолтърс е присвоил средства от организация с нестопанска цел, занимаваща се с правата на оръжията, наречена Фондация за втора поправка, в размер „над 5 000 000 долара“ Уолтърс никога не е бил обвиняван в това.
Рийл никога не е публикувал невярната информация, генерирана от ChatGPT, а е проверил подробностите с друга страна. От документите по делото не става ясно как тогава Уолтърс е разбрал за тази дезинформация.
Забележително е, че въпреки изпълнението на искането на Riehl за обобщаване на PDF, ChatGPT всъщност не може да получи достъп до такива външни данни без използването на допълнителни приставки. Неспособността на системата да предупреди Riehl за този факт е пример за нейната способност да заблуждава потребителите. (Въпреки че, когато The Verge тества системата днес за същата задача, тя отговори ясно и информативно, като заяви: „Съжалявам, но като модел на базата на текст с изкуствен интелект нямам възможност за достъп или отваряне на конкретни PDF файлове или други външни документи.“)