Управление на европроекти управление на европроекти
ChatGPT

Как съдиите, а не политиците, могат да диктуват правилата за изкуствения интелект в Америка

Става все по-ясно, че съдилищата, а не политиците, ще бъдат първите, които ще определят границите на развитието и използването на ИИ в САЩ.

Миналата седмица Федералната търговска комисия започна разследване дали OpenAI е нарушила законите за защита на потребителите, като е извличала онлайн данните на хората, за да обучи популярния си чатбот с изкуствен интелект ChatGPT. Междувременно художници, автори и компанията за изображения Getty съдят компании за изкуствен интелект като OpenAI, Stability AI и Meta, твърдейки, че те са нарушили законите за авторското право, като са обучавали моделите си върху техните произведения, без да предоставят признание или заплащане.

Ако тези дела се окажат успешни, те биха могли да принудят OpenAI, Meta, Microsoft и други да променят начина, по който ИИ се създава, обучава и внедрява, така че да бъде по-справедлив и равнопоставен.

Те биха могли също така да създадат нови начини за компенсиране на артисти, автори и други лица за това, че техните произведения се използват като данни за обучение на модели на ИИ, чрез система за лицензиране и авторски възнаграждения.

Бумът на генеративния ИИ съживи ентусиазма на американските политици за приемане на специфични закони за ИИ. Въпреки това е малко вероятно да видим такова законодателство да бъде прието през следващата година, като се има предвид разделеният Конгрес и интензивното лобиране от страна на технологичните компании, казва Бен Уинтърс, старши съветник в Центъра за информация за електронната неприкосновеност на личния живот. Дори най-значимият опит за създаване на нови правила за ИИ – рамката SAFE Innovation на сенатор Чък Шумър, не включва никакви конкретни политически предложения.

-25% ОТСТЪПКА ОТ ХОСТИНГ jump.bg намаление

„Изглежда, че по-прекият път [toward an AI rulebook is] да се започне със съществуващите закони“, казва Сара Майерс Уест, управляващ директор на изследователската група AI Now Institute.

А това означава съдебни искове.

Съдебни дела вляво, вдясно и в центъра

Съществуващите закони осигуряват много боеприпаси за тези, които твърдят, че правата им са били накърнени от компаниите за изкуствен интелект.

През изминалата година тези компании бяха засегнати от вълна от съдебни искове, най-скоро от комика и автор Сара Силвърман, която твърди, че OpenAI и Meta са иззели незаконно нейни материали, защитени с авторски права, от интернет, за да обучат своите модели. Нейните претенции са сходни с тези на артисти в друг колективен иск, в който се твърди, че популярен софтуер за генериране на изображения с изкуствен интелект е използвал техни изображения, защитени с авторски права, без тяхно съгласие. Microsoft, OpenAI и инструментът за програмиране с помощта на изкуствен интелект Copilot на GitHub също са изправени пред колективен иск, в който се твърди, че той разчита на „софтуерно пиратство в безпрецедентен мащаб“, тъй като е обучен на съществуващ програмен код, изстърган от уебсайтове.

Междувременно FTC разследва дали практиките на OpenAI за сигурност на данните и поверителност са нелоялни и измамни и дали компанията е причинила вреди, включително вреди на репутацията, на потребителите, когато е обучила своите модели на изкуствен интелект. Тя разполага с реални доказателства в подкрепа на своите опасения: В началото на тази година OpenAI получи пробив в сигурността, след като грешка в системата доведе до изтичане на информация за чат историята и плащанията на потребителите. Освен това езиковите модели на ИИ често изхвърлят неточно и измислено съдържание, понякога за хора.

OpenAI се отнася с оптимизъм към разследването на FTC – поне публично. Когато беше потърсена за коментар, компанията сподели нишка в Twitter от главния изпълнителен директор Сам Алтман, в която той заяви, че компанията е „уверена, че следваме закона“

Агенция като FTC може да даде компаниите под съд, да наложи стандарти срещу индустрията и да въведе по-добри бизнес практики, казва Марк Ротенберг, президент и основател на Центъра за изкуствен интелект и цифрова политика (CAIDP), организация с нестопанска цел. През март CAIDP подаде жалба до FTC с искане да разследва OpenAI. Агенцията има правомощията ефективно да създаде нови предпазни огради, които да указват на компаниите, работещи с ИИ, какво им е позволено и какво не, казва Майерс Уест.

FTC може да изиска от OpenAI да плати глоби или да изтрие всички данни, които са били незаконно получени, както и да изтрие алгоритмите, които са използвали незаконно събраните данни, казва Ротенберг. В най-крайния случай ChatGPT може да бъде изключен от мрежата. Има прецедент за това: през 2022 г. агенцията накара компанията за диети Weight Watchers да изтрие своите данни и алгоритми след незаконно събиране на данни за деца.

Много е вероятно и други правителствени правоприлагащи агенции да започнат свои собствени разследвания. Бюрото за финансова защита на потребителите сигнализира, че проучва използването на чатботове с изкуствен интелект в банковото дело, например. А ако генеративният ИИ изиграе решаваща роля в предстоящите президентски избори в САЩ през 2024 г., Федералната избирателна комисия също може да проведе разследване, казва Уинтърс.

Междувременно трябва да започнем да виждаме резултатите от съдебните дела, въпреки че може да отнеме поне няколко години, преди колективните искове и разследването на FTC да стигнат до съда.

Много от исковете, подадени през тази година, ще бъдат отхвърлени от съдия като твърде широки, смята Мехтаб Хан, резидент в Йейлския юридически факултет, който специализира в областта на интелектуалната собственост, управлението на данни и етиката на ИИ. Но те все пак имат важна цел. Адвокатите хвърлят широка мрежа и гледат какво ще се залепи. Това дава възможност за по-прецизни съдебни дела, които биха могли да накарат компаниите да променят начина, по който изграждат и използват своите модели на ИИ в последствие, добавя тя.

Съдебните дела могат също така да принудят компаниите да подобрят практиките си за документиране на данни, казва Хан. В момента технологичните компании имат много елементарна представа за това какви данни влизат в техните модели на ИИ. По-доброто документиране на начина, по който са събирали и използвали данни, може да разкрие евентуални незаконни практики, но може и да им помогне да се защитят в съда.

Историята се повтаря

Не е необичайно съдебните дела да дадат резултат, преди да започнат да действат други форми на регулиране – всъщност точно така САЩ са се справяли с новите технологии в миналото, казва Хан.

Нейният подход се различава от този на други западни държави. Докато ЕС се опитва да предотврати най-тежките вреди от ИИ проактивно, американският подход е по-скоро реактивен. САЩ изчакват първо да се появят вреди, преди да започнат да регулират, казва Амир Гави, партньор в адвокатската кантора Fried Frank. Гави представлява Stability AI, компанията, която стои зад генериращия изображения с отворен код изкуствен интелект Stable Diffusion, в три съдебни дела за авторски права.

„Това е прокапиталистическа позиция“, казва Гави. „Тя насърчава иновациите. Тя дава на творците и изобретателите свободата да бъдат малко по-смели в представянето на нови решения.“

Колективните искове за авторски права и неприкосновеност на личния живот биха могли да хвърлят повече светлина върху начина, по който работят „черните кутии“ на алгоритмите на ИИ, и да създадат нови начини за компенсиране на артисти и автори за това, че творбите им се използват в моделите на ИИ, казват Джоузеф Савери, основател на адвокатска кантора за антитръстови и колективни искове, и Матю Бътърик, адвокат.

Те водят исковете срещу GitHub и Microsoft, OpenAI, Stability AI и Meta. Савери и Бутерик представляват Силвърман, част от група автори, които твърдят, че технологичните компании са обучили своите езикови модели върху техни книги, защитени с авторски права. Генеративните модели на изкуствения интелект се обучават с помощта на огромни масиви от данни, съдържащи изображения и текст, взети от интернет. Това неизбежно включва данни, защитени с авторско право. Авторите, художниците и програмистите твърдят, че технологичните компании, които са надраскали тяхната интелектуална собственост без съгласието или признанието, трябва да ги компенсират.

„Има празнота, в която все още няма върховенство на закона, и ние въвеждаме закона там, където трябва да отиде“, казва Бутерик. Макар че технологиите за изкуствен интелект, предмет на исковете, може да са нови, правните въпроси около тях не са и екипът разчита на „доброто старо“ авторско право, добавя той.

Бутерик и Савери посочват като пример Napster, системата за споделяне на музика от типа peer-to-peer. Компанията беше съдена от звукозаписни компании за нарушаване на авторските права и това доведе до знаково дело за справедливото използване на музика.

Споразумението по делото Napster разчисти пътя на компании като Apple, Spotify и други да започнат да създават нови лицензионни сделки, казва Бутерик. Двойката се надява, че техните съдебни дела също ще разчистят пътя за лицензионно решение, при което на артистите, писателите и другите притежатели на авторски права също ще могат да се плащат възнаграждения за това, че тяхното съдържание се използва в модел на изкуствен интелект, подобно на системата, която съществува в музикалната индустрия за семплиране на песни. Дружествата ще трябва също така да поискат изрично разрешение за използване на защитено с авторски права съдържание в обучителни набори.

Технологичните компании третират публично достъпните данни, защитени с авторско право, в интернет като обект на „справедливо използване“ съгласно американското законодателство за авторското право, което би им позволило да ги използват, без да искат предварително разрешение. Притежателите на авторски права не са съгласни с това. Колективните искове вероятно ще определят кой е прав, казва Гави.

Това е само началото на нов бум за технологичните адвокати. Експертите, с които MIT Technology Review разговаря, се съгласиха, че технологичните компании вероятно ще се сблъскат и със съдебни спорове относно неприкосновеността на личния живот и биометричните данни, като например изображения на лицата на хората или клипове с техния говор. Prisma Labs, компанията, която стои зад популярната програма за аватари с изкуствен интелект Lensa, вече е изправена пред колективен иск за начина, по който е събирала биометрични данни на потребителите.

Бен Уинтърс смята, че ще видим и повече съдебни дела около отговорността за продукта и раздел 230, който ще определи дали компаниите за ИИ са отговорни, ако техните продукти се объркат, и дали трябва да носят отговорност за съдържанието, което техните модели за ИИ създават.

„Съдебните процеси могат да бъдат тъп предмет за социална промяна, но въпреки това могат да бъдат доста ефективни“, казва Савери. „И никой не лобира Матю [Butterick] или мен.“

Back to top button