Притеснения и противоречия около инструментите за разговорен изкуствен интелект
Възходът на разговорните или генеративните инструменти за изкуствен интелект (AI), като Bard на Google и ChatGPT на OpenAI, има предизвика както одобрение, така и противоречия.
Тези инструменти твърдят, че осигуряват отговори, подобни на човешките, чрез достъп до големи бази данни със съдържание. Критиците обаче твърдят, че този достъп до бази данни може да навреди на неприкосновеността на личния живот, сигурността и правата на интелектуална собственост.
Тези инструменти могат да използват въведените от потребителя данни за персонализиране на бъдещи взаимодействия, като потенциално съхраняват индивидуални предпочитания и формулировки на заявките.
Неотдавна основателят на VigiTrust, Матийо Горж, представи изследователски документ. Той спомена, че е интервюирал 15 главни служители по информационна сигурност, като всички те са изразили загриженост по отношение на генеративния ИИ.
Според Матийо най-сериозните опасения са свързани с изтичането на интелектуална собственост и поверителността. Освен това тези инструменти могат да създадат риск от други форми на сенчести ИТ. Макар че инструментите за генеративен ИИ обработват данни, използвайки интернет, те никога не посочват подробно къде съхраняват данните физически.
Експертите в областта на информационните технологии поставят под въпрос и различните условия на тези услуги. Те подчертаха, че е изключително важно да се прегледат споменатите условия, преди да се споделят чувствителни лични данни с инструменти за разговорен ИИ.
Поведението на тези системи варира в широки граници. Докато някои разчитат на остарели данни, други активно търсят и анализират наличната информация.
Политики за поверителност на данните, ограничения и въпроси за съответствие
Инструментите за генериращ изкуствен интелект обикновено прилагат политики за поверителност на данните. ChatGPT на OpenAI например предлага на потребителите възможности за изтриване на отделни разговори, всички данни или техните акаунти в рамките на 30 дни. Услугата също така следи заявките, за да предотврати злоупотреби.
От друга страна, Bard на Google събира разговори и обратна връзка от потребителите, но твърди, че няма достъп до чувствителна лична информация, съхранявана в акаунтите на потребителите на услугите на Google.
Освен споровете относно сигурността, публичните услуги за чатботове се сблъскват с въпроси относно съответствието, свързани с Общия регламент за защита на данните (GDPR).
Въпреки тези мерки за сигурност обаче инструментите на генеративния изкуствен интелект поставят предизвикателства пред бизнеса. Те разчитат на публично достъпни данни за обучение на моделите си и нямат контрол върху данните за обучение в сравнение с решенията за машинно обучение, базирани в предприятията.
Експертите от индустрията предлагат услугите за генериращ ИИ да прилагат специални политики и насоки, свързани с поверителността на данните. Те следва да включват прозрачност относно съхранението и използването на данни за целите на обучението и усъвършенстването.
Докато получаването на съгласие за споделяне на клиентски данни с вътрешно управлявани системи е сравнително лесно, то е предизвикателство за публичните чатботове. Тази загриженост е довела до държавни забрани за ChatGPT, както се видя наскоро в Италия. По подобен начин Обединеното кралство отложи стартирането на Bard в страната.
Потенциалът на генеративния изкуствен интелект е признат от множество експерти. ИТ директорите и главните директори по данните са заинтригувани от техните възможности. Въпреки това, технологията очевидно се нуждае от по-нататъшно развитие, преди организациите да я използват в основните си средикачеството и последователността на отговорите следва да бъдат наблюдавани.
Създателите на генеративни модели на изкуствен интелект трябва да предадат на предприятията достъп до фината настройка и контрол на тези инструменти, така че моделите да могат да се приспособят към уникалните изисквания на бизнеса.
Най-важното е, че има подчертана необходимост от разглеждане на етични съображения, смекчаване на пристрастията и гарантиране на справедливост при генерирането на отговори.