Управление на европроекти управление на европроекти
ChatGPT

С нарастването на чатботовете с изкуствен интелект се увеличават и опасенията за поверителност – страхуват се регулаторите

Широката популярност на ChatGPT и други чатботове с изкуствен интелект доведе до това, че милиони хора подават на тези ботове различни данни. Въпреки че удобството на използването на ИИ е безспорно, това породи опасения за безопасността, които регулаторните органи и предприятията едва започват да разбират.

Дори относително обикновен договор може да доведе до изтичане на чувствителна информация за дадена компания, която би допринесла за обучението на набора от данни на ИИ.

Проблемът се крие в начина, по който чатботовете, задвижвани от ИИ, използват информация за потребителите. Проектирани да се учат от подадената им информация, чатботовете могат по-късно да включат лични данни или поверителна бизнес информация, събрана от потребителите, за да генерират отговори за други.

Разбира се, фактът, че тези инструменти изобщо събират такива данни, също не е много успокояващ.

Чатботовете и другите инструменти за изкуствен интелект вече са обучени на огромни масиви от публично достъпни данни, съществуващи в интернет. Дружества като OpenAI използват автоматизирани инструменти за скрепиране на мрежата, за да съберат цялата тази информация, която понякога може да включва и лични данни. Освен това системите за ИИ продължават да се учат от информацията, предоставена от потребителите.

-25% ОТСТЪПКА ОТ ХОСТИНГ jump.bg намаление

Проблемът възниква, когато потребителите споделят всякакъв вид чувствителна информация, която допринася за обучението на чатбота. Уейн Чанг, основател на LLM Shield, сподели няколко примера в това отношение. Хората, които молят ChatGPT да прочете договор и да посочи недостатъци, например, изнасят поверителни условия към трета страна.

Хората трябва да се интересуват, защото лична информация, като номера на социални осигуровки или информация за кредитори – след като я вмъкнат, не се знае къде ще се окаже.

Същото важи и за потребителите, които разкриват информация за психичното си здраве или финансова информация, когато търсят съвет от инструменти с изкуствен интелект.

Вече са предприети регулаторни мерки срещу чатботовете с изкуствен интелект

САЩ са доста бавни в прилагането на закони за борба с опасенията за неприкосновеността на личния живот и проблемите с ИИ. Въпреки това, дори страни с по-строги закони в тези области едва сега започват да се занимават с проблемите на неприкосновеността на личния живот, породени от чатботовете с изкуствен интелект.

Държави като Германия, Франция и Канада разследват ChatGPT за опасения, свързани с личните данни.

Италия забрани ChatGPT през април поради опасения за поверителността на данните. Забраната обаче беше отменена след един месец. Япония, която е третият по големина пазар на ChatGPT, предупреди OpenAI да не събира лична информация от потребителите и да не я използва за машинно обучение.

Освен правителствата и регулаторните органи, различни корпорации са предприели предпазни мерки за справяне с проблемите с поверителността, породени от чатботовете с изкуствен интелект. Компании като Samsung, Apple, Goldman Sachs и Verizon са ограничили или забранили на служителите си да използват ChatGPT и други генеративни AI за бизнес цели. Други компании също предупредиха служителите си да не подават на тези системи поверителна или защитена информация.

Европейският съюз е особено активен по отношение на опасенията за неприкосновеността на личния живот, свързани с инструментите на ИИ. Неговият Общ регламент за защита на данните (GDPR), който се оказва една от най-силните правни рамки за защита на личните данни в света, понастоящем работи по набор от закони, насочени към регулиране на ИИ.

Законите за защита на личните данни в ЕС също така предлагат на гражданите „правото да бъдат забравени“, което означава, че те могат да изискват от компаниите да коригират или изтрият личната им информация.

Засега не е ясно колко компании, стоящи зад чатботове с изкуствен интелект, са в състояние да го спазват. Потребителите на ChatGPT в ЕС вече имат възможност да откажат на чатбота с изкуствен интелект да използва данните им за обучение. Липсата на такива закони в САЩ обаче превръща личната и бизнес информация в честна игра за инструментите на ИИ.

Въпреки че сблъсъкът между законите за ИИ и за защита на личните данни е очевиден, остава да се види дали регулаторите могат да бъдат в крак с последните развития и новите опасения за неприкосновеността на личния живот.

Back to top button