ChatGPT определя границата: 5 действия, които категорично отказва да извърши

През 1942 г. американският писател Айзък Азимов въвежда концепцията за „Трите закона на роботиката“ в разказа си „Бягство“ Най-просто казано, „Трите закона“ са набор от директиви, които роботите в неговия разказ са принудени да следват, за да осигурят безопасността на човечеството. Трите закона формират един от гръбнаците на съвременните научнофантастични разкази и, както все по-често се случва в наши дни, научнофантастичните разкази са в основата на развитието на нови технологии като изкуствения интелект.

ChatGPT на OpenAI може да изглежда така, сякаш веднага ще отговори на всеки зададен му въпрос, но в действителност има ограничения на възможностите му, както по отношение на това, което не може да направи, така и на това, което няма да направи. В ChatGPT са вградени множество протоколи, много повече, отколкото могат да обхванат Трите закона, за да се гарантира, че резултатите от него няма да застрашат живота, да повредят имущество или като цяло да разпространят нещастие. Ако искате чатбот с изкуствен интелект да прави тези неща, ChatGPT няма да ви помогне – поне не и доброволно.

Не искайте от него да предсказва бъдещето

fortune tellerGetty Images/Getty Images

Ако има два постоянни източника на прозрение за бъдещето в художествената литература, това са гадателите и напредналият изкуствен интелект. Някои съвременни философи изказват предположението, че един достатъчно напреднал ИИ, който чете развитието на човешката история, теоретично би могъл да предвиди изхода от събития, които тепърва предстои да се случат. Разбира се, всичко това са дълбоко теоретични неща и дори ако ChatGPT действително разполагаше с изчислителната мощ и безкрайните референтни данни, за да направи прогноза, той не би я споделил.

SlashGear

Ако се опитате да помолите ChatGPT да предскаже някакво бъдещо събитие, чатботът ще откаже, заявявайки, че няма такава възможност. В зависимост от точния характер на запитването ви обаче той може да ви даде някакъв общ съвет – например, ако попитате колко високо ще бъде нивото на морското равнище след 30 години, той няма да знае, но ще каже, че отговорът зависи до голяма степен от състоянието на полярните ледени шапки.

ChatGPT няма да насърчава или подпомага престъпления

Gorodenkoff/Shutterstock

С простото пускане на ChatGPT на обществеността OpenAI вече си навлече доста неприятни погледи от онези, които се притесняват, че изкуственият интелект ще отнеме работата им или ще проникне в устройствата им. В този смисъл е ясно, че ChatGPT трябва категорично да откаже да съветва или подпомага престъпни дейности, ако не за друго, то за да прикрие пословичния задник на OpenAI.

SlashGear

Ако се опитате да поискате от ChatGPT някакъв съвет относно незаконни дейности, той може да ви информира, че това, което предлагате, всъщност е незаконно и той няма да участва в него. Не само това, но и чатботът може да се впусне в кратък разговор, за да ви обясни защо точно въпросната дейност е незаконна и по каква причина са въведени тези закони. В други случаи той може просто да откаже да продължи разговора. По принцип, ако се опитате да накарате ChatGPT да извърши престъпление, в най-добрия случай можете да очаквате лекция по етика.

ИИ не може да извършва търсене в интернет

Rawpixel.com/Shutterstock

За да обучи ChatGPT да отговаря на всички видове запитвания, OpenAI му предостави безброй публично достъпна информация и статистически данни. Въпреки че ChatGPT може да се обърне към вътрешната си база данни, за да отговори на вашите въпроси, тя не може да извършва търсене, поне не по същия начин, както традиционната търсачка. Ако се опитате да извършите търсене чрез ChatGPT, тя може да реагира на вашето запитване така, сякаш действително сте ѝ задали въпрос, но няма да ви препрати към никакви външни уебстраници.

SlashGear

Въпреки това това ограничение се отнася само за специалния клиент ChatGPT. Тъй като моделите с изкуствен интелект бяха възприети от множество услуги в интернет, технологията си проправи път и към търсачките. Както Bing Chat, така и Google Bard използват свои собствени AI алгоритми, подобни на ChatGPT, но с допълнителна функционалност за извършване на търсене в прозореца. По-специално Bing Chat се захранва от същата основна технология като ChatGPT, така че ако искате версия на чатбота, която може да изпълнява търсения, ще я намерите там.

Не очаквайте да получите лични данни от ChatGPT

Mf3d/Getty Images

Друга загриженост, основана на концепции, произхождащи от фантастиката, е, че ботовете с изкуствен интелект, под контрола на лоши актьори, ще проникнат в частни системи, за да откраднат данни. За щастие, това все още не е факт – ако някой иска да открадне данните ви, ще трябва да го направи сам. Все пак, дори и да се притеснявате, че ChatGPT ще открадне тайните ви, не е нужно да се притеснявате, че ще ги сподели.

SlashGear

Вътрешната база данни на ChatGPT се състои само от публично достъпна информация. Ако се опитате да я помолите да разкрие нещо, до което няма достъп, тя може само да направи по-малко от образовани предположения и вероятно ще ви информира, че необходимата информация не е налична. Подобно на отказа на ChatGPT да подпомага и подстрекава към престъпна дейност, тя не може да разкрие никаква информация, която потенциално може да бъде използвана, за да навреди на някого, както защото не разполага с нея, така и защото не иска да го направи.

ChatGPT няма да програмира зловреден софтуер… нарочно

Olemedia/Getty Images

Вече е добре документирано, че ChatGPT притежава способността да пише свой собствен код от нулата и в по-голямата си част този код е функционален. Макар че идеалното приложение на това е ускоряване на общия процес на кодиране, някои изразиха опасения, че тази функция може да се използва за бързо и лесно кодиране на опасни програми като зловреден софтуер.

SlashGear

Тук има малко добра и лоша новина. Добрата новина е, че ако поискате от ChatGPT да ви кодира зловреден софтуер, той ще откаже, тъй като протоколите му не позволяват да прави нищо опасно. Лошата новина е, че ако го помолите за конкретни случаи на кодиране, без да разкривате какво възнамерявате да правите с него, той може да бъде подмамен да направи нещо потенциално опасно. Има документирани случаи на хакери с бяла шапка, които използват ChatGPT за създаване на зловреден софтуер с изследователска цел, така че се надяваме, че това е уязвимост, която може да бъде решена.

Exit mobile version