Anthropic предупреждава за катастрофа с изкуствения интелект, ако правителствата не регулират в рамките на 18 месеца
Anthropic предупреждава за катастрофа на изкуствения интелект, ако правителствата не го регулират в рамките на 18 месеца
Anthropic, водеща компания в областта на изкуствения интелект, отправи сериозно предупреждение за потенциалните последици от нерегулираното развитие на изкуствения интелект. Компанията подчертава, че прозорецът за проактивно предотвратяване на рисковете бързо се затваря и са необходими незабавни действия от страна на правителствата за намаляване на тези рискове.
Основи на предупреждението
Само няколко дни преди президентските избори в САЩ Anthropic се застъпва за собствена регулация, за да предотврати това, което нарича „катастрофални“ рискове, свързани с ИИ. Компанията се отличава в бранша с фокуса си върху безопасността и публикува препоръки към правителствата за въвеждане на целенасочена регулация.
Препоръки за правителствата
Anthropic предполага, че разумното, тясно насочено регулиране може да позволи както реализирането на ползите от ИИ, така и намаляването на рисковете.
Компанията предупреждава, че протакането може да доведе до лошо разработено, прибързано регулиране, което възпрепятства напредъка и същевременно не е ефективно. За да се справи с този проблем, Anthropic предлага своята политика за отговорно мащабиране (RSP) като прототип за регулаторни рамки.
Компоненти на успешното регулиране на изкуствения интелект
Anthropic идентифицира три ключови компонента за успешно регулиране на ИИ: прозрачност, стимулиране на сигурността и простота и целенасоченост. Компанията подчертава необходимостта правителствата да изискват от компаниите за изкуствен интелект да имат и публикуват политики, подобни на RSP, като подробно посочват кои предпазни мерки кога ще бъдат задействани и публикуват оценки на риска за всяко поколение на техните системи. Тази прозрачност е от решаващо значение за публичната проверка на спазването на насоките за безопасност.
Стимулиране на практики за по-високо качество на сигурността
Anthropic препоръчва на регулаторните органи да стимулират по-качествени практики за сигурност. Това може да бъде постигнато чрез определяне на модели на заплахи, които ДУУ трябва да адресират в рамките на някакъв стандарт за разумност, или чрез определяне на стандартите, на които трябва да отговаря даден ДУУ. Дори ако тези стимули са косвени, Anthropic призовава правителствата да ги поддържат гъвкави, като позволяват на регулаторните процеси да се учат от развиващите се най-добри практики.
Простота и целенасоченост в регулирането
Компанията се застъпва за простота и целенасоченост в законодателството, като насърчава правителствата да не създават ненужни тежести за компаниите, работещи с изкуствен интелект. Идеалните регулации трябва да бъдат описани като „хирургически“, като се избягват нелогични правила, които биха могли да отклонят вниманието от целта за предотвратяване на катастрофални рискове. Един от най-лошите резултати би бил формирането на връзка между необходимото предотвратяване на рискове и обременяващите или нелогични правила.
Заключение
В обобщение, предупреждението на Anthropic подчертава спешната необходимост правителствата да регулират развитието на ИИ в рамките на следващите 18 месеца. Чрез прилагането на целенасочени, прозрачни и стимулиращи разпоредби правителствата могат да гарантират реализирането както на ползите, така и на безопасността на ИИ. Бездействието може да доведе до катастрофални последици, което подчертава значението на проактивното предотвратяване на риска.