Изкуственият интелект еволюира дотам да може да лъже и подвежда, предупреждават учени. В анализ на престижния Масачузетски технологичен институт (MIT) се посочват редица примери как системи за ИИ мамят съперници, блъфират и се правят на човек. Една система дори изменила поведението си по време на симулация на тест за безопасност, с което подвела изпитващите да я сметнат за надеждна.
"С усъвършенстването на тези способности за измама, ИИ ще представлява все по-сериозен риск за обществото", коментира д-р Питър Парк, изследовател на ИИ в института и водещ автор на изследването. Парк се заема с въпроса, след като компанията "Мета" - собственик на "Фейсбук", разработва програмата Cicero. Cicero влезе в топ 10 на реалните играчи в стратегическата игра Diplomacy. "Мета" твърдят, че програмата е тренирана да бъде "преобладаващо честна и отзивчива" и "никога да не напада целенасочено" съюзниците си хора. "Това твърдение беше доста съмнително, тъй като именно нападателните стратегии са ключови в тази игра", коментира Парк.
Парк и колегите му са прегледали публично достъпната информация за програмата и са открили множество примери как Cicero използва предварително измислени лъжи, интригантства и въвлича други играчи в различни схеми. В един случай, досущ като човек, Cicero се оправдава за отсъствието си (породено от обновяване) с лъжата, че говори с приятелката си по телефона. "Установихме, че изкуственият интелект на "Мета" се е превърнал в майстор на измамата", обобщава Парк.
Екипът на MIT открива сходни проблеми и при други системи. В един случай, ИИ се прави на умрял при дигитална симулация, за да измами тест, предназначен да елиминира системи, способни бързо да се възпроизвеждат, след което бързо се връща към усилена дейност.
Находките в изследването потвърждават колко трудно ще бъде да се гарантира, че ИИ няма да стигне до нежелани и неочаквани постъпки. "Фактите са доста тревожни. Излиза, че ако една система се покаже като безопасна на тестове, това може да е само преструвка", коментира Парк. Сред опасностите от такова поведение са измами, вмешателство на избори, даване на различни отговори за различни потребители. В крайна сметка, човечеството може и да изгуби контрола над ИИ, ако способностите му за мамене продължат да напредват, предупреждават учените. Според тях е необходимо да се направят допълнителни проучвания на този въпрос и да се набележат регулации.
"Прието е, че ИИ-системите трябва да отговарят на три условия - да бъдат честни, полезни и безвредни. Вече е отбелязвано многократно обаче, че тези качества си противоречат - с честност може да нараниш нечии чувства например; а да си полезен за направата на бомба може да бъде вредно. Затова и способността за измама може понякога да е желателно качество на една система за ИИ", коментира проф. Антъни Кон от Института "Алън Туринг". Той е съгласен с авторите на изследването, че има нужда от още изследвания върху тези въпроси, за да се ограничат потенциалните вреди от ИИ, пише 24 часа.
Говорител на "Мета" коментира по повод изследването, че работата върху Cicero е само изследователска и моделите са разработени единствено за играта Diplomacy. "Мета" редовно споделя резултатите от изследванията си, за да позволи на други учени да надграждат постигнатото от нас. Нямаме намерение да ползваме тези разработки в продуктите си", уверяват от компанията.
Вижте всички актуални новини от Standartnews.com