Главная » Файлы » Техника и Технологии

Обезьянничать эффективнее, чем думать
26.09.2012, 15:24
Два бота, разработанных для игры Unreal Tournament, уверенно прошли модифицированный тест Тьюринга — причём с бóльшим успехом, чем тестировавшиеся вместе с ними люди.

В отличие от обычного теста Тьюринга, ботам не приходится обмениваться записками с судьями, что значительно упрощает им задачу мимикрии под человека.

Сразу отметём сомнения: прохождение столь специфичного варианта теста Тьюринга, как шутер в Deathmatch-режиме, ещё не означает, что искусственный интеллект (ИИ) достиг человеческого уровня или хотя бы приблизился к нему. Но зато оно точно свидетельствует, что способность ботов вводить в заблуждение как минимум в некоторых областях уже превзошла человеческую.

По сути, программы не старались сделать ничего, только мимикрировали, подражая поведению живых игроков в Unreal Tournament 2004. Авторы бота UT^2 Ристо Мииккулайнен, Якоб Шрум и Игорь Карпов (все — из Университета Техаса в Остине) уже подготовили препринт публикации, в которой обсуждают детали такой мимикрии. По сути, она сводится к «человеческой, слишком человеческой» стратегии умеренно агрессивной игры.

«Слишком человеческой» — это не гипербола. Многочисленные боты и люди играли на одной карте «все против всех» на условиях полной анонимности. Более чем в 50% случаев боты были определены как люди всеми четырьмя «органическими» судьями. В то же время игравшие люди не были оценены как люди с такой же частой: более чем в половине случаев посчитали их ботами.

Интересно, что и UT^2, и сходный по идеологии Mirrorbot разработки Михая Полчеану (Румыния) набрали в нынешнем тесте Тьюринга вдвое больше голосов судей-людей, чем лучшие предыдущие боты. Конкурс в котором они участвовали, BotPrize, проводится с 2008 года; десятки ботов пытались убедить людей в своей человечности, но не преуспели (2010 год):



Обе команды не просто получили по £4 500 — их разработки уже в ближайшее время могут быть использованы в компьютерных играх для имитации более реалистичного, «человеческого» поведения ИИ.

Более того, такие «человекоботы» даже не потребуют существенных мощностей от игроцких ПК (в отличие от сегодняшних ботов). Дело в том, что при встрече с человеком Mirrorbot просто наблюдает за его поведением и копирует его, включая перемещения, стрельбу, выбор оружия, прыжки и ужимки.

Как отмечает автор Mirrorbot, факт успешности его творения не беспечален. «Этот результат может означать, что наше восприятие разума не без изъянов и в значительной степени подвержено влиянию нашей социальной природы», — полагает г-н Полчеану. Действительно, повторявший на манер обезьяны бот, даже не пытавшийся делать что-либо, кроме копирования того, что он видел у встреченного человека, оказался эффективнее несовершенных, но старавшихся самостоятельно «думать» предшественников.

UT^2 не столь саркастичен в отношении человеческого разума. По мнению его программистов, «нечеловеческое» поведение ботов обычно объясняется тем, что их «смущают» препятствия (скажем, стены). Например, человек, выходя из двери, точно знает куда смотреть, — привычка, выработанная годами. А Unreal-боты как правило разворачиваются на 90˚. И если там находится небольшой выступ стены, то даже лучшие ИИ будут безуспешно подбегать и отбегать от него, не в силах пройти дальше.

Словом, техасцы изучили то, как человек поступает в различных переходах из одного помещения в другое и различных средах. А потому их бот просто копирует человеческую тактику «в среднем», не доходя до «обезьянничания» по отношению к каждому встречному, подобно произведению румынского программиста. Кроме того, если отдельная стратегия оказывается успешнее, то UT^2 последовательно реализует её и впредь.

Интересно, что копирующий структуру мозга человека Neurobot занял лишь четвёртое место, не только не преодолев 50-процентного барьера опознания в качестве «человека», но и не превысив достижений прошлых лет со своими 26% успешности мимикрии под человека.
Категория: Техника и Технологии | Добавил: exxxxxcel
Просмотров: 669 | Загрузок: 0 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]