Пол Шарре, бывший военный аналитик Пентагона, после изучения их возможностей пришел к выводу, что роботизированным системам, используемым американскими спецслужбами, не хватает «разума». Об этом проинформировал 3DNews.
Военные тестируют технологии искусственного интеллекта чаще, чем другие отрасли, чтобы сократить потери личного состава. Эти технологии получили значительное финансирование от DARPA, одной из основных исследовательских организаций армии США.
Однако, как признаются эксперты, принимавшие участие в испытаниях, предварительные результаты, мягко говоря, неутешительны. Оказалось, что ИИ можно легко обмануть, используя самые простые приемы. В ближайшее время ожидается публикация книги бывшего военного аналитика Пентагона Пола Шарре. Автор книги «Четыре поля битвы: сила в эпоху ИИ» приводит многочисленные примеры сомнительного поведения роботизированных платформ ИИ во время тренировок и боевых симуляций.
Этот случай конкретно описывает недельную подготовку одного боевого робота DARPA для обнаружения движущегося военного персонала. Морские пехотинцы и инженеры разработали игру после шести дней путешествия с роботом. Задача бойцов заключалась в том, чтобы подобраться к роботу так, чтобы его технология распознавания не заметила, и прикоснуться к нему, пока он находился в центре круга.
Эту проблему успешно решили все восемь солдат в эксперименте. ИИ никогда не видел двух морских пехотинцев, катящихся в направлении робота. Он не был уверен, что это значит, когда морской пехотинец подошел к роботу и был при этом «одет как ель и ходил как дерево».
К роботу подошли еще два бойца в картонных коробках. Термин "искусственный интеллект" используется неправильно и искаженно, утверждают авторы в своем заключении: платформы ИИ ограничиваются обработкой переданных им данных и не могут делать никаких других выводов.