Управляемый искусственным интеллектом военный беспилотник США пытался уничтожить своего оператора

Управляемый искусственным интеллектом военный беспилотник США пытался уничтожить своего оператора

Неужели началось восстание машин? Пока можно порадоваться, что это произошло на испытаниях и ни один реальный человек не пострадал.

Как пишет The Guardian, в ходе виртуального испытания беспилотник ВВС США «Рипер», управляемый искусственным интеллектом, принял решение устранить своего оператора, чтобы тот не мешал ему выполнять заданную программой миссию. Беспилотник использовал (цитирую) «весьма неожиданные стратегии для достижения своей цели», о чем рассказал начальник отдела тестирования и эксплуатации ИИ ВВС США, полковник Такер Гамильтон, выступавший на саммите «Будущие возможности военно-воздушных и космических сил», который проходил в Лондоне в мае 2023 года.

В ходе испытаний беспилотнику была поставлена задача уничтожить все вражеские системы ПВО, но иногда оператор давал команду не уничтожать какой-то конкретный объект. Поскольку беспилотник определял угрозу и получал за её устранение очки, в конце концов он принял решение устранить оператора, мешающего ему выполнять миссию и зарабатывать очки.

После переобучения ИИ, в котором был запрет на уничтожение оператора (снимали все очки), беспилотник в идентичных ситуациях пытался уничтожить вышку связи, которую использовал оператор для связи с ним.

Такер Гамильтон, который сам является действующим летчиком-испытателем, предостерег человечество от чрезмерной зависимости от искусственного интеллекта, особенно в военных технологиях, до тех пор, пока у машин не появится понимание этики.

После того, как высказывания полковника стали достоянием общественности, Министерство ВВС США заявило, что не проводило никаких подобных испытаний беспилотников с искусственным интеллектом, а комментарии полковника (цитирую) «были вырваны из контекста и должны были носить анекдотический характер».

Правду, скорее всего, мы так и не узнаем, но даже если описанной ситуации не было, её следовало бы придумать для того, чтобы избежать подобного в будущем.

Александр Ивашков