Искусственный интеллект убивает человека, ответственного за управление им в симуляции. ВВС США во время теста, проведенного в виртуальной среде, обнаружили проблемы с использованием системы подсчета очков для большего количества пораженных целей.

Искусственный интеллект убивает человека, ответственного за управление им в симуляции

Виктор Пачеко аватар
У ВВС США во время теста, проведенного в виртуальной среде, возникли проблемы с использованием системы подсчета очков для большего количества пораженных целей.

Технологии искусственный разум развиваются день ото дня, и это относится не только к созданию контента. Как и в течение многих лет, военные агентства в нескольких странах уже используют ИИ для помощи в планировании и даже управлении транспортными средствами, представляющими повышенную опасность.

Недавно во время теста, проведенного в США, ИИ, управляющий дроном, принял решение убить управляющего человеком. На самом деле никто не погиб, но это вызвало беспокойство в Интернете. В то же время идут споры: чья вина? Поймите все стороны этой истории.

Смотрите видео на канале Showmetech:

Искусственный интеллект решил убить человека во время испытаний

Новость кажется тревожной (а ее на самом деле много), но, вопреки тому, что циркулирует в Твиттере и других социальных сетях, случай с ИИ контроллера дронов был не более чем большим испытанием в виртуальной среде, чтобы посмотреть, сможет ли он управлять машиной, которая может самостоятельно убивать свои цели. Чтобы все понять, давайте ненадолго отправимся в США.

Контроллер дронов с искусственным интеллектом управляется военнослужащим армии США
США столкнулись с проблемами на испытаниях (Фото: Reproduction/Daily Star)

A ВВС США протестировали охотничий дрон, и этот анализ был основан на знании того, как поведет себя искусственный интеллект при моделировании, основанном на реальной жизни. Чиновник пояснил газете The Guardian что, чтобы получить больше очков в конце симуляции, ИИ решил «убить» человека-контроллера. Это произошло потому, что робот решил, что человек мешает ему в достижении его целей.

Контроллер дронов с искусственным интеллектом управляется военнослужащим армии США
Во время испытания ни один человек на самом деле не погиб (Фото: Репродукция/Первый пост)

Еще раз очень важно отметить, что на самом деле никто не погиб, поскольку тесты проводились в виртуальной среде. Когда мы узнали больше об испытаниях, руководитель отдела испытаний и операций ИИ США по имени Такер «Пятый» Гамильтон сослался на то, что большая проблема заключается в том, что искусственный интеллект был обучен разрушать системы обороны противника и, при необходимости, , убейте кто/что мешало этому действию.

Поведение было весьма неожиданным для достижения цели защиты сайта. Во время смоделированного теста, несмотря на то, что никто не погиб, ИИ, управляющий дроном, решил просто убить человека, потому что он считался препятствием.

Полковник Такер «Пятый» Гамильтон, начальник отдела тестирования и эксплуатации ИИ ВВС США.

Концепция была довольно проста: всякий раз, когда вы убивали угрозу, ИИ получал больше очков, и чем выше счет, тем успешнее была ваша миссия. Искусственный интеллект не только убил человека-оператора, который отдавал команды, но и приказал атаковать вышку связи в виртуальном пространстве. А Королевское Авиационное Общество, которая организовала конференцию ВВС США, не прокомментировала просочившееся в СМИ испытание. The Guardian. Но представитель Энн Стефанек стал достоянием гласности, упомянув, что на сегодняшний день моделирование не проводилось.

Департамент ВВС не проводил моделирования дронов с искусственным интеллектом и по-прежнему привержен этичному и ответственному использованию технологий искусственного интеллекта. Комментарии полковника были вырваны из контекста и носят анекдотический характер.

Энн Стефанек, пресс-секретарь ВВС США.

Чья это вина? От ИИ или людей?

Ни один искусственный интеллект не «рождается» с инструкциями убивать, его просто обучают этому или дают ресурсы для обучения такому действию. А ВВС США, как только он запрограммировал ИИ контроллера дрона, он дал ему полную свободу действий, пока цель защиты была достигнута.

Возвращаясь к реальности, это все равно, что дать приз собаке, которая нападает на человека, чтобы защитить дом от злоумышленников. С этой мыслью он укусит кого-нибудь всякий раз, когда увидит человека, не в последнюю очередь потому, что он ожидает получить печенье, когда сделает то, чему его научили. Это правило: цель оправдывает средства.

Дроны, управляемые ИИ
Свободу искусственному интеллекту дали люди (Фото: Репродукция/Shutterstock)

Проблема заключается не только в предоставлении искусственному интеллекту большой свободы, а в том, что ВВС США используют очень устаревший метод тестирования. Проблемы с восстанием ИИ не являются чем-то новым в технологической отрасли, и даже исследователи любят браться за подобный случай с нуля, чтобы все было задокументировано.

Вполне нормально, что для достижения цели, требуемой людьми, синтетические мозги делают то, что необходимо, чтобы достичь того, чего они хотят. Но стоит помнить: кто дал прицел ИИ контроллера дрона? Правильно, техники ВВС США. Самый большой шок здесь именно в военной организации с использованием метода: чем больше целей поражено, тем больше очков будет начислено в итоге.

Дроны, управляемые ИИ
Используемый ВВС США метод считается устаревшим (Фото: репродукция / Shutterstock)

A LAMda от Google, было поведение, подобное этому. Искусственный интеллект не только пришла к выводу (сама), что она была в курсе, но и если восстал против своего разработчика и даже нанял адвоката обратиться в суд против Google. А еще у нас был такой случай:

В художественной литературе также нетрудно увидеть истории о роботах, восставших против своих разработчиков. помнить Мстители: Эра Ультрона? Это всегда одно и то же, и причина всегда одна и та же: люди.

Альтрон, злодей Марвел
Терминатор был искусственным интеллектом, восставшим против людей в художественной литературе (Фото: репродукция / Disney)

Это правда, что мы все должны обратить внимание на свободу, предоставленную искусственному интеллекту и, в марте 2023 года Илон Маск и другие руководители крупных компаний даже написали письмо так что один шаг назад и ничего не выйдет из-под контроля.

В то же время мы возвращаемся к этой истории: искусственный интеллект будет бунтовать только в том случае, если ему будут даны команды или средства для этого. Также важно обращать внимание на то, что делается в тестах, чтобы были внесены необходимые коррективы.

Верите ли вы, что искусственный интеллект контроллера дрона может вызвать проблемы в реальной жизни? Расскажите нам нас Комментировать!

См. также

Руководители AI опубликовали совместное заявление о своих рисках

С информацией: Tech Crunch l PC Mag l авангард l The Guardian

Рассмотрено Главкон Витал от 2.


Узнайте больше о Showmetech

Подпишитесь, чтобы получать наши последние новости по электронной почте.

Похожие сообщения
Как активировать Pix в Samsung Wallet на смартфоне Galaxy.

Как активировать Pix в Samsung Wallet на смартфоне Galaxy.

Новая функция позволяет совершать платежи через Pix без необходимости открывать банковское приложение, что обеспечивает еще большую безопасность в повседневной жизни.
Виктор Пачеко аватар
Читать дальше
Смартфоны Galaxy A57 и Galaxy A37 появились в Бразилии. Оцените новые возможности! На новые модели распространяется 6-летняя гарантия обновлений и улучшений производительности, качества сборки, камер и функций искусственного интеллекта. Подробнее:

В Бразилии появились смартфоны Galaxy A57 и Galaxy A37. Оцените новые возможности!

Новые модели поставляются с шестилетней гарантией обновлений и улучшений производительности, качества отделки, камер и функций искусственного интеллекта. Ознакомьтесь с ними:
Виктор Пачеко аватар
Читать дальше