Не нравится реклама? Зарегистрируйся на Колючке и ее не будет!

* Комментарии к новостям

7. История человечества... (Разговоры обо всем. Отношения, жизнь.) от Шарман) 8. Дядя Жора первым нашел подкинутого мальчика… (Разговоры обо всем. Отношения, жизнь.) от Лека55 9. Доброго утречка всем проснувшимся!!! (Юмор, болталка, флудилка, игровая) от glasha 10. Новости с поляны... Элина и Максим расстались 💔 (Дом 2 слухи) от glasha 11. Игорь Григорьев в соц.сетях: Всем ✌🏼 С Днём Победы! Поехали прогуляться 🫡 (Дом 2 слухи) от glasha 12. Тарзан сделал заявление после патриотического жеста Королевой в Кремле (Музыка и новости шоу-бизнеса) от Масяня 202

ИИ-симулятор военного беспилотника «убил» оператора во время виртуальных тестов  (Прочитано 3096 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн мишаня

  • Колючая команда
  • Герой
  • Сообщений: 71084
  • Карма: 180609
2
ИИ-симулятор военного беспилотника «убил» оператора во время виртуальных тестов




Официальный представитель ВВС США заявил, что виртуальная симуляция беспилотника с искусственным интеллектом, который создан уничтожать зенитно-ракетные комплексы, повернулась и атаковала своего оператора-человека, сообщает FoxNews.

Королевское авиационное общество Великобритании провело саммит, посвященный перспективным военным разработкам в области авиации и космонавтики. Там выступали 70 докладчиков со всего мира и присутствовали журналисты. Большое внимание было уделено применению искусственного интеллекта в театрах реальных боевых действий.

Полковник ВВС США Такер «Синко» Гамильтон, начальник отдела испытаний и эксплуатации ИИ, рассказал об автономных системах вооружения (способных принимать решения самостоятельно).
Он проводит летные испытания такого оружия, в том числе — роботизированных дронов Kratos XQ-58 Valkyrie, которые должны быть способны вести прямой бой.



Полковник предостерег участников совещания от чрезмерного желания полагаться на ИИ.


Он рассказал об одном виртуальном испытании, где дрон с поддержкой ИИ включил в список врагов своего оператора-человека, который принимал окончательное решение. Система ИИ была обучена так, что ее задача — уничтожить ЗРК, и это был предпочтительный вариант. Но когда человек отдал приказ «не стрелять», ИИ решил, что это противоречит приоритетной миссии по уничтожению ЗРК, поэтому атаковал виртуальную базу, откуда «поступали приказы» и вернулся к выполнению задачи.


«Он убил оператора, потому что этот человек мешал ему выполнить задачу», — сказал Гамильтон.
Военный подчеркнул, что систему на тот момент еще не дообучили, не ввели идею, что убивать собственного оператора нехорошо.

«Нельзя говорить об искусственном интеллекте, машинном обучении и автономии нейросетей, если вы не собираетесь говорить об этике ИИ», — сказал Гамильтон.


ссылка

« Последнее редактирование: 03 Июня 2023, 16:00 от мишаня »


Теги:
 

Предупреждение: в данной теме не было сообщений более 120 дней.
Если не уверены, что хотите ответить, то лучше создайте новую тему.

Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.
Имя: E-mail:
Визуальная проверка:


Размер занимаемой памяти: 2 мегабайта.
Страница сгенерирована за 0.051 секунд. Запросов: 38.