10 Мая 2024, 14:29
  • МультиВход
 | Активные темы | Лента
Дом 2 новости и слухи, серии онлайн

* Комментарии к новостям

7. Всё забыли. Кот Костян. (Музыка и новости шоу-бизнеса) от blonda9 8. История человечества... (Разговоры обо всем. Отношения, жизнь.) от Шарман) 9. Дядя Жора первым нашел подкинутого мальчика… (Разговоры обо всем. Отношения, жизнь.) от Лека55 10. Доброго утречка всем проснувшимся!!! (Юмор, болталка, флудилка, игровая) от glasha 11. Новости с поляны... Элина и Максим расстались 💔 (Дом 2 слухи) от glasha 12. Игорь Григорьев в соц.сетях: Всем ✌🏼 С Днём Победы! Поехали прогуляться 🫡 (Дом 2 слухи) от glasha

Тема: ИИ-симулятор военного беспилотника «убил» оператора во время виртуальных тестов  (Прочитано 3098 раз)

0 Пользователей и 2 Гостей просматривают эту тему.

03 Июня 2023, 15:58
Прочитано 3098 раз
Оффлайн

мишаня

Колючая команда

2
ИИ-симулятор военного беспилотника «убил» оператора во время виртуальных тестов




Официальный представитель ВВС США заявил, что виртуальная симуляция беспилотника с искусственным интеллектом, который создан уничтожать зенитно-ракетные комплексы, повернулась и атаковала своего оператора-человека, сообщает FoxNews.

Королевское авиационное общество Великобритании провело саммит, посвященный перспективным военным разработкам в области авиации и космонавтики. Там выступали 70 докладчиков со всего мира и присутствовали журналисты. Большое внимание было уделено применению искусственного интеллекта в театрах реальных боевых действий.

Полковник ВВС США Такер «Синко» Гамильтон, начальник отдела испытаний и эксплуатации ИИ, рассказал об автономных системах вооружения (способных принимать решения самостоятельно).
Он проводит летные испытания такого оружия, в том числе — роботизированных дронов Kratos XQ-58 Valkyrie, которые должны быть способны вести прямой бой.



Полковник предостерег участников совещания от чрезмерного желания полагаться на ИИ.


Он рассказал об одном виртуальном испытании, где дрон с поддержкой ИИ включил в список врагов своего оператора-человека, который принимал окончательное решение. Система ИИ была обучена так, что ее задача — уничтожить ЗРК, и это был предпочтительный вариант. Но когда человек отдал приказ «не стрелять», ИИ решил, что это противоречит приоритетной миссии по уничтожению ЗРК, поэтому атаковал виртуальную базу, откуда «поступали приказы» и вернулся к выполнению задачи.


«Он убил оператора, потому что этот человек мешал ему выполнить задачу», — сказал Гамильтон.
Военный подчеркнул, что систему на тот момент еще не дообучили, не ввели идею, что убивать собственного оператора нехорошо.

«Нельзя говорить об искусственном интеллекте, машинном обучении и автономии нейросетей, если вы не собираетесь говорить об этике ИИ», — сказал Гамильтон.


ссылка

« Последнее редактирование: 03 Июня 2023, 16:00 от мишаня »


Теги:
 

Предупреждение: в данной теме не было сообщений более 120 дней.
Если не уверены, что хотите ответить, то лучше создайте новую тему.

Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.
Имя: E-mail:
Визуальная проверка: