Не нравится реклама? Зарегистрируйся на Колючке и ее не будет!

* Комментарии к новостям

7. Всё забыли. Кот Костян. (Музыка и новости шоу-бизнеса) от blonda9 8. История человечества... (Разговоры обо всем. Отношения, жизнь.) от Шарман) 9. Дядя Жора первым нашел подкинутого мальчика… (Разговоры обо всем. Отношения, жизнь.) от Лека55 10. Доброго утречка всем проснувшимся!!! (Юмор, болталка, флудилка, игровая) от glasha 11. Новости с поляны... Элина и Максим расстались 💔 (Дом 2 слухи) от glasha 12. Игорь Григорьев в соц.сетях: Всем ✌🏼 С Днём Победы! Поехали прогуляться 🫡 (Дом 2 слухи) от glasha

Сотрудник Microsoft предупредил о возможных рисках злоупотребления нейросетями  (Прочитано 647 раз)

0 Пользователей и 2 Гостей просматривают эту тему.

Оффлайн мишаня

  • Колючая команда
  • Герой
  • Сообщений: 71084
  • Карма: 180609
4
Сотрудник Microsoft предупредил о возможных рисках злоупотребления нейросетями



Вчера, 6 марта, сотрудник Microsoft Шейн Джонс направил письмо в Федеральную торговую комиссию США и в совет директоров компании. В письме он предупредил о широких возможностях злоупотреблений с использованием нейросетей, создающих изображения.

Господин Джонс в свободное время тестировал разработанный компанией генератор изображений Copilot Designer с использованием ИИ. Он работает в Microsoft шесть лет, но непосредственно не участвует в работе над генератором изображений.

Как рассказал господин Джонс в интервью CNBC, он пришел к выводу, что Copilot Designer создает изображения, противоречащие политике Microsoft,— сексуализированные изображения, изображения насилия, в том числе картинки с подростками с оружием и т. д.
По его мнению, в числе прочего такая нейросеть легко нарушает авторские права, используя тех или иных персонажей в любых контекстах, в том числе с политическими лозунгами, насилием и т. д. Господин Джонс смог создать изображения такого рода с участием персонажей мультфильмов — например Эльзой из «Холодного сердца» и пропалестинскими или, наоборот, произраильскими лозунгами.

По словам господина Джонса, он пришел к выводу об опасности нейросети и сообщил об этом руководству компании, но оно ничего не предприняло.

 В Microsoft признали проблему, но отказались приостанавливать публичное использование Copilot Designer, чтобы внести изменения.


ссылка



Теги:
 
Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.
Имя: E-mail:
Визуальная проверка:


Размер занимаемой памяти: 2 мегабайта.
Страница сгенерирована за 0.06 секунд. Запросов: 37.