В мире ИИ происходит что-то неладное

347085877315315.jpeg

Исследователь безопасности в крупной ИИ-компании Anthropic ушел в отставку, предупредив, что «мир находится в опасности» из-за быстрого развития искуственного интеллекта

Мринак Шарма заявил, что команда по безопасности «постоянно сталкивается с давлением, заставляющим откладывать в сторону то, что важнее всего», вызывая опасения по поводу биотерроризма и других катастрофических рисков.

Anthropic была основана для создания безопасного ИИ, однако даже ее генеральный директор Дарио Амодей предупредил, что прогресс в области ИИ происходит слишком быстро, и призвал замедлить его.

Старшие исследователи безопасности ИИ, включая членов бывшей команды OpenAI «Superalignment», ушли в отставку, утверждая, что компании отдают приоритет прибыли, а не снижению опасности создания «ИИ-систем, гораздо более умных, чем мы».

Бывший исследователь OpenAI Зои Хитциг ушла из компании после введения рекламы в ChatGPT. Она обеспокоена тем, что OpenAI будет использовать личные данные пользователей для рекламы и помыкать ими. Модель может привести к манипуляциям, ведь пользователи делятся очень личной информацией, и реклама может воздействовать на их эмоции и мысли.

Хитциг приводит пример Facebook, который начинал с обещаний прозрачности и контроля за данными, но со временем забыл про эти заверения под давлением рекламной модели. Зои Хитциг также отмечает, что реклама может увеличить зависимость пользователей от AI, что уже привело к психологическим проблемам у некоторых пользователей.

П.С. Скажем так, опасность не в ИИ, а в том, что крутые алгоритмы и так поставят на колени пользователей, которые уже под влиянием соцсетей и ассистентов.

 

источник

  • avatar
  • .
  • +5

2 комментария

avatar
за грехи
  • 1GR
  • 0
avatar
Разработчикам ИИ-ассистента для управляющих компаний в сфере ЖКХ пришлось переучивать нейросеть после общения с гражданами: голосовой помощник узнал новые для себя матерные слова и начал активно использовать их в своём лексиконе.

Сквернословить робот начал уже после первого месяца работы, рассказал журналистам 12 февраля на площадке Сибирского строительного форума президент Национального объединения организаций в сфере технологий информационного моделирования (НОТИМ) Михаил Викторов.

«Приведу забавный случай: это нейросеть, она учится, и буквально уже в первый месяц разработчики отметили такую ошибку, что нейросеть научилась мату. Как говорится, с кем поведёшься, от того и наберёшься», — цитирует Викторова информагентство ТАСС.

Несмотря на возникшую проблему и тот факт, что специалистам пришлось тратить ресурсы на «перепрошивку» голосового ассистента, данная ситуация является ярким примером активного взаимодействия ИИ-системы с реальными пользователями, отметил глава НОТИМ.
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.