5 June

Работники ИИ требуют более строгой защиты информаторов в открытом письме

Работники ИИ требуют более строгой защиты информаторов в открытом письме Группа нынешних и бывших сотрудников ведущих компаний в области ИИ, таких как OpenAI, Google DeepMind и Anthropic, подписала открытое письмо с просьбой обеспечить большую прозрачность и защиту от возмездия для тех, кто высказывается о потенциальных проблемах ИИ. «Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед обществом», — говорится в письме, опубликованном во вторник. «Однако широкие соглашения о конфиденциальности не позволяют нам озвучивать наши опасения, за исключением тех самых компаний, которые, возможно, не решают эти проблемы».

Письмо пришло всего через пару недель после того, как расследование Vox показало, что OpenAI пыталась заткнуть рот недавно уволившимся сотрудникам, заставляя их выбирать между подписанием агрессивного соглашения о неунижении достоинства или риском потерять принадлежащий им капитал в компании. После отчета генеральный директор OpenAI Сэм Альтман заявил, что он был искренне смущен этим положением, и заявил, что оно было удалено из недавней выходной документации, хотя неясно, останется ли оно в силе для некоторых сотрудников. После того, как эта история была опубликована, представитель nn OpenAI сообщил Engadget, что компания удалила пункт о недопустимости унижения из своих стандартных документов об увольнении и освободила всех бывших сотрудников от их соглашений о неунижении.

В число 13 подписантов входят бывшие сотрудники OpenAI Джейкоб Хинтон, Уильям Сондерс и Дэниел Кокотайло. Кокотайло сказал, что он ушел из компании после того, как потерял уверенность в том, что она будет ответственно создавать общий искусственный интеллект — термин, обозначающий системы искусственного интеллекта, которые столь же умны или умнее, чем люди. В письме, которое было одобрено известными экспертами в области ИИ Джеффри Хинтоном, Йошуа Бенджио и Стюартом Расселом, выражается серьезная обеспокоенность по поводу отсутствия эффективного государственного надзора за ИИ и финансовых стимулов, побуждающих технологических гигантов инвестировать в эту технологию. Авторы предупреждают, что бесконтрольное стремление к созданию мощных систем искусственного интеллекта может привести к распространению дезинформации, усугублению неравенства и даже потере человеческого контроля над автономными системами, что потенциально может привести к вымиранию человечества.

«Мы многого не понимаем в том, как работают эти системы и будут ли они соответствовать человеческим интересам, когда станут умнее и, возможно, превзойдут интеллект человеческого уровня во всех областях», — написал Кокотайло на X. «Между тем, существует практически никакого надзора за этой технологией. Вместо этого мы полагаемся на компании, которые создают их для самоуправления, даже несмотря на то, что мотивы получения прибыли и энтузиазм по поводу технологий заставляют их «действовать быстро и ломать вещи». единственные люди, которые могут предупредить общественность».

В заявлении, опубликованном Engadget, представитель OpenAI сказал: «Мы гордимся своим опытом создания наиболее эффективных и безопасных систем искусственного интеллекта и верим в наш научный подход к устранению рисков. Мы согласны с тем, что тщательное обсуждение имеет решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру». Они добавили: «Именно поэтому у нас есть возможности для сотрудников, чтобы выразить свою обеспокоенность, включая анонимную горячую линию по вопросам добросовестности и комитет по безопасности, возглавляемый членами нашего совета директоров и руководителями по безопасности компании».

Google и Anthropic не ответили на запрос Engadget о комментариях. В заявлении, отправленном в Bloomberg, представитель OpenAI заявил, что компания гордится своим «послужным списком в предоставлении наиболее мощных и безопасных систем искусственного интеллекта» и верит в свой «научный подход к устранению рисков». В нем добавлено: «Мы согласны с тем, что тщательное обсуждение имеет решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру».

Подписанты призывают компании, занимающиеся искусственным интеллектом, соблюдать четыре ключевых принципа:

Воздержание от ответных мер в отношении сотрудников, высказывающих опасения по поводу безопасности.

Поддержка анонимной системы для информаторов, позволяющей предупреждать общественность и регулирующие органы о рисках.

Создание культуры открытой критики

И избегать соглашений о неунижении или неразглашении информации, которые ограничивают сотрудников от высказываний.

Письмо появилось на фоне растущего внимания к практике OpenAI, включая расформирование ее «суперкомпетентной» команды по безопасности и уход таких ключевых фигур, как соучредитель Илья Суцкевер и Ян Лейке, которые раскритиковали то, что компания отдает приоритет «блестящим продуктам» над безопасностью.

Обновление от 5 июня 2024 г., 11:51 по восточному времени: Эта история была обновлена ​​и теперь включает заявления OpenAI.