31 May

OpenAI заявляет, что остановила несколько тайных операций влияния, которые злоупотребляли ее моделями ИИ

OpenAI заявляет, что остановила несколько тайных операций влияния, которые злоупотребляли ее моделями ИИ OpenAI заявила, что остановила пять тайных операций по оказанию влияния, которые использовали ее модели искусственного интеллекта для мошеннических действий в Интернете. Эти операции, которые OpenAI закрыла в период с 2023 по 2024 год, исходили из России, Китая, Ирана и Израиля и пытались манипулировать общественным мнением и влиять на политические результаты, не раскрывая свою истинную личность или намерения, сообщила компания в четверг. «По состоянию на май 2024 года эти кампании, похоже, не привели к существенному увеличению вовлеченности или охвата аудитории в результате наших услуг», — заявила OpenAI в отчете об операции и добавила, что она работала с людьми из технологической отрасли, гражданского общество и правительства, чтобы отсечь этих плохих актеров.

Отчет OpenAI появился на фоне опасений по поводу влияния генеративного ИИ на многочисленные выборы по всему миру, запланированные на этот год, в том числе в США. В своих выводах OpenAI показала, как сети людей, участвующих в операциях по оказанию влияния, использовали генеративный ИИ для генерации текста и изображений в гораздо больших объемах, чем раньше, а также фальсифицировали взаимодействие, используя ИИ для создания фальшивых комментариев к сообщениям в социальных сетях.

«За последние полтора года возникло много вопросов о том, что может произойти, если в операциях по оказанию влияния будет использоваться генеративный искусственный интеллект», — сообщил представителям СМИ на брифинге для прессы Бен Ниммо, главный исследователь группы разведки и расследований OpenAI. в Блумберг. «С помощью этого отчета мы действительно хотим начать заполнять некоторые пробелы».

OpenAI заявила, что российская операция под названием «Доппельгангер» использовала модели компании для создания заголовков, преобразования новостных статей в посты в Facebook и создания комментариев на нескольких языках, чтобы подорвать поддержку Украины. Другая российская группа использовала модели OpenAI для отладки кода бота Telegram, который публиковал короткие политические комментарии на английском и русском языках, нацеленные на Украину, Молдову, США и страны Балтии. Китайская сеть Spamouflage, известная своими усилиями по влиянию на Facebook и Instagram, использовала модели OpenAI для исследования активности в социальных сетях и создания текстового контента на нескольких языках на различных платформах. Иранский «Международный союз виртуальных медиа» также использовал искусственный интеллект для создания контента на нескольких языках.

Раскрытие информации OpenAI аналогично тому, которое время от времени делают другие технологические компании. В среду, например, Meta опубликовала свой последний отчет о скоординированном недостоверном поведении, в котором подробно описывается, как израильская маркетинговая фирма использовала фейковые учетные записи Facebook для проведения кампании влияния на своей платформе, нацеленной на людей в США и Канаде.