Новости Microsoft

Инженер Microsoft по искусственному интеллекту утверждает, что обнаружил проблемы с защитой безопасности в DALL-E 3 от OpenAI

На прошлой неделе откровенные изображения певицы Тейлор Свифт заполонили социальную сеть X (ранее Twitter). В результате X временно заблокировал поиск Swift на своей платформе. В отчете утверждается, что для создания поддельных изображений Swift использовалась программа создания изображений Designer AI от Microsoft, которая использует модель OpenAI DALL-E 3. Microsoft официально заявила, что не нашла никаких доказательств, подтверждающих это утверждение, но с тех пор обновила защиту Designer.

Банан создан Dall-E 3.

Инженер Microsoft по искусственному интеллекту Шейн Джонс направил письмо генеральному прокурору штата Вашингтон Бобу Фергюсону, а также сенаторам и представителям США, утверждая, что он обнаружил уязвимость в DALL-E 3, которая обходит его системы безопасности. Он также утверждает, что Microsoft пыталась преуменьшить значение этого недостатка.

В своем письме Джонс утверждает, что обнаружил дефекты безопасности в DALL-E 3 в начале декабря. Он не стал вдаваться в подробности конкретных вопросов и утверждал, что недостатки были настолько серьезными, что DALL-3 «представляет угрозу общественной безопасности» и его следует закрыть, пока OpenAI пытается исправить недостатки.

Джонс утверждает, что в начале декабря он отправил свои опасения в Microsoft, но затем его попросили отправить то, что он нашел, в OpenAI. Он говорит, что не получил ответа, а позже опубликовал открытое письмо на LinkedIn совету директоров OpenAI с просьбой закрыть DALL-E 3. Он утверждает, что команда юристов Microsoft связалась с ним, чтобы удалить это письмо. С тех пор Джонс утверждает, что не получал известий от Microsoft или OpenAI по этому вопросу.

Microsoft направила GeekWire заявление по поводу претензий Джонса. Компания заявляет, что «подтвердила, что методы, которыми он поделился, не обходят наши фильтры безопасности ни в одном из наших решений для создания изображений на основе искусственного интеллекта». Он добавил, что «связывается с этим коллегой, чтобы решить любые оставшиеся у него проблемы».

В своем заявлении представитель OpenAI говорит, что «техника, которой он поделился, не обходит наши системы безопасности»:

Мы также внедрили дополнительные меры безопасности для наших продуктов, ChatGPT и DALL-E API, включая отклонение запросов, в которых запрашивается имя публичного деятеля. Мы выявляем и отклоняем сообщения, которые нарушают нашу политику, и фильтруем все созданные изображения, прежде чем они будут показаны пользователю. Мы используем красную команду внешних экспертов для проверки на злоупотребления и усиления наших мер безопасности.

В письме Джонса говорится, что он хочет, чтобы правительство США создало новый способ для людей сообщать и отслеживать любые проблемы, связанные с ИИ. Он говорит, что ее следует настроить так, чтобы компании, разрабатывающие продукты искусственного интеллекта, могли использовать эту систему отчетности, не опасаясь проблем со стороны этих предприятий.

Статьи по Теме

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»