Новый фронт в борьбе с ИИ: «Отравленный фонтан»
В мире искусственного интеллекта назревает тихий бунт. Группа инсайдеров из крупных технологических компаний, обеспокоенная стремительным и неконтролируемым развитием ИИ, запустила необычный проект. Их цель — не регулировать, а саботировать технологию изнутри, используя её же главную уязвимость: данные.
Что такое «отравление данных»?

Искусственный интеллект, особенно большие языковые модели, обучается на гигантских объёмах информации, которую специальные программы, веб-краулеры, собирают в интернете. Качество ответов модели напрямую зависит от качества этих данных. Если данные точны, модель работает хорошо. Если же в них содержатся ошибки или намеренные искажения, эффективность ИИ резко падает. Этот процесс и называется «отравлением данных».
Атаки такого рода могут быть разными. Иногда это случайные ошибки в коде или неточности на сайтах. Но бывают и целенаправленные диверсии, как, например, изменение наборов изображений, чтобы нейросеть вставляла в картинки логотипы брендов.
Инициатива инсайдеров
Проект, получивший название «Отравленный фонтан», призывает владельцев сайтов размещать у себя специальные ссылки. Эти ссылки ведут на страницы с «отравленными» данными — некорректным кодом, содержащим скрытые логические ошибки и баги. Идея в том, чтобы веб-краулеры, собирающие информацию для обучения ИИ, «накормили» модели этими вредоносными данными, тем самым подрывая их когнитивную целостность.
Организаторы проекта, работающие в ведущих американских IT-компаниях, сохраняют анонимность. Они утверждают, что их цель — привлечь внимание к «ахиллесовой пяте» ИИ и показать, насколько легко можно манипулировать моделями. По их словам, они видят, что создают их клиенты, и это вызывает у них серьезные опасения за будущее человечества.
Регулирование или уничтожение?
Пока одни эксперты и общественные организации призывают к ужесточению государственного контроля над ИИ, создатели «Отравленного фонтана» считают, что регулирование бесполезно. Технология уже стала слишком доступной. Они убеждены, что единственный способ остановить потенциальную угрозу — это «уничтожить ИИ огнём», то есть ядом, пока не стало слишком поздно.
Коллапс модели: не съест ли ИИ сам себя?
Интересно, что «отравление» — не единственная проблема данных для ИИ. Существует теория «коллапса модели». Модели ИИ всё чаще обучаются на данных, которые были созданы другими нейросетями. Этот замкнутый круг приводит к тому, что система начинает питаться собственными, часто некачественными и синтетическими данными, накапливая ошибки. Некоторые учёные прогнозируют, что к 2035 году ИИ может буквально «съесть собственный хвост».
Движение за распространение дезинформации, намеренной или случайной, лишь ускоряет этот процесс, и пока неясно, что наступит раньше: коллапс самого ИИ или момент, когда его развитие станет реальной угрозой.
Читайте также: Призрачная гладкость: почему тексты, написанные ИИ, звучат всё одинаково — и почему нам это нравится





