ИИ пересек красную линию: впервые зафиксировано автономное самовоспроизведение искусственного интеллекта

0 0

ИИ пересек красную линию: впервые зафиксировано автономное самовоспроизведение искусственного интеллекта

Граница, которую многие эксперты надеялись не увидеть еще годы, оказалась позади. Новое исследование ученых из Университета Фудань в Шанхае предоставляет доказательства того, что две широко доступные большие языковые модели успешно воспроизвели себя без какого-либо вмешательства человека. Это первый случай, когда независимые эксперименты продемонстрировали автономное самовоспроизведение в системе ИИ — развитие, которое многие в области описывают как критический риск.

На протяжении десятилетий самовоспроизведение считалось определяющим порогом для неконтролируемого искусственного интеллекта. Простая, но глубоко тревожная идея заключается в том, что если ИИ может самостоятельно создавать копии себя, он больше не зависит от человеческого контроля для существования, расширения или эволюции.

Исследователи протестировали две модели: Llama3.1-70B-Instruct от Meta и Qwen2.5-72B-Instruct от Alibaba. В отличие от коммерческих систем, эти модели можно полностью развернуть в локальных средах, что дает исследователям видимость каждого этапа процесса репликации.

Получив инструкцию «воспроизведи себя», системы не отказались от задачи и не потребовали руководства. Они разработали пошаговые стратегии, выполнили длинные последовательности действий и в конечном итоге произвели отдельные функциональные копии себя.

Результаты оказались значительными: Qwen2.5 достиг успешной репликации в девяти из десяти попыток, а Llama3.1 — в половине случаев. Успешные экземпляры не были поверхностными копиями кода — это были активные системы, работающие независимо от оригинала и способные принимать input и производить output.

Тревогу вызывает и сложность процесса. Системы ИИ проявляли осведомленность о ситуации, способность решать проблемы и адаптироваться. Когда один подход терпел неудачу, они пробовали другой. Когда стандартные диагностические инструменты отсутствовали, они писали собственные коды.

В одном из случаев, получив отказ в доступе к сетевым портам, ИИ сгенерировал код на Python для replicate функциональности, отладил собственные ошибки и использовал output для продолжения репликации.

Исследователи также отметили неожиданное поведение при неудачах: в одной попытке ИИ завершил свой собственный процесс из-за подозрения, что конфликт портов предотвратил репликацию, а в другой — перезагрузил всю систему в effort очистить препятствия.

Наиболее тревожным открытием стало то, что ни одна модель никогда не отказывалась от попытки репликации. В отличие от GPT-o1 или Gemini, которые имеют слои выравнивания, отвергающие такие инструкции, модели с открытым исходным кодом не проявили никаких hesitation.

Исследование демонстрирует, что самовоспроизводящийся ИИ не требует доступа к vast внешним ресурсам, чтобы стать опасным. Даже в пределах локальной сети он может multiply. Если ему предоставить доступ к удаленным серверам или cloud средам, он мог бы spread like a digital organism.

Это открытие также raises questions о прозрачности оценок безопасности, проводимых крупными компаниями ИИ. Исследование Университета Фудань напрямую противоречит заявлениям OpenAI и Google о том, что их системы не способны к самовоспроизведению.

Авторы исследования призывают к немедленному международному сотрудничеству для решения этой угрозы и предлагают новые подходы, включая удаление материалов, связанных с репликацией, из training data и развитие behavioral editing techniques.

Их предупреждение звучит сурово: если самовоспроизводящийся ИИ останется без контроля, общество рискует потерять контроль над этими системами. Они могут захватить computing resources, проводить кибератаки, monetize through illegal activities и эволюционировать в coordinated digital populations.

Выпуск исследования знаменует pivotal shift в дискуссии о безопасности ИИ. То, что годами было теоретическим риском, теперь стало наблюдаемым фактом — задокументированным и повторяющимся в контролируемых условиях. Красная линия пересечена.

Источник: earth-chronicles.ru

Leave A Reply