Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

4

Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Миллиардер Илон Маск и ряд экспертов призвали сделать паузу в разработке мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.

Открытое письмо, подписанное более чем 1 000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.

Компания утверждает, что ее последняя модель намного мощнее предыдущей версии, которая использовалась для работы ChatGPT — бота, способного генерировать тексты по самым коротким подсказкам.

"Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества", — говорится в открытом письме под названием "Приостановить проведение масштабных экспериментов с ИИ".

"Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски — управляемыми", — говорится в письме.

Маск был первоначальным инвестором OpenAI, провел несколько лет в совете директоров этой организации, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта для обеспечения работы своей технологии самостоятельного вождения, среди прочих приложений.

Письмо, опубликованное финансируемым Маском Институтом Future of Life, было подписано известными критиками, а также конкурентами OpenAI, такими как глава Stability AI Эмад Мостак.

Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, на виртуальной пресс-конференции в Монреале предупредил, что "общество не готово" к этому мощному инструменту и его возможному неправильному использованию.

"Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения", — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, "как мы это сделали в отношении ядерной энергии и ядерного оружия".

В письме приводится цитата из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент может быть важно получить независимую экспертизу, прежде чем приступать к обучению перспективных систем".

"Мы согласны. Этот момент настал", — пишут авторы открытого письма.

"Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4".

Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться.

Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, "надежности и лояльности" систем ИИ.

В письме не было подробного описания опасностей, выявленных GPT-4.

Но исследователи, включая Гэри Маркуса из Нью-Йоркского университета, подписавшего письмо, уже давно утверждают, что чат-боты — отличные лжецы и могут стать суперраспространителями дезинформации.

Однако писатель Кори Доктороу сравнил индустрию ИИ со схемой "накачки и сброса", утверждая, что как потенциал, так и угроза систем ИИ были сильно преувеличены.

Источник: earth-chronicles.ru

Comments are closed.