Миллиардер-магнат Илон Маск и ряд экспертов призвали в среду к паузе в разработке мощных искусственный интеллект (ИИ), чтобы дать время убедиться в их безопасности.

Ан Открой письмоподписанный более чем 1000 человек, включая Маска и соучредителя Apple Стива Возняка. вызвано выпуском GPT-4 от поддерживаемой Microsoft фирмы OpenAI.

Компания заявляет, что ее последняя модель намного мощнее, чем предыдущая версия, которая использовалась для работы ChatGPT, бота, способного генерировать фрагменты текста из самых кратких подсказок.

«Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества», — говорится в сообщении. Открой письмо под названием «Приостановить гигантские эксперименты с ИИ».

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми», — говорится в сообщении.

Маск был первоначальным инвестором OpenAI, провел годы в его совете директоров, а его автомобильная фирма Tesla разрабатывает системы искусственного интеллекта, которые, помимо прочего, помогают использовать технологию автономного вождения.

Письмо, размещенное Институтом будущего жизни, финансируемым Маском, было подписано известными критиками, а также конкурентами OpenAI, такими как руководитель Stability AI Эмад Мостак.

Канадский пионер искусственного интеллекта Йошуа Бенжио, также подписавший соглашение, на виртуальной пресс-конференции в Монреале предупредил, что «общество не готово» к этому мощному инструменту и его возможным злоупотреблениям.

«Давайте помедленнее. Давайте позаботимся о том, чтобы мы разработали более совершенные ограждения», — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, «как мы сделали в отношении ядерной энергетики и ядерного оружия».

«Надежный и верный»

Письмо цитата из блога, написанного основателем OpenAI Сэмом Альтманом, который предположил, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучение будущих систем».

«Мы согласны. Этот момент настал сейчас», — пишут авторы статьи.письмо ручкой написал.

«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».

Они призвали правительства вмешаться и ввести мораторий, если компании не согласятся.

Шесть месяцев следует использовать для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение того, чтобы системы ИИ были более точными, безопасными, «заслуживающими доверия и лояльными».

В письме не были подробно описаны опасности, выявленные GPT-4.

Но исследователи, в том числе Гэри Маркус из Нью-Йоркского университета, подписавший письмо, уже давно утверждают, что чат-боты великие лжецы и потенциально могут быть суперраспространителями дезинформации.

Однако автор Кори Доктороу сравнил индустрию искусственного интеллекта к схеме «накачки и сброса», утверждая, что как потенциал, так и угроза систем искусственного интеллекта сильно преувеличены.

© Агентство Франс-Пресс





Source link