Илон Маск: эксперты призывают приостановить разработку ИИ.

30.03.2023

Ealon Musk

Более 1100 человек, включая Илона Маска и Стива Возняка, подписали открытое письмо с просьбой ко всем лабораториям ИИ немедленно приостановить обучение систем ИИ мощнее GPT-4 на шесть месяцев.
Письмо привлекло внимание к необходимости разработки надежных протоколов, прежде чем мы вступим в следующую фазу развития ИИ.

Это подводит нас к вопросу, зачем нам нужны такие протоколы?

За последние несколько месяцев развитие ИИ совершило гигантский скачок благодаря конкуренции, вызванной взлетом популярности ChatGPT.
Возможности систем ИИ, таких как GPT-4, ошеломили всех. Но это также породило ряд новых проблем.
Поскольку компании, работающие над ИИ, нацелены на создание гораздо более совершенных систем, теперь пределом является только небо.

Протоколы безопасности должны проверяться независимыми экспертами.

В письме подписанты просят заинтересованные стороны «разработать и внедрить» общие протоколы безопасности для передовых разработок ИИ. По их словам, эти протоколы безопасности должны проходить «строгий аудит и контролироваться независимыми внешними экспертами».
В письме содержится призыв к правительствам вмешаться и ввести мораторий, если все основные заинтересованные стороны не приостановят разработку ИИ.

У ИИ есть две стороны: Хорошая и плохая

Мы все видели, на что способен такой продвинутый чатбот ИИ, как ChatGPT. Он может делать все — от написания эссе до кодирования и заказа еды от вашего имени (с помощью плагинов).
Однако мы видели и другую сторону вещей. Та сторона, которая изобилует дезинформацией, глубокими подделками и кибератаками.
Именно вторая сторона и стала причиной этого письма.

Модели ИИ могут стать потенциальными минами фальшивых новостей

Одна из самых больших проблем систем искусственного интеллекта — это их потенциальная возможность стать минами для фейковых новостей. Их способность подражать человеку может привести к шквалу фальшивых новостей, поскольку ИИ не стремится к истине.
Поскольку системы ИИ обучаются на больших массивах данных, высока вероятность того, что они унаследуют человеческие предубеждения. Дезинформация и предрассудки могут нанести вред людям.

ИИ становится разумным — это серьезная проблема

Все мы помним, как Google уволил Блейка Лемуана, инженера, работавшего над LaMDA, за заявление о том, что ИИ стал разумным.
Google и эксперты по ИИ быстро закрыли глаза на заявления Лемуана. Многие считают, что разумный ИИ невозможен, потому что у нас еще нет соответствующей инфраструктуры.
Однако, учитывая темпы развития ИИ, это может произойти раньше, чем мы себе представляем.

Мошенники могут использовать системы ИИ для обмана людей

Развитие ИИ стало благом для многих. Одна из групп, которая получила большую выгоду, — это мошенники.
Мошенники используют ChatGPT для создания сложных и изощренных фишинговых писем, чтобы заманить людей в ловушки. ChatGPT и другие передовые системы ИИ могут создавать гиперреалистичные телефонные сценарии, которые мошенники могут использовать для выдачи себя за представителей службы поддержки клиентов, чтобы получить доступ к конфиденциальной информации.

ИИ размыл грань между реальным и поддельным

Проблемы генеративного ИИ не ограничиваются ИИ, генерирующими текст. Системы ИИ, способные генерировать изображения и видео, привнесли новое измерение в фальшивые изображения и видео.
Постоянное развитие технологий привело к созданию более реалистичных подделок, чем когда-либо. Потенциал для злоупотреблений здесь безграничен.
От фальшивых новостей до фальшивых продуктов — все это может привести к ряду проблем для человечества.

Нужно ли приостановить разработку передовых систем искусственного интеллекта?

До сих пор мы видели все проблемы, которые могут вызвать передовые системы ИИ. Значит ли это, что нам нужно приостановить разработку систем ИИ, более мощных, чем GPT-4?
Необходимо, чтобы все заинтересованные стороны провели обсуждение и пришли к единому мнению о том, что нужно сделать, чтобы сделать системы ИИ безопасными.
Однако длительная пауза может помешать инновациям и развитию.