Бесконтрольный искусственный интеллект представляет угрозу вымирания, предупреждают эксперты
Новое заявление лидеров отрасли предупреждает, что искусственный интеллект представляет угрозу для человечества наравне с ядерной войной или пандемией.
Ведущие деятели в области разработки систем искусственного интеллекта, в том числе генеральный директор OpenAI Сэм Альтман и генеральный директор Google DeepMind Демис Хассабис, подписали заявление, в котором предупреждают, что создаваемая ими технология может когда-нибудь представлять экзистенциальную угрозу человечеству, сравнимую с ядерной войной и пандемиями.
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война», — говорится в заявлении, состоящем из одного предложения, опубликованном сегодня некоммерческой организацией Center for AI Safety. Философы уже давно обсуждают идею о том, что ИИ может стать трудно контролировать, и он случайно или преднамеренно уничтожит человечество. Но за последние шесть месяцев, после некоторых неожиданных и неприятных скачков в производительности алгоритмов ИИ, этот вопрос стал намного более широко и серьезно обсуждаться.
Помимо Альтмана и Хассабиса, заявление подписал Дарио Амодеи, генеральный директор Anthropic, стартапа, занимающегося разработкой ИИ с упором на безопасность. Среди других подписантов — Джеффри Хинтон и Йошуа Бенжио — двое из трех ученых, получивших премию Тьюринга за работу в области глубокого обучения, технологии, лежащей в основе современных достижений в области машинного обучения и ИИ, — а также десятки предпринимателей и исследователей, работающих над передовым ИИ. проблемы.
«Это заявление — отличная инициатива, — заявил Макс Тегмарк, профессор физики Массачусетского технологического института и директор некоммерческой организации Future of Life Institute, занимающейся изучением долгосрочных рисков, связанных с ИИ. В марте Институт Тегмарка опубликовал письмо, призывающее к шестимесячной паузе в разработке передовых алгоритмов искусственного интеллекта, чтобы можно было оценить риски. Письмо подписали сотни исследователей и руководителей ИИ, в том числе Илон Маск.
Тегмарк надеется, что это заявление побудит правительства и широкую общественность более серьезно относиться к экзистенциальным рискам, связанным с ИИ. «Идеальным результатом является то, что угроза исчезновения из-за ИИ становится основной, что позволяет всем обсуждать ее, не опасаясь насмешек», — добавил он.
Дэн Хендрикс, директор Центра безопасности ИИ, сравнил нынешний момент беспокойства по поводу ИИ с дебатами среди ученых, вызванными созданием ядерного оружия. «Нам нужны разговоры, которые вели ученые-ядерщики до создания атомной бомбы», — сказал Хендрикс в цитате, опубликованной вместе с заявлением его организации.
Текущий тон тревоги связан с несколькими скачками в производительности алгоритмов ИИ, известных как большие языковые модели. Эти модели состоят из особого вида искусственной нейронной сети, которая обучается на огромном количестве написанного человеком текста, чтобы предсказывать слова, которые должны следовать за заданной строкой. При подаче достаточного количества данных и дополнительном обучении в виде отзывов людей о хороших и плохих ответах эти языковые модели способны генерировать текст и отвечать на вопросы с поразительным красноречием и очевидными знаниями, даже если их ответы часто изобилуют ошибками.
Эти языковые модели становятся все более последовательными и способными, поскольку они получают больше данных и компьютерных мощностей. Самая мощная модель, созданная на сегодняшний день, OpenAI GPT-4, способна решать сложные проблемы, в том числе те, которые, требуют некоторых форм абстракции и рассуждений на основе здравого смысла.
В последние годы языковые модели становятся все более функциональными, но выпуск ChatGPT в ноябре прошлого года привлек внимание общественности к возможностям и потенциальным проблемам новейших программ искусственного интеллекта. ChatGPT и другие продвинутые чат-боты могут поддерживать связные разговоры и отвечать на всевозможные вопросы с видимостью реального понимания. Но эти программы также проявляют предубеждения, фабрикуют факты и могут вести себя странным и неприятным образом.
Джеффри Хинтон, которого многие считают одной из самых важных и влиятельных фигур в области искусственного интеллекта, в апреле оставил свою работу в Google, чтобы рассказать о своей новоявленной обеспокоенности, перспективой всё более мощного искусственного интеллекта, выходящего из-под контроля.
Национальные правительства все больше внимания уделяют потенциальным рискам, связанным с ИИ, и возможностям регулирования этой технологии. Хотя регулирующие органы в основном обеспокоены такими проблемами, как дезинформация, создаваемая искусственным интеллектом, и увольнение с работы, обсуждались и экзистенциальные проблемы.