Бесконтрольный искусственный интеллект представляет угрозу вымирания, предупреждают эксперты

Бесконтрольный искусственный интеллект представляет угрозу вымирания, предупреждают эксперты
Photo by vackground.com / Unsplash

Новое заявление лидеров отрасли предупреждает, что искусственный интеллект представляет угрозу для человечества наравне с ядерной войной или пандемией.

Ведущие деятели в области разработки систем искусственного интеллекта, в том числе генеральный директор OpenAI Сэм Альтман и генеральный директор Google DeepMind Демис Хассабис, подписали заявление, в котором предупреждают, что создаваемая ими технология может когда-нибудь представлять экзистенциальную угрозу человечеству, сравнимую с ядерной войной и пандемиями.

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война», — говорится в заявлении, состоящем из одного предложения, опубликованном сегодня некоммерческой организацией Center for AI Safety. Философы уже давно обсуждают идею о том, что ИИ может стать трудно контролировать, и он случайно или преднамеренно уничтожит человечество. Но за последние шесть месяцев, после некоторых неожиданных и неприятных скачков в производительности алгоритмов ИИ, этот вопрос стал намного более широко и серьезно обсуждаться.

Помимо Альтмана и Хассабиса, заявление подписал Дарио Амодеи, генеральный директор Anthropic, стартапа, занимающегося разработкой ИИ с упором на безопасность. Среди других подписантов — Джеффри Хинтон и Йошуа Бенжио — двое из трех ученых, получивших премию Тьюринга за работу в области глубокого обучения, технологии, лежащей в основе современных достижений в области машинного обучения и ИИ, — а также десятки предпринимателей и исследователей, работающих над передовым ИИ. проблемы.

«Это заявление — отличная инициатива, — заявил Макс Тегмарк, профессор физики Массачусетского технологического института и директор некоммерческой организации Future of Life Institute, занимающейся изучением долгосрочных рисков, связанных с ИИ. В марте Институт Тегмарка опубликовал письмо, призывающее к шестимесячной паузе в разработке передовых алгоритмов искусственного интеллекта, чтобы можно было оценить риски. Письмо подписали сотни исследователей и руководителей ИИ, в том числе Илон Маск.

Тегмарк надеется, что это заявление побудит правительства и широкую общественность более серьезно относиться к экзистенциальным рискам, связанным с ИИ. «Идеальным результатом является то, что угроза исчезновения из-за ИИ становится основной, что позволяет всем обсуждать ее, не опасаясь насмешек», — добавил он.

Дэн Хендрикс, директор Центра безопасности ИИ, сравнил нынешний момент беспокойства по поводу ИИ с дебатами среди ученых, вызванными созданием ядерного оружия. «Нам нужны разговоры, которые вели ученые-ядерщики до создания атомной бомбы», — сказал Хендрикс в цитате, опубликованной вместе с заявлением его организации.

Текущий тон тревоги связан с несколькими скачками в производительности алгоритмов ИИ, известных как большие языковые модели. Эти модели состоят из особого вида искусственной нейронной сети, которая обучается на огромном количестве написанного человеком текста, чтобы предсказывать слова, которые должны следовать за заданной строкой. При подаче достаточного количества данных и дополнительном обучении в виде отзывов людей о хороших и плохих ответах эти языковые модели способны генерировать текст и отвечать на вопросы с поразительным красноречием и очевидными знаниями, даже если их ответы часто изобилуют ошибками.

Эти языковые модели становятся все более последовательными и способными, поскольку они получают больше данных и компьютерных мощностей. Самая мощная модель, созданная на сегодняшний день, OpenAI GPT-4, способна решать сложные проблемы, в том числе те, которые, требуют некоторых форм абстракции и рассуждений на основе здравого смысла.

В последние годы языковые модели становятся все более функциональными, но выпуск ChatGPT в ноябре прошлого года привлек внимание общественности к возможностям и потенциальным проблемам новейших программ искусственного интеллекта. ChatGPT и другие продвинутые чат-боты могут поддерживать связные разговоры и отвечать на всевозможные вопросы с видимостью реального понимания. Но эти программы также проявляют предубеждения, фабрикуют факты и могут вести себя странным и неприятным образом.

Джеффри Хинтон, которого многие считают одной из самых важных и влиятельных фигур в области искусственного интеллекта, в апреле оставил свою работу в Google, чтобы рассказать о своей новоявленной обеспокоенности, перспективой всё более мощного искусственного интеллекта, выходящего из-под контроля.

Национальные правительства все больше внимания уделяют потенциальным рискам, связанным с ИИ, и возможностям регулирования этой технологии. Хотя регулирующие органы в основном обеспокоены такими проблемами, как дезинформация, создаваемая искусственным интеллектом, и увольнение с работы, обсуждались и экзистенциальные проблемы.

Перевод

Read more

2FA: удвойте свою безопасность

2FA: удвойте свою безопасность

Второй фактор аутентификации может доставить небольшие неудобства, но он значительно повысит безопасность. Поскольку последние годы были полны нарушений безопасности, пришло время оценить, как мы защищаем наше присутствие в Интернете. Обычный способ защитить большинство ваших цифровых учетных записей — использовать пароль, в этом нет никаких сомнений. Проблема в том, что вам нужно

By eddqd
Что на самом деле сделало Джеффри Хинтона ИИ-пессимистом

Что на самом деле сделало Джеффри Хинтона ИИ-пессимистом

Пионер ИИ встревожен тем, насколько умной стала технология, которую он помог создать. А все началось с шутки. Джеффри Хинтон, пожалуй, самый важный человек в новейшей истории искусственного интеллекта, недавно прокомментировал видео со Снуп Доггом. В клипе  рэпер выражает непристойное изумление по поводу того, как программное обеспечение искусственного интеллекта, такое как

By eddqd
Как сохранить вашу криптовалюту в безопасности

Как сохранить вашу криптовалюту в безопасности

«Атака газовым ключом за 5 долларов — это когда кто-то узнает, что у вас много криптовалюты, и физически атакует вас или угрожает вам и принуждает поделиться вашим закрытым ключом». «Когда меня похитила мафия, у меня был выбор: заплатить выкуп фиатными деньгами или биткойнами. Я не раздумывая выбрал последнее. Если бы я

By eddqd
OSINT. Что такое разведка из открытых источников и как ее использовать?

OSINT. Что такое разведка из открытых источников и как ее использовать?

OSINT (Open Source Intelligence) может использоваться кем угодно, как в хороших, так и в плохих целях — вот как защитники могут использовать его, чтобы опередить нападающих Индустрия кибербезопасности часто одержима технологиями: последними эксплойтами, хакерскими инструментами и программным обеспечением для поиска угроз. На самом деле многое зависит от людей. Это люди, которые

By eddqd