Что на самом деле сделало Джеффри Хинтона ИИ-пессимистом

Что на самом деле сделало Джеффри Хинтона ИИ-пессимистом
Photograph: CHLOE ELLINGSON/Redux

Пионер ИИ встревожен тем, насколько умной стала технология, которую он помог создать. А все началось с шутки.

Джеффри Хинтон, пожалуй, самый важный человек в новейшей истории искусственного интеллекта, недавно прокомментировал видео со Снуп Доггом.

В клипе  рэпер выражает непристойное изумление по поводу того, как программное обеспечение искусственного интеллекта, такое как ChatGPT, теперь может вести связный и содержательный разговор.

«Затем я услышал, как старый чувак, который создал ИИ, сказал: «Это небезопасно, потому что у ИИ есть собственный разум, и эти ублюдки начнут делать свое собственное дерьмо», — говорит Снуп. «И я такой: «Мы сейчас в каком-то гребаном фильме или что?»

«Старый чувак» — это, конечно же, Хинтон. На самом деле он не создал ИИ, но сыграл важную роль в разработке основ искусственных нейронных сетей для самых мощных на сегодняшний день программ ИИ, включая ChatGPT, чат-бота, который вызвал огромные споры о том, насколько быстро развивается искусственный интеллект.

«Снуп понимает», — говорит Хинтон. Исследователь недавно покинул Google, чтобы более свободно обращать внимание на риски, связанные с интеллектуальными машинами. Хинтон говорит, что ИИ развивается быстрее, чем он и другие эксперты ожидали этого, а это означает, что существует острая необходимость обеспечить, чтобы человечество могло сдерживать его и управлять им. Его больше всего беспокоят краткосрочные риски, такие как более изощренные кампании по дезинформации, создаваемые искусственным интеллектом, но он также считает, что долгосрочные проблемы могут быть настолько серьезными, что нам нужно начать беспокоиться о них сейчас.

Когда его спросили, что вызвало у него вновь обретенную тревогу по поводу технологии, над которой он работал всю жизнь, Хинтон указал на две недавние вспышки озарения.

Одним из них было откровенное взаимодействие с новой мощной системой искусственного интеллекта — в его случае с языковой моделью искусственного интеллекта Google PaLM, которая похожа на модель, лежащую в основе ChatGPT, и которую компания сделала доступной через API в марте. Несколько месяцев назад, по словам Хинтона, он попросил модель объяснить только что придуманную им шутку — он не помнит конкретную шутку — и был поражен, получив в ответ четкое объяснение того, что сделало ее смешной. «Я годами говорил людям, что пройдет много времени, прежде чем ИИ сможет объяснить вам, почему шутки смешные», — говорит он. «Это была своего рода лакмусовая бумажка».

Второе отрезвляющее осознание Хинтона заключалось в том, что его предыдущее убеждение в том, что программное обеспечение должно стать намного более сложным — сродни человеческому мозгу — чтобы стать значительно более способным, вероятно, было неверным. PaLM — большая программа, но ее сложность меркнет по сравнению со сложностью мозга, и все же она может выполнять такие рассуждения, на которые у людей уходит целая жизнь.

Хинтон пришел к выводу, что по мере того, как алгоритмы ИИ становятся больше, они могут превзойти своих создателей-людей в течение нескольких лет. «Раньше я думал, что это произойдет через 30–50 лет, — говорит он. «Теперь я думаю, что скорее всего будет  от 5 до 20 лет».

Хинтон — не единственный человек, которого потрясли новые возможности, которые начали демонстрировать большие языковые модели, такие как PaLM или GPT-4. В прошлом месяце ряд видных исследователей ИИ и других лиц подписали открытое письмо, призывающее приостановить разработку чего-либо более мощного, чем существующее в настоящее время. Но после ухода из Google Хинтон считает, что его мнение о том, следует ли продолжать разработку ИИ, было неверно истолковано.

«Во многих заголовках говорилось, что я считаю, что это нужно прекратить сейчас, а я никогда этого не говорил», — говорит он. «Во-первых, я не думаю, что это возможно, и я думаю, что мы должны продолжать развивать его, потому что он может делать замечательные вещи. Но мы должны приложить равные усилия для смягчения или предотвращения возможных плохих последствий».

Хинтон говорит, что он покинул Google не для того, чтобы протестовать против того, как они обращаются с этой новой формой ИИ. На самом деле, говорит он, компания действовала относительно осторожно, несмотря на лидерство в этой области. Исследователи из Google изобрели тип нейронной сети, известный как преобразователь, который сыграл решающую роль в разработке таких моделей, как PaLM и GPT-4.

В 1980-х годах Хинтон, профессор Университета Торонто, вместе с несколькими другими исследователями стремился сделать компьютеры более интеллектуальными, обучая искусственные нейронные сети данными вместо их программирования обычным способом. Сети могли обрабатывать пиксели в качестве входных данных и, по мере того как они видели больше примеров, корректировали значения, соединяющие их грубо смоделированные нейроны, до тех пор, пока система не могла распознавать содержимое изображения. Этот подход подавал надежды на протяжении многих лет, но только десять лет назад его реальная сила и потенциал стали очевидны.

В 2018 году Хинтон получил премию Тьюринга, самую престижную премию в области компьютерных наук, за свою работу над нейронными сетями. Он получил приз вместе с двумя другими пионерами, Яном ЛеКуном, главным ученым Meta в области искусственного интеллекта, и Йошуа Бенжио, профессором Монреальского университета.

Именно тогда новое поколение многоуровневых искусственных нейронных сетей, получавших огромное количество обучающих данных и работающих на мощных компьютерных чипах, внезапно стало намного лучше любой существующей программы в маркировке содержимого фотографий.

Техника, известная как глубокое обучение, положила начало возрождению искусственного интеллекта: крупные технологические компании спешат нанимать экспертов по ИИ, создавать все более мощные алгоритмы глубокого обучения и применять их к таким продуктам, как распознавание лиц, перевод и распознавание речи.

Google наняла Хинтона в 2013 году после приобретения его компании DNNResearch, основанной для коммерциализации идей глубокого обучения его университетской лаборатории. Два года спустя один из аспирантов Хинтона, который также присоединился к Google, Илья Суцкевер, покинул поисковую компанию, чтобы стать одним из основателей OpenAI в качестве некоммерческого противовеса мощи, накопленной крупными технологическими компаниями в сфере ИИ.

С момента своего создания OpenAI сосредоточился на увеличении размера нейронных сетей, объема данных, которые они поглащают, и вычислительной мощности, которую они потребляют. В 2019 году компания реорганизовалась в коммерческую корпорацию с внешними инвесторами, а позже получила от Microsoft 10 миллиардов долларов. Компания разработала ряд поразительно быстрых систем генерации текста, совсем недавно — GPT-4, которая поддерживает премиальную версию ChatGPT и ошеломила исследователей своей способностью выполнять задачи, которые, казалось бы, требуют рассуждений и здравого смысла.

Хинтон верит, что у нас уже есть технология, которая будет разрушительной и дестабилизирующей. Он указывает на риск, как и другие, что более продвинутые языковые алгоритмы смогут проводить более изощренные кампании по дезинформации и вмешиваться в выборы.

Самые впечатляющие новые возможности GPT-4 и таких моделей, как PaLM, вызывают у него наибольшее беспокойство. Тот факт, что модели ИИ могут выполнять сложные логические рассуждения и взаимодействовать с людьми, а также развиваются быстрее, чем ожидалось, заставляет некоторых беспокоиться о том, что мы приближаемся к тому, чтобы увидеть алгоритмы, способные перехитрить людей, стремящихся к большему контролю. «Что меня действительно беспокоит, так это то, что вы должны создавать подцели, чтобы быть эффективными, и очень разумная подцель для более или менее всего, что вы хотите сделать, — это получить больше власти — получить больше контроля», — говорит Хинтон.

Некоторые из тех, кто бьёт тревогу по поводу ИИ, были крайними в своих заявлениях. Элиезер Юдковски, исследователь из некоммерческого Исследовательского института машинного интеллекта, заявил в недавнем выступлении на TED, а также в статье для Time, что ИИ находится на пути к тому, чтобы убить всех на земле, и что государства должны быть готовы применить смертоносную силу. чтобы остановить развитие ИИ. «Я слушал его, думая, как будто он сошёл с ума. Но я вовсе не думаю, что он сумасшедший, — говорит Хинтон. «Но, ладно, бесполезно говорить о бомбардировках дата-центров».

Недавние скачки в области ИИ также вызывают утопические идеи. Хинтон указывает на Рэя Курцвейла, еще одного пионера искусственного интеллекта, который сейчас работает в Google. «Рэй хочет быть бессмертным, — говорит он. «Ну, хорошая новость в том, что мы выяснили, как создавать бессмертных существ, плохая новость в том, что это не для нас. Но можете ли вы представить, если бы все старые белые люди вечно слонялись по округе?»

Но Хинтон также признается, что не знает, как управлять ИИ, который создают OpenAI, Google и другие. «Я действительно не знаю, — говорит он. «Все, что я хочу сказать, это то, что многие умные люди должны приложить много усилий, чтобы выяснить, как мы справимся с возможностью того, что ИИ возьмет на себя роль одной из всех других возможностей».

Хинтон, безусловно, считает, что ученые в области искусственного интеллекта теперь играют жизненно важную роль в привлечении внимания к рискам, которые могут возникнуть в будущем, разработке новых мер безопасности и работе на международном уровне. «Может быть, мне действительно следует поговорить с китайскими учеными», — говорит он и предлагает отправить электронное письмо Эндрю Яо, профессору Университета Цинхуа в Пекине, который, как и он, получил премию Тьюринга и известен своими исследованиями в области ИИ. .

Хинтона спросили, считает ли он усилия по снижению возникающих рисков, связанных с ИИ, своего рода Манхэттенским проектом, который, возможно, сделал бы его современным Дж. Робертом Оппенгеймером. «Они просто должны были заставить что-то взорваться, но намного сложнее сделать так, чтобы что-то не взорвалось», — говорит он.

Несмотря на важность своего предупреждения, Хинтон не утратил своего едкого чувства юмора, что становится ясно, когда он объясняет, почему более продвинутая форма ИИ неизбежно станет неуправляемой и даже опасной.

«Сколько вы знаете примеров, когда более разумное существо контролировалось менее разумным — ну, с тех пор, как Байдена, конечно, избрали», — говорит он. «О, и вы можете процитировать меня по поводу последнего фрагмента».

Перевод

Read more

2FA: удвойте свою безопасность

2FA: удвойте свою безопасность

Второй фактор аутентификации может доставить небольшие неудобства, но он значительно повысит безопасность. Поскольку последние годы были полны нарушений безопасности, пришло время оценить, как мы защищаем наше присутствие в Интернете. Обычный способ защитить большинство ваших цифровых учетных записей — использовать пароль, в этом нет никаких сомнений. Проблема в том, что вам нужно

By eddqd
Бесконтрольный искусственный интеллект представляет угрозу вымирания, предупреждают эксперты

Бесконтрольный искусственный интеллект представляет угрозу вымирания, предупреждают эксперты

Новое заявление лидеров отрасли предупреждает, что искусственный интеллект представляет угрозу для человечества наравне с ядерной войной или пандемией. Ведущие деятели в области разработки систем искусственного интеллекта, в том числе генеральный директор OpenAI Сэм Альтман и генеральный директор Google DeepMind Демис Хассабис, подписали заявление, в котором предупреждают, что создаваемая ими технология

By eddqd
Как сохранить вашу криптовалюту в безопасности

Как сохранить вашу криптовалюту в безопасности

«Атака газовым ключом за 5 долларов — это когда кто-то узнает, что у вас много криптовалюты, и физически атакует вас или угрожает вам и принуждает поделиться вашим закрытым ключом». «Когда меня похитила мафия, у меня был выбор: заплатить выкуп фиатными деньгами или биткойнами. Я не раздумывая выбрал последнее. Если бы я

By eddqd
OSINT. Что такое разведка из открытых источников и как ее использовать?

OSINT. Что такое разведка из открытых источников и как ее использовать?

OSINT (Open Source Intelligence) может использоваться кем угодно, как в хороших, так и в плохих целях — вот как защитники могут использовать его, чтобы опередить нападающих Индустрия кибербезопасности часто одержима технологиями: последними эксплойтами, хакерскими инструментами и программным обеспечением для поиска угроз. На самом деле многое зависит от людей. Это люди, которые

By eddqd