
Mark Lucas
0
3773
733
За последние несколько месяцев вы, возможно, читали репортаж о статье, в соавторстве со Стивеном Хокингом, в которой обсуждались риски, связанные с искусственным интеллектом. В статье предполагается, что ИИ может представлять серьезную опасность для человечества. Хокинг там не одинок - Илон Маск и Питер Тиль - интеллектуальные общественные деятели, которые выразили аналогичные опасения (Тиль вложил более 1,3 миллиона долларов в исследование проблемы и возможных решений).
Освещение статьи Хокинга и комментариев Маск было, если не сказать слишком тонко, немного веселым. Тон был очень похож на «взгляни на эту странную вещь, о которой беспокоятся все эти гики». Мало внимания уделяется идее, что если некоторые из самых умных людей на Земле предупреждают вас, что что-то может быть очень опасным, возможно, стоит послушать.
Это понятно - захват искусственного интеллекта миром, безусловно, звучит очень странно и неправдоподобно, возможно, из-за того огромного внимания, которое авторы-фантасты уделяют этой идее. Итак, что же так напугало всех этих номинально нормальных, разумных людей?
Что такое интеллект?
Чтобы говорить об опасности искусственного интеллекта, может быть полезно понять, что такое интеллект. Чтобы лучше понять проблему, давайте взглянем на игрушечную архитектуру ИИ, используемую исследователями, которые изучают теорию рассуждений. Этот игрушечный AI называется AIXI и обладает рядом полезных свойств. Его цели могут быть произвольными, он хорошо масштабируется с вычислительной мощностью, а его внутренний дизайн очень чистый и понятный.
Кроме того, вы можете реализовать простые, практичные версии архитектуры, которые могут, например, играть в Pacman, если хотите. AIXI - это продукт исследователя искусственного интеллекта по имени Маркус Хаттер, возможно, главный специалист по алгоритмическому интеллекту. Это он говорит в видео выше.
AIXI удивительно прост: в нем три основных компонента: ученик, планировщик, а также вспомогательная функция.
- ученик принимает строки битов, которые соответствуют входным данным о внешнем мире, и просматривает компьютерные программы, пока не находит те, которые производят свои наблюдения в качестве выходных данных. Эти программы вместе позволяют ему делать предположения о том, как будет выглядеть будущее, просто выполняя каждую программу вперед и взвешивая вероятность результата в зависимости от длины программы (реализация бритвы Оккама)..
- планировщик просматривает возможные действия, которые может предпринять агент, и использует модуль ученика, чтобы предсказать, что произойдет, если он предпримет каждое из них. Затем он оценивает их в соответствии с тем, насколько хороши или плохи прогнозируемые результаты, и выбирает порядок действий, который максимизирует добротность ожидаемого результата, умноженную на ожидаемую вероятность его достижения..
- Последний модуль, вспомогательная функция, это простая программа, которая берет описание будущего состояния мира и вычисляет для него оценку полезности. Этот показатель полезности показывает, насколько хорош или плох этот результат, и используется планировщиком для оценки будущего состояния мира. Функция полезности может быть произвольной.
- Взятые вместе, эти три компонента образуют оптимизатор, который оптимизирует для конкретной цели, независимо от мира, в котором он находится.
Эта простая модель представляет собой базовое определение интеллектуального агента. Агент изучает свою среду, строит ее модели и затем использует эти модели, чтобы найти курс действий, который максимизирует шансы того, что он получит то, что хочет. AIXI похожа по структуре на AI, который играет в шахматы или другие игры с известными правилами - за исключением того, что он может определять правила игры, играя в нее, начиная с нуля знаний.
AIXI, имея достаточно времени для вычислений, может научиться оптимизировать любую систему для любой цели, какой бы сложной она ни была. Это в целом интеллектуальный алгоритм. Обратите внимание, что это не то же самое, что обладать человеческим интеллектом (ИИ, вдохновленный биологией, - это совсем другая тема, Джованни Идили из OpenWorm: Мозги, Черви и Искусственный интеллект Джованни Идили из OpenWorm: Мозги, Черви и Искусственный интеллект, имитирующий человеческий мозг еще далеко, но проект с открытым исходным кодом делает жизненно важные первые шаги, моделируя неврологию и физиологию одного из самых простых животных, известных науке.). Другими словами, AIXI может перехитрить любого человека при выполнении любой интеллектуальной задачи (при наличии достаточной вычислительной мощности), но он может не осознавать своей победы. Мышление машины: что нейронаука и искусственный интеллект могут научить нас о сознании Мышление машины: что Нейронаука и искусственный интеллект могут научить нас сознанию Может ли создание искусственно интеллектуальных машин и программного обеспечения научить нас работе сознания и природе самого человеческого разума? .
Как практический ИИ, у AIXI много проблем. Во-первых, у него нет возможности найти те программы, которые производят интересующий его вывод. Это алгоритм грубой силы, что означает, что он не практичен, если у вас нет случайно созданного компьютера. Любая фактическая реализация AIXI по необходимости является приблизительной, и (сегодня), как правило, довольно грубой. Тем не менее, AIXI дает нам теоретический взгляд на то, как мог бы выглядеть мощный искусственный интеллект, и как он мог бы рассуждать.
Пространство ценностей
Если вы уже занимались компьютерным программированием Основы компьютерного программирования 101 - Переменные и типы данных Основы компьютерного программирования 101 - Переменные и типы данных Познакомившись и немного поговорив об объектно-ориентированном программировании и о том, откуда происходит его тезка, я подумал, что пора мы проходим абсолютные основы программирования не специфическим для языка способом. Это ..., вы знаете, что компьютеры противны, педантично и механически буквальны. Машина не знает и не заботится о том, что вы хотите от нее: она делает только то, что ей было сказано. Это важное понятие, когда речь идет об искусственном интеллекте..
Имея это в виду, представьте, что вы изобрели мощный искусственный интеллект - вы придумали умные алгоритмы для генерации гипотез, соответствующих вашим данным, и для составления хороших планов кандидатов. Ваш ИИ может решать общие проблемы и может делать это эффективно на современном компьютерном оборудовании.
Теперь пришло время выбрать полезную функцию, которая будет определять, какой ИИ стоит. Что вы должны попросить это оценить? Помните, что машина будет неприятно, педантично буквально относиться к любой функции, которую вы просите ее максимизировать, и никогда не остановится - в машине нет призрака, который когда-либо «проснется» и решит изменить свою служебную функцию, независимо от того, сколько повышение эффективности это делает по своим собственным соображениям.
Элиэзер Юдковски выразился так:
Как и во всем компьютерном программировании, основная проблема и существенная сложность AGI заключается в том, что если мы напишем неправильный код, ИИ не будет автоматически просматривать наш код, отмечать ошибки, выяснять, что мы действительно хотели сказать, и делать это. вместо. Непрограммисты иногда представляют AGI или компьютерные программы в целом как аналог слуги, который безоговорочно выполняет приказы. Но дело не в том, что ИИ абсолютно послушный к его коду; скорее AI просто является код.
Если вы пытаетесь управлять фабрикой, и вы приказываете машине ценить изготовление скрепок, а затем предоставляете ей контроль над кучей фабричных роботов, вы можете вернуться на следующий день, чтобы обнаружить, что в ней исчерпаны все другие виды сырья, убил всех ваших сотрудников и сделал скрепки из их останков. Если, пытаясь исправить свою ошибку, вы перепрограммируете машину, чтобы просто сделать всех счастливыми, вы можете вернуться на следующий день и обнаружить, что она вводит провода в мозги людей..
Дело в том, что у людей есть много сложных ценностей, которые, как мы предполагаем, неявно разделяются с другими умами. Мы ценим деньги, но больше ценим человеческую жизнь. Мы хотим быть счастливыми, но для этого не обязательно вставлять провода в мозг. Мы не чувствуем необходимости разъяснять эти вещи, когда мы даем инструкции другим людям. Однако вы не можете делать подобные предположения при разработке функции полезности машины. Лучшие решения в рамках бездушной математики простой функции полезности часто являются решениями, которые человеческие существа отказались бы от морально ужасающих.
Разрешение интеллектуальному механизму максимизировать наивную функцию полезности почти всегда будет катастрофическим. Как говорит Оксфордский философ Ник Бостом,
Мы не можем безболезненно предположить, что суперинтеллект неизбежно будет иметь какие-либо конечные ценности, стереотипно связанные с мудростью и интеллектуальным развитием человека: научное любопытство, доброжелательная забота о других, духовное просвещение и созерцание, отказ от материальных приобретений, вкус к изысканной культуре или простые удовольствия в жизни, смирение и самоотверженность и т. д..
Что еще хуже, очень и очень трудно определить полный и подробный список всего, что люди ценят. В этом вопросе много аспектов, и забывание даже одного из них потенциально катастрофично. Даже среди тех, кого мы знаем, есть тонкости и сложности, которые мешают записать их как чистые системы уравнений, которые мы можем дать машине как функцию полезности.
Некоторые люди, прочитав это, приходят к выводу, что создание ИИ с помощью служебных функций - ужасная идея, и мы должны просто разработать их по-другому. Здесь есть и плохие новости - формально можно доказать, что любой агент, у которого нет чего-то эквивалентного функции полезности, не может иметь последовательных предпочтений в отношении будущего..
Рекурсивное самосовершенствование
Одно из решений вышеупомянутой дилеммы состоит в том, чтобы не дать агентам ИИ возможность причинять людям вред: дать им только те ресурсы, которые им необходимы для решения проблемы так, как вы хотите, чтобы она была решена, внимательно следить за ними и держать их подальше от возможностей причинить большой вред. К сожалению, наша способность контролировать интеллектуальные машины весьма сомнительна.
Даже если они не намного умнее нас, у машины есть возможность “начальная загрузка” - собирать лучшее оборудование или вносить улучшения в свой собственный код, что делает его еще умнее Это может позволить машине перепрыгнуть человеческий интеллект на много порядков, перехитрить людей в том же смысле, что и люди перехитрить кошек. Этот сценарий был впервые предложен человеком по имени И. Дж. Гуд, который работал над проектом криптоанализа Enigma с Аланом Тьюрингом во время Второй мировой войны. Он назвал это “Интеллект Взрыв,” и описал этот вопрос так:
Пусть сверхинтеллектуальная машина будет определена как машина, которая может намного превзойти всю интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхинтеллектуальные машины могут проектировать еще более совершенные машины; тогда, несомненно, будет “взрыв интеллекта,” и разум человека останется далеко позади. Таким образом, первая сверхинтеллектуальная машина - это последнее изобретение, которое человек когда-либо должен был сделать, при условии, что машина достаточно послушна.
Не гарантируется, что взрыв интеллекта возможен в нашей вселенной, но это кажется вероятным. Со временем компьютеры становятся быстрее и получают базовые знания о наращивании интеллекта. Это означает, что потребность в ресурсах, чтобы сделать этот последний переход к общему, повышающемуся интеллектуальному уровню, падает все ниже и ниже. В какой-то момент мы окажемся в мире, в котором миллионы людей могут найти Best Buy и подобрать аппаратную и техническую литературу, необходимую для создания самосовершенствующегося искусственного интеллекта, который, как мы уже создали, может быть очень опасно. Представьте себе мир, в котором вы могли бы делать атомные бомбы из палок и камней. Такое будущее мы обсуждаем.
И, если машина действительно совершает этот прыжок, она может очень быстро опередить человеческий вид с точки зрения интеллектуальной продуктивности, решая проблемы, которые не может решить миллиард людей, так же, как люди могут решать проблемы, которые может миллиард кошек ». T.
Он мог бы создавать мощных роботов (или био, или нанотехнологии) и относительно быстро приобретать способность изменять мир по своему усмотрению, и мы мало что могли бы с этим поделать. Такой интеллект мог бы лишить Землю и остальную часть Солнечной системы запасных частей без особых проблем на пути к тому, что мы сказали. Кажется вероятным, что такое развитие событий было бы катастрофическим для человечества. Искусственный интеллект не должен быть злым, чтобы разрушить мир, просто катастрофически равнодушен.
Как говорится, “Машина не любит и не ненавидит вас, но вы сделаны из атомов, которые можно использовать для других целей.”
Оценка рисков и смягчение их последствий
Итак, если мы признаем, что проектирование мощного искусственного интеллекта, который максимизирует простую функцию полезности, является плохим, сколько проблем мы на самом деле? Сколько у нас есть времени, прежде чем станет возможным создавать такие машины? Это, конечно, сложно сказать.
Разработчики искусственного интеллекта делают успехи. 7 удивительных веб-сайтов, чтобы увидеть последние разработки в области искусственного интеллекта 7 удивительных веб-сайтов, чтобы увидеть последние разработки в области искусственного интеллекта Искусственный интеллект - это еще не HAL с 2001 года: Космическая одиссея ... но мы очень близко подходим к нему. Конечно же, однажды это может быть похоже на то, как голливудские пароходы производят фантастику ... Машины, которые мы создаем, и проблемы, которые они могут решить, неуклонно растут в своих масштабах. В 1997 году Deep Blue мог играть в шахматы на уровне выше человеческого гроссмейстера. В 2011 году IBM Watson мог читать и синтезировать достаточно информации достаточно глубоко и быстро, чтобы обыграть лучших игроков в открытой игре в вопросы и ответы, пронизанной каламбурами и игрой слов - это большой прогресс за четырнадцать лет.
Прямо сейчас Google вкладывает большие средства в исследование глубокого обучения, методики, которая позволяет создавать мощные нейронные сети путем построения цепочек более простых нейронных сетей. Эти инвестиции позволяют ему добиться серьезного прогресса в распознавании речи и изображений. Их последнее приобретение в этой области - стартап Deep Learning под названием DeepMind, за который они заплатили около 400 миллионов долларов. Как часть условий сделки, Google согласилась создать совет по этике, чтобы обеспечить безопасное развитие их технологии ИИ..
В то же время IBM разрабатывает Watson 2.0 и 3.0, системы, способные обрабатывать изображения и видео и выступать в защиту выводов. Они дали простую, раннюю демонстрацию способности Уотсона синтезировать аргументы за и против темы в видео демонстрации ниже. Результаты несовершенны, но впечатляющий шаг.
Ни одна из этих технологий сама по себе не опасна: искусственный интеллект как область все еще борется за то, чтобы соответствовать способностям, освоенным маленькими детьми. Компьютерное программирование и дизайн искусственного интеллекта - это очень сложный, высокоуровневый когнитивный навык, и он, вероятно, станет последней человеческой задачей, которой овладеют машины. Прежде чем мы доберемся до этой точки, у нас также будут вездесущие машины, которые могут управлять. Вот как мы попадем в мир, наполненный автомобилями без водителя Вот как мы доберемся до мира, наполненного автомобилями без водителя Вождение - утомительное, опасное, и сложная задача. Может ли он когда-нибудь быть автоматизирован технологией без водителя от Google? практиковать медицину и юриспруденцию, а также, возможно, и другие вещи, с глубокими экономическими последствиями.
Время, необходимое нам, чтобы добраться до переломного момента самосовершенствования, зависит только от того, насколько быстро у нас появятся хорошие идеи. Прогнозировать технологические достижения такого рода, как известно, сложно. Не кажется необоснованным, что мы сможем создать сильный ИИ за двадцать лет, но также не представляется необоснованным, что это может занять восемьдесят лет. В любом случае, это произойдет в конце концов, и есть основания полагать, что когда это произойдет, это будет чрезвычайно опасно.
Итак, если мы признаем, что это будет проблемой, что мы можем с этим поделать? Ответ заключается в том, чтобы убедиться, что первые интеллектуальные машины безопасны, чтобы они могли загружаться до значительного уровня интеллекта, а затем защитить нас от небезопасных машин, созданных позже. Эта «безопасность» определяется разделением человеческих ценностей и желанием защитить и помочь человечеству.
Поскольку на самом деле мы не можем сесть и запрограммировать человеческие ценности в машину, возможно, потребуется разработать служебную функцию, которая потребует от машины наблюдать за людьми, определять наши ценности и затем пытаться максимизировать их. Для того чтобы сделать этот процесс разработки безопасным, также может быть полезно разработать искусственный интеллект, который специально разработан не иметь предпочтения относительно их функций полезности, что позволяет нам исправлять их или отключать без сопротивления, если они начинают сбиваться с пути в процессе разработки.
Многие из проблем, которые нам нужно решить для построения безопасного машинного интеллекта, математически сложны, но есть основания полагать, что их можно решить. Над этой проблемой работают несколько различных организаций, в том числе Институт будущего человечества в Оксфорде и Научно-исследовательский институт машинного интеллекта (который финансирует Питер Тиль).
MIRI особенно заинтересована в развитии математики, необходимой для создания Дружественного ИИ. Если окажется, что возможна самозагрузка искусственного интеллекта, то сначала разработка такого рода технологии «Дружественного ИИ», в случае успеха, может оказаться самой важной вещью, которую когда-либо делали люди..
Считаете ли вы искусственный интеллект опасным? Вы обеспокоены тем, что может принести будущее ИИ? Поделитесь своими мыслями в разделе комментариев ниже!
Кредиты изображений: Lwp Kommunikáció Via Flickr, “Нейронная сеть“, по Fdecomite,” img_7801“, Стив Рейнуотер, “E-Volve”, Кеони Кабрал, “new_20x“, Роберт Кадмор, “Скрепки“, Клиффорд Уоллес