– 10 июля 2024 г. 14:00 | 362
Фото автора: BlackJack3D/Getty Images
Достижения в области искусственного интеллекта делают всё более сложным различение уникальных человеческих качеств и тех, которые могут быть воспроизведены машинами. Если искусственный общий интеллект (AGI) — искусственный интеллект, превосходящий человеческий, — появится в полной мере, граница между возможностями человека и компьютера полностью исчезнет.
В последние месяцы значительная часть журналистского внимания была сосредоточена на этой потенциально антиутопической теме. Если машины с искусственным интеллектом научатся осознанно воспринимать жизнь, то моральные и юридические соображения, которые мы должны будем им предоставить, быстро станут непосильными. У них будут чувства, которые нужно учитывать, мысли, которыми нужно делиться, внутренние желания и, возможно, фундаментальные права как у недавно появившихся существ. С другой стороны, если ИИ не разовьёт сознание, а вместо этого просто научится переигрывать нас в любой мыслимой ситуации, мы можем оказаться в подчинении у гораздо более совершенной, но социопатической сущности.
Ни одно из этих потенциальных будущих не кажется таким уж уютным, и оба требуют ответа на исключительно сложные вопросы: что именно представляет собой сознание? И останется ли оно биологической характеристикой или в конечном счёте может быть присуще созданным нами устройствам с искусственным интеллектом?
Сознание в компьютерах Фон Неймана
Чтобы компьютер мог воспроизводить широкий спектр внутренних состояний, доступных человеку, его аппаратное обеспечение, по-видимому, должно функционировать примерно так же, как человеческий мозг. Человеческий мозг — это чрезвычайно энергоэффективное аналоговое «устройство», способное к высокоуровневой параллельной обработке.
Современные компьютеры, основанные на архитектуре фон Неймана, не являются ни тем, ни другим — это энергозатратные цифровые машины, состоящие в основном из последовательных схем.
Ars Видео
Как ученые реагируют на Отрицателей науки
В компьютерных чипах фон Неймана память физически отделена от процессора, что требует извлечения информации из памяти перед выполнением вычислений. «В классических компьютерах фон Неймана память и процессор разделены. Инструкции и данные хранятся в памяти, а процессор извлекает их, насколько это возможно, параллельно, а затем обрабатывает числа и возвращает данные в память», — объясняет Стивен Дейсс, нейроморфный инженер на пенсии из Калифорнийского университета в Сан-Диего.
Это ограничение на объём информации, который может быть передан за определённый промежуток времени, и ограничение, которое оно накладывает на скорость обработки данных, называется «узким местом» фон Неймана. «Узкое место» фон Неймана не позволяет современным компьютерам соответствовать — или даже приблизиться — вычислительной мощности человеческого мозга. Из-за этого многие эксперты считают, что сознание в современных компьютерах маловероятно.
Сознание в нейроморфных компьютерах
Специалисты по информатике активно разрабатывают нейроморфные компьютерные чипы, которые обходят ограничения компьютеров фон Неймана, имитируя архитектуру нейронов. Некоторые из них сочетают в себе память и вычислительные блоки на одном чипе. Другие используют специализированные вычислительные элементы с низким энергопотреблением, такие как мемристоры — разновидность транзисторов, которые «запоминают» прошлые состояния напряжения, — для повышения эффективности. Нейроморфные чипы имитируют параллельную работу мозга и потребляют мало энергии.
«Устройство с вычислениями в памяти, к которому относятся, например, нейроморфные компьютеры, использует для вычислений реальную физику аппаратного обеспечения, — объясняет Дейсс, имея в виду мемристоры. — Элементы обработки — это элементы памяти».
Если нейроморфные технологии удастся развить до уровня, необходимого для воспроизведения нейронной активности, то нейроморфные компьютеры смогут не только выполнять интеллектуальные вычисления, но и осознанно воспринимать жизнь. «Если мы когда-нибудь достигнем уровня сложности обработки данных, который может обеспечить человеческий мозг, то мы сможем указать на [нейроморфные компьютеры] и сказать: «Они работают так же, как мозг, — возможно, они чувствуют то же, что и мы», — говорит Дайсс.
Тем не менее, даже в будущем, когда появятся компьютеры, похожие на мозг, и будет создана основа для искусственного сознания, остаётся большой вопрос: как мы узнаем, испытывают ли наши системы с искусственным интеллектом грусть, надежду и восхитительное чувство влюблённости, или они просто выглядят так, будто испытывают эти чувства?
Как мы вообще узнаем, что происходит в сознании машины?
Рог изобилия теорий сознания
Есть только один способ, которым мы можем это узнать: эмпирически определить, как работает сознание в органических формах жизни, и разработать метод, с помощью которого мы сможем постоянно распознавать его. Нам нужно понять, что такое сознание, прежде чем мы сможем надеяться на то, что распознаем его присутствие в искусственных системах. Поэтому, прежде чем мы углубимся в изучение сложных последствий разумного кремния и представим себе будущее, наполненное сознательными компьютерами, мы должны решить древний вопрос: что такое сознание и у кого оно есть?
В последние десятилетия нейробиологи вырвали этот вопрос, которому уже несколько тысячелетий, из рук философов, признав, что связь между нейронной активностью и сознательным опытом неоспорима. Существуют десятки нейробиологических теорий сознания (ToC) — на самом деле их так много, что предпринимаются согласованные усилия по сокращению списка до приемлемого количества. Здесь мы обсудим только три из них: теорию интегрированной информации, теорию глобального нейронного пространства и теорию схемы внимания.
Согласно теории интегрированной информации (ТИИ), разработанной Джулио Толони, директором Висконсинского института сна и сознания при Университете Висконсин-Мэдисон, ключом к сознанию является количество интегрированной информации в системе — насколько тщательно её компоненты взаимодействуют друг с другом посредством сетей нейронов или транзисторов. Система с высоким уровнем интегрированной информации обладает сознанием, а система с низким уровнем интегрированной информации — нет.
Кристоф Кох, выдающийся исследователь из Института Аллена по изучению мозга в Сиэтле, штат Вашингтон, и сторонник ИИТ, объясняет, что человеческий мозг обладает высоким уровнем интеграции информации благодаря обширной параллельной проводке в нейронных сетях. Информация может одновременно проходить по нескольким нейронным путям, что увеличивает вычислительную мощность мозга. Современные компьютеры, подверженные «узкому месту» фон Неймана, в основном состоят из последовательных цепей, поэтому сопоставимый уровень обработки информации недостижим.
Теория схемы внимания (AST), разработанная Майклом Грациано, профессором психологии и нейробиологии в Принстоне, предлагает иную точку зрения: наш мозг создаёт модель того, на что мы обращаем внимание, которая называется «схемой внимания». Эта модель, как и модель самолёта, является представлением. Модель самолёта не включает в себя полностью оборудованную кабину или функциональную кабину пилота. Точно так же схема внимания нашего собственного сознания является приближением: ментальной моделью того, на что наш разум обращает внимание и как мы это воспринимаем.
AST предполагает, что, несмотря на свои ограничения, наша схема внимания настолько убедительна, что мы склонны ошибочно полагать, что сознание — это нечто мистическое, нечто «большее, чем» материя. На самом деле мы можем получить доступ только к этому представлению о нашем разуме, а не к самому разуму, поэтому мы не можем напрямую понять, как работает наш разум, подобно тому, как модель самолёта не может воспроизвести опыт полёта.
Теория глобального нейронного рабочего пространства (GNWT), основанная Бернардом Барсом, научным сотрудником в области теоретической нейробиологии в Институте нейронаук Калифорнийского университета в Сан-Диего, предполагает, что информация, которую наш мозг определяет как достаточно важную, избирательно и временно помещается в центральное рабочее пространство нашего мозга (аналогично кинотеатру), чтобы мы могли обратить на неё внимание. Информация, на которую нам не нужно обращать внимание, хранится в связанных, но отдельных областях (аналогично закулисным помещениям).
«Основная идея [GNWT] довольно проста. В любой момент времени сети внимания выбирают лишь часть неосознанной информации, и этот выбор служит для подключения модулей неосознанной обработки к «глобальному рабочему пространству». Всё, что находится в рабочем пространстве, в этот момент осознаётся», — говорит Майкл Питтс, профессор психологии в Рид-колледже в Орегоне.
Несмотря на различия в подходах, у IIT, GNWT и AST общая цель — эмпирически выявить сложную взаимосвязь между мозговой тканью и жизненным опытом. Как только нейробиологи разберутся в том, как нейронные сети создают сознание, эти знания можно будет использовать для понимания сознательного опыта — или его отсутствия — в неорганических сетях.
Является ли компьютерное сознание не более чем футуристической мечтой наяву?
По мнению ИИТ, сознание в наших современных компьютерах попросту невозможно. Шумиха вокруг искусственного сознания беспочвенна. Аппаратное обеспечение есть аппаратное обеспечение. Независимо от того, насколько хорошо машина играет в шахматы, го, техасский холдем или «Скотланд-Ярд», в конце концов, она не знает, что выиграла игру, и не ощущает эмоциональных взлётов и падений во время соревнований. По словам Коха, «она не испытала ровным счётом ничего».
«Недостаточно просто посмотреть на систему искусственного интеллекта со стороны и спросить, обладает ли она сознанием, судя по её поведению, — говорит Кох. — Нужно заглянуть внутрь. Машина Тьюринга, которая, кажется, думает, не обладает сознанием».
Согласно Институту информационных технологий, неспособность машины «быть чем-то», что воспринимает себя в связи с внешним миром, напрямую связана с её ограниченной причинно-следственной способностью. Причинно-следственная способность определяется как способность системы использовать своё прошлое состояние, чтобы влиять на своё нынешнее состояние, и использовать своё нынешнее состояние, чтобы влиять на своё будущее состояние. Чем больше система может влиять на саму себя, тем больше у неё причинно-следственной способности. Нейробиологи используют переменную «фи» для обозначения количества причинно-следственной способности в системе, и она измеряется путём анализа взаимовлияющих связей между компонентами схемы.
Современные компьютерные процессоры просто не обладают достаточным количеством внутренних связей, влияющих друг на друга, чтобы достичь порогового значения интегрированной информации, необходимого для возникновения опыта. В отличие от человеческого мозга, который содержит примерно 86 миллиардов нейронов с 100 триллионами связей между ними, в компьютере гораздо меньше циклических, или влияющих друг на друга, связей. Компьютер может обладать выдающимся интеллектом — даже превосходящим человеческий, — но это не означает, что он способен оказывать влияние на самого себя: быть сознательным.
«Популярный способ обобщить теорию информационного метаболизма заключается в том, что она предполагает, что система является сознательной, когда целое (интеграция информации) больше, чем сумма его частей, — говорит Питтс. — Теория информационного метаболизма уделяет больше внимания тому, как устроена система и как она влияет на саму себя, а не тому, что она делает. Согласно теории информационного метаболизма, две системы могут иметь одинаковое поведение на входе и выходе, но в зависимости от того, как устроена система, одна из них может быть сознательной, а другая — нет».
В отличие от подавляющего большинства теорий сознания, которые являются вычислительными функционалистскими теориями, предполагающими, что сознание можно свести к физическим компонентам, которые его создают, «IIT начинается с сознания и движется в обратном направлении к физическому субстрату сознания. IIT не начинается с физической системы, такой как мозг или машина, и не предполагает, что её можно свести к чему-то, что приведёт нас к источнику сознания», — говорит Кох.
Из-за этого постулата ИИТ не вписывается ни в одну из традиционных философских теорий сознания, таких как материализм, дуализм, идеализм или панпсихизм. «Это вызов, с которым вы сталкиваетесь, когда изучаете «измы» на протяжении двух тысяч лет. Их преподают во всех философских школах и во всех книгах, и они очень хорошо обоснованы, но все они — философия. ИИТ не вписывается ни в одну из [философских теорий сознания]», — говорит Кох.
Несмотря на убедительную теоретическую основу ИИТ, некоторые нейробиологи ставят под сомнение структуру этой теории. ИИТ основана на пяти аксиомах, которые, по мнению сторонников теории, безошибочно верны. Питтс объясняет: «У некоторых людей возникают проблемы с тем, как начинается ИИТ, потому что это амбициозная теория, которая делает смелые заявления. Вместо того чтобы собирать данные и строить теорию, она начинается с основных принципов. Она описывает пять аксиом, которые должны быть верны для любого сознательного опыта. Затем он использует эти аксиомы для вывода постулатов, которые могут привести к предсказаниям.
«Некоторые исследователи критикуют ИИТ, — добавляет Питтс, — за то, что вы никогда не получите экспериментальный результат, который поставит под сомнение суть теории, потому что аксиомы сформулированы так, чтобы быть универсальной отправной точкой. Некоторые люди сказали бы, что она слишком гибкая и не поддаётся проверке».
Хотя Институт интеллекта и технологий предсказывает, что компьютеры с искусственным интеллектом не обладают дополнительным «чем-то», необходимым для сознания (а именно причинно-следственной способностью), он не исключает возможности быстрого создания высокоинтеллектуальных машин — систем с искусственным общим интеллектом, которые превзойдут людей по вычислительным способностям. Это важное различие, о котором мы должны помнить, предупреждает Кох, когда оцениваем, как лучше всего приблизить будущее, наполненное ботами с искусственным общим интеллектом: «Между интеллектом и сознанием есть разница».
Является ли компьютерное сознание неизбежной реальностью?
С другой стороны, нейробиологическую концепцию сознания дополняют теории вычислительного функционализма, такие как теория схем внимания и теория глобального нейронного рабочего пространства. Обе теории вычислительного функционализма считают искусственный интеллект неизбежным. На самом деле, теория схем внимания предполагает, что мы сами по сути являемся машинами, которые ошибочно полагают, что обладают сознанием. Сознание — это просто результат вычислений; источник этих вычислений (мозг или машина) не имеет значения, если они происходят определённым образом.
Некоторым исследователям машинное сознание кажется настолько неизбежным, что они решили проверить, существует ли оно уже сейчас. В августе 2023 года Патрик Батлин, научный сотрудник Оксфордского университета, и Роберт Лонг, научный сотрудник Центра безопасности ИИ в Сан-Франциско, опубликовали на сайте arXiv.org препринт под названием «Сознание в искусственном интеллекте: выводы из науки о сознании». Батлин, Лонг и 18 их коллег проанализировали шесть наиболее известных теорий сознания, основанных на вычислительном функционализме, и составили список свойств, необходимых для возникновения сознания у человека. Затем они искали доказательства наличия этих свойств в системах искусственного интеллекта.
Батлин, Лонг и их коллеги пришли к следующему выводу: «Наш анализ показывает, что ни одна из существующих систем ИИ не обладает сознанием, но также показывает, что нет очевидных технических препятствий для создания систем ИИ, которые соответствуют этим показателям».
Сторонникам как АСТ, так и ГНВТ нравится вывод Батлина и Лонга. Грациано объясняет, что «АСТ построена на предположении, что люди — это биологические машины. Всё, что мозг знает о себе, обязательно основано на информации внутри этого мозга. Мы думаем, что у нас есть сознание, — мы в этом уверены, — потому что мозг создаёт самомодели, или наборы информации, которые описывают его таким образом. Если бы мозг не создавал эти модели, мы бы ничего не знали о сознании. Создайте искусственную систему с такими же информационными структурами внутри, и у неё будут такие же убеждения и представления. Должно быть возможно (и многие работают над этим) создать ИИ, который также считает себя сознательным и думает, что другие люди тоже сознательны».
Уверенность Грациано в том, что ИИ может обладать сознанием, основана на двух фундаментальных принципах AST. Во-первых, «информация, поступающая в мозг, должна была находиться в этом мозге», а во-вторых, «модели мозга никогда не бывают точными». Используя эти два принципа в качестве отправной точки, Грациано пишет, что здесь нет «пространства для манёвра» — единственное логичное, методичное объяснение сознания заключается в том, что оно возникает в мозге и, как и всё остальное, что возникает в мозге, является приближением к реальности.
Кох с этим не согласен. Согласно IIT, субъективный опыт дегустации яблока не может быть воспроизведен компьютером из—за его ограниченной способности оказывать влияние на самого себя - "эффект” сознания возникнуть не может. “Только потому, что что-то является идеальной копией человеческого мозга, не означает, что из этого возникнет сознание”, - объясняет Кох. “Есть разница между симуляцией вещи и самой вещью”. Даже если компьютеры будущего станут такими же сложными, как мозг (с точки зрения самовлияющих внутренних схем), сознание не возникнет автоматически. Уровень интегрированной информации в моделируемом мозге не обязательно будет соответствовать интегрированной информации в реальном мозге.
AST опровергает этот аргумент, утверждая, что субъективный опыт, о котором говорит IIT (и другие теории сознания), — это не что иное, как ментальная схема, убедительная иллюзия. На самом деле мы ничего не испытываем субъективно, когда едим яблоко; наш мозг убеждает нас в обратном. Точно так же искусственный интеллект вскоре сможет убедить себя с помощью внутреннего представления о том, как мы едим яблоко, что он попробовал хрустящий, сочный, ярко-красный сорт «Ханикрисп».
«Сознание — это свойство, которое мы приписываем другим людям и самим себе, и мы делаем это потому, что оно служит полезным способом прогнозирования поведения, — говорит Грациано. — AST предполагает, что мозг создаёт модель или упрощённое представление состояния внимания. Мы понимаем это состояние внимания, приписывая ему сознание. В результате мы лучше прогнозируем себя или других людей».
Поскольку AST и GNWT утверждают, что в сознании нет ничего «особенного» — это просто конечный результат последовательности вычислений, — обе теории считают, что компьютеры с такой же вероятностью могут испытывать жизнь, как и мы.
Батлин разделяет эту точку зрения, говоря: «Я думаю, что системы искусственного интеллекта вскоре будут созданы со многими свойствами, характерными для сознания, и что эти системы будут гораздо более серьёзными кандидатами на сознание, чем те, что существуют сейчас. Эти системы, вероятно, всё ещё не будут обладать сознанием, но они поставят серьёзные вопросы о сознании».
Возможно ли объединить теории сознания?
В сообществе нейробиологов существует переизбыток теорий сознания. Пока эта громоздкая группа разрозненных теорий не будет объединена или сведена к единой теории, которая соответствует результатам экспериментов, у нас не будет точного способа определения машинного сознания. Чтобы начать процесс объединения, Благотворительный фонд Templeton World (TWCF) финансирует ряд совместных проектов, направленных на улучшение коммуникации между исследователями сознания и сокращение разрыва между теориями сознания. Эта работа необходима и важна, если мы хотим понять человеческое сознание до того, как компьютеры станут достаточно сложными, чтобы потенциально обрести его самостоятельно.
Майкл Питтс вспоминает о внимании СМИ к конференции Ассоциации по научным исследованиям сознания, которая проходила в Нью-Йорке в июне 2023 года. Питтс и его коллеги Лиад Мудрик из Тель-Авивского университета и Лючия Меллони из Института Макса Планка представили первые результаты первого совместного исследования, целью которого было тщательно проверить две известные нейробиологические теории сознания: теорию интегрированной информации и теорию глобального нейронного пространства.
«Мы представили наши первые результаты на конференции в Нью-Йорке прошлым летом, и у прессы сложилось неверное впечатление. Они думали, что это одна теория против другой, или что одна из них победит, а другая проиграет, но это не так», — сказал Питтс. Внимание СМИ к соперничающему характеру сотрудничества усиливает впечатление, что исследования сознания разрозненны и непоследовательны.
Питтс и его коллеги находятся на ранних стадиях разработки концепции под названием «Выборочное объединение» в надежде, что разрозненные теории сознания в конечном итоге можно будет объединить в одну эмпирически обоснованную теорию сознания. «Идея выборочного объединения заключается в том, что мы можем тщательно отобрать определённые аспекты теорий, которые подтверждаются данными, и объединить их в одну теорию», — говорит Питтс.
Используя результаты текущих и будущих совместных исследований, он надеется исключить из теорий разделы, которые не соответствуют экспериментальным данным. По его мнению, отдельные элементы теорий, которые выживут после отсеивания, можно будет объединить в новую теорию с предсказаниями, которые согласуются с экспериментальными данными. Питтс говорит: «Мы не хотим объединять теории в духе Франкенштейна, а хотим сохранить согласованные части и отказаться от тех, которые опровергаются экспериментально».
Кох, хотя и в равной степени заинтересован в проверке теорий сознания, не считает, что можно объединить отдельные элементы нескольких теорий сознания. Он говорит: «Это просто принципиально разные теории. Их нельзя объединить. Они обе могут быть неверными, но не могут быть верными одновременно».
Подготовка к AGI, сознательная или нет
Споры о природе сознания и о том, будет ли в конечном счёте искусственный интеллект воспринимать жизнь так же, как мы, вряд ли закончатся в ближайшее время. Тем не менее технологический прогресс стремительно приближает нас к будущему, в котором машины будут во всех смыслах и целях вести себя так же, как мы. Как нам к этому подготовиться?
Кох предлагает приложить усилия для повышения человеческого интеллекта, чтобы компенсировать надвигающееся несоответствие между органическим и искусственным мозгом. Сознательно или бессознательно, но искусственный интеллект будущего будет намного умнее нас. Почему бы не направить некоторые технологические ресурсы на повышение человеческого интеллекта наряду с искусственным?
Грациано предлагает нам подготовиться к появлению сознательного ИИ, заранее рассмотрев социопатию ИИ. С распространением сверхразумного ИИ возрастёт влияние и мощь компьютеров. Если ИИ разовьёт сверхразум без одновременного обучения ориентироваться в сложных социальных нормах, у нас могут появиться машины-социопаты, которые предпочтут убивать нас, а не работать с нами.
«Большинство людей воспринимают сознание как нечто личное, внутреннее. Но оно также играет центральную роль в социальном взаимодействии людей, — говорит Грациано. — Мы воспринимаем друг друга как сознательные существа, и это позволяет нам относиться друг к другу определённым образом. Когда эта способность начинает ослабевать, появляется антисоциальное поведение. Именно тогда люди начинают убивать друг друга».
«Если мы хотим, чтобы ИИ был просоциальным, возможно, нам стоит наделить его механизмами, которые делают людей просоциальными», — предполагает Грациано.
Кох предлагает последнее решение: вместо того, чтобы пытаться справиться с неизбежным превосходством сверхразумного искусственного интеллекта и возникающими в результате неопределённостями, связанными с потенциальным компьютерным сознанием, он советует нам регулировать ИИ прямо сейчас. «Мы должны установить некоторые ограничения для ИИ, как это сделано в ЕС, — это единственное, что мы можем сделать. Сверхразумный искусственный интеллект появится здесь очень скоро. Посмотрим, как мы справимся, к лучшему или к худшему».
Линдси Лафлин — научный писатель и журналист-фрилансер, которая живёт в Портленде, штат Орегон, со своим мужем и четырьмя детьми. Она получила степень бакалавра в Калифорнийском университете в Дейвисе по специальностям «физика», «нейробиология» и «философия».