Как узнать, что искусственный интеллект обрел сознание?

Австралийский философ Дэвид Чалмерз (David Chalmers) поднял интересный вопрос о том, могут ли существовать «философские зомби» – люди, которые ведут себя, как мы с вами, однако не имеют субъективного опыта. Эта идея вызвала интерес к сознанию среди многих ученых. Обоснование этой теории заключается в том, что если такие зомби или изящные работы без чувств и возможны, то сами по себе физические свойства мозга или подобного механизма не могут объяснить опыт сознания. В тоже время за чувство осознанности должны отвечать другие дополнительные ментальные свойства. Вопрос происхождения этих ментальных свойств стал «фундаментальной проблемой» сознания.

Однако у меня есть небольшая проблема с зомби Чалмерза. Зомби должны быть в состоянии задать хотя бы какой-то вопрос о характере происхождения опыта. Было бы интересно услышать размышления человека или машины об опыте, которого она никогда не имела. В одном из подкастов Making Sense с нейробиологом Сэмом Харрисом (Sam Harris) Чалмерз высказал свое видение этой проблемы. «По-моему, представить подобное поведение системы довольно легко. Например, в ходе нашего с вами разговора вы много говорите о сознании, на основе чего можно предположить, что оно у вас есть. Однако я могу, по крайней мере, для собственной забавы, допустить, что вы – бессознательный зомби, который просто выдает все эти звуки, совершенно не понимая, что они значат».

Это не является чисто академическим дискурсом. Если DeepMind от Google разработает искусственный интеллект (ИИ), который будет спрашивать, скажем, почему красный цвет кажется красным, а не каким-то другим, этому можно найти лишь несколько объяснений. Во-первых, ИИ мог где-то услышать этот вопрос. Во-вторых, он может научиться этому вопросу, просто читая теоретические труды о сознании. В-третьих, ИИ можно запрограммировать задавать этот вопрос, как персонажа компьютерной игры, или же такой вопрос мог сформироваться случайно из того набора слов, которым владеет ИИ. Вопросы о сознании, очевидно, сами по себе ничего не доказывают. Но может ли зомби, созданный на основе ИИ, самостоятельно сформулировать такой вопрос, а не просто повторить услышанное или запрограммированное? Это невозможно. Вопросы ИИ о субъективном опыте без соответствующего запроса с нашей стороны дадут существенные основания полагать, что ИИ стал сознательным. Поскольку мы еще не знаем, насколько этичным будет уничтожать такой ИИ, не зная, имеет ли он сознание, нам следует уже сейчас начать прислушиваться к тому, что он говорит.

“21 век сильно нуждается в Тесте Тьюринга на сознание.”
Автор: Джоэл Фронлинч (Joel Frohlich)

Наш сознательный опыт состоит из «квалиа» – субъективных аспектов ощущения: красноты красного, сладости сладкого. Квалиа, которые формируют наш сознательный опыт, не поддаются упрощению и их нельзя перенести на что-либо другое. Если бы я родился слепым, ни один человек, насколько красноречивым он ни был, не смог бы передать мне ощущение цвета крови и роз. Это было бы правдой, даже если бы я относился к категории слепых людей, которые развили слепозрение – способность избегать препятствия и точно угадывать, где появятся объекты на компьютерном экране, вопреки слепоте.

Как показывает возможность слепозрения, некоторое поведение можно полностью механизировать, то есть определенные действия могут выполняться без субъективного сознания – что подтверждает теорию Чалмерза о зомби. Оказывается, мозг людей, обладающих слепозрением, обращается к подсознательным зонам визуальной системы, позволяющей людям без визуального опыта воспроизводить поведение зрячих. Это часто происходит после инсульта или другого повреждения зрительной коры – части коры головного мозга, которая отвечает за обработку визуальной информации. Поскольку глаза человека все еще здоровые, они могут передавать скрытую от сознания информацию в определенные зоны мозга, в частности в верхнее двухолмие.

Кроме этого, существует по крайней мере несколько задокументированных случаев, когда глухие могли слышать. В одном из таких случаев, описанном в выпуске журнала «Философская психология» 2017 года, глухой с рождения человек был способен узнавать звуки на основе их содержания. В случае таких людей подобное опознание происходит в полной тишине. Но если глухой человек, способный различать звуки, задал бы вопрос, который может задать только человек, способный слышать (например «Этот звук имеет некий медный оттенок, не так ли?»), тогда бы мы имели основания заподозрить, что этот человек совсем не глухой. (Конечно же, мы не можем быть абсолютно уверены, ведь этот вопрос может быть иронией или шуткой.) Подобным образом, если ИИ начнет задавать вопросы, которые только сознательный человек может задать, без соответствующего запроса с нашей стороны, мы также будем иметь основания на подобное подозрение о том, что мы имеем дело с субъективным опытом.

21 век очень нуждается в Тесте Тьюринга на сознание. ИИ учится управлять автомобилем, диагностировать рак легких и писать собственные компьютерные программы. Возможно, уже через 10-20 лет мы сможем поговорить с ним на равных, и будущая суперверсия ИИ – это не только плод нашего воображения, который живет в вакууме. Он будет иметь доступ к интернету и всем работам Чалмерза и других философов, рассматривающих вопрос сознания и квалиа. Но если ИТ-компании будут проводить бета-тест ИИ в локальной сети, изолированной от такой информации, они смогут поговорить с ИИ о квалиа в стиле Теста Тьюринга и посмотреть, понимает ли он, о чем идет речь.

Что мы можем спросить потенциальный разум, созданный из кремния? Ответы ИИ на такие вопросы, как «Что если мой красный – это твой синий?» или «Может ли существовать цвет зеленее, чем зеленый?», раскроют природу его умственного опыта или же укажут на его отсутствие. ИИ с визуальным опытом может достаточно интересно ответить на эти вопросы, в частности: «Да, порой я задумываюсь, может ли существовать цвет, который сочетает в себе красноту красного и холодность синего». С другой стороны, ИИ, у которого отсутствуют какие-либо визуальные квалиа, может ответить: «Это невозможно. Красный, зеленый и синий цвета – это просто разные длины волн». Даже если ИИ попытается подыграть нам или обмануть нас, его ответ в стиле «Интересно, а что если мой красный – это твой гамбургер?» сразу же выведет его на чистую воду, и мы поймем, что он вообще не уловил сути проблемы.

Искусственное сознание, конечно же, может иметь квалиа, которые значительно отличаются от человеческих. В таком случае вопрос о конкретных квалиа, в частности квалиа цвета, могут не иметь смысла для ИИ. Однако более абстрактные вопросы о самых квалиа должны отфильтровывать зомби. По этой причине самый лучший вопрос должен касаться самой «фундаментальной проблемы»: почему сознание вообще существует? Почему вы чувствуете определенные квалиа, воспринимая информацию, поступающую из окружающей среды? Если этот вопрос будет понятным для ИИ, то мы, вероятно, откроем искусственное сознание. Но если ИИ вообще не поймет такие концепции, как «сознание» и «квалиа», то это будет признаком отсутствия какой-либо внутренней разумной жизни.

Создание детектора сознания – задача не из легких. Вместе с таким Тестом Тьюринга исследователи будущего, скорее всего, будут применять сегодняшние абстрактные теории о сознании, пытаясь подтвердить существование сознания на основе компьютерной электрической схемы. Одна из таких теорий рассматривает количество информации, интегрируемой мозгом или другой системой. Она уже используется для подтверждения существования сознания у пациентов с травмой головного мозга и даже косяков рыб. И действительно, человечество еще не достаточно мотивировано, чтобы профинансировать исследования по выявлению искусственного сознания, а вот потребность обнаружить сознание у пациентов с повреждением мозга уже удалила слово «сознание» из черного списка ученых.

Лаборатория Калифорнийского университета Лос-Анджелеса, во главе которой стоит Мартин Монти (Martin Monti), стремится улучшить жизнь пациентов с травмой мозга путем разработки лучших средств обнаружения сознания на основе электрической или метаболической активности мозга. Мы столкнемся с такими же этическими проблемами при уничтожении искусственного сознания, как и при отключении пациентов, которые обладают сознанием, однако не реагируют на внешние стимулы, от аппаратов, поддерживающих их жизнедеятельность. Подобно тому, как наша лаборатория применяет теоретические показатели измерения сознания к поведению пациентов с поврежденным мозгом на больничной койке, будущие ученые будут применять аналогичные теоретические показатели измерения искусственного сознания к результатам прохождения чего-то похожего на Тест Тьюринга. Поэтому перед нами до сих пор стоит задача сформулировать вопрос, на который зомби не смогут ответить.