Как создать искусственный интеллект, которому мы можем доверять

Как создать искусственный интеллект, которому мы можем доверять

Компьютерные системы должны понимать время, пространство и причинно-следственную связь.
Прямо сейчас они этого не делают.
 
У искусственного интеллекта есть проблема доверия.
Мы полагаемся на ИИ все больше и больше, но он еще не заслужил нашего доверия.
Например, автомобили Tesla, едущие в режиме автопилота, иногда врезаются в стоящие машины. Система распознавания лиц Amazon работает большую часть времени, но когда ее попросили сравнить лица всех 535 членов Конгресса с 25 000 фотографий осужденных, она обнаружила 28 совпадений, хотя на самом деле их не было. Компьютерную программу, предназначенную для проверки кандидатов на работу в Amazon обвинили в систематической дискриминации женщин.

Проблема не в том, что сегодня работу ИИ нужно корректировать.
Проблема в том, что сегодня ИИ нужно попытаться делать что-то совершенно другое.

В частности, нам необходимо прекратить создавать компьютерные системы, которые просто обнаруживают статистические закономерности в наборах данных - часто с использованием подхода, известного как глубокое обучение, и начать создавать компьютерные системы, которые с момента их сборки изначально охватывают три основных понятия: время, пространство и причинность.

Сегодняшние ИИ-системы на удивление мало знают о любой из этих концепций. Возьмите идею времени. Мы недавно искали в Google «У Джорджа Вашингтона был компьютер?» — запрос, ответ на который требует соотнесения двух основных фактов (когда Вашингтон жил, когда компьютер был изобретен) в единой временной структуре. Ни один из первых 10 результатов поиска Google не дал правильного ответа. Результаты даже не решают этот вопрос. Наивысшей оценкой была ссылка на новость в The Guardian о компьютеризированном портрете Марты Вашингтон, поскольку она могла бы выглядеть как молодая женщина.

Google Talk to Books, ИИ проект, который стремится ответить на ваши вопросы, предоставляя соответствующие отрывки из огромной базы данных текстов, сработал не лучше. В нем содержалось 20 отрывков с множеством фактов, некоторые о Джордже Вашингтоне, другие об изобретении компьютеров, но без какой-либо значимой связи между ними.

Ситуация еще хуже, когда дело доходит до ИИ и понятия пространства и причинно-следственной связи. Даже маленький ребенок, впервые столкнувшись с теркой для сыра, может понять, почему у него есть отверстия с острыми краями, какие части позволяют сыру проваливаться, какие части вы держите пальцами и так далее. Но не существует ИИ может правильно понять, как форма объекта связана с его функцией. Машины могут определять, что есть вещи, но не то, как физические характеристики чего-либо соответствуют результатам его функционирования.

Для некоторых задач доминирующий подход корреляции данных ИИ работает отлично. Вы можете легко обучить машину глубокого обучения, чтобы, скажем, идентифицировать изображения сиамских кошек и изображения Дерека Джетера, а также различать их. Вот почему такие программы хороши для автоматической пометки фотографий. Но у них нет концептуальной глубины, чтобы понять, например, что есть много разных сиамских кошек, но только один Дерек Джетер, и поэтому картинка, на которой изображены две сиамские кошки, ничем не примечательна, в то время как картинка, на которой изображены два Дерека Джетера была обработана.

В немалой степени этот провал в понимании объясняет, почему универсальные роботы, такие как экономка Рози в «Джетсонах», остаются фантазиями. Если Рози не может понять основы того, как устроен мир, мы не можем доверять ей в нашем доме.

Без понятий времени, пространства и причинности многое из здравого смысла невозможно. Например, мы все знаем, что жизнь любого животного начинается с его рождения и заканчивается его смертью; что в каждый момент своей жизни он занимает определенный участок пространства; что два животных обычно не могут находиться в одном и том же месте одновременно; что два животных могут находиться в одном и том же месте в разное время и так далее. Нам не нужно учить этому виду знаний в явном виде. Это набор исходных допущений, концептуальная основа, которая делает возможным все наше другое мышление о мире.

Тем не менее, мало кто пытался встроить такие концепции в ИИ. Мы не говорим, что сделать это легко — напротив, это серьезная теоретическая и практическая задача, но мы не создадим сложный компьютерный интеллект без этого. Если мы создадим машины, оснащенные концептуальным пониманием, то избавимся от ряда серьезных проблем.

Например, философ Ник Бостром представил сценарий, в котором могущественный ИИ, получивший указание делать скрепки, не знал, когда остановиться, и в конечном итоге превратил весь мир, включая людей, в скрепки.

На наш взгляд, этот вид антиутопийных размышлений в значительной степени возникает из размышлений о сегодняшнем бессмысленном ИИ и экстраполяции из них. Если все, что вы можете рассчитать, это статистическая корреляция, вы не можете обеспечить безопасность системы. Только ИИ, который знают о времени, пространстве и причинно-следственных связях можно запрограммировать на следование более общим инструкциям, таким как «робот не может причинить вред человеку или вследствие бездействия позволить причинить вред человеку» (первый из трех законов робототехники Айзека Азимова).

Мы стоим перед выбором. Мы можем придерживаться сегодняшнего подхода к ИИ и значительно ограничить то, что машинам разрешено делать (чтобы в конечном итоге мы не столкнулись с авариями автономных транспортных средств). Или мы можем изменить наш подход к ИИ в надежде на разработку машин, которые имеют достаточно богатое концептуальное понимание мира, что бы нам не нужно было бояться их эксплуатации. Все остальное было бы слишком рискованно.