Мартин Форд - Роботы наступают Страница 27
Мартин Форд - Роботы наступают читать онлайн бесплатно
И действительно, никаких убедительных аргументов в пользу того, что триумф Deep Blue в шахматах мог быть повторен в «Jeopardy!», не было. Шахматы — игра с четко сформулированными правилами; она практически идеально подходит для обкатки вычислительных технологий. В значительной мере своей победой IBM была обязана мощным аппаратным средствам, которые были специально подобраны для решения конкретной проблемы. Deep Blue представлял собой напичканную процессорами систему размером с холодильник, спроектированную специально для игры в шахматы. Благодаря всей этой мощи суперкомпьютер мог просто перебирать все возможные ходы с учетом текущего положения фигур на доске. Затем для каждого из возможных вариантов дальнейшего развития событий программные алгоритмы просчитывали игру на множество ходов вперед, взвешивая возможные действия обоих игроков и буквально воспроизводя бесчисленное количество перестановок — трудоемкий процесс, которые почти всегда обеспечивал нахождение оптимальной стратегии. По сути дела, Deep Blue был примером чистой математики; вся информация, которая требовалась компьютеру для игры, поступала ему в удобном для обработки формате, не требовавшем никаких дополнительных преобразований. При этом машине не нужно было взаимодействовать со средой так, как это делает игрок.
В «Jeopardy!» все было совершенно по-другому. В отличие от шахмат, эта игра по самой своей природе не ограничена никакими рамками. В ней могут быть вопросы на любую тему, с которой знаком каждый образованный человек, включая историю, кинематограф, литературу, географию, массовую культуру и многое-многое другое. В таких условиях компьютер сталкивается с целым рядом чрезвычайно трудных проблем технического характера. Самая большая из них — необходимость понимать естественный язык: компьютер должен получать информацию и давать ответы в той же форме, что и обычные игроки. Еще одним особенно трудным препятствием на пути к победе в «Jeopardy!» является то обстоятельство, что это шоу не просто честная игра по правилам, но еще и увлекательное развлечение для миллионов телезрителей. Сценаристы часто намеренно добавляют в подсказки юмор, иронию и утонченную игру слов — другими словами, все те виды входных данных, которые как будто специально предназначены для того, чтобы спровоцировать компьютер на глупый ответ.
В одном документе компании IBM, в котором описывается технология Watson, указывается на следующее: «Мы имеем дело с носами, которые текут, и ногами, которые пахнут. Как "никаких шансов" может означать то же, что и "держи карман шире", а "умник" и "умница" — быть противоположными по смыслу? Как понять, когда "сгореть" — это о доме, который сгорел дотла, а когда — о человеке, который растратил весь свой потенциал? Почему, чтобы вывести данные на экране, мы должны их ввести?»{131}. Чтобы сыграть в «Jeopardy!», компьютер должен тонко чувствовать все нюансы повседневного словоупотребления, при этом демонстрируя такой общий уровень понимания смысла высказываний, который намного превосходит любые аналогичные компьютерные алгоритмы, предназначенные для погружения в пучину текста в поисках ответов. Возьмем, для примера подсказку «Забей его, и штраф тебе обеспечен»[27]. Это — подсказка из игры, которая была показана в эфире в июле 2000 г. При этом она была в самом верхнем ряду экрана с заданиями, т. е. считалась очень легкой. Попробуйте выполнить поиск по этим словам в Google, и вы получите множество страниц с информацией о различных видах штрафов за самые разные виды нарушений. (Разумеется, следует исключить из результатов точное совпадение с фразой на сайте, содержащем все вопросы из прошедших игр «Jeopardy!»). Правильный ответ — «Что такое „биток“[28]?» — полностью ускользает от внимания алгоритма Google, отвечающего за поиск по ключевым словам[29].
Все эти трудности не были секретом для специалиста по искусственному интеллекту Дэвида Феруччи, который руководил командой, занимавшейся созданием Watson. Перед этим Феруччи возглавлял небольшую группу исследователей в IBM, разрабатывавшую систему, которая могла бы отвечать на вопросы, сформулированные на естественном языке. Феруччи и его коллеги включили свою систему, которую они назвали Piquant (англ. «пикантная»), в состав участников состязания, проводимого Национальным бюро стандартов и технологий, т. е. тем самым органом, который спонсировал выигранный Google конкурс по машинному переводу. По условиям состязания, системы должны были обработать ограниченный набор данных, содержащийся приблизительно в миллионе документов, а затем дать ответы на вопросы. При этом никаких временных ограничений установлено не было. В некоторых случаях на поиск ответа у алгоритмов уходило до нескольких минут{132}. По степени сложности это задание не шло ни в какое сравнение с «Jeopardy!», где за каждой подсказкой стоит, казалось бы, безграничный объем знаний и где у машины была бы всего пара секунд для поиска правильного ответа, иначе у нее не было бы никаких шансов на победу над лучшими игроками.
Проблема Piquant (а также ее конкурентов) была не только в скорости, но и в точности. Система выдавала правильные ответы на вопросы лишь в 35 % случаев — для такого результата было бы достаточно просто ввести вопросы в строку поиска Google{133}. Любые попытки команды Феруччи построить прототип системы для игры в «Jeopardy!» на основе проекта Piquant неизменно заканчивались неудачей. Сама мысль о том, что однажды Piquant сможет составить конкуренцию лучшему игроку «Jeopardy!» Кену Дженнигсу, казалась просто нелепой. Феруччи пришлось признать, что его команде придется начинать с нуля, а сам проект потребует масштабных исследований и разработок, на которые уйдет по меньшей мере полдесятилетия. В 2007 г. он получил одобрение от руководства IBM и принялся за разработку, как сам об этом говорит, «самой сложной интеллектуальной архитектуры, которую когда-либо видел мир»{134}. Он привлек к решению этой задачи ресурсы всей компании, собрав вместе специалистов по искусственному интеллекту из различных подразделений IBM, а также лучших университетов, включая МIT и Университет Карнеги — Меллона{135}.
Команда Феруччи, в которую в конечном итоге вошло около двадцати исследователей, начала работу с создания массивного набора справочной информации, которая должна была послужить основой для ответов Watson. В него вошло приблизительно 200 млн страниц информации, включая словари и справочники, произведения литературы, газетные архивы, веб-страницы и почти все содержимое «Википедии». Затем они собрали исторические данные по всем выпускам телевикторины «Jeopardy!». Свыше 180 000 подсказок из предшествующих игр послужили исходным материалом для алгоритмов машинного обучения Watson, тогда как результаты лучших игроков были использованы для оттачивания игровой стратегии суперкомпьютера{136}. При разработке Watson были созданы тысячи отдельных алгоритмов, каждый из которых был направлен на решение конкретной задачи, включая, например, поиск по тексту, сравнение дат, времени и мест, анализ грамматических конструкций в подсказках и преобразование исходной информации в надлежащим образом оформленные возможные ответы.
При поиске ответа Watson сначала разбирает подсказку на составные части, анализирует слова и пытается понять, что именно он должен найти. Этот кажущийся столь простым этап сам по себе представляет задачу колоссальной трудности для компьютера. Рассмотрим, например, подсказку из категории «Блоги Линкольна», которая использовалась при обучении Watson: «Секретарь Чейз только что передал это мне в третий раз. И знаешь что, дружище? На этот раз я это принимаю». Чтобы у машины был хоть какой-то шанс дать правильный ответ, она должна для начала понять, что первое слово «это» в данном примере выступает в качестве заместителя ответа, который она и должна найти{137}.
Как только Watson заканчивает анализ подсказки, он запускает сразу сотни алгоритмов, каждый из которых применяет отличный от остальных подход, пытаясь найти возможный ответ в содержащемся в памяти компьютера массиве справочных материалов. Если вернуться к приведенному выше примеру, то сначала Watson выделяет слово «Линкольн» в названии категории как значимое, а слово «блоги» игнорирует, воспринимая его как фактор отвлечения внимания: в отличие от человека, машина не способна понять, что сценаристы шоу пытались представить Авраама Линкольна блогером.
По мере того как конкурирующие поисковые алгоритмы выдают сотни возможных ответов, Watson начинает их сравнивать и ранжировать по определенным критериям. Один из используемых машиной методов отбора предполагает вставку возможного ответа в исходную подсказку таким образом, чтобы в итоге получилось утверждение; затем машина снова обращается к справочным материалам в поисках подкрепляющих данное утверждение данных. Итак, одному из поисковых алгоритмов удается отыскать правильный ответ — «прошение об отставке». В этом случае Watson может попробовать обнаружить в своем наборе данных что-то вроде следующего утверждения: «Секретарь Чейз только что подал Линкольну прошение об отставке в третий раз». Он найдет большое количество близких совпадений, что увеличит степень уверенности суперкомпьютера в правильности данного конкретного ответа. Кроме того, при оценке возможных ответов Watson обращается к большому объему исторических данных: он точно знает, какие алгоритмы показывают наилучшие результаты при работе с вопросами определенного типа, а также очень внимательно «прислушивается» к тем из них, которые демонстрируют самые высокие показатели. Способность Watson правильно ранжировать сформулированные на естественном языке ответы, а затем определять степень уверенности в правильности ответа и решать, нажимать кнопку в «Jeopardy!» или нет, является одной из определяющих характеристик системы — тем самым качеством, которое ставит его на передний край в мире технологий искусственного интеллекта. Машина IBM «знает, что она знает», т. е. делает что-то такое, что легко дается людям и ускользает практически от всех компьютеров, когда они погружаются в массивы неструктурированной информации, предназначенной для людей, а не для машин.
Жалоба
Напишите нам, и мы в срочном порядке примем меры.