Беспорядочное использование терминов Machine Learning (машинное обучение) и Deep Learning (глубокое обучение) вносит изрядную путаницу в понимание разницы между ними. Иногда с этими понятиями смешивают искусственный интеллект.

Нет, это не одно и тоже. Нет, глубокое обучение не является “улучшенной версией” машинного обучения. Нет, глубокое обучение это не искусственный интеллект. А теперь по порядку.

Искусственный интеллект

Это наиболее широкое понятие, которое описывает способность машины имитировать человеческую деятельность. В целом искусственный интеллект можно разделить на три группы:

  1. Narrow AI – ограниченный искусственный интеллект, который имитирует узкую область человеческой деятельности. Например, это голосовой помощник, который распознает речь и выполняет некоторые команды.
  2. AGI (Artifitial General Intellect) – общий искусственный интеллект, который имитирует человеческий интеллект и способен обучаться решению любых задач.
  3. ASI (Artificial Superintelligent) – искусственный интеллект, существенно превосходящий интеллектуальные возможности человека.

Ключевой особенностью интеллекта является способность к обучению. Самый мощный компьютер с передовыми алгоритмами не имеет отношения к искусственному интеллекту, пока мы не научили его распознавать сущности и принимать решения без участия человека.

Машинное обучение

Самый известный и очевидный способ машинного обучения основан на статистической обработке больших массивов данных. Возьмем, для примера, систему коррекции поискового запроса Google. Если вы введете в строку поиска “Deep Lerning”, то поисковая система подскажет правильное написание (Learning) и покажет для него результаты поиска. В этой подсказке нет даже частички разума. Google располагает базой данных из миллиардов запросов, включая ошибочные, поэтому заранее “знает”, что люди ищут на самом деле.

Пример коррекции запросов Google – это “плоское” машинное обучение, где признаком служит только последовательность символов в словах. Алгоритм не вникает в смысл слов. И уж тем более алгоритм не анализирует контекст и эмоциональную окраску запроса. Только сухая статистика и ничего личного. Когда алгоритмы сайтов Amazon и Netflix удивительно точно рекомендуют книги и фильмы на основании истории покупок, им абсолютно безразличны ваши вкусы, эмоции или сюжет сценария. Алгоритмы, основанные на статистических методах, не обрабатывают такие неопределенные понятия.

Глубокое обучение

Это другая стратегия машинного обучения (точнее, подмножество методов машинного обучения).  Глубокое обучение основано на использовании многослойных нейросетей. Многослойные нейросети стали применяться на практике относительно недавно, когда появились необходимые вычислительные мощности по разумной цене. В объекте анализа выделяются векторы признаков, и чем лучше настроено такое разделение, тем точнее и глубже абстрактное восприятие объекта машиной.

Например, в 2012 году специалисты Google научили искусственный интеллект узнавать кошку на кадрах роликов YouTube. В чем здесь глубина? А в том, что алгоритм научился узнавать любую кошку. Спящую, бегущую, черную, рыжую и так далее. Алгоритм выделяет повторяющиеся признаки кошек, раскладывает их по слоям и учится распознавать кошачьи уши, хвосты, глаза и прочие характерные признаки кошки во всех проявлениях. Каждому признаку в процессе обучения присваивается вес (мера значимости).

Благодаря тому, что решение принимается по совокупности признаков, кошка без хвоста всё равно будет отнесена к кошкам. Обучение алгоритма происходило на массиве из 10 миллионов изображений кошек. По большому счету, этому алгоритму можно показать 10 миллионов собак, и он научится узнавать собак (если не считать породы, в которых даже человек затрудняется узнать собаку).

Что лучше?

Неправильная постановка вопроса. Нет хороших и плохих алгоритмов. В реальной жизни выбор подхода определяется скорее экономическими, а не научными соображениями, хотя и остается творческой задачей с изрядной долей интуиции. Аппаратные ресурсы и услуги разработчиков все еще стоят достаточно дорого, а потребитель хочет минимум затрат сегодня и возможность масштабирования завтра. В этом и заключается золотое правило прикладного анализа/разработки.