Apfelschorle. Мысли про Apple.

НаперегонкИИ: Отставание Apple на AI рынке и как компания пытается его сократить

ml-runner-up

Я часто возвращаюсь к тематике AI и тому, как Apple к середине 2025 года оказалась в догоняющих в этом новом дивном мире. Фишка в том, что люди часто упускают из вида достаточно важную деталь: компания занимается сферой ML (machine learning или машинное обучение) уже очень давно. Многие ошибочно считают, что искусственный интеллект ограничен чатботами формата ChatGPT, однако сам термин и технологии машинного обучения в целом — это куда более широкое и объемное понятие.

Первые ранние AI наработки появились на платформах компании еще с Siri, в 2011 году. Именно благодаря ML ассистент мог обрабатывать голос пользователя, анализировать его запросы и работать с персональными данными на устройстве. А полноценный API1 для работы с локальными моделями на смартфонах и планшетах Apple была анонсирован 8 лет назад, в 2017 году.

Компания не забывала и о железе. Специальный со-процессор для обработки AI-вычислений под названием Neural Engine присутствует в SoC айфонов и айпадов с 2017 года и линейки iPhone 8 / iPhone X и активно развивается с каждым новым поколением процессоров.

С тех пор случилась LLM революция, вышли ChatGPT, Gemini, Claude, Grok, Deepseek и многие другие модели, а вся индустрия в едином порыве помчалась покорять новые технологические вершины2. За исключением Apple, которая не то, чтобы сидела сложа руки, но точно проморгала момент с чатботами и теперь вынуждена в срочном порядке придумывать свои решения.

На этом общем фоне AI-истерии может показаться, что у Apple и нет никаких своих решений, но это далеко от правды. В блоге Machine Learning Research компания публикует технические документы (whitepaper) своих исследователей и их вполне себе передовые разработки. Очень рекомендую ознакомиться, потому что блог написан достаточно человеческим языком (хотя нет проблем забуриться в более подробные пдф с кучей математики и технических деталей).

Из свежих работ, например, команда исследователей под руководством Мохаммада Самрагха, Арнава Кунду и Дэвида Харрисона разработала технологию предсказания токенов3 не по одному (как сейчас работают языковые модели при генерации ответов), а сразу целыми группами. Это позволило команде добиться от трех- до пятикратного(!) прироста скорости генерации ответов без потери качества. Новая система помогает при выдаче кода, решения математических задач и в обычных чатах с пользователями. При этом технология не требует какой-то глобальной переделки LLM. Она подключается в виде простого плагина и требует от разработчиков всего лишь однократного обучения своих моделей новой технологии обработки.

Не стоит забывать и о супер-безопасном, отмеченным даже крупными специалистами в информационной безопасности, облаке Private Cloud Compute, которое компания разработала для дополнительных удаленных AI-вычислений.

И, если не считать массового исхода ведущих специалистов в компанию Meta, мне кажется у Apple есть все карты в руках, чтобы догнать и даже обогнать многих крупных игроков в сфере больших языковых моделей и AI в целом. Дадим ребятам из Купертино второй шанс?

P.S. Вы не поверите, но когда черновик этой статьи был уже готов, Марк Гурман опубликовал новость, что уже пятый(!) AI-инженер Apple уходит в Meta. Поразительно масштабный исход. А главное, по данным источников Гурмана, это не последний такой переход. Сможет ли Тим Кук заинтересовать, а главное — задержать специалистов по искусственному интеллекту в Эппл? Что для этого понадобится? И как отразится такой массовый уход важных сотрудников на амбициях компании в сфере AI?

  1. API, или application programming interface, это набор инструментов для того, чтобы программисты могли взаимодействовать с определенными функциями ОС в своих приложениях. И речь, конечно же, идет про CoreML.

  2. Не могу не посмеяться над тем как часто даже крупные игроки пока не могут оседлать эту технологию. Вот совсем недавно Amazon, которые много лет разрабатывают супер-популярную в англоязычных странах ассистента Alexa, запустила (после нескольких переносов) LLM версию Alexa+. Первые впечатления журналистов, которым удалось протестировать новый сервис? Цитирую Кевина Руза из New York Times: "Плохая новость в том, что, несмотря на новые возможности, Alexa+ слишком глючная и ненадёжная, чтобы я мог её рекомендовать. В ходе тестирования она не только отставала от голосового режима ChatGPT и других голосовых ИИ-ассистентов, которые я пробовал, но и заметно уступала оригинальной Alexa в некоторых базовых задачах."

  3. Токены — это физические единицы на которые языковая модель разбивает текст при генерации ответов. Это может быть как отдельное слово, так и части слова. Например, слово "yes" может считаться одним токеном, а "unbelievable" быть разбито на три ("un","believe" и "able").