НаперегонкИИ: Отставание Apple на AI рынке и как компания пытается его сократить
Я часто возвращаюсь к тематике AI и тому, как Apple к середине 2025 года оказалась в догоняющих в этом новом дивном мире. Фишка в том, что люди часто упускают из вида достаточно важную деталь: компания занимается сферой ML (machine learning или машинное обучение) уже очень давно. Многие ошибочно считают, что искусственный интеллект ограничен чатботами формата ChatGPT, однако сам термин и технологии машинного обучения в целом — это куда более широкое и объемное понятие.
Первые ранние AI наработки появились на платформах компании еще с Siri, в 2011 году. Именно благодаря ML ассистент мог обрабатывать голос пользователя, анализировать его запросы и работать с персональными данными на устройстве. А полноценный API1 для работы с локальными моделями на смартфонах и планшетах Apple была анонсирован 8 лет назад, в 2017 году.
Компания не забывала и о железе. Специальный со-процессор для обработки AI-вычислений под названием Neural Engine присутствует в SoC айфонов и айпадов с 2017 года и линейки iPhone 8 / iPhone X и активно развивается с каждым новым поколением процессоров.
С тех пор случилась LLM революция, вышли ChatGPT, Gemini, Claude, Grok, Deepseek и многие другие модели, а вся индустрия в едином порыве помчалась покорять новые технологические вершины2. За исключением Apple, которая не то, чтобы сидела сложа руки, но точно проморгала момент с чатботами и теперь вынуждена в срочном порядке придумывать свои решения.
На этом общем фоне AI-истерии может показаться, что у Apple и нет никаких своих решений, но это далеко от правды. В блоге Machine Learning Research компания публикует технические документы (whitepaper) своих исследователей и их вполне себе передовые разработки. Очень рекомендую ознакомиться, потому что блог написан достаточно человеческим языком (хотя нет проблем забуриться в более подробные пдф с кучей математики и технических деталей).
Из свежих работ, например, команда исследователей под руководством Мохаммада Самрагха, Арнава Кунду и Дэвида Харрисона разработала технологию предсказания токенов3 не по одному (как сейчас работают языковые модели при генерации ответов), а сразу целыми группами. Это позволило команде добиться от трех- до пятикратного(!) прироста скорости генерации ответов без потери качества. Новая система помогает при выдаче кода, решения математических задач и в обычных чатах с пользователями. При этом технология не требует какой-то глобальной переделки LLM. Она подключается в виде простого плагина и требует от разработчиков всего лишь однократного обучения своих моделей новой технологии обработки.
Не стоит забывать и о супер-безопасном, отмеченным даже крупными специалистами в информационной безопасности, облаке Private Cloud Compute, которое компания разработала для дополнительных удаленных AI-вычислений.
И, если не считать массового исхода ведущих специалистов в компанию Meta, мне кажется у Apple есть все карты в руках, чтобы догнать и даже обогнать многих крупных игроков в сфере больших языковых моделей и AI в целом. Дадим ребятам из Купертино второй шанс?
P.S. Вы не поверите, но когда черновик этой статьи был уже готов, Марк Гурман опубликовал новость, что уже пятый(!) AI-инженер Apple уходит в Meta. Поразительно масштабный исход. А главное, по данным источников Гурмана, это не последний такой переход. Сможет ли Тим Кук заинтересовать, а главное — задержать специалистов по искусственному интеллекту в Эппл? Что для этого понадобится? И как отразится такой массовый уход важных сотрудников на амбициях компании в сфере AI?
API, или application programming interface, это набор инструментов для того, чтобы программисты могли взаимодействовать с определенными функциями ОС в своих приложениях. И речь, конечно же, идет про CoreML.↩
Не могу не посмеяться над тем как часто даже крупные игроки пока не могут оседлать эту технологию. Вот совсем недавно Amazon, которые много лет разрабатывают супер-популярную в англоязычных странах ассистента Alexa, запустила (после нескольких переносов) LLM версию Alexa+. Первые впечатления журналистов, которым удалось протестировать новый сервис? Цитирую Кевина Руза из New York Times: "Плохая новость в том, что, несмотря на новые возможности, Alexa+ слишком глючная и ненадёжная, чтобы я мог её рекомендовать. В ходе тестирования она не только отставала от голосового режима ChatGPT и других голосовых ИИ-ассистентов, которые я пробовал, но и заметно уступала оригинальной Alexa в некоторых базовых задачах."↩
Токены — это физические единицы на которые языковая модель разбивает текст при генерации ответов. Это может быть как отдельное слово, так и части слова. Например, слово "yes" может считаться одним токеном, а "unbelievable" быть разбито на три ("un","believe" и "able").↩