Профессор Сок Джун Квон считает, что выводы Apple о фундаментальных ограничениях современных моделей искусственного интеллекта ошибочны из-за отсутствия у компании высокопроизводительного оборудования.
Недавнее исследование Apple поставило под сомнение способности современных больших языковых и рассуждающих моделей (LLMs и LRMs) к сложному мышлению. В ходе экспериментов выяснилось, что ИИ от Apple успешно справляется только с известными задачами, а при увеличении сложности точность резко падает. На этом основании исследователи сделали вывод о фундаментальных ограничениях таких моделей.
Однако профессор Сок Джун Квон из университета Сунгкёнкван уверен: эти выводы преждевременны. По его мнению, Apple просто не располагает достаточными вычислительными мощностями для полноценной проверки возможностей современных ИИ. «Сотни исследований показывают: производительность моделей растет по мере увеличения числа параметров и вычислительных ресурсов, а не снижается. Apple не имеет собственного дата-центра с GPU-кластерами, как у Google, Microsoft или xAI, и не может проверить масштабируемость моделей на практике», — отмечает эксперт.
Профессор также обращает внимание на то, что Apple использует собственные процессоры серии M, которые не поддерживают современные стандарты ИИ-обработки и не совместимы с популярными фреймворками вроде PyTorch. Это, по его мнению, ограничивает возможности компании в развитии собственных ИИ-решений.
На фоне отсутствия анонсов в области ИИ на прошедшей WWDC и перехода к гибридной модели — когда Siri обращается к внешним ИИ, таким как ChatGPT и Gemini, — эксперт прогнозирует: Apple придется создавать серверные процессоры и инфраструктуру, чтобы не отстать от лидеров рынка.
