Вот перевод на русский язык: “Эта функция iOS 26 дает мне надежду на будущее интеллекта от Apple.”

- Не думаю, что многие будут спорить с тем фактом, что обновление iOS до версии 26 не добавило множество новых возможностей искусственного интеллекта от Apple, особенно когда сравниваешь его с полномасштабным фокусом на ИИ в выпуске iOS 18, который произошел в 2024 году. Да, появились новые функции вроде мгновенных переводов во время звонков по телефону, сессий FaceTime и текстовых сообщений, но в основном Apple Intelligence получила несколько обновлений уже существующих функций, отступая назад перед масштабными изменениями интерфейса в iOS 26.
- Разумеется, это стало одним из самых больших критических замечаний после обзоров iPhone 17 от моих коллег. Когда речь идет об ИИ-функциях, Apple уже уступает Google и Samsung, и перенос внимания на улучшения интерфейса в iOS 26 увеличивает риск дальнейшего отставания.
- Это законная жалоба. Тем не менее я особо не беспокоюсь, ведь одна из особенностей искусственного интеллекта, которой Apple уделила внимание с обновлением до iOS 26, показывает, как далеко могут продвинуться технологии при правильном подходе компании. Эти возможности действительно интересны, но также есть и практические приложения. Например, вы видите постер предстоящего мероприятия на календаре, вместо того чтобы вручную добавлять событие, просто вызовите Визуальный интеллект, который самостоятельно создаст запись в приложении Календарь. А еще он умеет переводить текст разных языков — полезный навык для путешествий.
- Полезное решение! Однако вход в мир возможностей Визуального интеллекта не совсем прост. Когда вспоминаю об использовании своего телефона и съемки картинки, это действительно может быть удобным. Но не всегда у нас есть время на такие манипуляции. И что делать, если нужно получить информацию без возможности быстро ее сфотографировать? Например, когда читаю статью онлайн?
- Вот тут нам и приходит на помощь обновленная версия Визуального интеллекта в iOS 26. Он все еще работает с фотографиями через камеру, но теперь его возможности расширены для работы со скриншотами. Достаточно обычного способа создания скриншота: нажать кнопку блокировки и увеличения громкости одновременно — и система предложит вам использовать команды Визуального интеллекта прямо на экране вашего устройства.
- С этими новыми возможностями можно выполнять различные задачи. Если в скриншоте есть текст на другом языке, вы можете попросить Визуальный интеллект перевести его. Хотите узнать время показа фильма? Просто захватите скриншот афиши кинотеатра Cineplux, и Визуальный интеллект создаст запись в календаре для вас. Кроме того, функция поможет найти альтернативные ингредиенты или рекомендуемые сроки приготовления при просмотре рецептов.
- Нельзя назвать это идеальной реализацией, ведь, как отмечает Марк Спаунауэр в своем обзоре iPhone 17 Pro Max, подход Apple значительно уступает возможностям на Pixel телефонах. Gemini Live от Google может анализировать содержимое экрана и общаться с вами голосом, тогда как для работы Apple Intelligence требуется сначала сделать физический скриншот и затем задать вопрос через текст, без участия Siri.
- Я не буду утверждать, что Apple находится в той же лиге по развитию ИИ на устройствах, что и Google (наши сравнительные тесты в начале года подтверждали этот разрыв, учитывая еще более высокие достижения от Pixel 10). Однако важно признать, что iOS 26 сделала Визуальный интеллект лучше, даже если это лишь небольшой прогресс. Каждый шаг вперед — это шаг к лучшему будущему.
