Вы уже пользуетесь нейросетями. Прямо сейчас. Каждый раз, когда делаете ночное фото, и оно получается чётким. Когда телефон сам предлагает ответить на сообщение. Когда направляете камеру на иностранный текст — и читаете его по-русски.
AI в смартфоне давно перестал быть рекламным словом на коробке. Он работает тихо, в фоне, и большинство людей даже не замечают, когда именно нейросеть делает что-то за них. Давайте разберём, что именно.
Камера: самое заметное применение AI

Камера — это место, где нейросети проявляют себя нагляднее всего. Не потому что там больше всего технологий, а потому что результат виден сразу: фото либо красивое, либо нет.
Ночной режим. Когда вы снимаете в темноте, телефон делает несколько снимков подряд с разной экспозицией, а потом нейросеть складывает их в один — убирает шум, восстанавливает детали, выравнивает свет. Google Pixel делает это особенно хорошо: камера физически небольшая, но снимки в темноте выглядят так, будто рядом стоял свет. Всё — заслуга вычислительной фотографии.
Распознавание сцен. Samsung Galaxy автоматически определяет, что именно в кадре: еда, закат, собака, текст, цветок — и подстраивает настройки. Это не маркетинг: попробуйте сфотографировать тарелку с едой на Galaxy S25 и на телефоне пятилетней давности — разница будет заметна.
Ластик объектов. Google Pixel и Samsung предлагают функцию, которая убирает лишних людей или предметы с фото. Вы обводите пальцем прохожего на фоне, нажимаете «удалить» — и нейросеть достраивает фон. Работает не идеально, но на однородном фоне (небо, трава, стена) — очень убедительно.
Улучшение портретов. Apple в последних iPhone использует AI для разделения человека и фона: размытие, которое раньше делали дорогие объективы, теперь воспроизводит программа. Добавились функции вроде «студийного освещения» — когда нейросеть имитирует свет из разных источников на уже готовом снимке.
Голосовые помощники: что изменилось в 2026-м

Siri, Google Assistant и Алиса прошли долгий путь от «погода в Москве» до чего-то более осмысленного. Хотя и сегодня они бесят — просто по-другому.
Что реально умеют. Google Assistant в 2025–2026 году научился выполнять цепочки действий: «напомни через полчаса, что надо позвонить маме» — и он запомнит, поставит будильник, а в нужный момент предложит набрать номер прямо из уведомления. Gemini, встроенный в Android, умеет анализировать содержимое экрана: видит, что вы читаете статью, и может её пересказать или ответить на вопрос по тексту.
Siri с выходом Apple Intelligence стала заметно умнее в работе с приложениями. Можно сказать: «найди фото с прошлого дня рождения» — и она найдёт, потому что понимает контекст, а не просто ищет по ключевому слову.
Алиса на Android и в умных колонках освоила длинные диалоги — можно уточнять вопросы, не повторяя всё с начала. Для русского языка это особенно важно, потому что западные помощники с ним всё ещё работают хуже.
Что по-прежнему раздражает. Помощники плохо справляются с нестандартными запросами. Попросите Siri что-то сделать в стороннем приложении — и она, скорее всего, откроет браузер вместо того, чтобы выполнить задачу. Голосовое управление в реальном шуме — в метро, на улице — до сих пор ненадёжно. А если акцент хоть немного нестандартный, вероятность ошибки растёт.
Перевод и работа с текстом

Это, пожалуй, самый практичный раздел. Переводчик в телефоне стал по-настоящему полезным инструментом — не заменой живого переводчика, но помощником, которому можно доверять в большинстве ситуаций.
Перевод в реальном времени. Наведите камеру на меню в иностранном ресторане, вывеску или инструкцию — Google Переводчик заменит текст прямо поверх изображения, с сохранением шрифта и расположения. Samsung Galaxy с функцией Live Translate переводит разговор в реальном времени: вы говорите по-русски, собеседник слышит английский, и наоборот. Не идеально, но для базового общения — работает.
Galaxy AI и суммаризация. Samsung в линейке Galaxy S25 предлагает «Краткое изложение» — нейросеть читает длинный текст или веб-страницу и выдаёт суть в нескольких предложениях. Удобно для новостных статей или длинных переписок.
Apple Intelligence. В iPhone это называется Writing Tools — встроенные в систему инструменты для работы с текстом. Можно выделить кусок письма и попросить «сделать официальнее» или «сократить». Работает в любом приложении, где есть текстовое поле.
Google Gemini Nano. Это облегчённая версия большой языковой модели Google, которая живёт прямо на телефоне. Она умеет подбирать ответы на сообщения, предлагать варианты формулировок, помогать с черновиками. Встроена в Pixel-смартфоны и некоторые модели Samsung.
Поиск по фото: покажи — и найди

Один из самых недооценённых инструментов в современном смартфоне — поиск по изображению. Он меняет то, как мы узнаём о мире вокруг.
Google Lens. Нажмите на иконку Lens в камере или в поисковике — и сфотографируйте что угодно. Растение на подоконнике: Lens определит вид и расскажет, как ухаживать. Собака на улице: скажет породу. Картина в музее: найдёт автора. Штрихкод или QR-код: прочитает. Текст на латинице: переведёт. Блюдо в тарелке: предложит рецепт.
Circle to Search («Обведи и найди»). Это функция, доступная на Pixel и многих Samsung. Нажмите и удерживайте кнопку Home или навигационную полосу — и можно обвести пальцем любой объект прямо на экране, без скриншота. Смотрите видео — увидели интересные кроссовки у актёра? Обводите, ищете. Читаете статью с незнакомым словом? Обводите и получаете объяснение.
Практический пример: вы идёте мимо незнакомого здания, хотите узнать, что это. Открываете Lens, наводите камеру — и телефон находит здание в базе Google Maps, показывает адрес, рейтинг, часы работы. Это работает для сотен тысяч объектов по всему миру.
NPU и приватность: почему нейросеть внутри лучше, чем в облаке

Здесь надо ввести одно понятие — но объяснить его просто.
Что такое NPU. В современном смартфоне есть несколько процессоров. Обычный процессор (CPU) — занимается всем подряд. Графический (GPU) — рисует картинку на экране. А NPU (neural processing unit, нейронный процессор) — специально обученный «мозг» для задач нейросетей. Он делает их быстрее и с меньшим расходом батареи, чем если бы тем же занимался обычный процессор.
Apple, Qualcomm и Samsung все вкладывают огромные ресурсы в NPU: чип Apple A18 Pro обрабатывает 35 триллионов операций в секунду, Snapdragon 8 Elite — примерно столько же. Это позволяет запускать языковые модели прямо на телефоне.
Почему это важно для приватности. Когда нейросеть работает на устройстве (это называется on-device AI или локальный AI), ваши данные никуда не уходят. Фото остаётся на телефоне. Текст сообщения остаётся на телефоне. Никаких серверов, никаких облаков.
Сравните с облачным AI: когда вы используете голосового помощника, ваш запрос улетает на сервер компании, там обрабатывается и возвращается ответ. Быстро и мощно — но данные прошли через чужую инфраструктуру.
Apple сделала ставку именно на on-device AI: большая часть функций Apple Intelligence работает локально. Google тоже движется в эту сторону — Gemini Nano живёт на устройстве. Samsung использует гибридный подход: простые задачи — на телефоне, сложные — в облаке.
Чего AI пока не умеет
Честный разговор невозможен без этого раздела.
Понимать контекст жизни. Нейросеть не знает, что вы аллергик, что вы только что поссорились с другом, что у вас сегодня важная встреча. Она работает с тем, что вы ей даёте прямо сейчас. Голосовой помощник не «понимает» вас — он предсказывает вероятный ответ на основе огромного количества примеров.
Не ошибаться. Языковые модели уверенно называют несуществующие факты. Переводчик делает грубые ошибки в юридических или медицинских текстах. Ластик объектов иногда достраивает фон так, что получается жутковато. AI хорош в типичных ситуациях — и ненадёжен в нестандартных.
Долгие сложные задачи. «Спланируй мне отпуск на две недели с учётом бюджета и предпочтений» — звучит логично, но результат будет шаблонным. Телефонный AI пока не умеет удерживать длинный контекст и выстраивать сложные цепочки действий.
Работать без интернета на полной мощности. Офлайн-режим у большинства функций урезан. Локальные модели слабее облачных: они быстрее и приватнее, но умеют меньше.
Объяснять своё мышление. Нейросеть не может сказать вам, почему она приняла то или иное решение. Это особенно неприятно, когда она ошибается: вы не получите объяснения — только неверный результат.
Итог
AI в смартфоне — это уже не фишка для рекламного буклета. Это слой технологий, который работает поверх обычного использования телефона: делает фото лучше, переводит на ходу, помогает искать и разбираться в тексте.
Лучшее в этом — вам не нужно ничего настраивать. Всё уже включено. Ночной режим сработает сам. Переводчик откроется одним жестом. Поиск по фото — за секунду.
Худшее — те же нейросети могут уверенно соврать, сделать странное фото или дать бесполезный совет. Поэтому самое полезное отношение к AI в телефоне: доверяй, но проверяй. Пользуйся, но не отключай голову.
В 2026 году смартфон с нейросетями — это не умный помощник. Это очень быстрый, очень широкий, но иногда ненадёжный инструмент. Как хороший швейцарский нож: в умелых руках незаменим, а порезаться всё равно можно.
Если статья помогла — поделитесь с теми, кому может пригодиться. И заходите в наш канал в MAX, Telegram и Дзен — там анонсы новых материалов.