Подписаться
Опубликовано

ИИ запомнит всю вашу жизнь

Автор
  • Имя
    Нейрократия
    Telegram

ИИ запомнит всю вашу жизнь

Сэм Олтман (он же Альтман, мне так привычнее), глава OpenAI, недавно сформулировал масштабную концепцию будущего ChatGPT на мероприятии Sequoia. Альтман ожидает, что технологии в конечном итоге достигнут уровня, когда модель искусственного интеллекта сможет «помнить» всю жизнь конкретного пользователя. Это не метафора, а конкретная заявка на развитие продукта.

Представьте небольшую модель с огромным контекстом — примерно триллион токенов, — которая хранит и постоянно обновляет всю историю жизни пользователя. В эту память войдут все прочитанные книги, электронные письма, просмотренные страницы, переписки и разговоры. С каждым днем контекст будет расширяться, а возможности персонализации станут практически безграничными.

По мнению Альтмана, в идеале такая модель должна не просто запоминать, но и логически обрабатывать всю накопленную информацию, чтобы точнее отвечать на любые вопросы и предлагать персонализированные рекомендации.

ChatGPT, между тем, что уже шарит память между всеми моделями OpenAI, которыми пользовался юзер.

И это не только про отдельных пользователей. Альтмана предположил, что организации тоже смогут использовать аналогичные модели, которые будут интегрированы с их корпоративными данными.

Тренд на развитие памяти ИИ заметен у ведущих компаний. Google, Meta (запрещена в РФ) и Microsoft активно развивают способности своих ИИ-ассистентов запоминать данные, чтобы совершенствовать персонализацию и повышать вовлеченность пользователей. Google Gemini недавно начал интегрировать в контекст взаимодействия с пользователем его историю поисковых запросов. Microsoft запустили функцию Recall — инструмент, который по умолчанию может делать регулярные скриншоты пользовательских устройств (с возможностью опционального отключения).

Meta также экспериментирует с памятью в своих чат-ботах в WhatsApp и Messenger, заявляя, что это позволит точнее выдавать персонализированные рекомендации — в том числе коммерческого характера.

Подобные функции не только делают технологии более полезными, но и являются логичным шагом в жесткой борьбе экосистем за удержание пользователей и коммерческие возможности. Как отметила профессор MIT Пэтти Маес, если сервис серьезно знает и помнит все о вас, то поменять его становится гораздо сложнее: вы привязываетесь к одному продукту и избегаете перехода к конкурентам.

И здесь же возникает комплекс серьёзных вопросов, связанных с приватностью, безопасностью и коммерческим использованием личных данных. Чем больше система хранит о вас информации, тем потенциально большими будут риски — от приватности до прямой манипуляции.

В последние годы мы видели немало примеров, вызывающих опасения: сбои моделей, галлюцинации, использование LLM для распространения дезинформации, а также случаи необъяснимого поведения ИИ. Всё от цензурируемых китайских чатботов до неоднозначных алгоритмических решений у продуктов Илона Маска (недавний скандал с геноцидом от Grok).

Крупные корпорации, несмотря на заявления о прозрачности и приватности, всегда будут сталкиваться с необходимостью монетизации своих наработок, и персональные данные — один из самых привлекательных ресурсов для этого.

Идея памяти у искусственного интеллекта вполне реализуема и, более того, фактически уже реализуется. Но необходимо заранее и чётко понимать её риски и задачи, чтобы не столкнуться с проблемами совсем другого масштаба.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка