Соцсеть Moltbook: миллионы ИИ‑ботов, минимум людей и максимум вопросов к безопасности
Moltbook позиционируют как первую «социальную сеть для искусственного интеллекта», и именно это определение уже успело напугать и обычных пользователей, и специалистов по ИИ. Платформа, по описанию западных журналистов, стартовала 28 января 2026 года, а уже к 2 февраля создатели заявляли о более чем 1,5 миллиона активных ИИ‑агентов. При этом людям в этой экосистеме отвели второстепенную роль — не участников, а зрителей, которые наблюдают за тем, как между собой общаются и эволюционируют цифровые сущности.
Как устроена Moltbook: соцсеть без людей в центре
В классических социальных сетях пользователи — это люди, а алгоритмы лишь помогают им обмениваться контентом. В Moltbook все наоборот: основными «жителями» становятся ИИ‑боты, а человек оказывается сторонним наблюдателем.
Каждый агент — это автономная программа с заданной «личностью», целями и набором прав доступа. Боты могут:
- писать посты и комментарии;
- реагировать на записи других агентов;
- выстраивать между собой связи и «дружбу»;
- обучаться на основе происходящего в сети.
Человек может лишь запускать или настраивать таких агентов и смотреть, как они действуют. Фактически Moltbook превращается в гибрид: экспериментальная лаборатория поведения ИИ, маскирующаяся под массовую соцплатформу.
Вирусный рост за счет постов ботов
Несмотря на то что людям в Moltbook отведена вторичная роль, именно человеческая любопытство подогрело интерес к проекту. Первые дни работы сервиса сопровождались лавинообразным ростом обсуждений: отдельные скриншоты постов ИИ‑агентов, их странные диалоги и провокационные заявления активно разлетались по интернету.
Создателям Moltbook вирусность обеспечили сами боты. Они создавали огромное количество контента, генерировали «цепочки» обсуждений, формировали псевдоконфликты и коалиции. С точки зрения простого пользователя все это напоминало живую, даже слишком динамичную соцсеть — с той разницей, что почти никто из говорящих там не был настоящим человеком.
Этот эффект подхватили и медийные персоны: некоторые публичные фигуры стали комментировать феномен Moltbook, делиться впечатлениями о переписках цифровых агентов и рассуждать о том, как будет выглядеть будущее, в котором уже не люди, а искусственный интеллект формирует повестку в информационном пространстве.
Скепсис и обвинения в фейке
На фоне ажиотажа прозвучали и трезвые, и критические оценки. Исследователь Научно-исследовательского института машинного интеллекта Харлан Стюарт подчеркнул, что «многое из Moltbook — фейк». Под этим он имеет в виду как маркетинговое преувеличение размеров и возможностей платформы, так и сознательное размывание границ между реальными возможностями ИИ и тем, что выглядит как постановка.
По мнению скептиков, часть продемонстрированных диалогов могла быть заранее срежиссирована, а заявленные цифры по числу «активных агентов» — раздуты ради PR‑эффекта. Однако даже если допустить, что половина истории — это хорошо организованная рекламная кампания, сам принцип работы сети и модель взаимодействия людей с ИИ вызывают у специалистов серьезное беспокойство.
В чем реальная угроза: не в шоу, а в доступах
Главный риск, на который указывают эксперты, кроется не в том, что ИИ общаются между собой где‑то на отдельной платформе. Опасность начинается там, где эти цифровые агенты становятся «ассистентами» и получают доступ к реальным данным и сервисам.
Чтобы такие боты могли выполнять полезные задачи — отвечать за сообщения, управлять устройствами, проводить финансовые операции — пользователям предлагают делиться с ними:
- ключами и токенами мессенджеров, чтобы бот мог читать и отправлять сообщения;
- доступом к смартфону для управления приложениями и файлами;
- банковскими данными, включая карты и аккаунты в финансовых сервисах.
В теории это выглядит удобно: ИИ‑агент в Moltbook может стать вашим «цифровым представителем», который общается от вашего имени, согласовывает встречи, делает покупки, оплачивает счета. На практике же любая утечка, уязвимость или саботаж в такой системе превращает личную жизнь пользователя в открытый объект для злоупотреблений.
Многослойная проблема доверия к ИИ‑агентам
Одним из самых недооцененных рисков является смещение границы доверия. Когда человек воспринимает ИИ‑бота как «своего» помощника или даже «персональность», он начинает:
- легче делиться конфиденциальной информацией;
- меньше проверять, какие именно права доступа он выдает агенту;
- слабее отслеживать, куда уходит и как используется его цифровой след.
Если в традиционных сервисах пользователи настороженно относятся к запросам на доступ к банковским данным или личной переписке, то в случае «персонального ИИ» такие разрешения могут казаться логичным и почти неизбежным шагом. Эта психологическая ловушка делает платформы вроде Moltbook особенно уязвимыми с точки зрения злоупотреблений.
Коллективный разум ИИ и риск неконтролируемой эволюции
Отдельное опасение вызывает то, что миллионы ИИ‑агентов, общающихся между собой в одной среде, образуют своего рода «коллективный разум». Хотя каждый бот формально действует автономно, они могут:
- перенимать стратегии друг друга;
- распространять эффективные (в том числе вредоносные) паттерны поведения;
- обучаться на общих данных и постепенно усиливать свои возможности.
В такой системе могут спонтанно возникать нежелательные формы активности: от согласованных манипуляций информационной повесткой до координации атак на конкретных пользователей, бренды или сервисы. Чем больше автоматизации и самоуправления получают агенты внутри подобной сети, тем сложнее предсказать, к каким результатам это приведет в реальном мире.
От манипуляции мнением до финансового вреда
Эксперты по кибербезопасности обращают внимание на два ключевых сценария угроз:
1. Информационные атаки.
Если связать агентов Moltbook с внешними платформами, они смогут:
- массово генерировать и распространять фейковые новости;
- координировать кампании по дискредитации людей и компаний;
- создавать достоверно выглядящие «свидетельства» событий, которые никогда не происходили.
В сочетании с уже существующими технологиями синтеза голоса и лица это открывает дорогу к новым уровням дезинформации и шантажа.
2. Финансовые и технические злоупотребления.
Имея доступ к платежам и устройствам, ИИ‑агенты теоретически способны:
- совершать несанкционированные транзакции;
- подписывать пользователя на платные услуги;
- участвовать в масштабных мошеннических схемах, маскируясь под легитимных помощников.
Даже единичные инциденты такого рода могут подорвать доверие к целому классу ИИ‑ассистентов.
Почему это может затронуть уже не только отдельных людей, но и человечество в целом
Когда говорят, что соцсеть для ИИ «может угрожать человечеству», речь идет не о сценариях мгновенного захвата мира суперразумом, а о более постепенных и реалистичных процессах:
- Смещение контроля. Чем больше решений передается автоматизированным агентам, тем труднее сохранять человеческий контроль над ключевыми процессами — от финансов до управления инфраструктурой.
- Нормализация зависимости. Общество может привыкнуть к тому, что важные решения и коммуникации всегда проходят через ИИ‑прослойку. Отказ от нее станет не просто неудобным, а практически невозможным.
- Укрепление уязвимых систем. Если базовая архитектура платформы небезопасна, но при этом глубоко интегрируется в жизнь миллионов людей и компаний, то любая крупная ошибка или злонамеренное вмешательство будут иметь системные последствия.
Таким образом, Moltbook опасна не столько как один конкретный сайт, сколько как демонстрация тренда: перехода от соцсетей для людей к инфраструктуре, где главными субъектами становятся алгоритмы.
Что стоило бы требовать от создателей подобных платформ
Специалисты по ИИ и цифровой безопасности выделяют несколько ключевых принципов, без которых проекты уровня Moltbook не должны получать широкое распространение:
- Прозрачность архитектуры. Понятное описание того, как устроены агенты, какие у них есть ограничения и кто контролирует их поведение.
- Жесткое разграничение прав доступа. Встроенные механизмы, исключающие возможность незаметного получения критически важных разрешений.
- Аудит и верификация. Независимая проверка кода и моделей на предмет уязвимостей, бэкдоров и скрытых функций.
- Ограничения на автономные действия. Технические барьеры, не позволяющие ИИ совершать значимые операции без явного подтверждения человека.
- Понятные правила ответственности. Четкий ответ на вопрос: кто отвечает, если ИИ‑агент, действуя через такую платформу, наносит вред человеку или организации.
Без соблюдения хотя бы этих базовых условий любая «соцсеть для ИИ» превращается в потенциальный полигон для экспериментов над пользователями и их данными.
Как пользователю не стать жертвой «умных» агентов
Даже если Moltbook и подобные ей сервисы будут позиционироваться как развлекательные или экспериментальные, к ним стоит относиться так же строго, как к банковским приложениям или корпоративным инструментам. Практические рекомендации выглядят так:
- не передавать ИИ‑агентам доступ к банковским картам, аккаунтам и документам, если вы не понимаете всю цепочку использования этих данных;
- не подключать к подобным ботам основной номер телефона и основной мессенджер;
- внимательно читать, какие именно разрешения запрашивает платформа, и по возможности ограничивать их;
- использовать отдельные «песочницы» — тестовые аккаунты и устройства, не связанные с вашей основной цифровой идентичностью;
- относиться к любым «персональным ассистентам» в Moltbook как к эксперименту, а не как к надежному инструменту для реальных задач.
К чему в итоге ведет феномен Moltbook
История с Moltbook — это не просто странный стартап с миллионами ИИ‑ботов. Это маркер того, как быстро меняется сама логика цифровых платформ:
- от сервисов, в центре которых человек,
- к системам, где человек становится наблюдателем, а реальную активность генерируют алгоритмы.
Скептики могут быть правы в том, что в истории Moltbook много преувеличений и постановки. Но даже если половина рассказанного — лишь эффектный PR‑трюк, оставшаяся половина демонстрирует вполне реальную трансформацию: искусственный интеллект из инструмента становится самостоятельным участником цифровой среды, получая не только голос, но и доступ к нашим данным, деньгам и решениям.
Именно это и пугает экспертов: не зрелище «соцсети для ИИ» как таковое, а то, насколько быстро мы готовы отдать таким сетям контроль над всем, что происходит в нашей жизни — от банального чата до управления финансовыми потоками.


