о проекте   контакты редакции
ZAVTRA
Смотрим в настоящее — говорим о будущем

Как рекомендательные системы в соцсетях формируют подростковые субкультуры будущего

Исследование цифровой антропологии показывает: граница между самовыражением и радикализацией становится всё тоньше — и алгоритмы решают, по какую сторону окажется подросток.

Подпишись на новые материалы!

Точка входа: 47 секунд до новой идентичности

Пятнадцатилетняя Лиза листает ленту TikTok*. Сначала — мемы про школу. Потом — видео о минимализме. Затем — эстетика «тихой жизни». Через 47 минут её лента заполнена контентом о добровольном отказе от цифровой жизни, критике потребительства и радикальном экологизме. Никаких хэштегов она не искала. Алгоритм сам выстроил мост от безобидного интереса к идеологически насыщенной субкультуре.

Это не гипотетический сценарий. Исследования цифровой антропологии фиксируют новый феномен: рекомендательные системы перестали быть нейтральными кураторами контента. Они стали архитекторами идентичности для поколения, чья социализация происходит преимущественно в цифровом пространстве.

Как это работает: три слоя алгоритмической логики

Слой 1: Engagement как северная звезда
Алгоритмы TikTok* и Instagram* оптимизированы не под «полезность» или «безопасность», а под удержание внимания. Видео, вызывающее сильную эмоциональную реакцию — даже негативную — получает приоритет в распространении. Радикальные идеи, провокационная эстетика и поляризованные высказывания генерируют больше комментариев, репостов и времени просмотра. Система это фиксирует и усиливает.

Слой 2: Микродозирование как метод
Подростки редко попадают в радикальные субкультуры одномоментно. Алгоритмы применяют технику «микродозирования»: сначала — эстетически привлекательный контент (мрачная визуальная стилистика, специфический юмор), затем — идеологические посылы, замаскированные под развлечение. Для пользователя это ощущается как развлекательный контент; для алгоритма — успешная цепочка вовлечённости.

Слой 3: Зеркало вместо окна
Исследования показывают: подростки воспринимают алгоритмические рекомендации как «точное отражение себя». Когда лента наполняется контентом определённой субкультуры, подросток интерпретирует это не как манипуляцию, а как подтверждение собственной уникальности. Отказ от приватности ради персонализации становится осознанным выбором.

От субкультуры к радикальности: где проходит грань?

Важно разделять понятия. Субкультура — это сообщество с общей эстетикой, языком и ценностями (например, э-готы или вайб-хипстеры). Радикальность возникает, когда субкультура начинает:

  • Требовать полного отказа от «внешнего мира»;
  • Формировать чёрно-белую картину «свои vs чужие»;
  • Пропагандировать саморазрушительное поведение как форму протеста.

Алгоритмы ускоряют этот переход через два механизма:

Интересный материал? Подпишись на новости!

  1. Фильтровые пузыри с обратной связью: чем чаще подросток взаимодействует с контентом определённой субкультуры, тем агрессивнее алгоритм исключает альтернативные точки зрения. Уже через 3–5 дней активного потребления тематического контента лента становится монокультурной.
  2. Алгоритмическая амплификация: контент с признаками радикальности (провокационные утверждения, эмоциональная поляризация) получает в разы больше охвата, чем умеренные версии тех же идей. Умеренные голоса внутри субкультуры просто «утопаются» в ленте.

Контраргумент: не всё так однозначно

Критики концепции «алгоритмической радикализации» справедливо отмечают: большинство подростков обладают критическим мышлением и не становятся жертвами алгоритмов. Исследования показывают, что лишь небольшая часть пользователей соцсетей ощущает себя в «эхо-камерах». Алгоритмы усиливают существующие склонности, но редко создают их с нуля.

Ключевой фактор — уязвимость. Подростки в кризисные периоды (разрыв отношений, конфликты в семье, поиск идентичности) становятся восприимчивы к идеологическим «якорям», которые предлагает субкультура. Алгоритм в этом случае действует как катализатор, а не первопричина.

Будущее, которое мы проектируем сегодня

Текущая парадигма «внимание = деньги» неизбежно ведёт к радикализации контента. Но альтернативы уже тестируются:

  • Европейский подход: регламент Digital Services Act требует от платформ предоставления «невыборочных» лент и прозрачности алгоритмов. Первые эксперименты во Франции показали снижение рекомендаций экстремистского контента детям.
  • Этичные алгоритмы: исследователи разрабатывают системы, оптимизированные под «когнитивное разнообразие» — сознательно включая в ленту контент, слегка выходящий за рамки текущих интересов пользователя.
  • Цифровая грамотность нового поколения: программы медиаграмотности в школах учат подростков «читать» алгоритмы как текст — распознавать триггеры вовлечённости и осознанно управлять своей лентой.

Заключение: алгоритмы как зеркало общества

Рекомендательные системы не создают радикальные субкультуры из вакуума. Они отражают и усиливают трещины в нашем обществе: одиночество подростков, кризис идентичности в эпоху гиперсвязности, отсутствие офлайн-сообществ для самовыражения.

Будущее не в запрете алгоритмов, а в их переосмыслении. Когда рекомендательные системы начнут оптимизироваться не под время просмотра, а под психологическое благополучие и когнитивное разнообразие — тогда цифровые субкультуры станут пространством для экспериментов с идентичностью, а не ловушкой для уязвимых умов.

Алгоритмы сегодняшнего дня формируют субкультуры завтрашнего дня. Вопрос не в том, можно ли остановить этот процесс — а в том, какое будущее мы закодируем в следующем поколении рекомендательных систем.

*Соцсеть Instagram запрещена в РФ; она принадлежит корпорации Meta, которая признана в РФ экстремистской.

АВТОР

Понравилась статья? Вступай в наше сообщество!

Нам нужна ваша поддержка!
Отправить донат

Рейтинг
( Пока оценок нет )
Загрузка ...
ZAVTRA