Российская соцсеть сократила уровень токсичности в комментариях
Новая функция, внедренная в социальную сеть "Одноклассники", позволяет временно ограничивать пользователей, которые пишут оскорбительные комментарии.
С помощью искусственного интеллекта (ИИ), компания разработала модель машинного обучения, которая автоматически выявляет токсичные комментарии и ограничивает их авторов в написании новых на определенный период времени. В результате введения этой функции, количество негативных сообщений под постами, фотографиями и видео сократилось на 47 процентов. Это значительное снижение позволяет улучшить общую атмосферу в сети и создать более безопасное и дружелюбное онлайн-сообщество. Такие меры, принимаемые социальными сетями, являются важным шагом в борьбе с негативным поведением и созданием позитивной среды для пользователей. В дальнейшем, развитие искусственного интеллекта и его применение в социальных сетях будет играть все более значимую роль в поддержании безопасности и комфорта пользователей.
Исследование, проведенное соцсетью, выявило, что более 40 процентов опрошенных испытывают злость от негативных постов. Пользователи выражают потребность в безопасном и уважительном онлайн-пространстве, где комментарии не будут вызывать негативных эмоций. Директор по продукту соцсети «Одноклассники» Александр Москвичев подчеркнул, что треть всех жалоб на платформе связаны с негативными комментариями, а 80 процентов обращений в службу поддержки касаются токсичности высказываний.Согласно данным исследования, большинство пользователей соцсети испытывают негативные эмоции от токсичных комментариев, что подтверждает необходимость создания безопасного пространства для общения в интернете. Важно обратить внимание на то, какие высказывания вызывают наибольшее негодование у пользователей и предпринять меры для улучшения обстановки. Александр Москвичев подчеркнул, что поддержка пользователей идет на пути борьбы с токсичностью в комментариях, что является одним из ключевых направлений развития соцсети.В свете роста интернет-активности и значимости онлайн-сообществ, создание позитивной и безопасной атмосферы для общения становится все более актуальным. Понимание потребностей пользователей и борьба с негативными проявлениями в сети становятся неотъемлемой частью работы соцсетей, направленной на улучшение пользовательского опыта и обеспечение комфортного взаимодействия.Новые продуктовые решения, включая ML-модель, обученную на 400 тысячах недружелюбных высказываний, значительно улучшили работу соцсети "Одноклассники". Запуск модели позволил ускорить обработку жалоб на токсичные посты в три раза, что привело к более быстрому решению проблем пользователей. Эти инновации помогут не только вернуть на платформу редко посещающих пользователей, но и привлечь новых, подчеркнул Москвичев.Ранее "Одноклассники" уже начали применять автоматическое обнаружение нецензурных слов и скрытие их, а также размывание изображений эротического характера. Теперь, благодаря новым технологиям, платформа стала еще более безопасным и комфортным местом для пользователей. Такие инновации в области безопасности и модерации контента позволяют создать более позитивное и дружелюбное онлайн-сообщество.В 2023 году социальная сеть внедрила модерацию, основанную на машинном обучении, с целью ограничить различный нежелательный и неприемлемый контент, включая информацию, предназначенную для аудитории старше 18 лет. Кроме того, была разработана модель машинного обучения, которая позволяет ограничить навязчивые знакомства и общение с нежелательными собеседниками на площадке. Это важный шаг в обеспечении безопасности и комфорта пользователей социальной сети.Модерация на базе машинного обучения является эффективным инструментом для фильтрации контента, который может нарушать правила платформы или нанести вред пользователям. Благодаря использованию алгоритмов и моделей машинного обучения, социальная сеть может автоматически обнаруживать и ограничивать нежелательный контент, такой как насилие, порнография или ненависть.Однако модерация на базе машинного обучения не является идеальной и может иметь некоторые ограничения. Например, алгоритмы могут неправильно идентифицировать нежелательный контент или, наоборот, пропускать его. Это может привести к неправильному блокированию или разрешению определенных материалов. Поэтому социальная сеть постоянно работает над улучшением своих моделей машинного обучения и алгоритмов, чтобы минимизировать такие ошибки.Запуск ML-модели, ограничивающей навязчивые знакомства и общение с нежелательными собеседниками, является еще одним шагом в направлении обеспечения безопасности пользователей. Эта модель позволяет автоматически определять и блокировать аккаунты, которые проявляют нежелательное поведение, такое как навязчивые сообщения или угрозы. Таким образом, социальная сеть создает более комфортную и безопасную среду для своих пользователей.Источник и фото - lenta.ru