Создан сайт для замера уровня злости в тексте комментария

IT-компания Selectel поделилась любопытной информацией о негативных комментариях в интернете и способах борьбы с ними. Системой выявления оскорбительного контента пользуются уже несколько организаций.

Perspective– разработка от компании Jigsaw. Для проверки степени токсичности в процентах, как утверждает автор материала, нужно зайти на сайт и ввести нужное слово. В свою работу подобную систему уже внедрили компании Reddit, The New York Times, Disqus.

Сколковский институт науки и технологий создал нейросеть, которая автоматически определяет слова и фразы, которые могут быть восприняты как оскорбление. При этом разработчики подчёркивают, что выявляются таким образом только “неуместные” сообщения. Нейросеть содержит список из 18 тем, которые могут оказаться опасными. На этот список она и опирается при анализе контента.

IT-университет Копенгагена по итогам исследований разработал систему, позволяющую распознать, когда пользователи ведут себя оскорбительно и токсичнов социальных сетях. Однако реальных кейсов этой разработки ещё нет в открытом доступе.

Соцсеть Facebook с 2020 года тестирует систему распознавания визуала, имеющего негативный характер. Развитие и совершенствование этой системы всё ещё продолжается.

Источник: Ferra