1. Рады видеть Вас на InstaForum!

    Вы оказались на одном из самых быстрорастущих SMM форумов Рунета. Регистрация на нашем форуме открыта для всех желающих, поэтому мы надеемся, что Вы присоединитесь к нам и пополните ряды успешных SMM и SMO специалистов.

    Наслаждайтесь общением, будьте в курсе последних новостей и просто интересно проводите время!

Ученые разработали алгоритм предсказания атак троллей в Instagram

Тема в разделе "Информация об Instagram", создана пользователем Miracle, 1 сен 2015.

  1. Miracle

    Miracle Администратор
    Команда форума Администратор

    Сообщения:
    2.138
    Симпатии:
    48
    Баллы:
    260
    Ученые разработали алгоритм предсказания атак троллей в Instagram, Miracle, 1 сен 2015, 18:06, dd7f78568a7d8f5e1071f33b90e1f6fa.jpg

    Ученые из Колорадского университета разработали алгоритм поиска и предсказания случаев кибермоббинга (намеренного оскорбления и запугивания пользователей) в социальной сети Instagram.

    При помощи машинного обучения и методов языкового анализа специалисты смогли добиться 77% точности при поиске атак троллей и 60% точности при их предсказании.

    Авторы проанализировали 2218 постов в социальной сети, разбив их на группы по проявления киберагрессии (один агрессивный комментарий) или кибермоббинга (два или более негативных или оскорбительных комментария). В выборках при помощи стандартных методов лингвистического анализа изучалось содержание комментариев и их агрессивный окрас.

    Оказалось, что в “агрессивных” комментариях чаще всего использовались слова, которые относились к таким темам, как “религия”, “смерть”, “наркотики”, “сексуальность”, “злость”, “грусть” и тому подобное.

    Одним из необычных результатов исследования стал тот факт, что комментарии с большим количеством нецензурной лексики, как правило, не были агрессивными, чаще всего они были связаны с политикой или спортом, а в некоторых случаях авторы квалифицировали их как “дружескую болтовню”.

    На основании этих данных ученые создали набор признаков, по которым обучали программу-классификатор.

    Точность определения программой возможных атак кибертроллей составила 77%. Далее ученые пытались предсказать то, вызовет ли фотография негативный отклик в комментариях. Для этого использовалось машинное обучение, а в качестве признаков – содержание фотографии и профиль пользователя. Точность предсказания составила 60%. В дальнейшем ученые планируют повысить точность работы алгоритма.
     
Загрузка...