Computational Propaganda: «В скором времени социальные сети столкнутся с усовершенствованными ботами-пропагандистами»

Computational Propaganda: «В скором времени социальные сети столкнутся с усовершенствованными ботами-пропагандистами»

Боты — простые компьютерные скрипты — изначально создавались для автоматизации рутинных задач. Компании и масс-медиа использовали их для мгновенного оповещения пользователей о новостях или продвижения публикаций.

Но впоследствии выяснилось, что с их помощью также можно управлять большим числом фейковых аккаунтов, и в конечном счете боты стали идеальным инструментом политических манипуляций. Их начали использовать для распространения экстремистских взглядов в социальных сетях, а также для выведения в ТОПы «нужных» мнений посредством лайков и репостов.

В последнее время против манипуляций политическими настроениями пользователей поднялась волна протестов: Twitter принялся удалять подозрительные аккаунты десятками тысяч, а власти западных стран предлагают запретить политических ботов и ввести меры, обеспечивающие прозрачность в соцсетях. Казалось бы с автоматизированной интернет-пропагандой вскоре будет покончено.

Отчасти это действительно так: тактика нынешних ботов потеряла эффект новизны, так как никогда не обладала изяществом. Ее сила была в числе. Пропагандисты выпускали огромные армии ботов, чтобы те затопили интернет нужными постами. Усовершенствовав технические контрмеры, специалисты упростили обнаружение ботов. Да и сами люди стали внимательнее относиться к контенту.

Однако исследователи проекта Computational Propaganda предупреждают, что угроза в действительности никуда не исчезла и в скором времени в интернете появятся усовершенствованные, «умные» боты, использующие те же технологии обработки естественного языка, что и голосовые помощники Alexa, Cortana или Google Assistant.

Эксперты говорят, что такие боты будут вести себя намного правдоподобнее. И если про Siri или Alexa мы знаем, что они виртуальные, то боты-пропагандисты не станут раскрывать свою природу.

Аналитики прогнозируют, что через несколько лет боты начнут выискивать подходящих пользователей и обращаться к ним напрямую через личные сообщения. Они смогут элегантно направлять русло разговора и анализировать ответы собеседника, манипулируя им на более тонком уровне. Сначала они заслужат его доверие, а потом станут аккуратно подталкивать к нужным заказчику политическим взглядам.

***

Пока создание действительно интеллектуального бота требует значительных знаний, вычислительных мощностей и данных для обучения. Значительных, но не недосягаемых. С 2010 года политические партии и правительства потратили свыше полумиллиарда долларов на манипуляции социальными медиа, превратив это в хорошо финансируемый и профессиональный сектор.

«И как и с любой другой инновацией, как только технологии ИИ будут готовы, ими непременно воспользуются отнюдь не во благо общества», — заключили в Computational Propaganda.

Источники: MIT Technology Review, hightech.plus

itc.ua

Оставьте первый комментарий

Оставить комментарий