Искусственный интеллект предсказывает поведение пользователей

Исследователи британского университета создали алгоритм, который предсказывает, какие пользователи Twitter будут распространять ложную информацию еще до того, как они это сделают.

Алгоритм был создан командой исследователей Университета Шеффилд. Он может предсказывать с вероятностью в 79,7%, какие пользователи будут делиться ненадежной информацией.

Чтобы создать алгоритм, исследователи проанализировали более 1 миллиона твитов примерно 6,200 пользователей Twitter. Их разделили на тех, кто распространяет проверенную информацию, и на тех, кто делится недостоверными фактами. Эти данные использовали для того, чтобы обучить алгоритм.

Исследование показало, что пользователи из второй группы делились информацией о мире вокруг них, писали о политике и религии. Они часто использовали такие слова, как «либеральный», «правительство», «Ислам», «Израиль» и «медиа».

Пользователи из первой группы фокусировались на себе, своих жизнях и эмоциях. Они чаще использовали такие слова, как «я буду», «день рождения», «хочу» и «настроение».

Первая группа была вежливее, чем вторая. Оказалось, что политически враждебные люди используют грубые слова и распространяют ложный контент.

Исследование «Identifying Twitter users who repost unreliable news sources with linguistic information» было опубликовано в журнале PeerJ.