Menschen verbreiten coronavirus Angst auf Twitter könnten tatsächlich die bots

Vor kurzem Facebook, Reddit, Google, LinkedIn, Microsoft, Twitter und YouTube verpflichtet sich zu entfernen coronavirus-bedingten Fehlinformationen von Ihren Plattformen.

COVID-19 wird beschrieben, wie die erste große Pandemie, die die social-media-Zeitalter. In beunruhigenden Zeiten, social media hilft, verteilen Sie wichtige Informationen an die Massen. Leider geht dies mit unzähligen Fehlinformationen, viel von denen sich durch social-media-bots.

Diese fake-accounts sind gemeinsam auf Twitter, Facebook, und Instagram. Sie haben ein Ziel: Angst zu verbreiten und gefälschte Nachrichten.

Wir haben erlebt, wie diese 2016 Vereinigten Staaten Präsidentschaftswahlen, mit Brandstiftung Gerüchte in die bushfire Krise, und wir sehen es wieder in Bezug auf das Corona-Virus-Pandemie.

Beschäftigt Zerschlagung bots

Das genaue Ausmaß der Fehlinformationen ist schwer zu Messen. Aber seine Globale Präsenz gespürt werden können, durch Schnappschüsse von Twitter bot Engagement in COVID-19-zugehörige hashtag Aktivität.

Bot Sentinel ist eine website, die verwendet maschinellen Lernens zur Identifizierung potenzieller Twitter-bots, mit einer Punktzahl und die Bewertung. Laut der Website, März 26 bot-accounts waren verantwortlich für die 828 die Grafen #coronavirus, 544 Grafen von #COVID19 und 255 Grafen von #Coronavirus hashtags innerhalb von 24 Stunden.

Diese hashtags bzw. nahm die 1., 3. und 7. Positionen aller top-kontrollierte Twitter-hashtags.

Es ist wichtig zu beachten, dass die tatsächliche Zahl der coronavirus-bedingten bot-tweets sind wahrscheinlich viel höher, als Bot Sentinel erkennt nur die hashtag-Begriffe (wie #coronavirus), und würde nicht abholen auf „coronavirus“, „COVID19“ oder „Corona-Virus“.

Wie sind die bots erstellt?

Bots sind in der Regel verwaltet werden durch automatisierte Programme, sogenannte Bots „Kampagnen“, und diese sind gesteuert durch den menschlichen Benutzer. Der eigentliche Prozess der Schaffung einer solchen Kampagne ist relativ einfach. Es gibt mehrere websites, die Menschen lehren, wie dies zu tun ist für die „marketing“ – Zwecke. In der underground-hacker-Wirtschaft auf dem dark web, die solche services sind für Miete vorhanden.

Während es schwer ist, Attribut bots, um die Menschen zu kontrollieren, ist der Zweck der bot-Kampagnen liegt auf der Hand: die Schaffung sozialer Störung, die durch die Verbreitung von Fehlinformationen. Dies kann zur Erhöhung der öffentlichen Angst, frustration und Wut gegen die Behörden in bestimmten Situationen.

Ein Jahr 2019 veröffentlichten Bericht von Forschern der Oxford Internet Institute ergab ein Besorgnis erregender trend in organisierten „social-media-manipulation von Regierungen und politischen Parteien“. Sie berichtet: „Beweise für organisierte soziale manipulation der Medien-Kampagnen, die stattgefunden haben, in 70 Ländern, bis aus 48 Ländern im Jahr 2018 und 28 Länder im Jahr 2017. In jedem Land gibt es mindestens eine Partei oder Regierung Agentur mit social media, um die Form der Haltung der Bevölkerung im Inland.“

Der modus operandi von bots

In der Regel, im Rahmen von COVID-19-Nachrichten, könnten bots verbreiten Fehlinformationen durch die zwei wichtigsten Techniken.

Die erste umfasst die Erstellung von Inhalten, wobei bots starten neue Beiträge mit Bildern, die die Validierung oder Spiegel weltweit bestehende trends. Beispiele sind Bilder von Einkaufskörbe mit Lebensmitteln gefüllt, oder Hamsterer leeren Supermarkt-Regalen. Diese Angst erzeugt und bestätigt, was die Leute Lesen aus anderen Quellen.

Die zweite Technik beinhaltet die content augmentation. In diesem, bots Riegel auf den offiziellen Regierungs-feeds und news-sites, Zwietracht zu säen. Sie retweet alarmierend tweets oder fügen Sie falsche Kommentare und Informationen in einem Versuch, Schüren Angst und Wut unter den Nutzern. Es ist üblich, um zu sehen, bots reden über ein „Frustrierendes Ereignis“, oder einige soziale Ungerechtigkeit, von seinen „lieben“.

Das Beispiel unten zeigt ein Twitter-post von Queensland Health ‚ s offizielle twitter-Seite, gefolgt von Kommentare von Konten, die den Namen „Sharon“ und „Sara“, die ich identifiziert habe als bot-accounts. Viele echte Benutzer Lesen Saras post, wäre zweifellos ein Gefühl der Ungerechtigkeit, die im Namen Ihrer „Mama“.

Wir können zwar nicht 100% sicher, dass diese bot-accounts, viele Faktoren zeigen dies sehr wahrscheinlich der Fall ist. Unsere Fähigkeit, genau zu identifizieren, die bots besser wird als machine-learning-algorithmen in Programme wie Bot Sentinel verbessern.

Wie man ein bot

Zu lernen, die Merkmale eines Bots, let ’s nehmen einen genaueren Blick Sharon‘ s und Sara ‚ s-Konten.

Beide profile fehlen menschlicher Einzigartigkeit, und zeigen einige verräterische Zeichen, die Sie möglicherweise bots:

  • Sie haben keinen Anhänger
  • Sie erst seit kurzem Twitter
  • Sie haben keine Nachnamen, und alphanumerischen Griffe (wie Sara89629382)
  • Sie haben nur ein paar mal getwittert
  • Ihre Beiträge haben ein Thema: Verbreitung von alarmierenden Kommentare
  • Sie Folgen meist news-Seiten, Behörden, oder Menschen, die sehr einflussreich in einem bestimmten Thema (in diesem Fall, Virologie und Medizin).

Meine Untersuchung Sharon enthüllt, der bot versucht hatte, zu verschärfen Wut auf einen news-Artikel über die Bundesregierung coronavirus Antwort.

Die Sprache: „Gesundheit kann nicht warten. Wirtschaftlichen (sic) können“ weist auf eine potentiell nicht-Englisch-Muttersprachler.

Es scheint Sharon versucht hatte, Sie zu Schüren die Flammen der öffentlichen Wut durch das ausrufen von „schlechten Entscheidungen“.

Blick durch Sharon ’s tweets, entdeckte ich Sharon‘ s friend „Mel“, ein anderer bot mit seiner eigenen programmierten agenda.

Was über war, dass ein menschlicher Benutzer sich mit Mel.

Sie können helfen, die Bekämpfung von Fehlinformationen

Derzeit, es ist einfach zu schwer zu schreiben die wahre Quelle von bot-gesteuerten Fehlinformationen. Dies kann nur erreicht werden, mit der vollen Zusammenarbeit des social-media-Unternehmen.

Die Motive eines bot-Kampagne reichen von der Erstellung Unheil für die Ausübung der geopolitischen Kontrolle. Und einige Forscher immer noch nicht einig, was genau versteht man unter einem „bot“.

Aber eins ist sicher: Australien braucht, um zu entwickeln, Rechtsvorschriften und Mechanismen zu erkennen und zu stoppen diese automatisierten Täter. Organisationen laufen legitimen social-media-Kampagnen widmen sollte Zeit, um mit einem bot-detection-tool, um Unkraut und berichten fake-accounts.

Zusammenhängende Posts