Przy okazji ostatniej kampanii wyborczej w USA w sieciach społecznościowych pojawiło się bardzo wiele informacji, które niesamowicie szybko się rozprzestrzeniły, a okazały się być fałszywe. Również podczas tej kampanii zauważono nasiloną aktywność tweetowania przez automatyczne programy komputerowe. Abstrahując od wyników wyborów i faktycznego wpływu działań fałszywych informacji i botów na ten wynik, warto zwrócić uwagę na to, że bardzo wiele osób uwierzyło zarówno w owe zmyślone informacje jak i w to, że konkretne tweety pochodziły od ludzi, a nie zostały stworzone przez maszyny. Te kwestie wskazują na możliwy kierunek rozwoju praktyk wyborczych oraz ogólnie praktyk wpływania na społeczeństwo.
Istnieje pewne prawdopodobieństwo, że w przyszłości sztuczna inteligencja będzie generowała z jednej strony pewne fałszywe informacje, które będą następnie retweetowane przez szereg botów sprawiając, że dla wielu osób informacja ta może wydać się prawdziwa i może ona wpłynąć na ich działnia.
Aby temu zapobiec różne firmy starają się stworzyć własne programy działające na zasadzie sztucznej inteligencji (programy uczące się), które miałyby za zadanie wyszukiwać prawdziwe informacje w internecie i odróżniać je od fałszywych. W zależności od podejścia biznesowego i branży danej firmy tworzone są programy, które mają pomagać reporterom wybierać prawdziwe tematy do dalszej analizy i stworzenia artykułów; programy, które mają oznaczać informacje jako fałszywe i np. usuwać ją ze strumienia wiadomości pojawiających się użytkownikom lub podświetlać dane informacje jako potencjalnie prawdziwe/fałszywe na poziomie przeglądarki.
Powoli stajemy się więc świadkami walki robotów, póki co robotów zajmująych się informacją. Oczywiście, na razie po obu stronach siedzą za owymi robotami (AI) ludzie, ale pewnie i to wkrótce będzie mogło zostać zautomatyzowane.