gwup | die skeptiker

… denken kritisch seit 1987.

Google sucht nach der Wahrheit, Verschwörungsfans nicht

| 22 Kommentare

Die Wahrheit ist nicht mehr irgendwo da draußen – sondern bei Google?

 Runter mit Verschwörungen und Pseudowissen: Wer künftig bei Google sucht, soll vertrauenswürdige Seiten zuerst finden“,

berichtet die FAZ.

In Suchanfragen soll Pseudowissen grundsätzlich nicht mehr auf den vorderen Seiten landen. Denn Google ändert in seinem Suchalgorithmus entscheidende Qualitätskriterien. Das haben Software-Ingenieure des Konzerns in einem wissenschaftlichen Aufsatz mitgeteilt.

Vertrauenswürdigkeit soll der Maßstab sein, wie es heißt, „wissensbasierte Vertrauenswürdigkeit“. Fakten statt Klicks. Die  Pole-Position im Suchergebnis soll die Wahrheit bekommen, weniger der Populismus.

Oder, im Google-Sprech: Nichts als die Wahrheit“.

Wir werden sehen.

Parallel dazu schreibt heute die Welt am Sonntag, dass Verschwörungstheorien so präsent seien wie nie:

Sie verbreiten sich per Hörensagen und vor allem in einschlägigen Foren – wo etwa nach den Pariser Anschlägen auf das Satiremagazin Charlie Hebdo Nutzer die Möglichkeit einer False Flag Operation diskutieren, hinter der „die Franzosen“ oder „die Amerikaner“ stecken sollen.“

Darüber haben wir hier und hier geschrieben – und dabei zugleich der Auffassung widersprochen, dass Verschwörungsphantasten lediglich „Kritiker“ oder gar „Wahrheitssucher“ und Verschwörungstheorien harmlos seien.

Diese unsere Einschätzung teilt der Amerikanistik-Professor Michael Butter von der Uni Tübingen.

Er weist etwa auf das Radikalisierungspotenzial von Verschwörungstheoretikern hin:

Verschwörungstheorien, auch das zeigt die Geschichte, können harmlose Hirngespinste sein – oder gefährliche Waffen, die systematisch dazu genutzt werden, Kriegserklärungen, Gewalttaten oder sogar Genozide zu rechtfertigen“,

heißt es in dem Welt-Artikel.

Nach außen hin gäben sich Verschwörungstheoretiker offen für alles und blieben sehr vorsichtig in ihren Andeutungen, aber …

… darunter liegt doch immer ein relativ klares Narrativ“,

sagt Butter.

Dass es „echte“ Verschwörungstheorien geben könnte, hält der Forscher für leidlich absurd und zieht als Beispiel die Watergate-Affäre heran:

Wenn nicht mal der mächtigste Mann der USA in der Lage ist, die Zentrale des politischen Gegners auszuspionieren, ohne dass jemand was mitbekommt – wie soll es dann erst möglich sein, so etwas wie die vorgetäuschte Mondlandung oder die Ermordung Kennedys geheimzuhalten?“

Daher sei es auch nachvollziehbar, dass der Begriff „Verschwörungstheorie“ negativ konnotiert ist und „Verschwörungstheoretiker“ als ebensolche „disqualifiziert“ werden, resümmiert Butter:

Ein Grund dafür dürfte ihre Art der Welterklärung sein, die irgendwo zwischen abenteuerlich und abstrus schwankt.

Konspirologen sind meisterhaft darin, Widersprüche zu umarmen. Nicht nur, dass ihre Erklärungen oft viel verwirrender sind als die „offizielle Version“ und gerade deswegen plausibler sein sollen – auch die Masterminds, die angeblich dahinterstecken, sind Paradoxe auf zwei Beinen.

Im Grunde, sagt Michael Butter, seien diese Leute übermenschlich: Sie tun alles, um ihre Verschwörung über Jahrzehnte hinweg in Gang zu halten, ohne dass ihnen je persönliche Befindlichkeiten, Eifersüchteleien oder Uneinigkeiten dazwischenkommen.

Gleichzeitig sind sie aber völlig schwach, da zu dämlich, ihre Intrige geheimzuhalten – sonst könnten die Verschwörungstheoretiker ihnen ja nicht schon längst auf die Schliche gekommen sein.“

Wenig verwunderlich, dass Butter „auf diversen Webseiten als Mitläufer und Feind der Wahrheit gilt“.

Und bleibt zu hoffen, dass genau solche Aluthutseiten in Zukunft bei Google durchfallen.

Zum Weiterlesen:

  • Im Auge der Verschwörung: Welt am Sonntag am 1. März 2015
  • „Nichts als die Wahrheit“: Google-Suchmaschine setzt auf Fakten, FAZ am 1. März 2015
  • „Statt Gott lenken jetzt Verschwörer die Welt“: Interview mit Prof. Michael Butter, Spiegel-Online am 9. Januar 2015
  • Interview mit Michael Butter: Krise und Verschwörung, puls am 12. Februar 2014
  • Über die Wirkung von Verschwörungstheorien: Interview mit Michael Butter, Deutschlandradio Kultur am 12. Januar 2011
  • “Zeit der Zweifler”: National Geographic zum Thema Wissenschaftsfeindlichkeit, GWUP-Blog am 1. März 2015
  • Verschwörungstheorien, Praxis und magisches Denken, GWUP-Blog am 22. Februar 2015
  • Verschwörungstheoretiker, Pseudoskeptiker und Aufklärung im Internet-Zeitalter, GWUP-Blog am 5. Februar 2015
  • Sind Verschwörungstheoretiker “vernünftiger”? Natürlich nicht, GWUP-Blog am 18. Januar 2015

22 Kommentare

  1. Generell ist das natürlich lobenswert, aber welche Kriterien haben diese „vertrauenswürdigen“ Seiten – ist es vielleicht nicht nur ein Vorwand, um zahlungskräftige Kunden nach oben zu bringen in der Suchliste?
    Eigentlich ist und war die „Informationsneutralität“ ein großes Plus des Internets – auch wenn dies‘ freilich auch seine Nachteile hat; ob man aber mit dieser Maßnahme – die für mich wie Zensur anmutet – das Richtige erreicht, ist für mich fraglich.

  2. …hab‘ gerade das PDF geöffnet, in dem der Algorithmus dargelegt wird…

    alles sehr transparent – aber letztendlich entscheidet, was Google implementiert und das wird man wahrscheinlich nicht offenlegen, denn sonst müßten sie alles offenlegen.

    Das PDF hab‘ ich jetzt nur mal überflogen ;-)

  3. ohh, da werden sich aber die homöopathen ärgern

  4. @ Ralf

    Ach, sind wir doch mal optimistisch.

    Klingt doch erstmal vielversprechend, oder?

    @ Bernd Harder
    Coole Headline!

  5. AAAArrrr, das wird dem großen Bruder Google viele neue VTs einbringen!

    Ramen:)

  6. Das stinkt :-(

    „We leverage the redundancy of information on the
    web to break the symmetry. Furthermore, we show how to initial-
    ize our estimate of the accuracy of sources based on authoritative
    information, in order to ensure that this iterative process converges
    to a good solution“ (Quelle: http://arxiv.org/pdf/1502.03519v1.pdf)

    Je häufiger eine Information (für die Informatiker hier: nicht Datum, sondern Information) vorkommt, desto vertrauenswürdiger soll sie sein. Dazu eine „authoritative source“, also eine Autorität auf dem in Frage stehenden Gebiet. Die Autorität soll algorithmisch festgelegt werden, indem ihre Prävalenz anhand einer semantischen Analyse, nicht etwa der Zitation gemäß wissenschaftlicher Kriterien, gemessen wird.

    Dazu kommt, dass sie händisch intervenieren müssen (Punkt 5.4.1 in der Quelle), um eine Website anhand von 4 Punkten als „trustworthy“ zu identifizieren. Damit ist aber wieder Willkür und Manipulierbarkeit eingeführt.

    NB: Wikipedia wird als „authoritative source“ explizit genannt. Wenn die anderen Autoritäten ähnlich zuverlässig sind, ist gut Nacht um Sechse.

    Kurz gesagt: Der Algorithmus liefert, vom Standpunkt der Faktizität betrachtet, keineswegs zuverlässig „die Wahrheit“(tm) auf die ersten Plätze der Suchergebnisse.

  7. Meh.
    1. öffnet das der Willkür Tür und Tor und nicht alles ist so leicht in richtig/falsch einzuteilen wie zb die Wirksamkeit von Impfungen. Man denke nur mal an die verschiedenen Narrative nach einem Krieg. Wenn Google seinen Hauptsitz in einem Land wie Schweden hätte wär’s nochmal was anderes, aber das ausgerechnet Angestellte in den USA wo’s in Sachen Glauben und Bildung doch nochmal um ein Hauseck schlimmer aussieht als bei uns dann weltweit Inhalte kuratieren (pardon: noch mehr kuratieren als jetzt) mit all deren Biases? Und sage keiner, daß Google-Angestellte alle so hoch gebildet sind. Die werden das dann höchstwahrscheinlich an cheap labor outsourcen so wie das Scannen der Bücher ja auch keine MIT-Absolventen machen. Evtl wird das dann sogar gleich weltweit verteilt a la Mechanical Turk. Und dann bestimmen vllt irgendwelche Leute ohne entsprechende Ausbildung und mit sonstwas für Aberglauben was eine trustworthy source ist in der Hoffnung, daß es „die Crowd“ schon ausgleichen wird.

    2. sind bei einem tatsächlichen Paradigmenwechsel in der Wissenschaft ebenfalls die neuen Erkenntnisse erstmal in der Minderzahl – und wären damit bei Google ebenso benachteiligt.

    und
    3. werden die Esoteriker und Verschwörungsleute einfach behaupten, daß Google einer von den Bösen ist und mit unter der Decke der phösen Vertuscher steckt. Und einfach ihre Links per Social Media verbreiten oder indem sie noch massenweiser versuchen Wikipedia oder andere Mitmachseiten die als trustworthy gelten zu unterwandern.

  8. Nun, der jetzige pagerank algorithmus ist jedenfalls etwas, das:
    *) Nicht komplett offen beschrieben wird
    *) Von Firmen dennoch misbraucht wird
    *) Und zahlende Kunden sind immer noch „oben“

    Von daher ist ein neuer Algorithmus also nicht schlechter, wenn er dieselben, schwer bis garnicht lösbaren Probleme mit sich bringt.

    Wenn in Zukunft nicht „Gesundheits“ Webseiten die erste Seite Ergebnisse vollplastern, ist das jedenfalls willkommen.

  9. @bsr
    Ob sich da die Homöopathen ärgern, wage ich zu bezweifeln, da ich eher glaube, das die Homöopathie da eher schon zu den etablierten Pseudowissenschaften zählen.

    @Pierre Castel
    Jede Form der Bevormundung oder Zensur ist zu vermeiden.
    Ich weiß, daß ich auch hier schon in dem Forum über das „ungefilterte Internet“ lamentiert habe, aber dh nicht, daß ich für einen Filter bin, sondern man muß Gegenpole schaffen und einer – so denke ich – ist der GWUP-Blog.

    Zitat npl

    Nun, der jetzige pagerank algorithmus ist jedenfalls etwas, das:
    *) Nicht komplett offen beschrieben wird
    *) Von Firmen dennoch misbraucht wird
    *) Und zahlende Kunden sind immer noch “oben”

    Die ersten beiden Punkte sind gleich, aber der dritte Punkt ist zwar oben, aber ist doch als Werbung ersichtlich, wenn man es weiß.
    Jetzt aber werden Einträge nach oben geschoben, die nicht erkenntlich sind.

  10. @Ralf:

    Versteh ich da was falsch mit Punkt 3? Falls Sie von absichlicher Manipulation seitens Google reden, kann dies bereits mit dem Pagerank Algorithmus passieren.

    Es kann sehr wohl sein, daß Google damit die Büchse der Pandora öffnet. Kann auch sein, daß damit eine grobe Menge Leute in die richtige Richtung gestoßen wird, anstatt in einer übermächtigen Menge an schwachsinnigen Webseiten verloren zu gehen.

    Seiten wie GWUP haben nunmal nicht annähernd die Reichweite bzw Sichtbarkeit.

    Ich würd auch nicht soweit gehen, die Reihung von Suchergebnissen als Zensur zu verstehen.

  11. @npl
    Der ‚PageRank-Algorithmus‘ basiert auf „Demokratie“, wenn das Volk „Schwachsinn“ lesen will, dann bekommt es auch „Schwachsinn“…er repräsentiert also die ‚Schwarmintelligenz‘ und diese ist „natürlich“.

    Wie werden aber die ‚Fakten‘ gewichtet?…wobei ich da noch einmal in das PDF sehen muß ;-)

    Natürlich ist die ‚Suchreihenfolge‘ keine direkte Zensur, aber eine indirekte…wer schaut schon auf Seite 2 der Suchergebnisse.

  12. Hab‘ mir das PDF etwas genauer angesehen und muß sagen, was darin steht klingt vernünftig, aber trotzdem glaube ich nicht, daß es richtig ist und es auch letztlich nichts bringt, da die Links dann über Facebook-Gruppen oder Foren ausgetauscht werden, was auch jetzt schon geschieht.
    Gut, man könnte dadurch den „Otto-Normal-Googler“ von diesen Seiten fernhalten, aber ist das die Aufgabe einer „Suchmaschine“: Vater oder Lehrer zu spielen?
    Bei allem Verständnis, kann ich mich damit nicht anfreunden, selbst wenn es dem „guten“ Zweck dient.
    Ja, ich weiß: Google will uns das Wissen der Welt zugänglich machen, aber braucht es dafür eine Gewichtung? Gehören nicht auch Pseudowissenschaften zu dem „Wissen“ der Welt? Sollte die „Gewichtung“ nicht die Aufgabe eines jeden mündigen Bürgers sein?
    Natürlich kann man dem Widersprechen, daß er nicht über die Rechenkapazität und die Datenmenge von Google verfügt, aber manchmal reicht der „gesunde Menschenverstand“ aus.
    Sorry, ich bin ein Computerfreak seit vielen Jahren, aber ich sehe es skeptisch, wenn man immer mehr diesen Maschinen überlässt.
    Früher war man stolz, wenn man ein einfaches Programm entwickeln konnte, das einfache Aufgaben automatisierte, aber sollte man dem Computer, solche „ur-menschliche“ Aufgaben, wie das Gewichten von Informationen überlassen? – Wo soll das hinführen?
    Gute Nacht ;-)

  13. Ich denke der “gesunde Menschenverstand” kann eventuelle Fehler des Algorithmus ausbügeln. Jedenfalls nicht schlechter als dies jetzt der Fall ist.

    Als frischer Papa dessen gesamte nähere Familie jeden Unsinn glaubt und den Nachwuchs ebenso indoktriniert hat habe ich seit Monaten dieses Geschwafel im Ohr, ich soll doch Mitleid mit meinem Kind haben, ich mach es krank, ich muß mir andere Meinungen anhören, etc (Impfungen und sogar die Vitamin D Tropfen).
    Die berufen sich übrigens auch auf Sachen wie dem “gesunden Menschenverstand” oder „das wissen doch Alle“.

    Natürlich ist immer Skepsis angebracht, trotzdem glaub ich das es für Menschen mit “gesunden Menschenverstand” in summe Zeitersparniss bringen wird und die restlichen enden in nicht in sektenähnlichen Glaubenssystemen.

    „Gehören nicht auch Pseudowissenschaften zu dem “Wissen” der Welt?“
    Ebenso wie alles was in der Wissenschaft nicht funktioniert hat, Sie können immer noch über Perpetuum Mobile nachlesen. Entweder fachlich oder als leere Versprechung um Geld von Leichtgläubigen zu ziehen. Ich sehe eine Art der Information als weniger Wert als die andere

  14. @Ralf: Der Algorithmus wird im Bereich Gesundheitswesen gar nichts bringen, wenn der Input so ist, wie er im Paper beschrieben wird. Faktizität läßt sich aber nicht aus Verbreitung ableiten. Die Autoritäten, die Google einführen will, sollen ebenfalls vor allem mittels der Verbreitung von semantischen Einheiten gefolgert werden, dazu kommt noch eine von Google gelieferte Datenbank von Informationen.

    Wie das funktionieren soll, schreibt Google selbst: Eine Seite, die den richtigen Geburtsort mit einer Person verknüpft, wird höher bewertet als eine, die eine verbreitete Falschinformation über den Geburtsort enthält. Welche der beiden Seiten richtig liegt, entscheidet Google anhand einer eigenen Datenbank.

    Das Konzept läßt sich auf Gesundheitsfragen nur schwer übertragen, denn die Informationen bestehen nur aus Tripeln, bei denen vor allem die ersten beiden bewertet werden. Das funktioniert bei der Kombination von Person und Geburtsort, aber nicht bei der Kombination von „Masern“ und „Impfung“ (oder andere häufig vorkommende Kombinationen, zB „Masern“ und „Komplikation“).

    Insofern brauchen wir uns keine Gedanken darüber zu machen, ob die Websites von Impfgegnern besser oder schlechter bewertet werden als zB die der GWUP.

    Ich habe als Fachmensch wenig Probleme damit, Algorithmen eine Vorauswahl meiner Informationsquellen treffen zu lassen. Das liegt aber hauptsächlich daran, dass ich über die Beschränkungen von Algorithmen Bescheid weiss. Das kann man von anderen Menschen nicht erwarten :-) Das Problem ist weniger, dass es Suchmaschinen gibt, sondern mehr, dass die Benutzer die Quellen als gleichwertig betrachten. Keine Suchmaschine der Welt kann dieses Problem lösen, da hilft nur Medienkompetenz.

    Dazu kommt die berühmte Filterbubble. Ein Mensch, der den Esoterikern zuneigt, lässt sich auch von Fakten nicht irritieren. Das weiss wohl niemand besser als die Besucher der GWUP-Seite :-) Wenn eine Debunking-Website weiter vorne in den Suchergebnissen erscheint, führt das noch lange nicht dazu, dass sie auch eher gelesen oder als vertrauenswürdiger angesehen wird, als eine gläubige Website.

    Bei Menschen, bei denen Google durch die Datenanalyse festgestellt hat, dass sie Esoteriker sind, werden die Debunking-Websites ebenfalls nicht weiter vorne auftauchen. Selbst wenn, so würde dennoch Werbung für Eso-Kram eingeblendet und die Sponsored Links wären entsprechend.

  15. „It’s not Wahrheit, stupid. Anmerkungen zu Google Knowledge Vault […]

    Gleich zwei Texte heute zu einem Novum bei Google: „Google-Suchmaschine setzt auf Fakten“ heißt es bei Faz.net, und in der Welt Online „Google will niemals wieder lügen“.

    Beide Texte enthalten nicht nur fachliche Fehler, sondern sie führen auf die falsche Fährte mit Begriffen wie „Wahrheit“ oder „Unseriös“ und „Plausibilität“.“

    Quelle: http://christophkappes.de/its-not-wahrheit-stupid-anmerkungen-zu-google-knowledge-vault/

  16. Zitat Mistel

    Ich habe als Fachmensch wenig Probleme damit, Algorithmen eine Vorauswahl meiner Informationsquellen treffen zu lassen. Das liegt aber hauptsächlich daran, dass ich über die Beschränkungen von Algorithmen Bescheid weiss. Das kann man von anderen Menschen nicht erwarten :-) Das Problem ist weniger, dass es Suchmaschinen gibt, sondern mehr, dass die Benutzer die Quellen als gleichwertig betrachten. Keine Suchmaschine der Welt kann dieses Problem lösen, da hilft nur Medienkompetenz.

    Von Algorithmen im Allgemeinen, oder hier im Speziellen? Natürlich ist ein Algorithmus nur möglich, wenn ein Problem berechenbar ist, man kann aber ein Problem in Teil-Probleme zerlegen (was ein Algorithmus macht) und dadurch ein komplexes Problem lösen, welches natürlich formulierbar und definierbar sein muß – aber das, so meine ich, macht das Problem nicht besser, sondern vergrößert es; hierbei ist die GWUP-Seite sogar ein gutes Beispiel dafür. Nach dem Algorithmus würde diese Seite auf der Stufe von Pseudowissenschaftlichen Seiten stehen, da der Algorithmus nicht den „gesunden Menschenverstand“ hat und nach seinen Regeln zu viele „falschen Fakten“ genannt werden.

  17. @Ralf: Algorithmen im Allgemeinen, denn ich arbeite nicht für Google :-) Ich habe allerdings grossen Respekt vor den Leuten dort, sie sind nicht nur cutting sondern bleeding edge.

    Ein Algorithmus „zerlegt“ nicht, sondern bildet ab. Das ist eine wichtige Unterscheidung. Das Zerlegen erledigt ein Mensch, der die Ergebnisse in die Stücke teilt, die dann ein Algorithmus abbildet.

    Oft ist das ein und dieselbe Person: Ein Ingenieur sieht sich zB die Fertigung eines Bauteils an, teilt sie in handliche Stücke und entwirft dann einen Roboter, der zumindest Teile der Fertigung übernimmt.

    In anderen Fällen analysieren Mathematiker Zusammenhänge und entwickeln Formeln, die dann von Programmierern in Algorithmen gegossen werden. Das ist zB bei Börsensoftware der Fall.

    Genau hier liegt aber auch das Problem der Suchmaschinen im Allgemeinen. Man kann Algorithmen dazu bringen, uns bestimmte Handgriffe abzunehmen, aber unsere gesamte Komplexität abzubilden bedarf einer ebenso umfassenden Komplexität. Man nennt das auch „AI complete“.

    Suchmaschinen sind hervorragende Sammler. Bei der Katalogisierung wird es schon schwieriger, denn nicht jedes Substantiv in einer Website ist ein geeignetes Schlagwort.

    Mit Pagerank hat Google versucht, eine zusätzliche Dimension einzuführen, die allerdings schon an einer Prämisse krankt: Die grosse Mehrheit der Menschen findet Dinge auch dann relevant, wenn sie nicht den Fakten entsprechen. Gerade dann, wenn wir andere von etwas überzeugen wollen, werden wir lauter und verlinken solche Quellen häufiger, die unsere Meinung stützen.

    Dadurch, das schreibt Google in dem og Paper ja ausdrücklich, verbreiten sich unter Umständen faktisch inkorrekte Darstellungen schneller und häufiger als korrekte. Ein Klassiker ist der Disput über die Nationalität von Barack Obama. Korrekt ist, dass er Bürger der USA ist, aber wenn man danach nur mit Pagerank sucht, landen Seiten, die etwas anderes behaupten, weit vorne.

    Diesem Problem kann man im Grunde nur durch Kuratierung beikommen. Genau das versucht Google mit dem Vorschlag im Paper, sie gehen es allerdings wieder von der algorithmischen Seite an.

    Die Idee ist, dass man kuratierte Fakten (Barack Obama, Nationalität, USA) nimmt, um damit die mit Pagerank gefundene Reihenfolge zu qualifizieren. Das funktioniert ohne Frage bei trivialen Fragestellungen wie der nach der Nationalität einer Person.

    Aber eine Frage die mit „soll“ anfängt (statt „ist“) lässt sich damit eben nicht beantworten, weil Pro und Kontra vor dem Algorithmus gleich aussehen und im schlimmsten Fall auf die gleichen – faktisch korrekten – Quellen verweisen.

  18. Zitat Mistel

    Ein Algorithmus “zerlegt” nicht, sondern bildet ab. Das ist eine wichtige Unterscheidung. Das Zerlegen erledigt ein Mensch, der die Ergebnisse in die Stücke teilt, die dann ein Algorithmus abbildet.

    Ja, das ist richtig: hier hab‘ ich mich falsch ausgedrückt, den das „Zerlegen“ ist schon ein Akt der Selektion, also der Auswahl und die treffen (noch) Menschen…
    …Ja, ich finde, sie beschreiben das treffend und auch Ihre Kritik ist zutreffend…die (verständliche) Zustimmung von Menschen, die Fakten und Vernunft hervorheben, wird aber enttäuscht werden und ich wage sogar zu „prophezeien“, daß es zu dieser Änderung nicht kommt.

  19. Auch bei diesen positiven „Side Effects“, habe ich immer noch ein Unbehagen…
    Es öffnet mMn auch den Verschwörungstheoretikern wieder eine Tür: Google ist dann ein Bestandteil der „Großen Verschwörung“ und filtert „Wahrheiten“ heraus…
    ich bin immer noch kritisch, obwohl ich natürlich die „Nebenwirkungen“ begrüße…

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.