Navigation

Wie Schwarmintelligenz im Internet entstehen kann und warum sie es meistens nicht tut

Falk Ebert  6. Juli 2011  2 Kommentare  4 Minuten zu lesen  Internet und Social Web

Ganz ehrlich: Der Terminus Schwarmintelligenz wird heute doch hauptsächlich spöttisch verwendet. Denn während die einen noch fest daran glauben, dass das Internet zu einem großen, kollektiven Gedächtnis werden könnte, blicken die anderen auf die Qualität in Foren und sozialen Netzwerken und sehen dort nur Müll. Der deutsche Wikipedia-Eintrag spiegelt diesen Zwist wieder:

Auch der Cyberspace wurde schon als kollektive Intelligenz bezeichnet. Im heutigen Zustand des Internets mit seinen Milliarden von größtenteils zusammenhanglosen, statischen Dokumenten wird jedoch gelegentlich auch etwas vorsichtiger von kollektivem (Un-)Wissen gesprochen (Stichwörter sind Informationsüberflutung und Informationsmüll).

Und eines muss man den Kritikern lassen: Wer das Internet wie ein Buch liest (Stichwörter sind Internetausdrucker und CDU), der bekommt tatsächlich 99,99% Müll. Da brauch ich nicht sowas zu verlinken um das zu illustrieren. Die gute Nachricht: Ich habe eine Erklärung für die Problematik anzubieten.

Dazu benötigen wir erst mal eine Analogie aus der analogen Welt. Es existiert die schöne Anekdote, dass man das Gewicht einer Kuh ziemlich genau berechnen kann, in dem man viele Leute schätzen lässt und dann den Mittelwert nimmt. Bei einer steigenden Anzahl an Befragten nähert sich das arithmetische Mittel im Idealfall asymptotisch dem Gewicht der Kuh an. Also für Mathematik-Agnostiker: Es wird halt immer genauer.

Und jetzt kommt der Clue: Sperrt man die selben befragten Leute aber in einen Raum und lässt sie erst wieder raus, wenn sie sich auf ein Gewicht geeignet haben, dann bekommt man ein deutlich schlechteres Ergebnis. Und mit immer mehr Leuten nähert man sich nicht der Wahrheit, sondern einer Massenpanik an.

Die Betrachtung auf der Metaebene: Die reine Diskussion einer großen Anzahl an Leuten fördert nicht notwendigerweise gute Resultate. Es ist sogar eher unwahrscheinlich. Verkürzt gesagt, könnte das daran liegen, dass erstens das Motiv der meisten dabei nicht die Wahrheitsuche ist und zweitens die Assis mit den Schopenhauer-Tricks immer die Oberhand behalten. Was man braucht, ist also ein bestimmtes Verfahren, damit kollektive Intelligenz emergent entsteht.

Dieses Verfahren sehe ich als die Kombination aus zwei Dingen:

  1. Etwas, das nur Menschen können: Zum Beispiel kreativ sein, ästhetische Kritiken verfassen, schätzen, Fakten aus einer großen Anzahl an Quellen herauspicken, etc. Diese Daten müssen irgendwie maschinell lesbar gemacht werden.
  2. Etwas, was Computer besser können: Einen Vorgang, der die Daten erfasst und aggregiert. Diese Aggregation muss nach einem bestimmten Algorithmus erfolgen.
Bei Punkt eins ist die reine Quantität entscheiden, bei Punkt zwei neben der Qualität die Objektivität.
Auf unser Beispiel mit der Kuh bezogen, ist die menschliche Leistung das Abschätzen, der Algorithmus eine einfache Durchschnittsrechunng. Stellt man die Schätzung zur Debatte im besagten Raum, zerstört man die Objektivität des Algorithmus.
Und so ist das auch im Internet: Wird in einem Forum über gute Musik diskutiert, kommt meistens nichts dabei raus. Außer flamewars. Last.FM dagegen ist in der Lage, selbst dem krassesten Musik-Nerd noch perfekt zu seinem Musikgeschmack passende Vorschläge zu liefern, auf die er sonst nie gekommen wäre. Hier eine Liste mit diesem und weiteren Beispielen:
Last.FM
Faktor 1: Auswahl von Musik durch die Nutzer, Verschlagwortung
Faktor 2: Scrobblen und Algorithmus des Empfehlungssystems
Quora
Faktor 1: Zahlreiche Expertenmeinungen
Faktor 2: Antworten und Votes, Aggregation
Aardvark
Faktor 1: Leute, die Fragen beantworten
Faktor 2: Automatisiertes Zuordnungssystem
SETI
Faktor 1: Menschliche Erkennung von intelligentem Leben
Faktor 2: Automatisierte Zuordnung
Guttenplag
Faktor 1: Recherche bei verdächtigen Passagen
Faktor 2: Visualisierung und Aggregation im Wiki
Ich könnte noch viele weitere Beispiele aufzählen, das Prinzip dürfte aber klar sein: Menschen-Skill und Maschinen-Skill vereint. Maschinen können nicht schätzen, Menschen können sich dafür nicht besonders gut kollektiv organisieren. Wir sind keine Borg.
Interessant ist aber auch noch die Frage, warum Schwarmintelligenz dann so selten zu Stande kommt. In der Regel scheitert es einfach daran, dass einer der zwei Faktoren nicht gegeben ist.
  • Entweder eine zu geringe Grundgesamtheit. Bei schlechten Wikipedia-Artikeln merkt man oft, dass schlichtweg kein Experte auf dem Fach sich dazu herabgelassen hat, dort mal ein wenig dran zu arbeiten.
  • Oder ein zu schlechter Algorithmus. Auch wenn er das beste ist, was wir haben: Der Page Rank ist oft einfach zu schlecht, die gewünschten Ergebnisse zu liefern.
Hier noch eine kleine Randnotiz: Wenn wir irgendwann (in den nächsten Jahrzehnten) mal so etwas wie ein Semantisches Web erschaffen, dann geht es aber ab. Denn Faktor eins ist dann das ganze Web und Faktor zwei wäre damit perfektioniert. Und dann aber… BÄM! Aber das ist eine andere Geschichte. Und die soll in einem anderen Blogeintrag erklärt werden.

Falk Ebert

Falk Ebert hilft Firmen, die Vorteile der Digitalisierung für ihr business zu nutzen. Neben dem Technologie-Optimismus ist er getrieben von seiner Liebe für die Wissenschaft, das Reisen in neue Länder und das Lernen von neuen Sprachen.