JANUAR
2008

 
Rubriken
 
Service
 
Kontakt
EXTRA
 
 

DIE WEISHEIT DER VIELEN
Teil 1: Der Saaljoker

In seinem Buch “The Wisdom of Crowds“ beschreibt James Surowiecki die Überlegenheit von Gruppenentscheidungen und liefert damit die Grundlage für das Web-2.0-Paradigma. Der folgende Artikel sucht zunächst den Ansatz Surowieckis zu rekonstruieren und seinen ökonomischen Nutzen aufzuzeigen.




Im Herbst 1906 besucht der englische Anthropologe Francis Galton den jährlichen Viehmarkt in der Nähe von Plymouth. Sein Interesse gilt Zuchtergebnissen diverser Nutztierrassen, als anthropologischer Generalist geht er jedoch davon aus, dass die gleichen Gesetze, die bei der Zucht von Nutztieren zur Anwendung kommen, auch für die Führungseliten der menschlichen Gesellschaft gelten. Er postuliert daher, dass nur wenige auserwählte Menschen dafür geeignet sind, menschliche Sozialverbände zu führen. Diese zu identifizieren und deren spezifischen Merkmale herauszuarbeiten, ist Francis Galtons ultimatives wissenschaftliches Ziel. [1]

Während seines Besuchs des Viehmarkts stößt Galton auf einen Wettbewerb, bei dem das Schlachtgewicht eines Ochsen durch die Besucher des Marktes zu schätzen ist. Ausgehend von seiner Überzeugung, dass die Mehrheit des Teilnehmer weder die intellektuellen Voraussetzungen noch das Wissen hätten, eine vernüftige und korrekte Schätzung abzugeben, vermutet er ein desaströses Ergebnis, bei dem das Wissen einiger weniger Experten durch die Fehlschätzungen der Mehrheit der "Ignoranten" zu einem Ergebnis kumuliert, das weit entfernt von dem tatsächlichen Schlachtgewicht des Ochsen liegen wird.

Tatsächlich liegt der Durchschnitt aller Schätzungen von 800 Teilnehmern des Gewichts des Ochsens bei 1197 Kilo, nach der Schlachtung wurde es mit 1198 Kilo ermittelt: Francis Galton ist nachhaltig irritiert.

Mit diesem Beispiel leitet James Surowiecki sein faszinierendes Buch "The Wisdoms of Crowds" (SUROWIECKI 2004) ein, einem Beispiel, dem er eine Vielzahl von sozialwissenschaftlichen Studienergebnissen der letzten hundert Jahre und eine Beschreibung von Ereignissen folgen lässt, die in ihrer Summe die Überlegenheit von Gruppenentscheidungen gegenüber den Ergebnissen von einzelnen Entscheidern bei der Lösung von einfachen wie komplexen Problemen unterstreichen.

Zu diesen Beispielen gehören triviale wie das Untersuchungsergebnis, dass in dem amerikanischen Pendant zu "Wer wird Millionär" der "Telefonexperte" lediglich zu 61% zur richtigen Antwort verholfen hat, während der "Saaljoker" eine Trefferquote von 91% aufweist, und komplexe wie die Reaktion der Börsenmärkte auf die erste Challenger-Katastrophe.

Die besondere Bedeutung dieses Buches liegt in der Tatsache, dass es für viele Verfechter des neuen "WEB-2.0"-Paradigmas einen der wesentlichsten Theoriebeiträge zur Erklärung des Funktionierens und der Effizienz der in "WEB-2.0"-Anwendungen zum Einsatz kommenden Konzepte und Technologien liefert.

Der folgende Artikel versucht, ausgehend von einem der am eindrücklichsten geschilderten Beispiele des Buches, der ersten Challenger Katastrophe, den theoretischen Ansatz Surowieckies zu rekonstruieren. Dabei soll die entscheidende Komponente seines Ansatzes, die Aggregation individuellen Wissens in Gruppen und dessen Nutzung, in ihren verschieden Ausprägungen diskutiert werden, um abschließend den wesentlichen Beitrag des Buches, eine theoretische Grundlage für das Web-2.0-Paradigma zu bilden, kritisch zu beleuchten.

Am 28. Januar 1986, gegen 11:30, explodierte das Spaceshuttle "Challenger" wenige Sekunden nach seinem Start in Cape Canaveral. Innerhalb weniger Minuten nach dem Ereignis begannen die Börsenmärkte zu reagieren, und die Kurse der vier wesentlichen Lieferanten für das Shuttle, Rockwell International, Lockheed, Martin Marietta und Morton Thiokol, stürzten ab. Dabei war der Kurs von Thiokol am stärksten betroffen, am Abend des Tages der Katastrophe belief sich der Kursverlust der ersten drei Lieferanten nach leichter Erholung auf 3%, der von Thiokol auf massive 12%.

In einer interessanten Studie haben die Sozialwissenschaftler Michael Maloney und Harold Mulherin (MALONEY & MULHERIN 2003) diese verblüffenden Auswirkungen der Katastrophe auf die Börsenmärkte detailliert untersucht. Das Verhalten der Märkte legt nahe, dass die Marktteilnehmer bereits kurze Zeit nach der Katastrophe eine robuste Theorie hatten, dass ein Produkt von Thiokol der wahrscheinlichste Verursacher des Unglücks war, ohne dass zu diesem Zeitpunkt in irgendeiner veröffentlichten Meinung bereits darüber Spekulationen angestellt worden waren. Der eingesetzte Untersuchungsausschuss benötigte tatsächlich sechs Monate, um die durch die Marktteilnehmer vermutete Ursache zu bestätigen.

Maloney und Mulherin versuchen in ihrem Aussatz, diese erstaunliche Antizipation des Ergebnisses durch die Marktteilnehmer zu erklären, ohne dass sie jedoch abschließend zu einer befriedigenden Erklärung gelangen. Dabei liegt die Antwort, wie Surowiecki ausführt, auf der Hand: Eine große Anzahl von Menschen, Aktieninhaber und zukünftige Aktieninhaber, haben ein Ereignis am Fernsehen gesehen und sich die Frage gestellt, wie viel die vier betroffenen Unternehmen nach der Katastrophe noch wert sind.

Nach Surowiecki wirken statistisch beschreibbare Mechanismen, durch die in einer hinreichend großen Stichprobe (sprich Gruppengröße) individuelle Fehler von Personen durch die Fehler anderer Personen ausgeglichen werden (vergleiche dazu aus ökonomischer Sicht ausführlich BERNSTEIN 1996). Es könnte jedoch eingewendet werden, dass die überlegene Leistung von Gruppen in den hier diskutierten Fällen trivialerweise lediglich auf diese statistischen Kenngrößen rückführbar sei. Die Überlegenheit von Gruppenentscheidungen könnte daher mit dieser These durch den gestreuten, fehlergemittelten Abruf vorhandenen individuellen Wissens allein erklärt werden.

Diesem Einwand widmet sich Surowiecki in einem weiteren Abschnitt seines Buches, in dem er das überlegene Problemlösungsverhalten von Gruppen auch bei nicht wissensbasierten Fragestellungen (Abgabe von Schätzungen, Wetten auf zukünftige Ereignisse etc.) näher betrachtet und zu einer Klassifizierung der Merkmale erfolgreicher Gruppen jenseits einer statistisch signifikanten Gruppengröße gelangt.

Surowiecki untersucht unter anderem das Wettverhalten von Kasinobesuchern und die Vorhersagequalität des Schlusskurses der "Hollywood Stock Exchange" hinsichtlich der Nominierung von Oskarpreisträgern am Vorabend der Preisverleihung (Vorhersage 2002: 35 der 40 tatsächlichen Nominierungen). Aus allen diesen in seinem Buch aufgeführten Beispielen und wiedergegebenen Laborexperimenten zur Vorhersagequalität von zukünftigen Ereignissen durch Gruppenprozesse zieht Surowiecki den Schluss, dass die Größe der Stichprobe nicht hinreichend ist, um jene Qualität von "Weisheit" in Gruppenentscheidungen zu finden, die titelbildend von Surowiecki in seinem Buch postuliert wird.

Vielmehr gelten nach Surowiecki die folgenden Voraussetzungen für den Erfolg, die Effizienz und die Qualität von Gruppenentscheidungen:

Diversity of opinion: jedes Gruppenmitglied sollte über ein hinreichend großen, eigenen Vorrat an Informationen verfügen;
Independence: jedes Gruppenmitglied sollte eine möglichst unbeeinflusst von der Meinung der anderen Gruppenmitglieder sein;
Decentralization: jedes Gruppenmitglied sollte über eine höchstmögliche Spezialisierung verfügen und auf lokale Wissensbestände zugreifen können und
Aggregation: es muss ein Mechanismus vorhanden sein, das individuelle Urteil in ein Gesamtergebnis zu transformieren.

Besonderes Interesse muss dabei das letzte Kriterium finden, das final darüber entscheidet, wie das kollektive Wissen einer ideal strukturierten Gruppe zusammengefasst wird und damit für Dritte nutzbar wird.

Um das kollektive Wissen einer Gruppe für Dritte nutzbar zu machen, gibt es eine relativ einfache, jedoch gegenwärtig durch neue Technologien sehr prosperierende Methode. Es handelt sich um aktives "data mining" in den unzähligen digitalen Spuren, die Nutzer in ihren Transaktionen mit Computern im WWW hinterlassen. Bei diesem "data mining" wird die "Weisheit" von Gruppen ohne deren Wissen durch moderne statistische Methoden und unter Verwendung von Supercomputern "abgeschöpft".

Ian Ayres gibt in seinem fesselnden Buch "Super Crunchers" (AYRES 2007) Einblick in die Methoden und Technologien der ökonometrisch-statistischen Forschung, die helfen, mit immer leistungsfähigeren Supercomputern und den entsprechenden statistischen Methoden Verhaltensmuster und Wissensbestände von Gruppen zu analysieren und in Handlungsempfehlungen und Handlungsvorhersagen umzusetzen.[2]

In Gegensatz zum "data mining", bei dem die Aggregation und Abschöpfung des kollektiven Gruppenwissens ohne bewusste Zustimmung der Gruppenmitglieder erfolgt, ist bei den nächsten beiden hier geschilderten Methoden die bewusste und aktive Teilnahme der Gruppenmitglieder nötig. Daraus folgt, dass Gruppenmitglieder für ihre Einbringungen und Teilnahmen an Gruppenprozessen eine adäquate Belohnung zu erhalten haben und wohl auch erwarten.

Zwei Methoden, dieses Ziel zu erreichen, sind dabei hinreichend bekannt und dokumentiert: Die Organisation von Gruppen in Arbeitsprozessen und die Organisation von Gruppen in Marktprozessen.

Bei der Integration von Menschen zu Gruppen in organisatorische Arbeitsabläufe unterwerfen sich Menschen auf der Basis vertraglicher Vereinbarungen den Zielen der Organisation, der sie beitreten, und erhalten dafür eine entsprechende Belohnung.

Dabei besteht in entwickelten Ökonomien jedoch ein fundamentaler Widerspruch: Genau jene Gruppeneigenschaften, "diversity of opinion", "independence" und "decentralization", beschreiben Merkmale von Individuen in Arbeitsprozessen, die es gilt, in den industriellen wie administrativen Prozessen durch Segmentierung und einfacher Wiederholbarkeit von Tätigkeiten zu unterdrücken.

Frederick Winslow Taylor propagiert das Konzept der "best practice" und führt den Beweis, dass Produktivität negativ mit der Eigeninitiative und Inhomonigenität der Gruppenmitglieder (vulgo Arbeiter) korreliert. Andere gründen 1924 den "Reichsausschuss für Arbeitszeitermittlung" (REFA) und versuchen, durch objektivierte Mess- und Kontrollverfahren die Optimierung von Arbeitsabläufen zu "entindividualisieren".

Nach Taylor und nach Gründung der REFA, die hier nur beispielhaft für den Prozess der Industrialisierung arbeitsteiliger Prozesse stehen, sind Hekatomben von Schriften veröffentlicht worden und Tausende von Mitarbeitern durch entsprechende Seminare getrieben worden, um das eine zentrale Problem zu lösen, wie unter diesen Bedingungen industrieller Produktion und Verwaltung Innovationen durch Gruppen in den gleichen Unternehmungen generiert werden können, die in ihren Abläufen parallel dazu genau diese Voraussetzungen systematisch als effizienzfeindlich bekämpfen.

Die Erfolge dieser Maßnahmen sind gering, Jahrzehnte des intensiven Anwendens verschiedenster Managementtheorien (Stichworte wie "small is beautiful", "small business units", "search for excellence" etc.) zur Lösung des Dilemmas enden immer wieder in der gleichen Diagnose, dass es Organisationen ab einer gewissen Größe schwerfällt, tatsächliche Innovationen hervorzubringen, die über das Qualitätsniveau eines "me too" herausragen.

Dennoch gibt es eine Vielzahl von meist kleineren und spezialisierteren Unternehmen, die in einem Prozess des Outsourcings Innovationsleistungen für größere Unternehmen erbringen [3] und erfolgreich Gruppenwissen aggregieren und als Dienstleistung vermarkten und somit die Wirksamkeit der von Surowiecki postulierten Merkmale erfolgreicher Gruppen validieren.

Auch die Erfolge der dritten Methode, der Aggregation von Gruppenwissen in marktwirtschaftlich organisierte Abläufe, werden in Surowieckis Buch ausführlich besprochen und dokumentiert.

Gruppenmitglieder verlassen sich im Wesentlichen auf die Rationalität und das Wissen der anderen Mitglieder als gemeinsame Teilnehmer in Marktprozessen. Sie nehmen dabei im Allgemeinen an, dass die Gruppe, in der sie agieren, so strukturiert ist, dass Surowieckis Kriterien erfolgreicher Gruppen in einem hohen Maß erfüllt sind.

Ohne Zweifel kommt es immer wieder zu Abweichungen von dieser idealen Zusammensetzung (z.B. Insiderhandel), generell wird das marktwirtschaftliche Modell als so erfolgreich zur Aggregation von Gruppenwissen und -schätzungen angesehen, dass es mit zunehmender Tendenz insbesondere in neoliberalen Ansätzen auf beliebige, nicht der Ökonomie zuzurechnende Bereiche übertragen wird.

Ausführliche Diskussionen in allen sozialwissenschaftlichen Disziplinen zeigen jedoch, wie fragil letztendlich die Herstellung idealer Voraussetzungen sowohl in der Zusammensetzung der Gruppe, die in vielen Fällen anarchisch und ohne Einwirkungsmöglichkeiten von außen geschieht, als auch in der Qualität der Aggregationsleistung ist.

In der kritischen Analyse der Wirksamkeit von Marktmechanismen spielen dabei Problemfelder wie "Zugang zu Informationen", "Transparenz in der Bewertung von Informationen" und beabsichtigte oder nicht nicht beabsichtige "Verfälschung von Information" eine herausragende Rolle.

An dieser Stelle setzen die Überlegungen zur vierten Variante der Aggregation von Gruppenwissen an, welche im unmittelbaren Zusammenhang mit den Möglichkeiten neuer, offener Kommunikationstrukturen des Internets steht, die Tim O'Reilly unter dem Begriff Web 2.0 subsumiert hat.

Fortsetzung in Teil 2, "Das Web 2.0".

jp

 


[1] Galton gab 1883 diesem Forschungsbereich den Namen "Eugenik", ein Konzept, dass 50 Jahre später in der nationalsozialistischen Rassenpolitik seine fürchterliche Umsetzung erfahren sollte.

[2] Ein besonders beeindruckendes Beispiel sind die Dienste der Firma Epagogix, die über ein neurales Netzwerk in der Lage ist, den Erfolg von Hollywoodfilmen vor der Produktion anhand von Charakteristiken der Filmskripte vorherzusagen. Inzwischen gestaltet Epagogix die Skripte "online", um überflüssige Umwege in der Vorhersage zu vermeiden. Dabei wird in diesen Empfehlungen schon einmal eine Rolle oder ein Schauplatz in einem Filmskript dem errechneten Erfolg eines Films geopfert. "Epagogix's approach helps management of this most critical financial risk through accurate predictive analysis of the Box Office value of film scripts."

[3] Die gegenwärtige Renaissance der Diskussion zur Validität des Coase-Theorems im Licht der technologischen Möglichkeiten des Web 2.0 ist daher nur konsequent.

 


LITERATUR TEIL 1

AYRES, I. (2007). Super crunchers why thinking-by-numbers is the new way to be smart. New York, Bantam Books.

BERNSTEIN, P. L. (1996). Against the gods. The remarkable story of risk. New York, John Wiley & Sons.

MALONEY, M. T., & MULHERIN, J. H. (2003). "The complexity of price discovery in an efficient market: The stock market reaction to the Challenger crash." Journal of Corporate Finance: Contracting, Governance, and Organization. 9, 453.

SUROWIECKI, J. (2004). The wisdom of crowds. Why the many are smarter than the few and how collective wisdom shapes business, economies, societies, and nations. New York, Doubleday.

© ceryx.de

Abebooks.de - 100 Mio. neue, gebrauchte und antiquarische Bücher