Bücher online kostenlos Kostenlos Online Lesen
Die Berechnung der Zukunft: Warum die meisten Prognosen falsch sind und manche trotzdem zutreffen - Der New York Times Bestseller (German Edition)

Die Berechnung der Zukunft: Warum die meisten Prognosen falsch sind und manche trotzdem zutreffen - Der New York Times Bestseller (German Edition)

Titel: Die Berechnung der Zukunft: Warum die meisten Prognosen falsch sind und manche trotzdem zutreffen - Der New York Times Bestseller (German Edition)
Autoren: Nate Silver
Vom Netzwerk:
Das Produktivitätsparadox
    Wir geraten immer dann in Gefahr, wenn die Informationsmenge unsere Fähigkeit, diese zu verarbeiten, übersteigt. Die letzten vierzig Jahre Menschheitsgeschichte legen nahe, dass noch viel Zeit verstreichen kann, bis wir gelernt haben werden, Informationen in nützliches Wissen umzuwandeln. Und wenn wir uns nicht darum kümmern, kann es passieren, dass uns das zurückwirft.
    Der Ausdruck »Informationszeitalter« ist nicht besonders neu. Er wurde bereits Ende der 1970er-Jahre recht häufig gebraucht. Der verwandte Ausdruck »Computer-Zeitalter« ist noch älter, er findet sich ab etwa 1970. 28 Ungefähr um diese Zeit hielten Computer in Labors und Hochschulen ihren Einzug, waren allerdings noch keine Geräte, die jeder zu Hause hatte. Dieses Mal dauerte es keine dreihundert Jahre, sondern nur fünfzehn bis zwanzig, bis das Wachstum der Informationstechnologie greifbaren Nutzen für die Menschheit mit sich brachte.
    In den 1970er-Jahren kulminierte »ein riesiger Theorieüberbau, auf der Basis extrem geringer Informationsmengen«, wie Paul Krugman mir einmal erklärte. Wir hatten begonnen, mithilfe von Computern Modelle von der Welt zu entwickeln, aber es dauerte ziemlich lange, bis uns klar wurde, wie simpel und bedingt diese Modelle waren und dass die Genauigkeit der Computer von damals eine alles andere als korrekte Vorhersage lieferte. Zu dieser Zeit wurden in verschiedenen Wissenschaftsbereichen, von der Ökonomie bis zur Epidemiologie, viele kühne Vorhersagen angestellt, die sich ebenso oft als falsch erwiesen. 1971 behauptete man beispielsweise, dass es innerhalb eines Jahrzehnts möglich sein würde, Erdbeben vorherzusagen; 29 aber der Lösung dieses Problems sind wir bis heute, vier Jahrzehnte später, noch nicht nähergekommen.
    Der Computerboom der 1970er- und 1980er-Jahre brachte vorübergehend wirtschaftliche und wissenschaftliche Stagnation mit sich. Wirtschaftswissenschaftler bezeichnen dieses Phänomen als das »Produktivitätsparadox«. »Das Computerzeitalter ist überall sichtbar, nur nicht in der Produktivitätsstatistik«, schrieb der Ökonom Robert Solow 1987. 30 Die USA verzeichneten vier verschiedene Rezessionen zwischen 1969 und 1982. 31 In den späten 1980ern erlebte die US-Wirtschaft einen gewissen Aufschwung, die übrige Welt allerdings nicht.

    Grafik 1-3: Forschungs- und Entwicklungskosten pro Patentantrag
    Wissenschaftlicher Fortschritt ist schwerer zu messen als wirtschaftlicher. 32 Ein Indikator ist die Zahl neuer Patente im Verhältnis zu den Aufwendungen für Forschung und Entwicklung. Wenn es billiger wird, eine neue Erfindung zu entwickeln, deutet dies daraufhin, dass wir verfügbare Information klug einsetzen und in Wissen verwandeln. Wird es teurer, bedeutet das, dass wir das Rauschen für das Signal halten und unsere Zeit verschwenden, indem wir einer falschen Spur nachgehen.
    In den 1960er-Jahren wendete der amerikanische Staat pro Patentantrag amerikanischer Erfinder (inflationsbereinigt 33 ) 1,5 Millionen Dollar auf. 34 Dieser Wert stieg zu Beginn des Informationszeitalters an und verdoppelte sich bis 1986 auf etwa 3 Millionen Dollar. 35
    Mit einer realistischeren Beurteilung neuer Technologien stieg die Forschungsproduktivität dann in den 1990er-Jahren wieder an. Die Zahl der Sackgassen, in die wir uns verrannten, sank, und Computer bereicherten das tägliche Leben und stärkten die Wirtschaft. Geschichten über Vorhersagen handeln häufig von langfristigem Fortschritt mit phasenweisem Rückschritt. Viele Entwicklungen, die sich langfristig vorhersehen lassen, vereiteln auf dem Weg dorthin unsere ausgeklügeltsten Pläne.
    Die Verheißung und die Gefahr großer Datenmengen
    Ein heutzutage beliebter Ausdruck ist »Big Data«. IBM schätzt, dass wir 2,5 Quintillionen Bytes täglich umsetzen, von denen über 90 Prozent während der letzten zwei Jahre generiert wurden. 36
    Dieses exponentielle Informationswachstum wird manchmal – wie die Computer in den 1970er-Jahren – als Allheilmittel erachtet. Chris Anderson, der Herausgeber des Magazins Wired , schrieb 2008, dass die schiere Datenmasse Theorie und wissenschaftliche Methodik unnötig machen würde. 37
    Dieses Buch nimmt nachdrücklich für Wissenschaft und Technologie Stellung, und ich würde es als optimistisch bezeichnen. Aber wer die im vorhergehenden Absatz erwähnten Ansichten vertritt, täuscht sich gewaltig. Die Zahlen sprechen nicht für sich. Wir sprechen für sie. Wir verleihen
Vom Netzwerk:

Weitere Kostenlose Bücher