Die Welt ist selber Big Data

Über Klaus Mainzers „Die Berechnung der Welt“

Von Stefan HöltgenRSS-Newsfeed neuer Artikel von Stefan Höltgen

Besprochene Bücher / Literaturhinweise

Etwa um das Jahr 1810 hat, glaubt man dem Kybernetiker und Didaktiker Helmar Frank, das Wissen der Menschheit erstmals das Fassungsvermögen des menschlichen Gehirns, das Frank mit 10 hoch 7 bit (das ist ein wenig mehr als ein Megabyte!) angibt, überschritten. Seit Beginn des 18. Jahrhunderts habe sich ein exponentieller Wissenszuwachs ereignet, der in der Gegenwart zu der Annahme führt, das Wissen der Menschheit umfasse 10 Exabyte (das sind 2 hoch 60 Byte). Das sind in mehrerer Hinsicht problematische Werte, denn zu fragen wäre erst einmal, wie sich die quantifizierbare Wissenseinheit in Bit/Byte/… definiert – und dann, was Wissen eigentlich ist? Ist es überhaupt quantifizierbar (etwa als speicherbares Wissen)?

Ein großer Zweig der westlichen Kultur folgt der Auffassung, dass Wissen derartig speicherbar und damit auch neuerdings als Daten in elektronischen Datenbanken speicherbar ist und leitet daraus gleichsam ein Problem und eine Hoffnung ab: Wie können wir in den immensen Datenvorräten das benötigte Wissen finden? Und wenn wir es gefunden haben: Was lässt sich mithilfe der Kombination der Wissensinhalte von Datenbanken erreichen, was über den einzelnen Datensatz hinausgeht? Ein Beispiel aus der Medikamenten-Forschung: Wollen wir wissen, ob die Nebenwirkungen eines Medikaments vielleicht nützlich bei der Bekämpfung einer anderen Krankheit als der behandelten sind, könnten wir aus den Datenbanken ermitteln, welche Patienten mit Nebenwirkungen noch andere Krankheiten hatten und wie sich deren Verlauf nach Einnahme des Medikaments verändert hat. Auf diese Weise sind tatsächlich schon Wirkstoffe aus Nebenwirkungen entdeckt worden!

Das Phänomen hinter diesen Datenanalysen heißt „Big Data“ und Klaus Mainzers Buch „Die Berechnung der Welt“ widmet sich genau dieser Frage: Reicht es für derzeitige und künftige Forschungen, einfach das vorhandene Wissen aus Datenbanken zu extrahieren und zu (re)kombinieren, um neues Wissen daraus zu generieren? Mainzer macht bereits in der Einleitung klar, dass eine solche Forschungspraxis zwar immer schon betrieben wurde, aber dennoch große Probleme mit sich bringt, denn Wissen – vor allem wissenschaftliches Wissen – muss theoriegeleitet sein. Forschung muss zunächst in einem deduktiven Prozess zu einer Verallgemeinerung (einer Theorie) führen, aus der dann konkrete Aussagen ableitbar werden. Kurz gefasst: Zuerst die Daten, dann das Gesetz und darauf folgend die Prognose.

„Die Berechnung der Welt“ ist aber weniger eine Streitschrift  als der Versuch, die Geschichte dieser beiden Wissenschafts-Verständnisse zu rekapitulieren. Dazu unternimmt Mainzer einen Ausflug in die Wissenschaftsgeschichte(n) unterschiedlichster Disziplinen bis zurück in die Antike. Er sieht beide Strömungen gleichermaßen nebeneinander bestehen und konkurrierende Weltmodelle sich entwickeln, zeigt aber immer wieder (angefangen bei der babylonischen Mathematik bis hin zum Delphi-Verfahren der Futurologie) die Begrenztheit datengeleiteter, theorieferner Forschungen auf. Mainzers argumentativer Weg führt über so gut wie alle Sozial- und Naturwissenschaften, stellt zahlreiche Protagonisten und deren Modelle vor, die mal zu der einen, mal zu der anderen Richtung tendieren, kommt dabei aber immer wieder zurück zu strukturwissenschaftlichen Überlegungen nach dem Wissen und seiner Beschaffenheit.

Deshalb ist es auch nicht ungewöhnlich, dass Mainzer, der Professor für Wissenschaftstheorie an der TU München ist, vor allem Theorien der Mathematik und Logik, informatische Automatentheorien und Komplexitätstheorien beschreibt und deren Applikation auf unterschiedlichste Gegenstände (von der Physik bis zur Neurologie, von der Kommunikation bis zur Soziosphäre) vorstellt. Der Leser sollte sich also auf mathematische und naturwissenschaftliche Argumente und Sprache(n) einlassen können. Erst, wenn ihm dies gelingt, zeigt sich die Brisanz des Themas vollends.

Ein besonderes Augenmerk richtet Mainzer auf ein Thema, das ihn bereits in seiner wissenschaftlichen und publizistischen Vergangenheit stark beschäftigt hat: Die zellularen Automaten – insbesondere in der Prägung von Stephen Wolfram, der mit seinem Buch „A new Kind of Science“ im Jahre 2002 emergente Wissensproduktion zu einer regulären Wissenschaft für zahlreiche Anwendungsfälle erheben wollte. Kurz gefasst sind seine zellularen Automaten sehr einfache Programme, die auf Basis von wenigen Regeln Muster erzeugen. Diese Muster zeigen – über längere Zeiträume betrachtet – jedoch eine überraschende Komplexität und sogar selbst Computer-Eigenschaften. Dies und die Tatsache, dass sich einige der so erzeugten Muster in der Natur (etwa als Muster auf Kegelschnecken-Häusern) wiederfinden, haben Wolfram und seine Kollegen zu der Hypothese verleitet, mithilfe solcher Automaten alle möglichen natürlichen und sozialen Prozesse simulieren und beschreiben zu können.

Es ist genau diese Auffassung, die Mainzer unter der „Big Data“-Philosophie subsummiert und kritisiert. Seit Erscheinen von „A New Kind of Science“ haben er und sein mehrfacher Ko-Autor Leon Chua sich verschiedentlich und überaus detailliert mit den Thesen Wolframs auseinandergesetzt. Aus der Zusammenarbeit mit Chua erklärt sich auch ein Exkurs im Buch über den Memristor, der eine theoretische Entdeckung LeonChuas aus den frühen 1970er-Jahren darstellt, die erst heute von verschiedenen Firmen implementiert wird. Der Memristor ist ein manifester Beweis dafür, dass theoriegeleitete Forschung interessante Ergebnisse hervorbringt. Er könnte als elektronisches Bauteil eine wichtige Rolle in Speicher-Techniken und neuen Computer-Architekturen bekommen.

Dass „Big Data“-Ansätze bei weitem nicht auf akademische Theorien begrenzt sind, wissen wir aus der Presse, wo „Big Data“ längst zum Schlüsselbegriff für alle möglichen Anwendungsfälle des Computerzeitalters geworden ist. Mainzer wird im letzten Drittel daher auch konkreter mit seiner Analyse. Von der Neurowissenschaft über Kommunikationssystem (allen voran vernetzter Kommunikation über das Internet) bis hin zu Risikoberechnungen und „Big Data“ in Sozial-, Kultur- und Geisteswissenschaften reichen seine Betrachtungen. Die Universalität des „Big Data“-Ansatzes scheint offensichtlich für so gut wie jedes Gebiet wissenschaftlicher Forschung Vorschläge zu besitzen.

Je größer die Datenmengen allerdings sind, desto unhandlicher werden sie für quantitative Analysen und um so eher werden wieder Theorien benötigt, um allgemeine Gesetze aus ihnen ablesbar zu machen. Letztlich stellen Theorien auch das notwendige Gegenmittel zum eingangs erwähnten, nicht mehr beherrschbaren Wissenszuwachs dar. Denn indem sie das allgemeine Gesetz aus den Sonderfällen ableiten, komprimieren sie Wissen, machen es handhabbar und vor allem „anschlussfähig“ zu vorherigem Wissen – und ermöglichen so erst einen kontinuierlichen und kausal begründbaren Wissenszuwachs.

Titelbild

Klaus Mainzer: Die Berechnung der Welt. Von der Weltformel zu Big Data.
Verlag C.H.Beck, München 2014.
351 Seiten, 24,95 EUR.
ISBN-13: 9783406661303

Weitere Rezensionen und Informationen zum Buch