April Sitzung der Klasse Naturwissenschaften und Technikwissenschaften
9. April 2015 - 10:00 - 12:00
Die Klasse Naturwissenschaften und Technikwissenschaften veranstaltet ihre April-Sitzung am 09.April 2015.
Es wird der folgende Vortrag gehalten und diskutiert:
Lothar Kolditz (MLS):
Die große Datenflut – Theorien, Modelle und Berechenbarkeit
09. April 2015, 10.00 bis 12.00 Uhr
Ort: BVV-Saal
C.V.: Prof. Kolditz ist Chemiker. Er wurde 1969 zum Korrespondierenden, 1972 zum Ordentlichen Mitglied der 1700 von Leibniz begründeten Gelehrtengesellschaft gewählt, der heutigen Leibniz-Sozietät der Wissenschaften zu Berlin e.V.
Nach Promotion (1954) und Habilitation (1957) war er 1957 – 1959 Professor mit Lehrauftrag für Spezialgebiete der anorganischen Chemie und Radiochemie an der Technischen Hochschule für Chemie Leuna-Merseburg, 1959 – 1962 Professor mit vollem Lehrauftrag für anorganische Chemie und Direktor des Anorganisch-Chemischen Instituts der Friedrich-Schiller-Universität Jena sowie 1962 – 1980 Professor mit Lehrstuhl für anorganische Chemie und Direktor des I. Chemischen Instituts der Humboldt-Universität. 1972 – 1980 leitete er die Sektion Chemie der Humboldt-Universität und 1980 – 1990 das Zentralinstitut für Anorganische Chemie der Akademie der Wissenschaften der DDR.
Abstract:
Unser Zeitalter ist durch Big Data geprägt, und damit ist die digitale Revolution im Gange, die nach über 200 Jahren auf die industrielle Revolution folgt. Wie zu Anfang jeder Revolution gibt es Einschätzungen, die noch nicht genügend abgeklärt sind und vor euphorischer Begeisterung über das Ziel hinaus schießen.
So vertritt Chris Anderson [1, S.124/130] in einem Beitrag zum Buch „Big Data – das neue Versprechen der Allwissenheit“ die Meinung, dass durch die Datenflut und die Supercomputer das Ende der Theorie herbeigeführt wird und die wissenschaftliche Herangehensweise mit Hypothesenbildung, Theorien- und Modellentwicklung veraltet ist. Stephen Wolfram (A New Kind of Science 2002) [vgl. 2, S.103] kommt angesichts der Leistungsfähigkeit von Supercomputern zu der Meinung, dass Computereinsätze an die Stelle von mathematischen Beweisen und Theorien treten werden und Problemlösungen empirisch zu finden seien.
Diese Ansichten verkennen den ordnenden Charakter von Theorien und Modellen und beachten nicht, dass diese Regeln enthalten oder auch Gesetze, die ein bestimmter für ihr Gebiet zutreffender Datensatz befolgt.
Aus Theorien folgen Bilder für die Realität, die Modelle genannt und verifiziert oder falsifiziert werden können. Im Ergebnis dieses Prozesses werden Modelle und übergeordnete Theorien korrigiert und der Realität weiter angenähert. Theorien und Modelle treffen immer nur für einen bestimmten Bereich zu, dessen Grenzen anzugeben sind.
Für die Auswertung der Daten muss dem Computer eine Vorschrift gegeben werden, die einer bloßen empirischen Auswertung übergeordnet ist. Ohne Anweisung für den Computer kann es zu Musterentwicklung kommen, aber nicht zu verwertbaren Theorien.
Auf die ordnende Funktion von Theorien und Modellen bei Datensammlungen kann trotz Supercomputer nicht verzichtet werden, eine Auffassung, die auch Klaus Mainzer [2] in seinem Buch „Die Berechnung der Welt – von der Weltformel zu Big Data“ teilt.
Zu Computerexperimenten hat Gabriele Gramelsberger [3] ein Buch vorgelegt, das analytisch die historische Entwicklung des Rechnens im Hinblick auf den heutigen Computereinsatz sehr gut beleuchtet. Die Computerexperimente, die sie beschreibt, verarbeiten Messwerte und sollen als geordnete Computerexperimente bezeichnet werden im Gegensatz zu den empirischen ungeordneten Experimenten Wolframs.
Die Auswertung der allgemein im Netz vorhandenen Daten sind durch Suchfunktionen gegeben, die sich in ständiger Weiterentwicklung befinden. Sie beziehen sich nicht nur auf naturwissenschaftliche und technische Bereiche, sondern haben längst auch das Gebiet der Sozial- und Geisteswissenschaften erobert.
Angesichts der hohen Rechenkapazität der Supercomputer oder von im Netzwerk zusammengeschlossenen Computern ergibt sich die Frage, ob Grenzen der Berechenbarkeit existieren. Diese Betrachtung erfolgt nicht ausschließlich nach den Regeln der Berechenbarkeitstheorie der theoretischen Informatik, die an Maschinen gebunden ist. Von Maschinen soll vielmehr abstrahiert werden. Es wird der Unvollständigkeitssatz von Kurt Gödel einbezogen sowie die Chaostheorie. In diesem Zusammenhang wird auch die Frage nach der Weltformel erörtert.
Literatur
[1] Big Data – das neue Versprechen der Allwissenheit, Redaktion Heinrich Geiselberger und Tobias Moorstedt, Suhrkamp Verlag Berlin 2013, 309 S.
[2] Klaus Mainzer, die Berechnung der Welt – von der Weltformel zu Big Data, Verlag C.H. Beck, München 2014, 352 S.
[3] Gabriele Gramelsberger, Computerexperimente – zum Wandel der Wissenschaft im Zeitalter des Computers, transscript Verlag Bielefeld 2010, 313 S.
Die Klasse Naturwissenschaften und Technikwissenschaften veranstaltet ihre April-Sitzung am 09.April 2015.
Es wird der folgende Vortrag gehalten und diskutiert:
Lothar Kolditz (MLS):
Die große Datenflut – Theorien, Modelle und Berechenbarkeit
09. April 2015, 10.00 bis 12.00 Uhr
Ort: BVV-Saal
C.V.:
Prof. Kolditz ist Chemiker. Er wurde 1969 zum Korrespondierenden, 1972 zum Ordentlichen Mitglied der 1700 von Leibniz begründeten Gelehrtengesellschaft gewählt, der heutigen Leibniz-Sozietät der Wissenschaften zu Berlin e.V.
Nach Promotion (1954) und Habilitation (1957) war er 1957 – 1959 Professor mit Lehrauftrag für Spezialgebiete der anorganischen Chemie und Radiochemie an der Technischen Hochschule für Chemie Leuna-Merseburg, 1959 – 1962 Professor mit vollem Lehrauftrag für anorganische Chemie und Direktor des Anorganisch-Chemischen Instituts der Friedrich-Schiller-Universität Jena sowie 1962 – 1980 Professor mit Lehrstuhl für anorganische Chemie und Direktor des I. Chemischen Instituts der Humboldt-Universität. 1972 – 1980 leitete er die Sektion Chemie der Humboldt-Universität und 1980 – 1990 das Zentralinstitut für Anorganische Chemie der Akademie der Wissenschaften der DDR.
Abstract:
Unser Zeitalter ist durch Big Data geprägt, und damit ist die digitale Revolution im Gange, die nach über 200 Jahren auf die industrielle Revolution folgt. Wie zu Anfang jeder Revolution gibt es Einschätzungen, die noch nicht genügend abgeklärt sind und vor euphorischer Begeisterung über das Ziel hinaus schießen.
So vertritt Chris Anderson [1, S.124/130] in einem Beitrag zum Buch „Big Data – das neue Versprechen der Allwissenheit“ die Meinung, dass durch die Datenflut und die Supercomputer das Ende der Theorie herbeigeführt wird und die wissenschaftliche Herangehensweise mit Hypothesenbildung, Theorien- und Modellentwicklung veraltet ist. Stephen Wolfram (A New Kind of Science 2002) [vgl. 2, S.103] kommt angesichts der Leistungsfähigkeit von Supercomputern zu der Meinung, dass Computereinsätze an die Stelle von mathematischen Beweisen und Theorien treten werden und Problemlösungen empirisch zu finden seien.
Diese Ansichten verkennen den ordnenden Charakter von Theorien und Modellen und beachten nicht, dass diese Regeln enthalten oder auch Gesetze, die ein bestimmter für ihr Gebiet zutreffender Datensatz befolgt.
Aus Theorien folgen Bilder für die Realität, die Modelle genannt und verifiziert oder falsifiziert werden können. Im Ergebnis dieses Prozesses werden Modelle und übergeordnete Theorien korrigiert und der Realität weiter angenähert. Theorien und Modelle treffen immer nur für einen bestimmten Bereich zu, dessen Grenzen anzugeben sind.
Für die Auswertung der Daten muss dem Computer eine Vorschrift gegeben werden, die einer bloßen empirischen Auswertung übergeordnet ist. Ohne Anweisung für den Computer kann es zu Musterentwicklung kommen, aber nicht zu verwertbaren Theorien.
Auf die ordnende Funktion von Theorien und Modellen bei Datensammlungen kann trotz Supercomputer nicht verzichtet werden, eine Auffassung, die auch Klaus Mainzer [2] in seinem Buch „Die Berechnung der Welt – von der Weltformel zu Big Data“ teilt.
Zu Computerexperimenten hat Gabriele Gramelsberger [3] ein Buch vorgelegt, das analytisch die historische Entwicklung des Rechnens im Hinblick auf den heutigen Computereinsatz sehr gut beleuchtet. Die Computerexperimente, die sie beschreibt, verarbeiten Messwerte und sollen als geordnete Computerexperimente bezeichnet werden im Gegensatz zu den empirischen ungeordneten Experimenten Wolframs.
Die Auswertung der allgemein im Netz vorhandenen Daten sind durch Suchfunktionen gegeben, die sich in ständiger Weiterentwicklung befinden. Sie beziehen sich nicht nur auf naturwissenschaftliche und technische Bereiche, sondern haben längst auch das Gebiet der Sozial- und Geisteswissenschaften erobert.
Angesichts der hohen Rechenkapazität der Supercomputer oder von im Netzwerk zusammengeschlossenen Computern ergibt sich die Frage, ob Grenzen der Berechenbarkeit existieren. Diese Betrachtung erfolgt nicht ausschließlich nach den Regeln der Berechenbarkeitstheorie der theoretischen Informatik, die an Maschinen gebunden ist. Von Maschinen soll vielmehr abstrahiert werden. Es wird der Unvollständigkeitssatz von Kurt Gödel einbezogen sowie die Chaostheorie. In diesem Zusammenhang wird auch die Frage nach der Weltformel erörtert.
Literatur
[1] Big Data – das neue Versprechen der Allwissenheit, Redaktion Heinrich Geiselberger und Tobias Moorstedt, Suhrkamp Verlag Berlin 2013, 309 S.
[2] Klaus Mainzer, die Berechnung der Welt – von der Weltformel zu Big Data, Verlag C.H. Beck, München 2014, 352 S.
[3] Gabriele Gramelsberger, Computerexperimente – zum Wandel der Wissenschaft im Zeitalter des Computers, transscript Verlag Bielefeld 2010, 313 S.
Details
Veranstaltungsort
Berlin, 10551 Google Karte anzeigen