Freitag, 12. Juni 2009

Nachtrag zur naturwissenschaftlichen Methodik

Ich will mich hier kurz fassen, aber doch noch mal den Aspekt ansprechen, daß in den Naturwissenschaften im Grunde genommen Weltmodelle konstruiert werden, die in einem allmählichen Prozeß so verbessert werden können, daß sie zu immer größerer Übereinstimmung mit der realen Außenwelt gebracht werden kann, ohne daß ihre Richtigkeit aber jemals endgültig bewiesen werden könnte. Karl Popper hat sich ausführlich damit beschäftigt, und wenn sein Buch dazu ("Logik der Forschung") nicht so furchtbar teuer wäre, hätte ich es mir wohl schon mal zugelegt. Ich kenne Poppers Ideen daher - mal wieder - nur aus der Sekundärliteratur: sie besagen vor allem, daß wissenschaftliche Theorien niemals wirklich verizierbar im Sinne einer echten Bestätigung sein können, sondern eben nur falsifizierbar sind, falls sie etwa bei bestimmten Experimenten versagen. (Selbst, wenn eine Theorie die Prozesse der Natur perfekt und lückenlos beschriebe, könnte man sich dessen niemals ganz sicher sein.)

Ich weiß nicht, ob Popper dieses Beispiel aufgeführt hat, aber mir fällt in dem Zusammenhang etwa die Newtonsche Mechanik ein. Die hielt ungefähr 300 Jahre allen Beobachtungen stand (wenn man mal vom Problem der Perihelbewegung des Merkurs absieht, aber bei dem Problem kam niemand darauf, daß die Abweichungen durch einen Mangel der Gravitationstheorie verursacht sein könnten), bis das berühmte Michaelson-Morley-Experiment nicht nur der Äthertheorie jener Tage das Grab schaufelte, sondern auch die Überlegungen der theoretischen Physiker in Gang setzte, die schließlich zur Entwicklung der Relativitätstheorie führten.

Dabei ist eine neue Theorie natürlich nur dann als Verbesserung einer lange bewährten Theorie anzusehen, wenn sie nicht nur die Aspekte erklären kann, bei denen die alte Theorie versagt, sondern auch alles, was die alte Theorie schon erklären konnte. Daher gehen gerade in der theoretischen Physik die klassischen Theorien üblicherweise auch in den neuen Theorien auf: als Grenz- und Spezialfälle (so sind bei gemessen an der Lichtgeschwindigkeit niedrigen Geschwindigkeiten etwa die relativistischen Korrekturen so winzig, daß man in der Physik des alltäglichen Lebens ungestraft mit Newtons Gleichungen rechnen darf). Eine richtig gute Theorie sollte überdies zusätzliche Voraussagen machen, die dann ihrerseits wieder experimentell überprüfbar sind.

Damit will ich dieses Thema auch erst einmal beschließen. Wichtig ist mir aber, daß man - wie bereits erwähnt - bei wissenschaftlichen Theorien Modellvorstellungen entwickelt und diese dann (vor allem mathematisch) beschreibt. Je mehr ein Modell der Realität der Außenwelt ähnelt, desto leistungsfähiger wird es sein, aber es ist eben zunächst ein Modell. Gerade in der Mikrophysik spielt das eine Rolle, weil zu naive Modelle (etwa vom Elektron als einem herumschwirrenden kleinen Kügelchen) schnell an ihre Grenzen stoßen. Aber auch, wenn ein Modell die Prozesse, die man beobachtet, gut beschreibt, heißt das nicht unbedingt, daß das wirkliche Objekt seinem Äquivalent aus dem Modell ähnlich sein muß. Es ist sinnvoll, sich in bestimmten Fällen Licht als Welle vorzustellen, in anderen ist dagegen eine Partikelvorstellung erfolgreicher. Doch was Licht selbst nun wirklich ist, läßt sich nicht so richtig sagen - mitunter muß man sich vielleicht damit begnügen, bestimmte Phänomene mathematisch beschreiben zu können. Diese Modelle sind überaus nützlich, aber man sollte sie nicht kritiklos mit der physikalischen Realität der Außenwelt gleichsetzen. Auf diese Modelle werde ich daher später noch einmal zurückkommen.

Keine Kommentare:

Kommentar veröffentlichen