I DIE NATURWISSENSCHAFTLICHE METHODE

I DIE NATURWISSENSCHAFTLICHE METHODE
0 Was ist die Wissenschaftliche Methode?
Die naturwissenschaftliche Methode ist eine wesentliche Basis unseres modernen
Weltbildes, unseres Umgangs mit der Welt.

Sie hat unser Verständnis der Welt substantiell verändert .

Sie ist treibende Kraft der technologischen Entwicklung.

Sie strahlt von den Naturwissenschaften in Geistes und Sozialwissenschaften
aus.

Sie prägt heute auch das Denken in vielen anderen Bereichen des Lebens.
In der Folge wollen wir versuchen, die Kerncharakteristika und die Funktionsweise
der Methode nachzuvollziehen.

Wir wollen einen gemeinsamen Nenner erfassen der die wissenschaftliche
Methode von anderen Formen des Denkens über die Welt unterscheidet.

Und wir wollen verstehen worin das Erfolgsgeheimnis der Methode besteht.
Ebenso wichtig wie diese Gemeinsamkeiten allen wissenschaftlichen Denkens zu
sehen ist es jedoch zu betonen, dass es die eine kanonische und unverrückbare
wissenschaftliche Methode nicht gibt. Die wissenschaftliche Methode hat sich über
lange Zeit herausgebildet und weiterentwickelt.
Leitlinie hierbei war und ist der Erfolg den die Methode gewährleistet.
Die Qualität der wissenschaftlichen Methode ist selbst nicht a priori
erschließbar sondern hängt an der Beschaffenheit der Welt. Wir erkennen
Funktionstüchtigkeit oder auch Modifikationsbedarf der Methode wenn wir in die Welt
schauen und auf dieser Basis die Effektivität der Methode feststellen.
1
Neue Beobachtungen führen daher nicht nur zu neuen Theorien sondern in
weiterem Rahmen auch zu Verschiebungen von Spezifika der wissenschaftlichen
Methode selbst.
Auch funktioniert die wissenschaftliche Methode in unterschiedlichen
Forschungsfeldern die mit ganz unterschiedlichen Herausforderungen und Formen
empirischer Daten konfrontiert sind recht unterschiedlich.
Wir wollen jetzt etwas mehr im Detail anschauen, wie die naturwissenschaftliche
Methode aussieht.
Parallel wollen wir auch immer begleitend die Frage stellen: warum gerade so?
Was legitimiert die naturwissenschaftliche Methode? Warum hat sie sich gegenüber
anderen naturphilosophischen Ansätzen so eindeutig durchgesetzt?
Illustrierend werden wir immer wieder zum klassischen Fall der These des
heliozentrischen Weltbildes zurückkommen.
2
1. Theoriengeladenheit der Beobachtung
Grundstruktur: Beobachtung : Theorie
Grundprinzip der Naturwissenschaften ist die starke Bindung an die Beobachtung.
Eine erste Antwort auf die Frage nach den Gründen für den Erfolg die man geben
könnte wäre: Während andere Formen des Denkens über die Welt von
dogmatischen, erdachten Setzungen ausgehen, ist es oberstes Prinzip der
wissenschaftlichen Methode, sich nur an den beobachteten Fakten zu orientieren.
Eine wissenschaftliche Theorie wäre demnach der Versuch, die beobachteten Fakten
bestmöglich zu strukturieren ohne irgendetwas durch Beobachtungen nicht
gedecktes hinzuzufügen.
Also etwa:
Religion nimmt religiöse Dogmen an, die nicht durch Beobachtungen begründet sind.
Auf dieser Basis schlossen Theologen irrigerweise auf die notwendige Gültigkeit des
Geozentrischen Weltbildes.
Astrologie nimmt astrologische Prinzipien an die nicht durch Beobachtung
erschlossen sind. Auf dieser Basis macht sie irrige Behauptungen über den Einfluss
von Himmelsphänomenen auf den Menschen.
Astronomie als Wissenschaft basiert dagegen nur auf der präzisen Beobachtung des
Himmels und sucht nach der besten Strukturierung dieser Beobachtungen.
Sich an die beobachteten Fakten zu halten gewährleistet objektive Gültigkeit der
wissenschaftlichen Theorien.
Da ist schon etwas dran.
Bei genauerer Analyse stellt sich aber ein Problem: Was sind die von der
Wissenschaft beobachteten Fakten?
Der naive Ansatz wäre, elementare Beobachtungssätze als Basis anzunehmen, die
als unhinterfragbare Grundlage wissenschaftlicher Theorien fungieren.
3
Schon der logische Empirismus seit den 1930er-Jahren des 20 Jahrhunderts, der
konzeptionell eine Rückführbarkeit wissenschaftlicher Aussagen auf
Beobachtungssätze vertrat, hat aber mit dem Problem gerungen, dass es den
unhinterfragbaren Beobachtungssatz nicht gibt.
Egal auf welcher Ebene ich solche Sätze ansetze, es wird und muss – gerade im
Sinne wissenschaftlicher Kritikfähigkeit – immer möglich sein, einen solchen Satz
auch zu verwerfen.
Es gibt auf verschiedensten Ebenen eindrucksvolle Beispiele für scheinbar evidente
Beobachtungen die letztlich zu verwerfen sind.
Angefangen von einer Unzahl optischer Täuschungen: gleich lange Linien
erscheinen unterschiedlich lang, gleiche Farbtöne erscheinen ungleich, ruhendes
bewegt, etc.
Lange dachte man zum Beispiel, dass man unterschiedliche Durchmesser von
Sternen beobachten könne. Heute weiß man, dass der Durchmesser jedes Sterns
weit unterhalb der Wahrnehmungsgrenze liegt. Die gleiche Beobachtung wird also
sehr anders interpretiert und damit auch anders beschrieben. Die Erkenntnis, wie
man sie korrekt beschreibt basiert selbst auf einem Analyseschritt. Die
Beobachtungsaussage ist also nicht unverrückbar.
In komplexen Fällen ist eine wissenschaftliche Ausbildung nötig um eine
Beobachtung sinnvoll zu beschreiben. Medizinisch Gebildete sehen etwas ganz
anderes in einem Röntgenbild als der Laie.
Das alles impliziert nicht, dass es keine objektive Grundlage für das
Wahrgenommene gibt. Aber jede Wahrnehmung ist geprägt von angeborenen und
erlernten mentalen Verarbeitungsprozessen, deren Resultat nicht von ‚reinen‘
Sinnesdaten trennbar ist.
4
Und die Grundlage für die Entwicklung einer wissenschaftlichen Theorie ist immer
unser „Datenmodell“.
Theorien über die Sternengrösse vor Galilei, um noch einmal auf das Beispiel
zurückzukommen, waren dem Beobachtungsverständnis angepasst das davon
ausging, dass man Ausdehnung von Sternen beobachtete.
Wenn es aber keine absolute objektive Beobachtungsbasis gibt, woran lässt sich
dann die wissenschaftlicher Objektivität festmachen?
Eine Antwort besteht in der Idee, dass man wenn ausreichend Zeit und guter Wille
auf beiden Seiten da ist, jedem Laien das wissenschaftlich korrekte Lesen eines
Datenbefundes beibringen und erklären kann.
Das Datenmodell das der Wissenschaftler verwendet ist also insofern intersubjektiv
als es dem entspricht wie man wenn man gut ausgebildet und intelligent ist die
Beobachtungen modellieren sollte.
Aber dieser Standard kann sich mit der Zeit ändern. Auch das liefert also keine solide
Grundlage für eine objektive Ausgangsbasis der wissenschaftlichen Analyse.
Letztendlich ergibt sich die Stabilität unserer Sinnesdaten aus der Kohärenz und
Stabilität unseres gesamten Weltbildes.
Im Rahmen dieses Weltbildes können wir dann oft sehr klar zwischen
Beobachtungsdaten und Theorie unterscheiden.
5
2 Theorie und ihr Verhältnis zur Beobachtung: HypothetikoDeduktivismus
Der 2. Teil der wissenschaftlichen Aktivität ist das Erstellen und die Analyse der
Theorie.
Ein entscheidender Aspekt der Naturwissenschaften: Theorien sind formalisiert, d.h.
mathematisch formuliert.
z.B: Newtons Gravitationsgesetz:
=
1 2
2
 = /
: ℎ, : , : , : 
Wie steht die Theorie zum Experiment?
Habe ich eine Theorie, kann ich aus Anfangsbedingungen zukünftige
Beobachtungen herleiten.
Also: Wenn ich die Positionen der zweier massiver Objekte zum Zeitpunkt t1 kenne,
kann ich die Positionen der Objekte zum Zeitpunkt t2 aus der Theorie herleiten.
(deduzieren).
Eine klassische Form der Modellierung des Wissenschaftsprozesses ist der
Hypothetiko-Deduktivismus:
1: Eine Beobachtung wird gemacht.
2: Die Wissenschaftlerin sucht nach einer Erklärung dieser Beobachtung und stellt
schließlich eine Hypothese auf, die diese Erklärung leisten kann.
3: Sie leitet aus dieser Hypothese Prognosen her.
4: Diese Prognosen werden im Experiment getestet
Wenn die Prognosen eintreten, wird die Hypothese bestätigt, wenn nicht ist sie
wiederlegt und eine neue Hypothese muss gesucht werden.
6
Weitere Beobachtungen werden gemacht, solange bis man eine findet, die nicht mit
einer Prognose der Theorie übereinstimmt. => zurück bei 1:
Beobachtung 1
Kreativer Schritt
Hypothese
Deduktion
Prognose
Das bedeutet, die Prognosen lassen sich aus der Theorie herleiten. Nicht aber die
Theorie aus den Daten.
7
2.3: Deduktion, Induktion und Abduktion
Wie aber komme ich auf die Theorie?
Klar ist, ich kann die Theorie nicht aus den Daten deduzieren.
Im Hypothetikodeduktivismus haben wir diesen Schritt als ‚kreativen Schritt‘
eingeführt.
Kann man mehr darüber sagen?
Um die Situation besser zu verstehen wollen wir 3 verschiedene Schlussprinzipien
ansehen: Deduktion, Induktion und Abduktion.
Deduktion
Deduktion ist das logische Schließen von einer Menge von Ausgangssätzen auf eine
Konsequenz.
Beispiel:
a Alle Menschen sind sterblich
b Sokrates ist ein Mensch
c Sokrates ist sterblich.
Wenn a und b dann c.
Die Gültigkeit dieses Schlusses hängt nicht vom Inhalt der Aussagen ab, nur von
ihrer Form und der Gültigkeit der logischen Axiome. Wir müssen als nicht in die Welt
schauen, um ihre Wahrheit zu erkennen, sondern nur die logischen Axiome
annehmen und auf ihrer Basis die Schlussfolgerung herleiten (deduzieren).
8
Alle mathematischen Aussagen sind von dieser Form.
Das Extrahieren von Prognosen aus einer Theorie ist angewandte Mathematik (das
heißt mathematische Analyse von naturwissenschaftlich interpretierten Aussagen)
und daher deduktiv.
Induktionsschluss:
Deduktion kann also zu Prognosen unter der Annahme führen, dass die Theorie
wahr (oder zumindest in einem gewissen Rahmen „gültig“ ist.
Aber wie kann man die etablieren, dass die Theorie gültig ist?
Was man auf jeden Fall braucht ist der Schluss von einer beobachteten Serie von
Ereignissen auf das nächste Ereignis.
Ich schließe also etwa daraus, dass jeden Tag die Sonne untergeht, dass das auch
morgen so sein wird.
Das Kernproblem das dabei auftritt ist Humes Induktionsproblem: Aus gesammelten
Daten ist niemals ein Regularitätsprinzip strikt deduktiv herleitbar. Es besteht immer
die logische Möglichkeit, dass beim nächsten Schritt die Regel nicht mehr gilt.
Schönes Beispiel Bertrand Russels: Das Huhn glaubt solange, dass der Bauer immer
wenn er kommt Futter bringt bis er kommt es zu schlachten.
Dennoch hat es sich einfach bewährt, nach Regularitäten zu suchen. Wir tun es
ständig im Alltag, wir tun es auch in der Wissenschaft.
Genauer gesagt schließen wir aber nicht nur auf das nächste Ereignis sondern auf
die allgemeine Gültigkeit einer Theorie, eines Naturgesetzes. Wir schließen daraus,
dass die Sonne bisher jeden Tag untergegangen ist darauf, dass sie jeden Tag
untergehen wird (ist das streng genommen wahr?),
Das bedeutet aber streng genommen, dass wir die Gültigkeit unseres Schlusses nie
empirisch überprüfen können. Wir können immer nur die nächsten prognostischen
Schritte überprüfen, nie aber die universale Gültigkeit unserer Theorie.
9
Auch das ist aber genau genommen nichts Neues. Wir schließen im Alltag auch grob
gesagt darauf, dass die Sache ‚immer‘ so ist, wenn wir sie konsistent in einer Form
beobachten.
Man kann also die These vertreten, die wissenschaftliche Methode wäre einfach eine
verbesserte Methode Induktionsschlüsse zu ziehen.
Naturwissenschaft schaut einfach ‚genauer hin‘ (experimentelle Methode) und
analysiert präziser ((Mathematisierung), tut aber sonst nichts anderes als das, was
jeder im Alltag wenn er einen Induktionsschluss zieht auch tut.
Es gibt dieser Ansicht nach kein neues philosophisches Problem hinsichtlich des
prognostischen Erfolges von Wissenschaft das über das Induktionsproblem
hinausgeht.
Als grobe erste Annäherung funktioniert diese Perspektive wohl.
Allerdings gibt es einige Überlegungen, die diesen Ansatz im Detail unzureichend
erscheinen lassen. Diese Überlegungen führen zur Formulierung eines neuen
Prinzips.
Das Prinzip der Abduktion (Inferenz auf die beste Erklärung):
Auch die Unzulänglichkeit des reinen Induktionsschlusses sieht man erst in der
Wissenschaft.
Schauen wir uns ein Alltagsbeispiel an: (aus van Faassens Buch ‚The Scientific
Image‘ entlehnt)
Nehmen wir an, wir hören in unserer Wohnung seit neuestem häufig ein Kratzen
hinter unserem Wandverbau. Wir stellen weiters fest, dass Käsestücke, die wir dort
auf den Boden legen, später verschwunden sind. Nun könnten wir rein induktiv
schließen, dass wir auch morgen wieder ein Kratzen hören werden und dass auch
morgen wieder Käse den wir auf den Boden legen verschwinden wird. Wir können
aber – und werden wohl vernünftigerweise – Schlussfolgerungen ziehen, die weit
über diesen engen Rahmen hinausreichen. Wir werden etwa schließen, dass eine
10
Maus in unserem Wandverbau ist und auf dieser Basis alle Schlussfolgerungen
ziehen, die sich daraus ableiten lassen: dass Verdauungsüberreste der Maus hinter
dem Wandverbau sein werden, dass wir die Maus sehen können, wenn wir uns auf
die Lauer legen, etc.
Der Schluss auf die Maus ist ein Abduktionsschluss. Man nennt ihn auch Inferenz auf
die beste Erklärung. Wir können ihn nicht einfach auf Basis dessen ziehen, dass wir
beobachtete Regelmäßigkeiten fortsetzen. Wir können sie anwenden, wenn wir ein
Arsenal möglicher Erklärungen meiner Beobachtungsdaten habe und mit
bestehenden Daten konfrontieren. Die beste der vorhandenen Erklärungen wählt
man dann aus.
Wir müssen um einen Abduktionsschluss zu ziehen viel mehr wissen als für einen
einfachen Induktionsschluss: In unserem Fall einerseits, dass es Mäuse gibt und wie
sie sich verhalten. Andererseits aber auch, dass das Spektrum der in unserem
Lebensbereich ablaufenden Prozesse sonst nicht viel einschließt was den
vorhandenen Datenbefund erklären könnte. (So etwa schließen wir
Klaubautermänner und Kobolde als Erklärung aus.) Das heißt, wir müssen, auf Basis
unseres Gesamtverständnisses der Situation der Meinung sein, dass wir einen recht
guten Überblick über die möglichen Alternativen haben, also darauf vertrauen
können, dass die Möglichkeiten die uns einfallen wahrscheinlich alle plausiblen
Möglichkeiten sind.
(Wenn wir auf Urlaub im Amazonasdelta sind werden wir davon, dass wir die Quelle
der Kratzens richtig einordnen weniger überzeugt sein weil wir davon ausgehen,
dass wir keinen Überblick über die Lokale Fauna haben – man nennt das das „best
of a bad lot“ Problem.)
Wir haben also im Alltag Situationen wo wir direkt induktiv schließen und solche wo
wir auf Basis unseres breiteren Kontextwissens Abduktionsschlüsse ziehen.
Ganz ähnlich ist es in den Wissenschaften.
Sicherlich gibt es Formen wissenschaftlichen Schließens die ganz gut im Sinne eines
reinen Induktionsschlusses zu sehen sind. Nehmen wir zum Beispiel den Schluss
von der Bewegung eines Planeten gemäß den Newtonschen Gravitationsgesetzen
darauf, dass sich dieser Planet und alle anderen Himmelskörper in der Zukunft auch
11
diesen Gesetzen gemäß verhalten werden. Das ist eine sehr starke Aussage (die
auch nicht wirklich korrekt ist), sie lässt sich aber gut als wissenschaftliche
Erweiterung des Induktionsprinzips das wir aus dem Alltag kennen verstehen.
In anderen Fällen aber gehen die Prognosen einer physikalischen Theorie weit über
das hinaus, was man im Alltag unter Induktion verstehen würde. Und zwar dann,
wenn auf Basis einer Theorie ein ganz neues Phänomen vorhergesagt wird. Ein
gutes Beispiel ist Einsteins Prognose der Lichtbeugung an massiven Objekten auf
Basis der allgemeinen Relativitätstheorie. Newtons Theorie sagt so eine
Lichtbeugung nicht voraus und sie wurde vor der Entwicklung der allgemeinen
Relativitätstheorie auch nicht beobachtet. Hier sagt die Theorie also ein neues
Phänomen eines Typs voraus, der bisher überhaupt nicht beobachtet wurde.
Grundlage dieser Prognose ist die Tatsache, dass jene Theorie, die man zur
Beschreibung bestimmter Phänomene gefunden hat, auch das prognostizierte
Phänomen impliziert. Ein klassischer Fall eines Abduktionsschlusses.
In einer Hinsicht ist die Anwendung des Abduktionsschlusses in den grundlegenden
Wissenschaften aber wesentlich schwieriger motivierbar als im Alltag.
Im Alltag basiert der abduktive Schluss wie wir gesehen haben darauf, einen
Überblick über die vorhandenen Phänomene zu haben und bei Bedarf eines
derselben einzusetzen.
In der Physik oder anderen Naturwissenschaften kann Abduktion aber nicht auf
dieser Basis funktionieren, da wir ja eben gerade Erklärungen (Theorien)
konstruieren wollen die konzeptionell grundlegend neu sind. Was ist also die Basis
für den Abduktionsschluss in der Physik? Auf welcher Grundlage können wir, wenn
wir eine Erklärung gefunden haben, annehmen, dass es ‚die beste‘ ist und dass die
beste – und wahre – Erklärung uns nicht noch unbekannt ist? Wie wollen wir einen
Überblick über mögliche Erklärungen haben die wir gar nicht kennen?
Diese Frage ist eine Kernfrage der Wissenschaftstheorie.
Einen Erklärungsansatz werden wir später noch kennenlernen.
12
Zunächst einmal wollen wir nur einmal festhalten, dass philosophisch betrachtet
sowohl das Funktionieren des Induktionsschlusses als auch des
Abduktionsschlusses keineswegs eine triviale Sache ist.
13
14
4: Falsifikation
Wir haben jetzt die Grundstruktur der naturwissenschaftlichen Methode
kennengelernt:
Präzise quantitative Beobachtungen bzw. Experimente, mathematisch formalisierte
Theorien die diese Beobachtungen reproduzieren können und neue Prognosen
machen.
Haben wir damit die naturwissenschaftliche Methode von anderen Spielarten des
Denkens gut abgegrenzt?
Nicht wirklich. Manche Spielarten der Astrologie etwa genügen diesen Bedingungen
auch.
Eine sehr einflussreiche Antwort darauf was Wissenschaften demgegenüber
auszeichnet ist Poppers Falsifikationskriterium:
Wissenschaftliche Theorien legen im Vorhinein klar fest, unter welchen Bedingungen
sie falsifiziert wären. Dadurch entsteht ein Selektionsprozess, der Theorien verwirft
und nur solche Theorien überleben lässt, die ihre Falsifikationsversuche überleben.
Pseudowissenschaftliche Theorien wie etwa Astrologie dagegen zielen darauf ab
sich so zu immunisieren, dass sie alle vorstellbaren Beobachtungen „überleben“, das
heißt, obwohl sie vorgeblich Prognosen machen immer ex post erklären können
warum die Theorie mit dem Scheitern der jeweiligen Prognose vereinbar ist.
Das Qualitätskriterium einer wissenschaftlichen Theorie dagegen ist, möglichst
präzise und möglichst viele Möglichkeiten ihrer Widerlegung anzubieten. Je leichter
eine Theorie zu falsifizieren wäre, umso stärker ist sie.
Starke Theorien, die dennoch viele Falsifikationsversuche überleben – deren
Prognosen also in vielen unterschiedlichen empirischen Tests mit den empirischen
15
Daten übereinstimmen – sind gute Theorien. Wir haben gute – also prognostisch
starke und erfolgreiche - Theorien, weil sie die sind, die überlebt haben.
Bas van Fraassen, der heute einflussreichste empiristische Wissenschaftstheoretiker, nennt diesen Ansatz die Darwinistische Erklärung für die hohe Qualität
reifer wissenschaftlicher Theorien.
Bis heute ist das Prinzip der Falsifikation eines der zentralen Leitbilder
wissenschaftlichen Denkens und Handelns.
Um klare und verbindliche Prognosen zu machen setzt die naturwissenschaftliche
Methode zwei Prinzipien ein:
1) Definitionen und Thesen werden so präzise wie möglich gemacht. Die
Logische Struktur eines wissenschaftlichen Arguments muss klar ersichtlich
sein und die Logische Konsistenz ist Voraussetzung für dessen Gültigkeit.
Es gibt also so etwas wie einen Kern rationaler Argumentationstechnik der
wissenschaftliches Denken trägt.
2) Wann immer möglich wird die Theorie mathematisiert. Auf Basis der
Mathematisierung können präzise Theorien formuliert werden, die auf der
Basis von quantitativ angesetzten Anfangsbedingungen quantitativ präzise
Prognosen machen. Das ermöglicht Präzisionstests von Theorien.
Die Formalisierung naturwissenschaftlicher Theorien erscheint aus dieser
Perspektive als Konsequenz der bestmöglichen Umsetzung des
Falsifikationsprinzips.
16
5: Theorienbestätigung
Popper selbst dachte, durch das Falsifikationsprinzip die Rolle der Bestätigung einer
Theorie für den Wissenschaftsprozess zu beseitigen.
Um wissenschaftlich zu argumentieren reicht es, die Theorien
Falsifikationsversuchen auszusetzen und zu konstatieren ob sie erfolgreich waren.
Heute erscheint das allgemein als zu ‚dünnes‘ Verständnis von Wissenschaft. Der
Wissenschaftler will mehr als nur zu Kenntnis nehmen, dass seine Theorie noch nicht
widerlegt ist.
Manche (die Wissenschaftlichen Realisten) sagen, er oder sie will verstehen ob eine
Theorie annähernd wahr ist.
Aber selbst wenn man das nicht so sehen will bleibt eines klar: Wissenschaftler
wollen verstehen ob sie den weiteren Prognosen der Theorie vertrauen können.
Theorienbestätigung wird als Basis dieses Vertrauens gesehen.
Dass das so ist kann man in erster Näherung als Vertrauen in Induktion bzw.
Abduktion verstehen.
Dass es ein zentrales Element des Wissenschaftsprozesses ist dieses Vertrauen
aufzubauen lässt sich am besten dort sehen wo dieses vertrauen sehr weitreichende
methodische Konsequenzen hat.
Ein gutes Beispiel aus der Hochenergiephysik ist die jüngste Entdeckung des
Higgsteilchens. Ein Grund davür, dass es wichtig ist hier von Entdeckung zu
sprechen ist der, dass, sobald ein neues Teilchen entdeckt ist, alle zukünftigen
Berechnungen in dem Feld (und damit alle zukünftig gemachten Prognosen) die
Implikationen dieses Teilchens berücksichtigen. Das Vertrauen in die Theorie sobald
sie empirisch bestätigt ist spielt also eine ganz zentrale Rolle dafür wie die
Hochenergiephysik betrieben wird.
17
Wir haben also die folgende Situation:
1) Die Möglichkeit Vertrauen in die Prognostik einer Theorie aufzubauen ist
wesentlich für den Naturwissenschaftsprozess – und natürlich auch für
technische und andere Anwendungen der Naturwissenschaften.
2) Theorienbestätigung begründet solches Vertrauen.
Frage: Warum?
18
6: Das Phänomen des prognostischen Erfolges wissenschaftlicher
Theorien (novel confirmation):
Galilei war in einer Situation wie der eben beschriebenen als er seine
Beobachtungen mit dem Fernrohr machte.
Galilei verteidigte die Theorie Keplers, dass die Erde und die Planeten in elliptischen
Bahnen um die Sonne kreisen gegen die Verteidiger des ptolemaischen Weltbildes
nach dem die Erde im Zentrum steht und Sonne, Mond und Planeten um die Erde
kreisten. Er beobachtete unter anderem Monde des Jupiter. Diese Beobachtung war
für Galilei ein klarer Hinweis auf die Gültigkeit des heliozentrischen Weltbildes.
Seine Gegner aber sagten, die Beobachtungen könnten Effekte des Fernglases sein
die Galilei nur auf Basis seiner Ausgangsthesen als Monde interpretierte.
Galilei antwortet auf diesen Einwand auf ganz bestimmte Art: Er prognostiziert
zukünftige Positionen der Monde. Der Erfolg neuer Prognosen ist immer noch kein
Beweis dafür, dass es keine andere Erklärung für eine Beobachtung gibt die die
gleichen Prognosen macht. Aber er stärkt massiv eine wissenschaftliche These.
Galilei konnte mit seinem prognostischen Erfolg einige Kritiker überzeugen.
Eine Schlüsselfrage zur Bewertung einer wissenschaftlichen Theorie:
Nehmen wir an, eine Theorie bildet bestimmte Daten ab. Ein neuartiges Phänomen
tritt auf und verschwindet wieder. So etwas wie ein Komet. Wir haben zwei
Forschergruppen auf 2 Inseln, ohne Interaktionsmöglichkeit.
Die erste Forschergruppe wartet ab bis das Phänomen wieder verschwindet,
sammelt alle Daten D, und baut dann eine Theorie T1 die den Daten genügt.
19
Die zweite Gruppe findet schon nach der Hälfte der Zeit in der das Phänomen
beobachtbar ist ihre Theorie T2 und testet sie in der 2. Hälfte der Zeit.
Alle gemachten Prognosen treffen zu. Nach Ende des Phänomens weiß also auch
die zweite Gruppe, dass ihre Theorie T2 allen Daten D genügt.
Nach Ende des Phänomens warten beide Gruppen auf dessen Wiederkehr um
weitere Untersuchungen zu machen.
Die Frage ist: Beide Gruppen wissen, dass ihre Theorie die Daten D korrekt abbildet.
T1 ist nur an Daten angepasst gebaut. T2 hat erfolgreich prognostiziert.
Hat Gruppe 2 mehr Grund ihrer Theorie zu trauen?
Die Frage ist in der Wissenschaftstheorie hochumstritten.
Wenn es aber nicht um einzelne Theorien geht sondern um die Bewertung der
wissenschaftlichen Methode als ganze, dann scheint klarer, dass Prognosen wichtig
sind um die Qualität der wissenschaftlichen Methode zu demonstrieren.
20
7: Theorienabfolge, Normalwissenschaft, Wissenschaftliche
Revolution
Wir haben gesehen, dass Falsifikation eine ganz zentrale Rolle im Rahmen des
wissenschaftlichen Fortschritts spielt.
Theorien werden empirisch getestet und wenn sie nicht mit den Daten
übereinstimmen verworfen.
Aber wann genau wird eine Theorie verworfen?
Das einfachste Bild wäre, man testet bis man einen empirischen Widerspruch mit der
Theorie (eine empirische Anomalie) findet und wenn das der Fall ist verwirft man sie
und baut eine neue die die neuen Daten reproduzieren kann.
Ganz so einfach ist das aber nicht.
Es gibt zwei Grundprobleme. Erstens: Es ist nicht klar wo der Grund für die Anomalie
liegt. Die getestete Theorie könnte falsch sein. Es könnte aber auch unser
Verständnis der Beobachtung oder des Experiments falsch sein, oder das
Experiment fehlerhaft.
Pierre Duhem, ein bedeutender Wissenschaftstheoretiker der Wende zum 20.
Jahrhunderts hat als Prinzip formuliert: Es gibt kein Experimentum cruxis. Ich kann
bei jeder Datenlage meine Theorie retten wenn ich ausreichend radikale
Veränderungen an anderen Teilen meines Gedankengebäudes zulasse. Es mag
sein, dass diese Änderungen so weit hergeholt oder unplausibel erscheinen, dass es
nur eine seriös vertretbare Conclusio gibt. Aber es gibt keine Möglichkeit die
Alternativen absolut auszuschließen.
Es gibt noch ein zweites Problem. Was passiert wenn eine Anomalie auftritt, sich
aber keine bessere Theorie finden lässt?
Es wäre unsinnig, in einem solchen Fall eine Theorie, die sonst gute Dienste leistet
nicht mehr zu verwenden.
21
In diesem Fall lebt die Theorie mit der Anomalie weiter.
Es ist in solchen Fällen oft gar nicht klar wie substantiell die Änderungen an der
Theorie sein müssen um letztlich doch die Daten zu erklären. Es wäre sehr ineffizient
in einem solchen Fall beim Auftreten einer Anomalie gleich das gesamte Konzept der
Theorie zu hinterfragen.
Es ist also oft so, dass man bei sehr erfolgreichen Theorien auch recht viel an
Problemen in Kauf nimmt bevor man ernsthaft an ein substantielles Verwerfen denkt.
Statt das zu tun kann man

die Qualität des Experiments bezweifeln

die Qualität der Datenanalyse bezweifeln

Im Rahmen der alten Theorien zu versuchen, durch Zusatzannahmen die
Anomalie zu beseitigen. (neuer Planet)

in Betracht ziehen, dass ein ganz neues Phänomen gefunden wurde das
unabhängig vom zu untersuchenden ist du den gemessenen Effekt ausmacht.

annehmen, dass man in Zukunft schon eine mit der Grundtheorie in Einklang
stehende Erklärung finden wird.
Imre Lakatos nennt das Arsenal an möglichen Maßnahmen um eine Theorie vor ihr
widersprechenden Daten in Schutz zu nehmen den „protektive belt“ (Schutzgürtel)
der Theorie.
Ein nettes Beispiel für die Stärke des protective belt ist eine berühmte Episode die
Max Planck erzählt.
Als er um 1880 seine Doktorarbeit beginnen wollte sagte ihm ein bekannter älterer
Physiker, er würde an seiner Stelle besser eine andere Wissenschaftsdisziplin
suchen, die Physik sei weitgehend abgeschlossen. Es gäbe nicht Wesentliches mehr
zu entdecken.
Diese Einstellung war im ausgehenden 19. Jh durchaus gängig.
22
Der Witz dieser Episode ist natürlich, dass etwa 20 Jahre später, im Jahre 1900,
gerade Planck den ersten wesentlichen Schritt zur fundamentalen Umwälzung der
Physik durch die Quantenmechanik machte.
Interessant an der Geschichte ist aber auch, dass die zitierte Aussage gemacht
wurde obwohl es zu der Zeit durchaus Anomalien der klassischen Physik gab. Z.B.
konnte die kinetische Gastheorie die gemessene spezifische Wärme nicht
überzeugend erklären, was tatsächlich erst in einem quantenmechanischen Rahmen
möglich ist.
Der „protective belt“ um die klassische Physik war aber so stark, dass die
Überzeugung
verbreitet
war,
diese
Anomalien
müsste
ohne
substantielle
theoretische Änderungen aus der Welt zu schaffen sein.
Eine eigene und lange Zeit sehr einflussreiche Perspektive auf diese Situation hat
Thomas Kuhn entwickelt.
Kuhn
führt
das
Konzept
der
wissenschaftlichen
Paradigmas
ein.
Ein
wissenschaftliches Paradigma ist so etwas wie eine Denkweise über eine
wissenschaftliche Problematik, die sich in einer grundlegenden Theorie ausdrückt.
Nun gibt es nach Kuhn 2 Denkrahmen in denen Wissenschaftler arbeiten.
Der eine ist der Denkrahmen der Normalwissenschaften. Hier wird im Rahmen des
vorherrschenden Paradigmas gearbeitet. Ziel ist es, mit den durch das Paradigma
bereitgestellten Methoden Probleme zu lösen („puzzle solving“). Wenn eine Anomalie
auftritt, dann wird versucht, sie im Rahmen des gegebenen Paradigmas zu
beseitigen.
Erst wenn sich Anomalien häufen und die Fähigkeit im Rahmen des alten
Paradigmas überhaupt noch neue Probleme zu lösen markant abnimmt, wird die
Situation als Krise empfunden.
23
In einer solchen Krise wird nach neuen Paradigmen gesucht. Dies stellt dann die
zweite Form des wissenschaftlichen Prozesses dar.
Wird ein überzeugendes und produktives neues Paradigma gefunden, kommt es zu
einer wissenschaftlichen Revolution.
Kuhn meint nun, dass wissenschaftliche Revolutionen so grundlegend sind, dass es
eine Inkommensurabilität zwischen altem und neuem Paradigma gibt.
Diese Inkommensurabilität führt dazu, dass es in der revolutionären Phase keine
rationale Entscheidungsmöglichkeit zwischen den Paradigmen gibt.
Erst wenn sich das neue Paradigma länger bewährt hat wird de facto unbezweifelbar,
dass es stärker ist als das alte.
(Das entspricht grob Plancks bekanntem Satz, dass Theorien sich nicht durchsetzen
indem ihre Gegner überzeugt werden sondern indem sie aussterben.)
Ein
interessanter
unterschiedlicher
Aspekt
des
Paradigmenwechsels
wissenschaftlicher
Zielsetzungen
ist
die
Möglichkeit
aufeinanderfolgender
Paradigmen.
Beispiel Planetenbahnen:
Für Kepler war es zentral, die Verhältnisse zwischen den Planetenabständen zu
erklären (wie das die Quantenmechanik für das Atom ja tatsächlich liefert)
Newtons Mechanik erklärt diese Abstände für unerklärbar.
Wer also den Keplerschen Anspruch nicht aufgibt, wird nicht zum Newtonschen
Paradigma überlaufen. Der überwältigende Erfolg des Newtonschen Paradigmas ließ
aber dennoch sehr bald niemandem mehr eine andere Wahl.
24
8: Universalität
Sie begründet die Suche nach höherer Universalität wissenschaftlicher Theorien.
Sie zeigt, dass der Universalitätsanspruch in den Wissenschaften kein rein
ästhetisches Kriterium ist sondern einen soliden empirischen Hintergrund hat:
wenn getrennte Bereiche durch unterschiedliche Theorien beschrieben werden dann
ist es oft aus empirischen Gründen nötig eine Theorie zu finden die beide ‚kleineren‘
Theorien umfasst.
Die Struktur ist dann die folgende:
Beide Teiltheorien sind als Näherungen der grundlegenderen Theorie verstehbar.
Ich vernachlässige aber unterschiedliche Parameter weshalb ich ausgehend von der
universalen Theorie bei verschiedenen Teiltheorien lande.
Hier gibt es einen ganz wesentlichen Unterschied zwischen dem Schritt zu
allgemeingültigeren Theorien in der fundamentalen Naturwissenschaft und
Verallgemeinerungen etwa in den Geisteswissenschaften.
In beiden Fällen beginnen wir mit einer Theorie mit begrenztem
Zuständigkeitsbereich und wollen diesen erweitern.
Nehmen wir an wir haben eine bestimmte Beobachtung über gesellschaftliche
Verhältnisse in einem Dorf zur Zeit t. Wir versuchen diese Beobachtung möglichst
präzise zu machen. Dann fragen wir, ob wir einen vergleichbaren Sachverhalt auch
in anderen Gegenden, zu anderen Zeiten finden.
Wir werden feststellen, dass sich die Situation je mehr wir uns vom Ausgangspunkt
entfernen umso deutlicher von der Anfangs beschriebenen unterscheidet.
Dennoch kann es sehr erhellend sein, eine These so allgemein zu formulieren, dass
sie auf ein breites Spektrum von Orten und Zeiten zutrifft. Je breiter wir dieses
Spektrum aber ansetzen, umso allgemeiner wird diese These sein, umso weniger
präzise wird sie der Situation im Ausgangsdorf zum Zeitpunkt T gerecht werden.
25
Man steht also immer vor der Abwägung, wo die Verallgemeinerung noch
gewinnbringend ist und wo sie nur mehr durch so viele Vagheiten zu erkaufen ist,
dass es besser ist eine inhaltlich stärkere aber weniger universelle Aussage zu
machen.
Ganz anders die Situation in der fundamentalen Naturwissenschaft.
Hier sind die limitierteren Theorien Näherungen der universaleren Theorie, die
universalere Theorie ist also nicht nur breiter gültig sondern auch präziser.
Die Suche nach Universalität ist also zugleich eine Suche nach höherer Präzision.
Die Beziehung zwischen grundlegender und effektiver Theorie ist reduktionistisch.
Die hohe Bedeutung der Universalität impliziert also auch eine reduktionistische
Struktur der Naturwissenschaft.
26