Theorie und Beobachtung in der Wissenschaft – James Bogen
Quelle: Theory and Observation in Science (Stanford Encyclopedia of Philosophy)
Wissenschaftler erhalten einen großen Teil der von ihnen verwendeten Beweise durch das Sammeln und Erzeugen empirischer Ergebnisse. Ein Großteil der philosophischen Standardliteratur zu diesem Thema stammt von den logischen Empirikern des 20. Jahrhunderts, ihren Anhängern und Kritikern, die sich ihre Themen zu eigen machten, aber auch einige ihrer Ziele und Annahmen ablehnten. Die Diskussionen über empirische Beweise konzentrieren sich in der Regel auf erkenntnistheoretische Fragen bezüglich ihrer Rolle bei der Überprüfung von Theorien. Dieser Beitrag folgt diesem Präzedenzfall, obwohl empirische Beweise auch in anderen Bereichen eine wichtige und philosophisch interessante Rolle spielen, etwa bei der wissenschaftlichen Entdeckung, der Entwicklung experimenteller Instrumente und Techniken und der Anwendung wissenschaftlicher Theorien auf praktische Probleme.
Die logischen Empiriker und ihre Anhänger widmeten einen Großteil ihrer Aufmerksamkeit der Unterscheidung zwischen Beobachtbarem und Unbeobachtbarem, der Form und dem Inhalt von Beobachtungsberichten und der erkenntnistheoretischen Bedeutung von Beobachtungsbeweisen für die Theorien, die sie zur Bewertung verwenden. Die philosophische Arbeit in dieser Tradition war durch das Ziel gekennzeichnet, Theorie und Beobachtung begrifflich zu trennen, so dass die Beobachtung als reine Grundlage für die Bewertung der Theorie dienen konnte. In jüngerer Zeit hat sich der Schwerpunkt der philosophischen Literatur von diesen Fragen und ihrer engen Verbindung zu den Sprachen und Logiken der Wissenschaft auf Untersuchungen darüber verlagert, wie empirische Daten erzeugt, analysiert und in der Praxis verwendet werden. Mit dieser Verlagerung haben die Philosophen auch das Streben nach einer reinen Beobachtungsgrundlage für wissenschaftliche Erkenntnisse weitgehend aufgegeben und stattdessen eine Sichtweise der Wissenschaft angenommen, in der das Theoretische und das Empirische sinnvoll miteinander verwoben sind.
1. Einführung
Wissenschaftsphilosophen haben traditionell eine besondere Rolle für Beobachtungen in der Erkenntnistheorie der Wissenschaft anerkannt. Beobachtungen sind der Kanal, durch den das „Tribunal der Erfahrung“ seine Urteile über wissenschaftliche Hypothesen und Theorien fällt. Es wurde angenommen, dass der Beweiswert einer Beobachtung davon abhängt, wie empfindlich sie auf das zu untersuchende Objekt reagiert. Dies hängt jedoch wiederum von der Angemessenheit der theoretischen Behauptungen ab, von denen die Empfindlichkeit abhängt. Wir können beispielsweise die Verwendung eines bestimmten Thermometerwerts zur Untermauerung einer Vorhersage der Temperatur eines Patienten anfechten, indem wir theoretische Behauptungen in Frage stellen, die sich darauf beziehen, ob ein Messwert von einem Thermometer wie diesem, das auf dieselbe Weise und unter ähnlichen Bedingungen verwendet wird, die Temperatur des Patienten gut genug anzeigen sollte, um für oder gegen die Vorhersage zu sprechen. Zumindest einige dieser theoretischen Behauptungen werden so beschaffen sein, dass ihre Falschheit die Verwendung des Thermometerwerts beeinträchtigen würde, unabhängig davon, ob ein Forscher sie ausdrücklich unterstützt oder sich ihrer überhaupt bewusst ist. Alle Beobachtungen und Verwendungen von Beobachtungsdaten sind in diesem Sinne theoriebeladen (vgl. Chang 2005, Azzouni 2004). Wie das Beispiel des Thermometers zeigt, lässt sich Norwood Hansons Behauptung, dass Sehen ein theoriebeladenes Unterfangen ist, analog auch auf gerätegenerierte Beobachtungen anwenden (Hanson 1958, 19). Wenn aber alle Beobachtungen und empirischen Daten theoriebeladen sind, wie können sie dann realitätsbasierte, objektive epistemische Beschränkungen für wissenschaftliches Denken liefern?
Die jüngste Forschung hat diese Frage auf den Kopf gestellt. Warum sollte die Theorielosigkeit empirischer Ergebnisse überhaupt problematisch sein? Wenn die theoretischen Annahmen, die den Ergebnissen zugrunde liegen, richtig sind, was ist dann so schlimm daran? Schließlich sind es diese Annahmen, die dafür sorgen, dass die Ergebnisse der empirischen Untersuchung überhaupt mit der Theoriebildung in Verbindung gebracht werden können. Eine in ein Labornotizbuch gekritzelte Zahl kann einem Wissenschaftler nur wenig epistemischen Nutzen bringen, wenn er nicht die entsprechenden Hintergrundannahmen rekrutieren kann, um sie überhaupt als Messwert für die Temperatur des Patienten zu erkennen. Aber Philosophen haben sich ein verwobenes Bild des Theoretischen und Empirischen zu eigen gemacht, das viel tiefer geht als dies. Lloyd (2012) plädiert für einen „komplexen Empirismus“, in dem es „keine strikte Trennung von Modell und Daten“ gibt (397). Bogen (2016) weist darauf hin, dass „unreine empirische Evidenz“ (d. h. Evidenz, in die die Urteile von Wissenschaftlern eingeflossen sind) „uns oft mehr über die Welt sagt, als sie es könnte, wenn sie rein wäre“ (784). In der Tat hat Longino (2020) darauf gedrängt, dass „die naive Vorstellung, dass Daten eine unmittelbare Beziehung zu den Phänomenen der Welt haben, dass sie ‚objektiv‘ in einem starken, ontologischen Sinne dieses Begriffs sind, dass sie die Fakten der Welt sind, die direkt zu uns sprechen, endlich ad acta gelegt werden sollte“ und dass „selbst der primäre, ursprüngliche Zustand der Daten nicht frei von der wert- und theoriebeladenen Auswahl und Organisation der Forscher ist“ (391).
Unter Wissenschaftsphilosophen herrscht keine weitgehende Einigkeit darüber, wie das Wesen wissenschaftlicher Theorien zu charakterisieren ist. Was ist eine Theorie? Nach der traditionellen syntaktischen Sichtweise werden Theorien als Sammlungen von Sätzen betrachtet, die in eine logische Sprache gefasst sind, die dann mit Korrespondenzregeln ergänzt werden müssen, um interpretiert werden zu können. In diesem Sinne umfassen Theorien maximal allgemeine Erklärungs- und Vorhersagegesetze (z. B. das Coulomb’sche Gesetz der elektrischen Anziehung und Abstoßung und die Maxwell’schen Gleichungen des Elektromagnetismus) sowie weniger allgemeine Sätze, die begrenztere natürliche und experimentelle Phänomene beschreiben (z. B. die Gleichungen für ideale Gase, die die Beziehungen zwischen Temperatur und Druck von eingeschlossenen Gasen beschreiben, und allgemeine Beschreibungen astronomischer Regelmäßigkeiten). Im Gegensatz dazu betrachtet die semantische Sichtweise Theorien als den Raum der gemäß der Theorie möglichen Zustände bzw. die Menge der gemäß der Theorie zulässigen mathematischen Modelle (siehe Suppe 1977). Es gibt jedoch auch wesentlich ökumenischere Interpretationen dessen, was eine wissenschaftliche Theorie ist, die Elemente unterschiedlicher Art enthalten. Um nur ein anschauliches Beispiel zu nennen, charakterisiert Borrelli (2012) das Standardmodell der Teilchenphysik als einen theoretischen Rahmen mit, wie sie es nennt, „theoretischen Kernen“, die aus mathematischen Strukturen, verbalen Geschichten und Analogien mit empirischen Bezügen zusammengesetzt sind (196). Dieser Beitrag zielt darauf ab, all diese Ansichten über die Natur wissenschaftlicher Theorien zu berücksichtigen.
In diesem Beitrag zeichnen wir die Konturen der traditionellen philosophischen Auseinandersetzung mit Fragen rund um Theorie und Beobachtung in der Wissenschaft nach, die versucht hat, das Theoretische vom Beobachtenden zu trennen und eine klare Abgrenzung zwischen dem Beobachtbaren und dem Unbeobachtbaren vorzunehmen. Wir erörtern auch die neuere Wissenschaft, die das Primat der Beobachtung durch die menschliche Sinneswahrnehmung durch ein instrumentenübergreifendes Konzept der Datenproduktion ersetzt und die Verflechtung von Theorie und Empirie bei der Erzeugung nützlicher wissenschaftlicher Ergebnisse berücksichtigt. Obwohl die Theorieprüfung einen Großteil der philosophischen Standardliteratur über Beobachtung dominiert, gilt vieles von dem, was in diesem Beitrag über die Rolle der Beobachtung bei der Theorieprüfung gesagt wird, auch für ihre Rolle bei der Erfindung und Änderung von Theorien und ihrer Anwendung auf Aufgaben in der Technik, Medizin und anderen praktischen Unternehmen.
2. Beobachtung und Daten
2.1 Traditioneller Empirismus
Die Schlussfolgerung aus Beobachtungen ist für die wissenschaftliche Praxis mindestens seit Aristoteles von Bedeutung, der eine Reihe von Quellen für Beobachtungsnachweise erwähnt, darunter die Sektion von Tieren (Aristoteles(a), 763a/30-b/15; Aristoteles(b), 511b/20-25). Francis Bacon argumentierte schon vor langer Zeit, dass der beste Weg, etwas über die Natur herauszufinden, darin besteht, Erfahrungen (sein Begriff für Beobachtungen sowie experimentelle Ergebnisse) zu nutzen, um wissenschaftliche Theorien zu entwickeln und zu verbessern (Bacon 1620, 49ff). Die Rolle von Beobachtungsergebnissen bei wissenschaftlichen Entdeckungen war im 19. Jahrhundert unter anderem für Whewell (1858) und Mill (1872) ein wichtiges Thema. Aber erst im 20. Jahrhundert, als die logischen Empiriker das philosophische Denken über die Beobachtung veränderten, sprachen Philosophen so ausführlich und detailliert über die Beobachtung, wie wir es heute gewohnt sind.
Eine wichtige Veränderung, die für die linguistische Wende in der Philosophie charakteristisch ist, bestand darin, sich auf die Logik der Beobachtungsberichte zu konzentrieren und nicht auf die beobachteten Objekte oder Phänomene. Diese Fokussierung war sinnvoll, wenn man davon ausging, dass eine wissenschaftliche Theorie ein System von Sätzen oder satzähnlichen Strukturen (Propositionen, Aussagen, Behauptungen usw.) ist, die durch Vergleiche mit Beobachtungsdaten überprüft werden. Es wurde davon ausgegangen, dass die Vergleiche im Sinne von Schlussfolgerungsbeziehungen verstanden werden müssen. Wenn Schlussfolgerungsbeziehungen nur zwischen satzähnlichen Strukturen bestehen, folgt daraus, dass Theorien nicht anhand von Beobachtungen oder beobachteten Dingen geprüft werden müssen, sondern anhand von Sätzen, Behauptungen usw., die zur Mitteilung von Beobachtungen verwendet werden (Hempel 1935, 50-51; Schlick 1935). Bei der Prüfung von Theorien ging es darum, Beobachtungssätze, die in der Natur oder im Labor gemachte Beobachtungen beschreiben, mit Beobachtungssätzen zu vergleichen, die nach der zu prüfenden Theorie wahr sein sollten. Dies sollte durch die Verwendung von Gesetzen oder gesetzesähnlichen Verallgemeinerungen zusammen mit Beschreibungen von Ausgangsbedingungen, Korrespondenzregeln und Hilfshypothesen erreicht werden, um Beobachtungssätze abzuleiten, die die interessierenden Sinnesleistungen beschreiben. Dies macht es unumgänglich zu fragen, was Beobachtungssätze berichten.
Nach dem, was Hempel die phänomenalistische Darstellung nennt, beschreiben Beobachtungssätze die subjektiven Wahrnehmungserfahrungen des Beobachters.
… Solche Erfahrungsdaten könnte man als Empfindungen, Wahrnehmungen und ähnliche Phänomene der unmittelbaren Erfahrung auffassen. (Hempel 1952, 674)
Dieser Ansicht liegt die Annahme zugrunde, dass der epistemische Wert eines Beobachtungsberichts von seiner Wahrheit oder Genauigkeit abhängt und dass in Bezug auf die Wahrnehmung das Einzige, was der Beobachter mit Sicherheit als wahr oder genau wissen kann, die Art und Weise ist, wie die Dinge ihm erscheinen. Dies bedeutet, dass wir nicht darauf vertrauen können, dass Beobachtungsberichte wahr oder genau sind, wenn sie etwas beschreiben, das über die eigene Wahrnehmungserfahrung des Beobachters hinausgeht. Vermutlich sollte das Vertrauen in eine Schlussfolgerung nicht größer sein als das Vertrauen in die besten Gründe, die man hat, sie zu glauben. Für den Phänomenalisten folgt daraus, dass Berichte über subjektive Erfahrungen bessere Gründe liefern können, Behauptungen zu glauben, die sie unterstützen, als Berichte über andere Arten von Beweisen.
Angesichts der begrenzten Ausdrucksmöglichkeiten der Sprache, die für die Beschreibung subjektiver Erfahrungen zur Verfügung steht, können wir jedoch nicht erwarten, dass phänomenalistische Berichte präzise und eindeutig genug sind, um theoretische Behauptungen zu testen, deren Bewertung genaue, feinkörnige Wahrnehmungsunterscheidungen erfordert. Schlimmer noch: Wenn Erfahrungen nur denjenigen direkt zugänglich sind, die sie gemacht haben, kann man bezweifeln, dass verschiedene Personen denselben Beobachtungssatz auf dieselbe Weise verstehen können. Nehmen wir an, Sie müssten eine Behauptung auf der Grundlage des subjektiven Berichts einer anderen Person darüber beurteilen, wie eine Lackmuslösung für diese Person aussah, als sie eine Flüssigkeit mit unbekanntem Säuregehalt draufgetropft hat. Wie könnten Sie entscheiden, ob die visuelle Erfahrung dieser Person mit der übereinstimmt, die Sie mit ihren Worten wiedergeben würden?
Solche Überlegungen veranlassten Hempel, im Gegensatz zu den Phänomenalisten vorzuschlagen, dass Beobachtungssätze „direkt beobachtbare“, „intersubjektiv feststellbare“ Fakten über physikalische Objekte berichten:
… wie z. B. die Übereinstimmung des Zeigers eines Instruments mit einer nummerierten Markierung auf einer Skala; eine Farbveränderung einer Testsubstanz oder der Haut eines Patienten; das Klicken eines Verstärkers, der mit einem Geigerzähler verbunden ist; usw. (ibid.)
Für die Ziele der logischen Empiriker war es entscheidend, dass die in den Beobachtungsberichten ausgedrückten Fakten intersubjektiv feststellbar waren. Sie hofften, die Autorität, die den besten natur-, sozial- und verhaltenswissenschaftlichen Theorien weithin zugestanden wird, im Gegensatz zu Propaganda und Pseudowissenschaft zu artikulieren und zu erklären. Einige Aussagen von Astrologen und medizinischen Quacksalbern finden breite Akzeptanz, ebenso wie die von religiösen Führern, die sich auf ihren Glauben oder persönliche Offenbarungen stützen, und von Führern, die ihre politische Macht nutzen, um sich Zustimmung zu sichern. Solche Behauptungen genießen jedoch nicht die Glaubwürdigkeit, die wissenschaftliche Theorien erlangen können. Die logischen Empiriker versuchten, die echte Glaubwürdigkeit wissenschaftlicher Theorien zu begründen, indem sie sich auf die Objektivität und Zugänglichkeit von Beobachtungsberichten und die Logik der Theorieprüfung beriefen. Mit der Objektivität von Beobachtungsdaten meinten sie u. a., dass kulturelle und ethnische Faktoren keinen Einfluss darauf haben, was aus Beobachtungsberichten gültig über die Vorzüge einer Theorie abgeleitet werden kann. So gesehen war Objektivität wichtig für die Kritik der logischen Empiriker an der Vorstellung der Nazis, dass Juden und Arier grundlegend unterschiedliche Denkprozesse hätten, so dass physikalische Theorien, die für Einstein und seinesgleichen geeignet sind, deutschen Studenten nicht zugemutet werden sollten. Als Antwort auf diese Begründung für die ethnische und kulturelle Säuberung des deutschen Bildungssystems argumentierten die logischen Empiristen, dass aufgrund ihrer Objektivität Beobachtungsdaten (und nicht ethnische und kulturelle Faktoren) zur Bewertung wissenschaftlicher Theorien herangezogen werden sollten (Galison 1990). In dieser Denkweise sind Beobachtungsdaten und ihre anschließende Berücksichtigung in wissenschaftlichen Theorien auch deshalb objektiv, weil sie frei von nicht-epistemischen Werten sind.
Nachfolgende Generationen von Wissenschaftsphilosophen haben den logischen Empirismus, der sich darauf konzentriert, den Inhalt von Beobachtungen in einer begrenzten und grundlegenden Beobachtungssprache auszudrücken, als zu eng empfunden. Die Suche nach einer angemessenen universellen Sprache, wie sie das Programm des logischen Empirismus fordert, ist ins Leere gelaufen, und die meisten Wissenschaftsphilosophen haben diese Suche aufgegeben. Wie wir im folgenden Abschnitt erörtern werden, ist außerdem die zentrale Bedeutung der Beobachtung selbst (und der Zeigerlesungen) für die Ziele des Empirismus in der Wissenschaftstheorie in Frage gestellt worden. Der Verzicht auf die Suche nach einer universellen, reinen Beobachtungssprache bedeutet jedoch nicht automatisch, dass die Norm der Objektivität in Bezug auf die sozialen, politischen und kulturellen Kontexte der wissenschaftlichen Forschung untergraben wird. Abgesehen von den makellosen logischen Grundlagen war die Objektivität „neutraler“ Beobachtungen angesichts der schädlichen politischen Propaganda attraktiv, weil sie als gemeinsame Grundlage für eine intersubjektive Beurteilung dienen konnte. Diese Anziehungskraft ist auch heute noch ungebrochen, vor allem, da im öffentlichen Diskurs erneut bösartige Fehlinformationskampagnen zu beobachten sind (siehe O’Connor und Weatherall 2019). Wenn Individuen die Bedeutung empirischer Beweise wirklich einschätzen und zu einer gut begründeten Einigung darüber kommen können, wie sich die Beweise auf die Theoriebildung auswirken, dann können sie ihre epistemischen Überlegungen vor dem ungebührlichen Einfluss von Faschisten und anderen ruchlosen Manipulatoren schützen. Dieses Bestreben muss sich jedoch mit den Feinheiten auseinandersetzen, die sich aus der sozialen Erkenntnistheorie der Wissenschaft und aus der Natur der empirischen Ergebnisse selbst ergeben. In der Praxis erfordert die Beurteilung wissenschaftlicher Ergebnisse oft Fachwissen, das für die Öffentlichkeit ohne die entsprechende Fachausbildung nicht ohne weiteres zugänglich ist. Gerade weil es sich bei empirischen Ergebnissen nicht um reine Beobachtungsberichte handelt, kann ihre Bewertung durch Gemeinschaften von Forschern, die mit unterschiedlichen Hintergrundannahmen arbeiten, erhebliche erkenntnistheoretische Arbeit erfordern.
Die logischen Empiriker schenkten der Unterscheidung zwischen Beobachten und Experimentieren und ihren erkenntnistheoretischen Implikationen wenig Aufmerksamkeit. Für einige Philosophen bedeutet Experimentieren, Dinge zu isolieren, zu präparieren und zu manipulieren, in der Hoffnung, erkenntnistheoretisch nützliche Erkenntnisse zu gewinnen. Bislang war es üblich, unter Beobachten das Bemerken und Beachten interessanter Details von Dingen zu verstehen, die unter mehr oder weniger natürlichen Bedingungen wahrgenommen werden, oder, in weiterem Sinne, von Dingen, die im Verlauf eines Experiments wahrgenommen werden. Eine Beere an einer Rebe zu betrachten und auf ihre Farbe und Form zu achten, hieße, sie zu beobachten. Ihren Saft zu extrahieren und mit Reagenzien auf das Vorhandensein von Kupferverbindungen zu testen, wäre ein Experiment. Inzwischen haben viele Philosophen die Ansicht vertreten, dass Kunstgriffe und Manipulationen erkenntnistheoretisch bedeutsame Merkmale beobachtbarer experimenteller Ergebnisse in einem solchen Maße beeinflussen, dass Erkenntnistheoretiker sie auf eigene Gefahr ignorieren. Robert Boyle (1661), John Herschell (1830), Bruno Latour und Steve Woolgar (1979), Ian Hacking (1983), Harry Collins (1985), Allan Franklin (1986), Peter Galison (1987), Jim Bogen und Jim Woodward (1988) und Hans-Jörg Rheinberger (1997) sind einige der Philosophen und philosophisch gesinnten Wissenschaftler, Historiker und Wissenschaftssoziologen, die sich ernsthaft mit der Unterscheidung zwischen Beobachtung und Experiment beschäftigt haben. Die logischen Empiristen tendierten dazu, sie zu ignorieren. Interessanterweise könnte der zeitgenössische Blickwinkel, der sich mit Modellierung, Datenverarbeitung und empirischen Ergebnissen befasst, eine Wiedervereinigung von Beobachtung und Intervention unter demselben erkenntnistheoretischen Rahmen nahelegen. Wenn man die wissenschaftliche Beobachtung nicht mehr als rein oder direkt ansieht und anerkennt, dass eine gute Modellierung in der Lage ist, Störungen zu berücksichtigen, ohne physisch in das Zielsystem einzugreifen, verliert die angebliche epistemische Unterscheidung zwischen Beobachtung und Eingriff ihren Biss.
2.2 Die Irrelevanz der Beobachtung an sich
Beobachter verwenden Lupen, Mikroskope oder Teleskope, um Dinge zu sehen, die zu klein oder zu weit entfernt sind, um sie ohne sie zu sehen oder deutlich genug zu sehen. Ebenso werden Verstärkungsgeräte verwendet, um leise Töne zu hören. Aber wenn etwas zu beobachten bedeutet, es wahrzunehmen, dann ist nicht jeder Einsatz von Instrumenten zur Verstärkung der Sinne als Beobachtung zu bezeichnen.
Philosophen sind sich im Allgemeinen einig, dass man die Monde des Jupiter mit einem Teleskop beobachten oder einen Herzschlag mit einem Stethoskop hören kann. Eine bemerkenswerte Ausnahme bildet van Fraassen in „The Scientific Image“, für den „beobachtbar“ etwas ist, das von einem Lebewesen wie uns beobachtet werden würde, wenn es vorhanden wäre. So sind für van Fraassen die Monde des Jupiters beobachtbar, „da Astronauten zweifellos in der Lage sein werden, sie auch aus der Nähe zu sehen“ (1980, 16). Im Gegensatz dazu sind mikroskopische Entitäten nach van Fraassens Auffassung nicht beobachtbar, weil Lebewesen wie wir nicht in der Lage sind, sich strategisch so zu bewegen, dass wir sie mit unseren unbewaffneten Sinnen sehen können, wenn sie vor uns stehen.
Viele Philosophen haben van Fraassens Ansicht als zu restriktiv kritisiert. Dennoch unterscheiden sich die Philosophen in ihrer Bereitschaft, die Grenze zwischen dem, was als beobachtbar gilt, und dem, was nicht dazu zählt, entlang des Spektrums immer komplizierterer Instrumente zu ziehen. Viele Philosophen, die nichts gegen Teleskope und Mikroskope haben, finden es immer noch unnatürlich zu sagen, dass Hochenergiephysiker Teilchen oder Teilchenwechselwirkungen „beobachten“, wenn sie sich Fotos von Blasenkammern ansehen – ganz zu schweigen von digitalen Visualisierungen von Energieablagerungen in Kalorimetern, die selbst nicht inspiziert werden. Ihre Intuitionen beruhen auf der plausiblen Annahme, dass man nur das beobachten kann, was man sehen kann, indem man hinschaut, was man hören kann, fühlen kann, indem man es berührt, und so weiter. Die Forscher können geladene Teilchen, die sich durch einen Detektor bewegen, weder sehen (ihren Blick auf sie richten und ihnen Aufmerksamkeit schenken) noch visuell wahrnehmen. Stattdessen können sie die Spuren in der Kammer, die Fotos der Blasenkammer, die Visualisierung der Kalorimeterdaten usw. betrachten und sehen.
In umstritteneren Beispielen sind einige Philosophen dazu übergegangen, von instrumentengestützter empirischer Forschung zu sprechen, die eher dem Gebrauch von Werkzeugen als dem Erkennen ähnelt. Hacking (1981) argumentiert, dass wir nicht durch ein Mikroskop sehen, sondern eher mit ihm. Daston und Galison (2007) heben die inhärente Interaktivität eines Rastertunnelmikroskops hervor, bei dem Wissenschaftler Atome abbilden und manipulieren, indem sie Elektronen zwischen der scharfen Spitze des Mikroskops und der abzubildenden Oberfläche austauschen (397). Andere haben sich dafür entschieden, die Bedeutung des Begriffs „Beobachtung“ zu erweitern, um dem Rechnung zu tragen, was wir sonst als instrumentengestützte Entdeckungen bezeichnen würden. Shapere (1982) argumentiert zum Beispiel, dass es, auch wenn es Philosophen zunächst als kontraintuitiv erscheinen mag, durchaus sinnvoll ist, den Nachweis von Neutrinos aus dem Inneren der Sonne als „direkte Beobachtung“ zu bezeichnen.
Die unterschiedlichen Auffassungen über die Unterscheidung zwischen beobachtbar und nicht beobachtbar deuten darauf hin, dass die Empiriker möglicherweise den falschen philosophischen Weg eingeschlagen haben. Viele der Dinge, die Wissenschaftler untersuchen, interagieren nicht mit den menschlichen Wahrnehmungssystemen, wie es erforderlich wäre, um Wahrnehmungserfahrungen mit ihnen zu machen. Die Methoden, mit denen Wissenschaftler solche Dinge untersuchen, sprechen gegen die Vorstellung – wie plausibel sie auch immer einmal gewesen sein mag -, dass Wissenschaftler sich ausschließlich auf ihre Wahrnehmungssysteme verlassen oder verlassen sollten, um die von ihnen benötigten Beweise zu erhalten. So schlug Feyerabend als Gedankenexperiment vor, dass eine Theorie ebenso gut anhand ihrer Ergebnisse wie anhand von Aufzeichnungen menschlicher Wahrnehmungen geprüft werden könnte, wenn Messgeräte zur Erfassung des Wertes einer interessierenden Größe eingerichtet würden (Feyerabend 1969, 132-137). Feyerabend hätte seinen Standpunkt auch mit historischen Beispielen statt mit Gedankenexperimenten untermauern können. Ein Jahrhundert zuvor schätzte Helmholtz die Geschwindigkeit von Erregungsimpulsen, die durch einen motorischen Nerv laufen. Um Impulse auszulösen, deren Geschwindigkeit abgeschätzt werden konnte, implantierte er eine Elektrode in ein Ende einer Nervenfaser und leitete einen Strom von einer Spule in diese ein. Das andere Ende war mit einem Stück Muskel verbunden, dessen Kontraktion das Eintreffen des Impulses signalisierte. Um herauszufinden, wie lange der Impuls brauchte, um den Muskel zu erreichen, musste er wissen, wann der stimulierende Strom den Nerv erreichte. Aber
unsere Sinne sind nicht in der Lage, einen einzelnen Zeitmoment von so geringer Dauer direkt wahrzunehmen …
und so musste Helmholtz auf, wie er es nannte, „künstliche Beobachtungsmethoden“ zurückgreifen (Olesko und Holmes 1994, 84). Dies bedeutete, dass er die Dinge so anordnete, dass der Strom aus der Spule eine Galvanometernadel auslenken konnte. Unter der Annahme, dass die Größe der Auslenkung proportional zur Dauer des von der Spule fließenden Stroms ist, konnte Helmholtz die Auslenkung nutzen, um die Dauer zu schätzen, die er nicht sehen konnte (ebd.). Diese Art der „künstlichen Beobachtung“ ist nicht zu verwechseln mit der Verwendung von Lupen oder Teleskopen, um winzige oder weit entfernte Objekte zu sehen. Solche Geräte ermöglichen es dem Beobachter, sichtbare Objekte genau zu betrachten. Die winzige Dauer des Stromflusses ist kein sichtbares Objekt. Helmholtz untersuchte sie, indem er die Umstände geschickt so gestaltete, dass die Auslenkung der Nadel die von ihm benötigten Informationen sinnvoll vermittelte. Hooke (1705, 16-17) plädierte im17. Jahrhundert für dieselbe Art von Strategie und entwickelte entsprechende Instrumente.
Es ist interessant, dass Aufzeichnungen von Wahrnehmungsbeobachtungen in erkenntnistheoretischer Hinsicht nicht immer besser sind als Daten, die mit Hilfe von Versuchsgeräten erhoben wurden. In der Tat ist es nicht ungewöhnlich, dass Forscher nicht-perzeptive Beweise verwenden, um Wahrnehmungsdaten zu bewerten und ihre Fehler zu korrigieren. So führten Rutherford und Pettersson ähnliche Experimente durch, um herauszufinden, ob bestimmte Elemente unter radioaktivem Beschuss zerfallen und geladene Teilchen freisetzen. Um die Emissionen zu erkennen, beobachteten die Beobachter einen Szintillationsschirm auf schwache Blitze, die durch Teilcheneinschläge erzeugt wurden. Petterssons Assistenten berichteten, dass sie Blitze von Silizium und bestimmten anderen Elementen sahen. Rutherfords Assistenten taten dies nicht. Rutherfords Kollege, James Chadwick, besuchte Petterssons Labor, um seine Daten auszuwerten. Anstatt den Bildschirm zu beobachten und Petterssons Daten mit dem, was er sah, zu vergleichen, veranlasste Chadwick, dass Petterssons Assistenten den Bildschirm beobachteten, während er, ohne dass sie es wussten, die Geräte manipulierte, indem er zwischen normalen Betriebsbedingungen und einem Zustand wechselte, in dem die Teilchen, wenn überhaupt, den Bildschirm nicht treffen konnten. Petterssons Daten wurden durch die Tatsache entkräftet, dass seine Assistenten unter beiden Bedingungen nahezu gleich viele Blitze meldeten (Stuewer 1985, 284-288).
Wenn der Prozess der Datenerzeugung relativ kompliziert ist, ist es noch einfacher zu erkennen, dass die menschliche Sinneswahrnehmung nicht der ultimative Erkenntnismotor ist. Betrachten wir funktionelle Magnetresonanzbilder (fMRI) des Gehirns, die mit Farben verziert sind, um das Ausmaß der elektrischen Aktivität in verschiedenen Regionen während der Ausführung einer kognitiven Aufgabe anzuzeigen. Um diese Bilder zu erzeugen, werden kurze magnetische Impulse an das Gehirn der Versuchsperson angelegt. Die magnetische Kraft koordiniert die Präzessionen der Protonen im Hämoglobin und anderen Körperstoffen, so dass diese Funksignale aussenden, die stark genug sind, damit das Gerät darauf reagieren kann. Wenn die Magnetkraft nachlässt, verschlechtern sich die Signale von Protonen in sauerstoffreichem Hämoglobin nachweislich anders als die Signale von Blut, das weniger Sauerstoff enthält. Aufwändige Algorithmen werden auf Funksignalaufzeichnungen angewandt, um den Sauerstoffgehalt des Blutes an den Stellen zu schätzen, von denen die Signale stammen sollen. Es gibt gute Gründe für die Annahme, dass Blut, das unmittelbar stromabwärts aktiver Neuronen fließt, deutlich mehr Sauerstoff enthält als Blut in der Nähe ruhender Neuronen. Anhand von Annahmen über die relevanten räumlichen und zeitlichen Beziehungen werden die Werte der elektrischen Aktivität in kleinen Hirnregionen geschätzt, die den Pixeln im fertigen Bild entsprechen. Die Ergebnisse all dieser Berechnungen werden verwendet, um den Pixeln in einem computergenerierten Bild des Gehirns die entsprechenden Farben zuzuordnen. In Anbetracht all dessen unterscheidet sich die funktionelle Bildgebung des Gehirns z. B. vom Schauen und Sehen, Fotografieren und Messen mit einem Thermometer oder Galvanometer in einer Weise, die es uninformativ macht, sie als Beobachtung zu bezeichnen. Ähnlich verhält es sich mit vielen anderen Methoden, die Wissenschaftler anwenden, um nicht-perzeptive Erkenntnisse zu gewinnen.
Die Rolle der Sinne bei der fMRI-Datenproduktion beschränkt sich auf die Überwachung der Geräte und die Beobachtung der Versuchsperson. Ihre erkenntnistheoretische Rolle beschränkt sich auf die Unterscheidung der Farben im fertigen Bild, das Lesen von Zahlentabellen, die der Computer für die Zuordnung verwendet, und so weiter. Es stimmt zwar, dass Forscher typischerweise ihren Sehsinn einsetzen, um Visualisierungen von verarbeiteten fMRT-Daten – oder auch Zahlen auf einer Seite oder einem Bildschirm – aufzunehmen, aber dies ist nicht der primäre Ort des epistemischen Handelns. Forscher lernen durch fMRT-Daten etwas über Gehirnprozesse, und zwar in erster Linie durch die Eignung der kausalen Verbindung zwischen den Zielprozessen und den Datensätzen sowie durch die Transformationen, die diese Daten bei der Verarbeitung zu den Karten oder anderen Ergebnissen erfahren, die Wissenschaftler verwenden möchten. Die interessanten Fragen beziehen sich nicht auf die Beobachtbarkeit, d. h. ob neuronale Aktivität, Blutsauerstoffspiegel, Protonenpräzessionen, Radiosignale usw. von Lebewesen wie uns richtig als beobachtbar verstanden werden. Die erkenntnistheoretische Bedeutung der fMRT-Daten hängt davon ab, dass sie uns den richtigen Zugang zum Ziel liefern, aber die Beobachtung ist für diesen Zugang weder notwendig noch ausreichend.
In Anlehnung an Shapere (1982) könnte man hierauf mit einer äußerst freizügigen Auffassung dessen reagieren, was als „Beobachtung“ zählt, so dass auch stark verarbeitete Daten als Beobachtungen gelten können. Es ist jedoch schwierig, die Vorstellung, dass stark verarbeitete Daten wie fMRT-Bilder Beobachtungen aufzeichnen, mit der traditionellen empirischen Vorstellung in Einklang zu bringen, dass Berechnungen, die theoretische Annahmen und Hintergrundüberzeugungen beinhalten, nicht in den Prozess der Datenproduktion eindringen dürfen (auf die Gefahr hin, dass sie ihre Objektivität verlieren). Die Beobachtung erhielt ihren besonderen erkenntnistheoretischen Status in erster Linie deshalb, weil sie direkter und unmittelbarer zu sein schien und daher weniger verzerrt und verworren als (z. B.) die Entdeckung oder Schlussfolgerung. Die Erstellung von fMRI-Bildern erfordert umfangreiche statistische Manipulationen auf der Grundlage von Theorien über die Funksignale und eine Vielzahl von Faktoren, die mit ihrer Erkennung zusammenhängen, sowie Überzeugungen über die Beziehungen zwischen Blutsauerstoffgehalt und neuronaler Aktivität, Quellen systematischer Fehler und mehr. Da die Verwendung des Begriffs „Beobachtung“ diesen zusätzlichen Ballast des traditionellen Empirismus mit sich bringt, wäre es vielleicht besser, den Begriff „Beobachtung“ durch eine offensichtlich freizügigere Terminologie zu ersetzen, wie etwa „empirische Daten“ und „empirische Ergebnisse“.
2.3 Daten und Phänomene
Die Absetzung der Beobachtung von ihrem traditionellen Platz in den empiristischen Erkenntnistheorien der Wissenschaft muss Philosophen nicht von der wissenschaftlichen Praxis entfremden. Begriffe wie „Beobachtung“ und „Beobachtungsberichte“ kommen in wissenschaftlichen Schriften nicht annähernd so häufig vor wie in philosophischen Schriften. Stattdessen neigen Wissenschaftler dazu, von Daten zu sprechen. Philosophen, die diesen Sprachgebrauch übernehmen, haben die Freiheit, Standardbeispiele für Beobachtung als Mitglieder einer großen, vielfältigen und wachsenden Familie von Methoden zur Datenproduktion zu betrachten. Anstatt zu entscheiden, welche Methoden als Beobachtungsmethoden zu klassifizieren sind und welche Dinge als beobachtbar gelten, können sich Philosophen dann auf den epistemischen Einfluss der Faktoren konzentrieren, die die Mitglieder der Familie unterscheiden. Insbesondere können sie ihre Aufmerksamkeit darauf richten, welche Fragen mit Daten, die mit einer bestimmten Methode erzeugt wurden, beantwortet werden können, was getan werden muss, um diese Daten fruchtbar zu nutzen, und wie glaubwürdig die Antworten sind, die sie liefern (Bogen 2016).
Die zufriedenstellende Beantwortung solcher Fragen erfordert weitere philosophische Arbeit. Wie Bogen und Woodward (1988) argumentiert haben, ist es oft ein langer Weg von der Gewinnung eines bestimmten Datensatzes voller Eigenheiten, die aus nicht spezifizierten kausalen Nuancen resultieren, bis zu einer Aussage über das Phänomen, das die Forscher letztlich interessiert. Empirische Daten werden in der Regel auf eine Weise erzeugt, die es unmöglich macht, sie aus den Verallgemeinerungen vorherzusagen, mit denen sie getestet werden sollen, oder Instanzen dieser Verallgemeinerungen aus Daten und nicht ad hoc aufgestellten Hilfshypothesen abzuleiten. In der Tat ist es ungewöhnlich, dass viele Elemente eines Satzes von einigermaßen präzisen quantitativen Daten miteinander übereinstimmen, geschweige denn mit einer quantitativen Vorhersage. Das liegt daran, dass präzise, öffentlich zugängliche Daten in der Regel nur durch Prozesse erzeugt werden können, deren Ergebnisse den Einfluss von Kausalfaktoren widerspiegeln, die zu zahlreich, zu unterschiedlich in ihrer Art und zu unregelmäßig in ihrem Verhalten sind, als dass eine einzige Theorie sie erklären könnte. Als Bernard Katz die elektrische Aktivität in Nervenfaserpräparaten aufzeichnete, wurden die numerischen Werte seiner Daten durch Faktoren beeinflusst, die dem Betrieb seiner Galvanometer und anderer Geräte eigen waren, durch Variationen bei den Positionen der Stimulations- und Aufzeichnungselektroden, die in den Nerv eingeführt werden mussten, durch die physiologischen Auswirkungen ihres Einführens und durch Veränderungen im Zustand des Nervs, der sich im Laufe des Experiments verschlechterte. Es gab Schwankungen in der Handhabung der Geräte durch die Versuchsleiter. Vibrationen erschütterten die Geräte als Reaktion auf eine Vielzahl von unregelmäßig auftretenden Ursachen, die von zufälligen Fehlerquellen bis hin zu den schweren Schritten von Katz‘ Lehrer A.V. Hill reichten, der die Treppe außerhalb des Labors auf und ab ging. Das ist eine kurze Liste. Erschwerend kommt hinzu, dass viele dieser Faktoren die Daten als Teile unregelmäßig auftretender, vorübergehender und sich verschiebender Zusammenstellungen von kausalen Einflüssen beeinflussten.
Die Auswirkungen systematischer und zufälliger Fehlerquellen sind in der Regel so groß, dass beträchtliche Analysen und Interpretationen erforderlich sind, um aus Datensätzen Schlussfolgerungen zu ziehen, die zur Bewertung theoretischer Aussagen herangezogen werden können. Interessanterweise gilt dies sowohl für eindeutige Fälle von Wahrnehmungsdaten als auch für maschinell erstellte Aufzeichnungen. Als Astronomen im 19. und frühen 20. Jahrhundert durch Teleskope blickten und Knöpfe drückten, um die Zeit aufzuzeichnen, zu der sie einen Stern an einem Fadenkreuz vorbeiziehen sahen, hingen die Werte ihrer Datenpunkte nicht nur vom Licht dieses Sterns ab, sondern auch von Merkmalen der Wahrnehmungsprozesse, Reaktionszeiten und anderen psychologischen Faktoren, die von Beobachter zu Beobachter variierten. Keine astronomische Theorie verfügt über die Mittel, um solche Dinge zu berücksichtigen.
Anstatt theoretische Behauptungen durch einen direkten Vergleich mit den ursprünglich gesammelten Daten zu prüfen, verwenden die Forscher die Daten, um Fakten über Phänomene abzuleiten, d. h. Ereignisse, Regelmäßigkeiten, Prozesse usw., deren Ausprägungen einheitlich und unkompliziert genug sind, um sie für eine systematische Vorhersage und Erklärung anfällig zu machen (Bogen und Woodward 1988, 317). Die Tatsache, dass Blei bei einer Temperatur von oder nahe 327,5 °C schmilzt, ist ein Beispiel für ein Phänomen, ebenso wie weit verbreitete Regelmäßigkeiten bei elektrischen Größen, die am Aktionspotential beteiligt sind, die Bewegungen astronomischer Körper und so weiter. Theorien, von denen man nicht erwarten kann, dass sie solche Dinge wie einzelne Temperaturwerte vorhersagen oder erklären, können dennoch danach beurteilt werden, wie nützlich sie bei der Vorhersage oder Erklärung von Phänomenen sind. Das Gleiche gilt für das Aktionspotenzial im Gegensatz zu den elektrischen Daten, aus denen seine Eigenschaften berechnet werden, und für die Bewegungen astronomischer Körper im Gegensatz zu den Daten der beobachtenden Astronomie. Es ist vernünftig, eine genetische Theorie zu fragen, wie wahrscheinlich es ist (bei ähnlicher Erziehung in ähnlicher Umgebung), dass die Nachkommen eines Elternteils oder von Eltern, bei denen eine Alkoholkrankheit diagnostiziert wurde, eines oder mehrere Symptome entwickeln, die das DSM als Anzeichen für eine Alkoholkrankheit einstuft. Es wäre jedoch ziemlich unvernünftig, von der genetischen Theorie zu verlangen, dass sie die numerische Punktzahl eines Patienten bei einem Versuch eines bestimmten diagnostischen Tests vorhersagt oder erklärt, oder warum eine Diagnostikerin einen bestimmten Eintrag in ihren Bericht über ein Gespräch mit einem Nachkommen eines solchen Elternteils geschrieben hat (siehe Bogen und Woodward, 1988, 319-326).
Leonelli hat die Behauptung von Bogen und Woodward (1988) in Frage gestellt, dass Daten, wie sie es ausdrückt, „unvermeidlich in einen experimentellen Kontext eingebettet sind“ (2009, 738). Sie argumentiert, dass Daten, wenn sie angemessen verpackt sind, in neue epistemische Kontexte reisen können und ihren epistemischen Nutzen behalten – nicht nur Behauptungen über die Phänomene können reisen, sondern auch die Daten. Die Vorbereitung von Daten für eine sichere Reise ist mit Arbeit verbunden, und durch die Verfolgung von Daten-„Reisen“ können Philosophen lernen, wie die sorgfältige Arbeit von Forschern, Datenarchivaren und Datenbankkuratoren eine nützliche Datenmobilität ermöglichen kann. Während sich Leonellis eigene Arbeit oft auf Daten in der Biologie konzentriert hat, enthält Leonelli und Tempini (2020) viele verschiedene Fallstudien von Datenreisen aus einer Vielzahl wissenschaftlicher Disziplinen, die für Philosophen, die an der Methodologie und Epistemologie der Wissenschaft in der Praxis interessiert sind, von Wert sein werden.
Die Tatsache, dass Theorien in der Regel eher Merkmale von Phänomenen als idiosynkratische Daten vorhersagen und erklären, sollte nicht als Schwäche ausgelegt werden. Für viele Zwecke ist dies die nützlichere und aufschlussreichere Fähigkeit. Stellen Sie sich vor, Sie hätten die Wahl zwischen einer Theorie, die die Art und Weise vorhersagt oder erklärt, wie die Freisetzung von Neurotransmittern mit neuronalen Spikes zusammenhängt (z. B. die Tatsache, dass Transmitter im Durchschnitt etwa einmal pro 10 Spikes freigesetzt werden), und einer Theorie, die die Zahlen, die auf den entsprechenden Versuchsgeräten in einem oder wenigen Einzelfällen angezeigt werden, erklärt oder vorhersagt. Für die meisten Zwecke wäre die erste Theorie der zweiten vorzuziehen, zumindest weil sie auf so viel mehr Fälle zutrifft. Ähnliches gilt für Theorien, die etwas über die Wahrscheinlichkeit einer Alkoholkrankheit in Abhängigkeit von einem genetischen Faktor vorhersagen oder erklären, oder für eine Theorie, die die Wahrscheinlichkeit von Fehldiagnosen einer Alkoholkrankheit in Abhängigkeit von Fakten über die Ausbildung von Psychiatern vorhersagt oder erklärt. Für die meisten Zwecke wären diese Theorien einer Theorie vorzuziehen, die spezifische Beschreibungen in einer einzelnen Fallgeschichte vorhersagt.
Es gibt jedoch Umstände, unter denen Wissenschaftler Daten erklären wollen. In der empirischen Forschung ist es oft entscheidend für die Gewinnung eines nützlichen Signals, dass sich die Wissenschaftler mit Quellen von Hintergrundrauschen und Störsignalen befassen. Dies ist Teil des langen Weges, der von neu erhobenen Daten zu brauchbaren empirischen Ergebnissen führt. Ein wichtiger Schritt auf dem Weg zur Beseitigung von unerwünschtem Rauschen oder Störsignalen besteht darin, deren Quellen zu ermitteln. Verschiedene Rauschquellen können unterschiedliche Eigenschaften haben, die sich aus der Theorie ableiten und erklären lassen. Betrachten wir den Unterschied zwischen „Schrotrauschen“ und „thermischem Rauschen“, zwei allgegenwärtigen Rauschquellen in der Präzisionselektronik (Schottky 1918; Nyquist 1928; Horowitz und Hill 2015). „Schrotrauschen“ entsteht aufgrund der diskreten Natur eines Signals. Beispielsweise trifft das von einem Detektor gesammelte Licht nicht auf einmal oder in vollkommen kontinuierlicher Weise ein. Da es sich um Quanten handelt, treffen die Photonen Schuss für Schuss auf den Detektor. Stellen Sie sich vor, Sie bauen ein Bild auf, ein Photon nach dem anderen – anfangs ist die Struktur des Bildes kaum erkennbar, aber nach dem Eintreffen vieler Photonen füllt sich das Bild schließlich aus. Der Beitrag dieses Rauschens geht mit der Quadratwurzel des Signals einher. Thermisches Rauschen hingegen ist auf eine von Null abweichende Temperatur zurückzuführen – thermische Schwankungen führen dazu, dass in jedem Schaltkreis ein kleiner Strom fließt. Wenn Sie Ihr Instrument kühlen (was bei sehr vielen Präzisionsexperimenten in der Physik der Fall ist), können Sie das thermische Rauschen verringern. Die Kühlung des Detektors ändert jedoch nichts an der Quantennatur der Photonen. Wenn man einfach mehr Photonen sammelt, verbessert sich das Signal-Rausch-Verhältnis in Bezug auf das Schrotrauschen. Die Bestimmung der Art des Rauschens, das die Daten beeinflusst, d. h. die Erklärung von Merkmalen der Daten selbst, die von den jeweiligen Instrumenten und den Bedingungen während einer bestimmten Datenerfassung abhängen, kann daher entscheidend sein, um einen Datensatz zu erstellen, der zur Beantwortung von Fragen zu interessanten Phänomenen verwendet werden kann. Bei der Verwendung von Daten, die eine statistische Analyse erfordern, ist es besonders klar, dass „empirische Annahmen über die Faktoren, die die Messergebnisse beeinflussen, verwendet werden können, um die Annahme einer bestimmten Fehlerverteilung zu begründen“, die für die Rechtfertigung der Anwendung von Analysemethoden entscheidend sein kann (Woodward 2011, 173).
Es gibt auch Fälle, in denen Wissenschaftler eine substanzielle, detaillierte Erklärung für ein bestimmtes idiosynkratisches Datum liefern wollen, und sogar Fälle, in denen die Beschaffung solcher Erklärungen erkenntnistheoretisch zwingend erforderlich ist. Das Ignorieren von Ausreißern ohne gute erkenntnistheoretische Gründe ist einfach nur Rosinenpickerei bei den Daten, eine der kanonischen „fragwürdigen Forschungspraktiken“. Allan Franklin hat Robert Millikans bequemen Ausschluss von Daten beschrieben, die er bei der Beobachtung des zweiten Öltropfens in seinen Experimenten vom 16. April 1912 gesammelt hatte (1986, 231). Als Millikan zunächst die Daten für diesen Tropfen aufzeichnete, war er laut seinen Aufzeichnungen davon überzeugt, dass seine Apparatur ordnungsgemäß funktionierte und das Experiment gut lief – er schrieb „Veröffentlichen“ neben die Daten in seinem Labornotizbuch. Nachdem er jedoch später den Wert für die fundamentale elektrische Ladung berechnet hatte, den diese Daten ergaben, und feststellte, dass er von den Werten abwich, die er anhand von Daten aus anderen guten Beobachtungssitzungen berechnet hatte, änderte er seine Meinung und schrieb „Won’t work“ neben die Berechnung (ebd., siehe auch Woodward 2010, 794). Millikan hat dieses Ergebnis nicht nur nie veröffentlicht, er hat auch nie bekannt gegeben, warum er es nicht veröffentlicht hat. Wenn Daten von der Analyse ausgeschlossen werden, sollte es eine Erklärung geben, die ihre Auslassung über die mangelnde Übereinstimmung mit den Erwartungen der Experimentatoren hinaus rechtfertigt. Gerade weil es sich um Ausreißer handelt, erfordern einige Daten spezifische, detaillierte, idiosynkratische kausale Erklärungen. Tatsächlich können Ausreißer oft gerade aufgrund dieser Erklärungen verantwortungsbewusst zurückgewiesen werden. Für Daten, die als „falsch“ zurückgewiesen werden, ist eine Erklärung erforderlich. Andernfalls riskieren die Wissenschaftler, ihre eigene Arbeit zu verfälschen.
Während Wissenschaftler also bei der Umwandlung der gesammelten Daten in etwas Nützliches für das Lernen über Phänomene oft Merkmale der Daten wie verschiedene Arten von Rauschbeiträgen berücksichtigen und manchmal sogar den einen oder anderen abweichenden Datenpunkt oder Artefakt erklären, erklären sie einfach nicht jeden einzelnen klitzekleinen kausalen Beitrag zur genauen Beschaffenheit eines Datensatzes oder eines Datums in allen Einzelheiten. Der Grund dafür ist, dass Wissenschaftler solche kausalen Kleinigkeiten weder entdecken können noch dass ihre Heranziehung für typische Forschungsfragen notwendig wäre. Die Tatsache, dass es für Wissenschaftler manchmal wichtig sein kann, detaillierte Erklärungen für Daten zu liefern und nicht nur Behauptungen über Phänomene, die aus Daten abgeleitet werden, sollte nicht mit der zweifelhaften Behauptung verwechselt werden, dass Wissenschaftler „im Prinzip“ jede kausale Eigenart, die zu bestimmten Daten beigetragen hat, detailliert beschreiben könnten (Woodward 2010; 2011).
In Anbetracht all dessen und der Tatsache, dass viele theoretische Behauptungen nur direkt anhand von Fakten über Phänomene getestet werden können, sollten Erkenntnistheoretiker darüber nachdenken, wie Daten zur Beantwortung von Fragen über Phänomene verwendet werden. Da der Platz für eine ausführliche Diskussion fehlt, können in diesem Beitrag höchstens zwei Hauptarten von Maßnahmen erwähnt werden, die Forscher ergreifen, um Schlussfolgerungen aus Daten zu ziehen. Die erste ist die Kausalanalyse, die mit oder ohne Einsatz statistischer Verfahren durchgeführt wird. Die zweite ist die nicht-kausale statistische Analyse.
Erstens müssen die Forscher zwischen Merkmalen der Daten, die auf Fakten über das interessierende Phänomen hindeuten, und solchen, die getrost ignoriert werden können, sowie solchen, die korrigiert werden müssen, unterscheiden. Manchmal macht das Hintergrundwissen dies leicht. Unter normalen Umständen wissen die Forscher, dass ihre Thermometer auf die Temperatur und ihre Druckmesser auf den Druck reagieren. Ein Astronom oder ein Chemiker, der weiß, was eine spektrografische Ausrüstung bewirkt und worauf sie angewendet wird, wird wissen, was ihre Daten anzeigen. Manchmal ist es weniger offensichtlich. Als Santiago Ramón y Cajal durch sein Mikroskop einen dünnen Schnitt gefärbten Nervengewebes betrachtete, musste er herausfinden, welche der Fasern, die er bei einer Brennweite sehen konnte, mit Dingen verbunden waren oder sich von Dingen ausdehnten, die er nur bei einer anderen Brennweite oder in einem anderen Schnitt sehen konnte. Entsprechende Überlegungen gelten für quantitative Daten. Für Katz war es leicht zu erkennen, wenn seine Geräte mehr auf Hills Schritte auf der Treppe reagierten als auf die elektrischen Größen, die sie messen sollten. Es kann schwieriger sein zu erkennen, ob ein plötzlicher Sprung in der Amplitude einer hochfrequenten EEG-Oszillation auf ein Merkmal der Gehirnaktivität der Versuchspersonen oder auf ein Artefakt fremder elektrischer Aktivitäten im Labor oder im Operationssaal, in dem die Messungen durchgeführt wurden, zurückzuführen ist. Die Antworten auf die Frage, welche Merkmale numerischer und nicht numerischer Daten auf ein bestimmtes Phänomen hindeuten, hängen in der Regel zumindest teilweise davon ab, was über die Ursachen bekannt ist, die zur Entstehung der Daten geführt haben.
Statistische Argumente werden häufig verwendet, um Fragen nach dem Einfluss von erkenntnistheoretisch relevanten Kausalfaktoren zu klären. Wenn beispielsweise bekannt ist, dass ähnliche Daten durch Faktoren erzeugt werden können, die nichts mit dem interessierenden Phänomen zu tun haben, bieten Monte-Carlo-Simulationen, Regressionsanalysen von Stichprobendaten und eine Vielzahl anderer statistischer Verfahren den Forschern manchmal die beste Möglichkeit zu entscheiden, wie ernst sie ein vermeintlich aufschlussreiches Merkmal ihrer Daten nehmen sollen.
Statistische Verfahren werden aber auch für andere Zwecke als die Kausalanalyse benötigt. Um den Wert einer Größe wie des Schmelzpunkts von Blei aus einer Streuung numerischer Daten zu berechnen, werden Ausreißer herausgenommen, der Mittelwert und die Standardabweichung berechnet usw. und Konfidenz- und Signifikanzniveaus festgelegt. Auf die Ergebnisse werden Regressions- und andere Techniken angewandt, um abzuschätzen, wie weit die interessierende Größe in der interessierenden Population voraussichtlich vom Mittelwert abweicht (z. B. der Temperaturbereich, in dem reine Bleiproben voraussichtlich schmelzen werden).
Die Tatsache, dass man ohne kausale, statistische und verwandte Argumentation wenig aus Daten lernen kann, hat interessante Konsequenzen für die gängigen Vorstellungen darüber, wie die Verwendung von Beobachtungsdaten die Wissenschaft von Pseudowissenschaft, Religion und anderen nicht-wissenschaftlichen kognitiven Bemühungen unterscheidet. Erstens sind Wissenschaftler nicht die einzigen, die Beobachtungsbeweise verwenden, um ihre Behauptungen zu untermauern; auch Astrologen und medizinische Quacksalber verwenden sie. Um erkenntnistheoretisch bedeutsame Unterschiede zu finden, muss man sorgfältig prüfen, welche Art von Daten sie verwenden, woher sie stammen und wie sie eingesetzt werden. Die Vorzüge wissenschaftlicher im Gegensatz zu nicht-wissenschaftlichen Theorien hängen nicht nur davon ab, dass sie sich auf empirische Daten stützen, sondern auch davon, wie die Daten erzeugt, analysiert und interpretiert werden, um Schlussfolgerungen zu ziehen, anhand derer die Theorien bewertet werden können. Zweitens braucht es nicht viele Beispiele, um die Vorstellung zu widerlegen, dass das Festhalten an einer einzigen, universell anwendbaren „wissenschaftlichen Methode“ die Wissenschaften von den Nicht-Wissenschaften unterscheidet. Daten werden auf viel zu viele verschiedene Arten erzeugt und verwendet, als dass man sie als Beispiele für eine einzige Methode betrachten könnte. Drittens ist es für Forscher in der Regel, wenn nicht sogar immer, unmöglich, Schlussfolgerungen zu ziehen, um Theorien anhand von Beobachtungsdaten zu testen, ohne explizit oder implizit auf theoretische Ressourcen zurückzugreifen.
Bokulich (2020) hat in hilfreicher Weise eine Taxonomie der verschiedenen Möglichkeiten skizziert, wie Daten mit Modellen angereichert werden können, um ihren Erkenntnisnutzen zu erhöhen. Sie konzentriert sich auf sieben Kategorien: Datenkonvertierung, Datenkorrektur, Dateninterpolation, Datenskalierung, Datenfusion, Datenassimilation und synthetische Daten. Von diesen Kategorien sind Konvertierung und Korrektur vielleicht die bekanntesten. Bokulich erinnert uns daran, dass wir selbst beim Ablesen einer Temperatur von einem gewöhnlichen Quecksilberthermometer die gemessenen Daten, in diesem Fall die Höhe der Quecksilbersäule, in eine Temperatur „umwandeln“ (ebd., 795). In komplizierteren Fällen, wie z.B. bei der Verarbeitung der Ankunftszeiten akustischer Signale in seismischen Reflexionsmessungen, um Werte für die Tiefe des Untergrunds zu erhalten, kann die Datenumwandlung Modelle beinhalten (ebd.). In diesem Beispiel werden Modelle der Zusammensetzung und Geometrie des Untergrunds benötigt, um die Unterschiede in der Schallgeschwindigkeit verschiedener Materialien zu berücksichtigen. Die „Datenkorrektur“ umfasst gängige Praktiken, die wir bereits erörtert haben, wie die Modellierung und die mathematische Subtraktion von Hintergrundgeräuschbeiträgen aus dem Datensatz (ebd., 796). Bokulich weist zu Recht darauf hin, dass die Einbeziehung von Modellen auf diese Weise routinemäßig die epistemische Nutzung von Daten verbessert. Dateninterpolation, Skalierung und „Fusion“ sind ebenfalls relativ weit verbreitete Praktiken, die eine weitere philosophische Analyse verdienen. Bei der Interpolation werden fehlende Daten in einem lückenhaften Datensatz mit Hilfe von Modellen ergänzt. Daten werden skaliert, wenn sie in einem bestimmten Maßstab (zeitlich, räumlich, energetisch) erzeugt wurden und Modellierungsannahmen getroffen werden, um sie auf einen anderen Maßstab zu übertragen. Daten werden in Bokulichs Terminologie „fusioniert“, wenn Daten, die in unterschiedlichen Zusammenhängen und mit unterschiedlichen Methoden erhoben wurden, kombiniert oder integriert werden. Zum Beispiel, wenn Daten aus Eisbohrkernen, Baumringen und den historischen Logbüchern von Schiffskapitänen zu einem gemeinsamen Klimadatensatz zusammengeführt werden. Die Wissenschaftler müssen bei der Kombination von Daten unterschiedlicher Herkunft sorgfältig vorgehen und neue Unsicherheiten modellieren, die sich aus der Zusammenführung von Datensätzen ergeben (ebd., 800).
Bokulich stellt „synthetische Daten“ dem gegenüber, was sie „reale Daten“ nennt (ibid., 801-802). Synthetische Daten sind virtuelle oder simulierte Daten, die nicht durch physische Interaktion mit weltlichen Forschungszielen erzeugt werden. Bokulich betont die Rolle, die simulierte Daten beim Testen und bei der Fehlersuche in Bezug auf Aspekte der Datenverarbeitung spielen können, die schließlich auf empirische Daten angewandt werden sollen (ebd., 802). Für die Entwicklung und Belastungsprüfung einer Datenverarbeitungspipeline kann es unglaublich nützlich sein, über Fake-Datensätze zu verfügen, deren Merkmale bereits bekannt sind, da sie von den Forschern erzeugt wurden und ihnen zur beliebigen Überprüfung zur Verfügung stehen. Wenn die Merkmale eines Datensatzes bekannt sind oder je nach Bedarf angepasst werden können, lassen sich die Auswirkungen neuer Verarbeitungsmethoden leichter nachvollziehen als ohne. Auf diese Weise können sich Forscher mit den Auswirkungen einer Datenverarbeitungspipeline vertraut machen und Anpassungen an dieser Pipeline im Lichte dessen vornehmen, was sie lernen, indem sie gefälschte Daten hindurchleiten, bevor sie versuchen, diese Pipeline auf tatsächliche wissenschaftliche Daten anzuwenden. Solche Untersuchungen können entscheidend sein, wenn es darum geht, die Glaubwürdigkeit der endgültigen empirischen Ergebnisse und ihre angemessene Interpretation und Verwendung zu begründen.
Die Datenassimilation ist vielleicht ein Aspekt der modellbasierten Datenverarbeitung, der unter Wissenschaftsphilosophen weniger geschätzt wird, mit Ausnahme von Parker (2016; 2017). Bokulich charakterisiert diese Methode als „die optimale Integration von Daten mit dynamischen Modellschätzungen, um eine genauere ‚Assimilationsschätzung‘ der Menge zu erhalten“ (2020, 800). Bei der Datenassimilation geht es also darum, die Beiträge empirischer Daten und die Ergebnisse von Modellen in einer integrierten Schätzung unter Berücksichtigung der mit diesen Beiträgen verbundenen Unsicherheiten auszugleichen.
Bokulich argumentiert, dass die Einbeziehung von Modellen in diese verschiedenen Aspekte der Datenverarbeitung nicht notwendigerweise zu besseren erkenntnistheoretischen Resultaten führt. Wenn man es falsch macht, kann die Integration von Modellen und Daten zu Artefakten führen und die verarbeiteten Daten für den jeweiligen Zweck unzuverlässig machen (ebd., 804). In der Tat stellt sie fest, dass „es für methodologisch reflektierende Wissenschaftler und Wissenschaftsphilosophen viel Arbeit gibt, um die Fälle herauszufinden, in denen die Symbiose von Modellen und Daten problematisch oder zirkulär sein kann“ (ebd.).
3. Theorie und Wertebeladenheit
Empirische Ergebnisse sind mit Werten und theoretischen Verpflichtungen verbunden. Philosophen haben verschiedene Arten von erkenntnistheoretischen Problemen aufgeworfen und bewertet, die mit Theorien und/oder wertgeladenen empirischen Ergebnissen verbunden sein könnten. Sie haben sich Sorgen darüber gemacht, inwieweit die menschliche Wahrnehmung selbst durch unsere Verpflichtungen verzerrt wird. Sie waren besorgt darüber, dass der Rückgriff auf theoretische Ressourcen der zu bewertenden Theorie (oder ihrer Konkurrenten) bei der Generierung empirischer Ergebnisse zu einem Teufelskreislauf (oder einer Inkonsistenz) führt. Sie waren auch besorgt darüber, dass kontingente begriffliche und/oder sprachliche Rahmenbedingungen Beweisstücke wie Bienen in Bernstein einschließen, so dass sie ihr epistemisches Leben nicht außerhalb des Kontexts ihrer Entstehung fortsetzen können, und dass normative Werte notwendigerweise die Integrität der Wissenschaft untergraben. Machen die Theorie- und Wertgebundenheit empirischer Ergebnisse diese hoffnungslos engstirnig? Das heißt, wenn Wissenschaftler theoretische Verpflichtungen hinter sich lassen und neue annehmen, müssen sie dann auch die Früchte der empirischen Forschung aufgeben, die von ihren früheren Verpflichtungen geprägt sind? In diesem Abschnitt erörtern wir diese Bedenken und die Antworten, die Philosophen zu ihrer Beseitigung gegeben haben.
3.1 Wahrnehmung
Wenn Sie glauben, dass die Beobachtung durch die menschliche Sinneswahrnehmung die objektive Grundlage aller wissenschaftlichen Erkenntnisse ist, dann sollten Sie besonders besorgt sein über die Möglichkeit, dass die menschliche Wahrnehmung durch theoretische Annahmen, Wunschdenken, Framing-Effekte usw. verfälscht wird. Daston und Galison berichten über das eindrucksvolle Beispiel der symmetrischen Milchtropfen von Arthur Worthington (2007, 11-16). Im Jahr 1875 untersuchte Worthington die Hydrodynamik fallender Flüssigkeitstropfen und ihre Entwicklung beim Aufprall auf eine harte Oberfläche. Zunächst hatte er versucht, die Tropfendynamik mit einem Stroboskoplicht sorgfältig zu verfolgen, um eine Folge von Bildern in seine eigene Netzhaut einzubrennen. Die Bilder, die er zeichnete, um das Gesehene festzuhalten, waren radial symmetrisch, wobei die Strahlen der Tropfenspritzer gleichmäßig vom Zentrum des Aufpralls ausgingen. Als Worthington jedoch 1894 von seinen Augen und seiner Fähigkeit, aus dem Gedächtnis zu zeichnen, zur Fotografie überging, stellte er schockiert fest, dass die Art von Spritzern, die er beobachtet hatte, unregelmäßige Spritzer waren (ebd., 13). Noch merkwürdiger war, dass Worthington, als er zu seinen Zeichnungen zurückkehrte, feststellte, dass er tatsächlich einige unsymmetrische Spritzer aufgezeichnet hatte. Offensichtlich hatte er sie als uninformative Zufälle abgetan, anstatt sie als aufschlussreich für das Phänomen zu betrachten, das er zu untersuchen beabsichtigte (ebd.). Wenn theoretische Verpflichtungen, wie Worthingtons anfängliches Bekenntnis zur perfekten Symmetrie der von ihm untersuchten Physik, die Ergebnisse der empirischen Untersuchung durchdringten und unverbesserlich diktierten, würden die epistemischen Ziele der Wissenschaft ernsthaft untergraben.
Die Wahrnehmungspsychologen Bruner und Postman fanden heraus, dass Versuchspersonen, denen kurzzeitig anomale Spielkarten gezeigt wurden, z. B. eine schwarze Herzvier, angaben, ihre normalen Gegenstücke gesehen zu haben, z. B. eine rote Herzvier. Es bedurfte wiederholter Expositionen, um die Versuchspersonen dazu zu bringen, zu sagen, dass die anomalen Karten nicht richtig aussahen, und sie schließlich richtig zu beschreiben (Kuhn 1962, 63). Kuhn nahm solche Studien als Hinweis darauf, dass die Dinge für Beobachter mit unterschiedlichen konzeptionellen Ressourcen nicht gleich aussehen (für eine aktuellere Diskussion der Theorie und der konzeptuellen Wahrnehmungsbelastung siehe Lupyan 2015). In diesem Fall sahen schwarze Herzen nicht wie schwarze Herzen aus, bis die Versuchspersonen durch wiederholte Exposition das Konzept eines schwarzen Herzens erlernten. In Analogie dazu nahm Kuhn an, dass, wenn Beobachter, die in widersprüchlichen Paradigmen arbeiten, dieselbe Sache betrachten, ihre begrifflichen Beschränkungen sie daran hindern sollten, dieselben visuellen Erfahrungen zu machen (Kuhn 1962, 111, 113-114, 115, 120-1). Das würde zum Beispiel bedeuten, dass, wenn Priestley und Lavoisier dasselbe Experiment beobachteten, Lavoisier das sehen sollte, was mit seiner Theorie übereinstimmt – dass Verbrennung und Atmung Oxidationsprozesse sind – während Priestleys visuelle Erfahrungen mit seiner Theorie übereinstimmen sollten, dass Verbrennung und Atmung Prozesse der Freisetzung von Phlogiston sind.
Das Beispiel des Szintillationsbildschirms von Pettersson und Rutherford (siehe oben) zeigt, dass Beobachter, die in verschiedenen Labors arbeiten, manchmal berichten, unter ähnlichen Bedingungen unterschiedliche Dinge zu sehen. Es ist plausibel, dass ihre Erwartungen ihre Berichte beeinflussen und ihre Erwartungen durch ihre Ausbildung und durch das theoriegeleitete Verhalten ihrer Vorgesetzten und Mitarbeiter geprägt sind. Aber wie in anderen Fällen auch, haben sich alle Streitparteien darauf geeinigt, Petterssons Daten zurückzuweisen, indem sie sich auf Ergebnisse beriefen, die beide Labors auf die gleiche Weise erhalten und interpretieren konnten, ohne ihre theoretischen Verpflichtungen zu verletzen. In der Tat ist es für Wissenschaftler möglich, empirische Ergebnisse zu teilen, nicht nur über verschiedene Laborkulturen hinweg, sondern sogar über ernsthafte Unterschiede in der Weltanschauung. Priestley und Lavoisier, die sich über die Natur der Atmung und der Verbrennung nicht einig waren, gaben quantitativ ähnliche Berichte darüber ab, wie lange ihre Mäuse am Leben blieben und ihre Kerzen in geschlossenen Gläsern brannten. Priestley lehrte Lavoisier, wie man den Phlogistongehalt eines unbekannten Gases messen konnte. Eine Probe des zu untersuchenden Gases wird in ein mit Wasser gefülltes Messrohr geleitet und über einem Wasserbad umgedreht. Nachdem der Beobachter die Höhe des im Röhrchen verbliebenen Wassers festgestellt hat, fügt er „salpetrige Luft“ (wir nennen es Stickstoffoxid) hinzu und prüft erneut den Wasserstand. Priestley, der davon ausging, dass es so etwas wie Sauerstoff nicht gibt, glaubte, dass die Veränderung des Wasserstands anzeigt, wie viel Phlogiston das Gas enthält. Lavoisier berichtete, dass er die gleichen Wasserstände wie Priestley beobachtete, selbst nachdem er die Phlogistontheorie aufgegeben hatte und davon überzeugt war, dass die Veränderungen des Wasserstands den Gehalt an freiem Sauerstoff anzeigten (Conant 1957, 74-109).
Ein verwandtes Thema ist das der Bedeutung. Kuhn behauptete, dass Galilei und ein aristotelischer Physiker, wenn sie dasselbe Pendel-Experiment beobachtet hätten, nicht auf dieselben Dinge geachtet hätten. Das Paradigma des Aristotelikers hätte vom Experimentator verlangt, dass er
… das Gewicht des Steins [misst], die vertikale Höhe, auf die er gehoben wurde, und die Zeit, die er brauchte, um zur Ruhe zu kommen (Kuhn 1962, 123)
und Radius, Winkelverschiebung sowie Zeit pro Schwingung (ebd., 124) zu ignorieren. Letztere waren für Galilei von Bedeutung, weil er Pendelschwingungen als zwangsweise Kreisbewegungen betrachtete. Die galileischen Größen wären für einen Aristoteliker, der den Stein als unter Zwang zum Erdmittelpunkt fallend betrachtet, uninteressant (ebd., 123). Galilei und der Aristoteliker hätten also nicht die gleichen Daten gesammelt (in Ermangelung von Aufzeichnungen über aristotelische Pendelversuche können wir dies als Gedankenexperiment betrachten).
Interessen ändern sich jedoch. Es kann sein, dass Wissenschaftler die Bedeutung von Daten, die ihnen ursprünglich nicht wichtig waren, im Lichte neuer Voraussetzungen schätzen lernen. Die Moral von diesen Beispielen ist, dass Paradigmen oder theoretische Verpflichtungen zwar manchmal einen epistemisch bedeutsamen Einfluss darauf haben, was Beobachter wahrnehmen oder worauf sie achten, es aber relativ einfach sein kann, ihre Auswirkungen aufzuheben oder zu korrigieren. Wenn Vorannahmen einen epistemischen Schaden verursachen, sind die Forscher oft in der Lage, Korrekturen vorzunehmen. Paradigmen und theoretische Verpflichtungen haben also tatsächlich Einfluss auf die Auffälligkeit, aber ihr Einfluss ist weder unvermeidlich noch unabänderlich.
3.2 Annahme der zu prüfenden Theorie
Thomas Kuhn (1962), Norwood Hanson (1958), Paul Feyerabend (1959) und andere stellen die Objektivität von Beobachtungsdaten auf andere Weise in Frage, indem sie argumentieren, dass man empirische Daten nicht zur Prüfung einer Theorie heranziehen kann, ohne sich auf eben diese Theorie festzulegen. Dies wäre ein Problem, wenn es zu Dogmatismus führen würde, aber die Annahme der zu prüfenden Theorie ist oft gutartig und sogar notwendig.
Laymon (1988) zeigt zum Beispiel, wie die Theorie, die mit den Michelson-Morley-Experimenten getestet werden soll, in der Versuchsanordnung vorausgesetzt wird, ohne dass dies zu nachteiligen epistemischen Effekten führt (250). Die Michelson-Morley-Apparatur besteht aus zwei rechtwinklig zueinander stehenden Interferometerarmen, die im Laufe des Experiments gedreht werden, so dass nach der ursprünglichen Konstruktion die vom Licht in der Apparatur durchlaufene Weglänge je nach Ausrichtung mit oder gegen die Geschwindigkeit der Erde (die die Apparatur trägt) gegenüber dem stationären Äther variieren würde. Dieser Unterschied in der Weglänge würde sich als Verschiebung in den Interferenzstreifen des Lichts im Interferometer zeigen. Obwohl Michelsons Absicht darin bestand, die Geschwindigkeit der Erde gegenüber dem alles durchdringenden Äther zu messen, wurden die Experimente schließlich als Test der Fresnelschen Äthertheorie selbst angesehen. Insbesondere die Nullergebnisse dieser Experimente wurden als Beweis gegen die Existenz des Äthers gewertet. Naiverweise könnte man annehmen, dass unabhängig von den Annahmen, die bei der Berechnung der Ergebnisse dieser Experimente gemacht wurden, weder die fragliche Theorie angenommen wurde noch ihre Negation.
Vor Michelsons Experimenten sagte die Fresnelsche Äthertheorie keine Längenkontraktion voraus. Obwohl Michelson davon ausging, dass es in den Armen des Interferometers keine Kontraktion gibt, argumentiert Laymon, dass er eine Kontraktion hätte annehmen können, ohne dass dies praktische Auswirkungen auf die Ergebnisse der Experimente gehabt hätte. Die vorhergesagte Streifenverschiebung errechnet sich aus dem erwarteten Unterschied in der Entfernung, die das Licht in den beiden Armen zurücklegt, wenn Terme höherer Ordnung vernachlässigt werden. In der Praxis konnten die Experimentatoren also bei der Bestimmung der Länge der Arme entweder davon ausgehen, dass die Kontraktionsthese stimmt oder dass sie falsch ist. Das Ergebnis des Experiments wäre in jedem Fall dasselbe. Nachdem die Experimente von Michelson keinen Nachweis für die erwarteten Äthereffekte erbrachten, wurde die Lorentz-Fitzgerald-Kontraktion postuliert, um die erwarteten (aber nicht gefundenen) Effekte aufzuheben und die Äthertheorie zu retten. Morley und Miller machten sich dann eigens daran, die Kontraktionsthese zu testen, und nahmen bei der Bestimmung der Länge der Arme ihres Interferometers immer noch keine Kontraktion an (ebd., 253). So argumentiert Laymon, dass die Michelson-Morley-Experimente gegen die verlockende Annahme sprechen, dass „die Beurteilung einer Theorie auf Phänomenen beruht, die nachgewiesen und gemessen werden können, ohne Annahmen zu verwenden, die von der untersuchten Theorie oder von Konkurrenten dieser Theorie stammen“ (ebd., 246).
Das erkenntnistheoretische Händeringen über die Verwendung der zu prüfenden Theorie selbst bei der Erzeugung von Beweisen, die für die Prüfung verwendet werden sollen, scheint in erster Linie aus der Sorge vor einem bösartigen Zirkelschluss zu entspringen. Wie können wir eine echte Prüfung durchführen, wenn die fragliche Theorie von vornherein als unschuldig gilt? Es stimmt zwar, dass es ein ernstes erkenntnistheoretisches Problem gäbe, wenn die Verwendung der zu prüfenden Theorie garantieren würde, dass sich die Beweise als bestätigend erweisen würden, doch ist dies nicht immer der Fall, wenn Theorien bei ihrer eigenen Prüfung herangezogen werden. Woodward (2011) fasst einen eindeutigen Fall zusammen:
In Millikans Öltropfenexperiment beispielsweise zeigt die bloße Tatsache, dass theoretische Annahmen (z. B. dass die Ladung des Elektrons quantisiert ist und alle Elektronen die gleiche Ladung haben) eine Rolle bei der Motivation seiner Messungen oder ein Vokabular für die Beschreibung seiner Ergebnisse spielen, allein noch nicht, dass sein Design und seine Datenanalyse so beschaffen waren, dass sie garantieren, dass er Ergebnisse erhalten würde, die seine theoretischen Annahmen unterstützen. Sein Experiment war so angelegt, dass er durchaus Ergebnisse erhalten haben könnte, die zeigen, dass die Ladung des Elektrons nicht quantisiert ist oder dass es keinen einzigen stabilen Wert für diese Größe gibt. (178)
Um in einem bestimmten Fall festzustellen, ob die getroffenen theoretischen Annahmen unbedenklich sind oder die erzielbaren Ergebnisse einschränken, müssen die besonderen Beziehungen zwischen den Annahmen und den Ergebnissen in diesem Fall untersucht werden. Bei komplizierten Datenproduktions- und Analyseprozessen kann diese Aufgabe schwierig werden. Der Punkt ist jedoch, dass die bloße Feststellung, dass die zu prüfende Theorie an der Erzeugung empirischer Ergebnisse beteiligt ist, an sich nicht bedeutet, dass diese Ergebnisse nicht objektiv nützlich sein können, um zu entscheiden, ob die zu prüfende Theorie akzeptiert oder verworfen werden sollte.
3.3 Semantik
Kuhn argumentierte, dass theoretische Verpflichtungen einen starken Einfluss auf die Beschreibung von Beobachtungen und deren Bedeutung ausüben (Kuhn 1962, 127ff; Longino 1979, 38-42). Wenn dem so ist, werden die Befürworter eines kalorischen Wärmebegriffs die Beschreibungen der beobachteten Ergebnisse von Wärmeexperimenten nicht auf dieselbe Weise beschreiben oder verstehen wie Forscher, die Wärme als mittlere kinetische Energie oder Strahlung verstehen. Sie könnten alle dieselben Wörter (z.B. „Temperatur“) verwenden, um eine Beobachtung zu beschreiben, ohne sie auf dieselbe Weise zu verstehen. Dies stellt ein potenzielles Problem für die effektive Kommunikation zwischen verschiedenen Paradigmen dar, ebenso wie für die Zuweisung der angemessenen Bedeutung für empirische Ergebnisse, die außerhalb des eigenen sprachlichen Rahmens erzielt wurden.
Es ist wichtig zu bedenken, dass Beobachter nicht immer deklarative Sätze verwenden, um über Beobachtungs- und Versuchsergebnisse zu berichten. Stattdessen zeichnen sie oft, fotografieren, machen Tonaufnahmen usw. oder richten ihre Versuchsgeräte so ein, dass sie Diagramme, Bilder, Zahlentabellen und andere nicht-sentielle Aufzeichnungen erstellen. Offensichtlich können die konzeptionellen Ressourcen und theoretischen Vorlieben der Forscher einen epistemisch bedeutsamen Einfluss darauf ausüben, was sie aufzeichnen (oder ihre Geräte so einstellen, dass sie es aufzeichnen), welche Details sie einbeziehen oder betonen und welche Formen der Darstellung sie wählen (Daston und Galison 2007, 115-190, 309-361). Aber Meinungsverschiedenheiten über die epistemische Bedeutung eines Diagramms, eines Bildes oder eines anderen nicht-sententiellen Teils von Daten drehen sich oft eher um kausale als um semantische Überlegungen. Anatomen müssen unter Umständen entscheiden, ob ein dunkler Fleck in einem Mikroskopbild durch ein Färbungsartefakt oder durch das von einer anatomisch wichtigen Struktur reflektierte Licht verursacht wurde. Physiker fragen sich vielleicht, ob ein Ausschlag in der Aufzeichnung eines Geigerzählers den kausalen Einfluss der Strahlung widerspiegelt, die sie überwachen wollten, oder einen Anstieg der Umgebungsstrahlung. Chemiker sorgen sich vielleicht um die Reinheit der zur Datenerfassung verwendeten Proben. Solche Fragen sind keine semantischen Fragen, für die die Aufladung der semantischen Theorie relevant ist, und lassen sich auch nicht gut als solche darstellen. Philosophen des späten 20. Jahrhunderts haben solche Fälle möglicherweise ignoriert und den Einfluss der semantischen Theorieaufladung übertrieben, weil sie bei der Theorieprüfung an inferentielle Beziehungen zwischen Beobachtungen und theoretischen Sätzen dachten.
Dennoch werden einige empirische Ergebnisse in Form von deklarativen Sätzen berichtet. Wenn ein Arzt einen Patienten mit roten Flecken und Fieber betrachtet, könnte er berichten, dass er die Flecken, die Masernsymptome oder einen Patienten mit Masern gesehen hat. Beim Betrachten einer unbekannten Flüssigkeit, die in eine Lackmuslösung tropft, könnte ein Beobachter berichten, dass er eine Farbveränderung, eine Flüssigkeit mit einem PH-Wert von weniger als 7 oder eine Säure gesehen hat. Die Angemessenheit der Beschreibung eines Testergebnisses hängt davon ab, wie die relevanten Konzepte operationalisiert werden. Was einen Beobachter nach einer Operationalisierung dazu berechtigt, zu berichten, dass er einen Fall von Masern beobachtet hat, könnte nach einer anderen Operationalisierung erfordern, dass er nicht mehr sagt, als dass er Masernsymptome oder nur rote Flecken beobachtet hat.
Im Einklang mit Percy Bridgmans Ansicht, dass
… [wir] im Allgemeinen unter einem Begriff nichts anderes als eine Menge von Operationen [verstehen], der Begriff gleichbedeutend mit den entsprechenden Mengen von Operationen ist (Bridgman 1927, 5),
könnte man annehmen, dass Operationalisierungen Definitionen oder Bedeutungsregeln sind, die analytisch wahr sind, z. B. dass jede Flüssigkeit, die sich bei einem ordnungsgemäß durchgeführten Test rot färbt, sauer ist. Es entspricht jedoch eher der tatsächlichen wissenschaftlichen Praxis, Operationalisierungen als anfechtbare Regeln für die Anwendung eines Konzepts zu betrachten, so dass sowohl die Regeln als auch ihre Anwendungen auf der Grundlage neuer empirischer oder theoretischer Entwicklungen überarbeitet werden können. So verstanden bedeutet Operationalisierung die Übernahme von verbalen und verwandten Praktiken mit dem Ziel, Wissenschaftlern die Durchführung ihrer Arbeit zu ermöglichen. Operationalisierungen sind also empfindlich und unterliegen Veränderungen auf der Grundlage von Erkenntnissen, die ihre Nützlichkeit beeinflussen (Feest 2005).
Ob mit oder ohne Definition: Forscher in verschiedenen Forschungstraditionen können darauf trainiert werden, ihre Beobachtungen in Übereinstimmung mit widersprüchlichen Operationalisierungen zu berichten. Anstatt die Beobachter darauf zu trainieren, das, was sie in einer Blasenkammer sehen, als einen weißlichen Streifen oder eine Spur zu beschreiben, könnte man sie darauf trainieren, zu sagen, dass sie eine Teilchenspur oder sogar ein Teilchen sehen. Dies könnte das widerspiegeln, was Kuhn meinte, als er vorschlug, dass einige Beobachter berechtigt oder sogar verpflichtet sein könnten, sich selbst so zu beschreiben, als hätten sie Sauerstoff gesehen, der zwar durchsichtig und farblos ist, oder Atome, die jedoch unsichtbar sind (Kuhn 1962, 127ff). Dagegen könnte man einwenden, dass man das, was man sieht, nicht mit dem verwechseln sollte, was man zu sagen gelernt hat, wenn man es sieht, und dass daher die Rede davon, ein farbloses Gas oder ein unsichtbares Teilchen gesehen zu haben, nichts anderes als eine pittoreske Art ist, darüber zu sprechen, was bestimmte Operationalisierungen den Beobachter zu sagen berechtigen. Streng genommen, so der Einwand, sollte der Begriff „Beobachtungsbericht“ für Beschreibungen reserviert werden, die in Bezug auf widersprüchliche Operationalisierungen neutral sind.
Wenn Beobachtungsdaten nur solche Äußerungen sind, die Feyerabends Bedingungen der Entscheidbarkeit und Vereinbarkeit erfüllen, dann hängt die Bedeutung der semantischen Theorie davon ab, wie schnell und für welche Sätze halbwegs entwickelte Sprachbenutzer, die in verschiedenen Paradigmen stehen, nicht-inferentiell zu den gleichen Entscheidungen darüber kommen können, was zu behaupten oder zu verneinen ist. Einige würden eine ausreichende Übereinstimmung erwarten, um die Objektivität von Beobachtungsdaten zu gewährleisten. Andere würden dies nicht tun. Wieder andere würden versuchen, unterschiedliche Objektivitätsstandards aufzustellen.
Im Hinblick auf aussagenlogische Beobachtungsberichte ist die Bedeutung der semantischen Theorie weniger allgegenwärtig, als man erwarten könnte. Die Interpretation von verbalen Berichten hängt oft eher von Vorstellungen über die kausale Struktur als von der Bedeutung der Zeichen ab. Anstatt sich über die Bedeutung der zur Beschreibung ihrer Beobachtungen verwendeten Wörter Gedanken zu machen, fragen sich Wissenschaftler eher, ob die Beobachter Informationen erfunden oder zurückgehalten haben, ob ein oder mehrere Details Artefakte der Beobachtungsbedingungen waren, ob die Exemplare untypisch waren usw.
Man beachte, dass die Sorge um die semantische Theoriebildung über die Beobachtungsberichte hinausgeht, mit denen sich die logischen Empiriker und ihre engen intellektuellen Nachfahren beschäftigt haben. Die Kombination der Ergebnisse verschiedener Methoden zur Messung der Paläoklima-Temperaturen durch Proxys in einer erkenntnistheoretisch vertretbaren Weise erfordert eine sorgfältige Beachtung der verschiedenen Operationalisierungen, die im Spiel sind. Selbst wenn es sich nicht um „Beobachtungsberichte“ handelt, bleibt die heikle Frage, wie man die auf unterschiedliche Weise gewonnenen Ergebnisse sinnvoll zusammenführen kann, um die eigenen erkenntnistheoretischen Ziele zu erreichen. Glücklicherweise lässt sich die Sorge um die semantische Aufladung in diesem weiteren Sinne wahrscheinlich auf dieselbe Weise ausräumen: durch die Untersuchung der Herkunft dieser Ergebnisse und den Vergleich der Vielfalt der Faktoren, die zu ihrer kausalen Entstehung beigetragen haben.
Kuhn legte zu viel Wert auf die Diskontinuität zwischen Beweisen, die in verschiedenen Paradigmen erzeugt wurden. Selbst wenn wir ein weitgehend kuhnsches Bild akzeptieren, demzufolge Paradigmen heterogene Ansammlungen von experimentellen Praktiken, theoretischen Grundsätzen, zur Untersuchung ausgewählten Problemen, Ansätzen zu deren Lösung usw. sind, sind die Verbindungen zwischen den Komponenten locker genug, um es Forschern, die in Bezug auf eine oder mehrere theoretische Behauptungen zutiefst uneins sind, dennoch zu ermöglichen, sich darüber zu einigen, wie sie ihre Experimente planen, durchführen und deren Ergebnisse aufzeichnen. Aus diesem Grund konnten Neurowissenschaftler, die sich nicht einig waren, ob Nervenimpulse aus elektrischen Strömen bestehen, dieselben elektrischen Größen messen und sich über die sprachliche Bedeutung und die Genauigkeit von Beobachtungsberichten, einschließlich Begriffen wie „Potenzial“, „Widerstand“, „Spannung“ und „Strom“, einigen. Wie wir oben erörtert haben, spricht der Erfolg, den Wissenschaftler bei der Wiederverwendung von Ergebnissen haben, die von anderen für verschiedene Zwecke erzeugt wurden, gegen die Beschränkung von Beweisen auf ihr eigenes Paradigma. Selbst wenn Wissenschaftler, die mit radikal unterschiedlichen theoretischen Grundüberzeugungen arbeiten, nicht dieselben Messungen vornehmen können, kann es mit genügend Kontextinformationen darüber, wie jeder von ihnen Forschung betreibt, möglich sein, Brücken zu bauen, die die theoretischen Gräben überbrücken.
3.4 Werte
Man könnte befürchten, dass die Verflechtung von Theorie und Empirie der Voreingenommenheit in der Wissenschaft Tür und Tor öffnen würde. Die menschliche Erkenntnis, sowohl in der Geschichte als auch in der Gegenwart, ist voll von beunruhigenden Verpflichtungen, darunter Intoleranz und Engstirnigkeit vielerlei Art. Wenn solche Verpflichtungen integraler Bestandteil eines theoretischen Rahmens oder endemisch für die Argumentation eines Wissenschaftlers oder einer wissenschaftlichen Gemeinschaft sind, dann drohen sie den erkenntnistheoretischen Nutzen empirischer Ergebnisse zu korrumpieren, die mit ihren Mitteln erzielt wurden. Der Hauptimpuls des „wertfreien Ideals“ besteht darin, einen sicheren Abstand zwischen der Beurteilung wissenschaftlicher Theorien anhand der Beweise einerseits und dem Gewimmel moralischer, politischer, sozialer und wirtschaftlicher Werte andererseits zu wahren.
Befürworter des wertfreien Ideals mögen zwar zugeben, dass die Motivation, eine Theorie zu verfolgen, oder der rechtliche Schutz menschlicher Versuchspersonen bei zulässigen Versuchsmethoden nicht-epistemische Werte beinhalten; sie würden jedoch behaupten, dass solche Werte weder in die Konstitution empirischer Ergebnisse selbst noch in die Beurteilung oder Rechtfertigung wissenschaftlicher Theorien im Lichte der Evidenz einfließen sollten (siehe Intemann 2021, 202).
In der Tat fließen Werte auf verschiedenen Ebenen in die Wissenschaft ein. Oben haben wir gesehen, dass „Theorielosigkeit“ sich auf die Einbeziehung der Theorie in die Wahrnehmung, in die Semantik und in eine Art Zirkularität beziehen kann, die, wie manche befürchten, zu Unfalsifizierbarkeit und damit zu Dogmatismus führt. Wie die Theorielosigkeit können sich auch Werte auf die Beurteilung der Bedeutung bestimmter Beweise und die begriffliche Einordnung von Daten auswirken und tun dies manchmal auch. Bei einer freizügigen Auslegung des Wesens von Theorien können Werte sogar einfach als Teil eines theoretischen Rahmens verstanden werden. Intemann (2021) hebt ein eindrucksvolles Beispiel aus der medizinischen Forschung hervor, in der Begriffe wie „Schaden“, „Risiko“, „Gesundheitsnutzen“ und „Sicherheit“ zu den wichtigsten konzeptionellen Ressourcen gehören. Sie verweist auf Untersuchungen zur vergleichenden Sicherheit von Hausgeburten und Krankenhausgeburten für Eltern mit geringem Risiko in den Vereinigten Staaten. Studien, in denen festgestellt wird, dass Hausgeburten weniger sicher sind, befassen sich in der Regel mit der Sterblichkeitsrate von Säuglingen und gebärenden Eltern – die sowohl bei Hausgeburten als auch bei Geburten im Krankenhaus niedrig ist -, lassen aber die Raten für Kaiserschnitt und Dammschnitt außer Acht, die beide im Krankenhaus relativ hoch sind. Somit kann eine wertorientierte Entscheidung darüber, ob ein mögliches Ergebnis als erwägenswerter Schaden zählt, das Ergebnis der Studie beeinflussen – in diesem Fall kippt das Gleichgewicht zugunsten der Schlussfolgerung, dass Krankenhausgeburten sicherer seien (ebd., 206).
Man beachte, dass sich der Fall der Geburtssicherheit von der Art von Fällen unterscheidet, die in der philosophischen Debatte über Risiken und Schwellenwerte für die Annahme oder Ablehnung von Hypothesen zur Debatte stehen. Bei der Annahme einer Hypothese trifft eine Person die Entscheidung, dass das Risiko, sich zu irren, ausreichend gering ist (Rudner 1953). Wenn die Folgen eines Irrtums als schwerwiegend angesehen werden, kann die Schwelle für die Annahme entsprechend hoch sein. Bei der Beurteilung des erkenntnistheoretischen Status einer Hypothese im Lichte der Beweise muss eine Person also möglicherweise ein wertbasiertes Urteil fällen. Im Fall der Geburtensicherheit kommt dieses Urteil jedoch bereits in einem früheren Stadium ins Spiel, lange bevor die Entscheidung über die Annahme oder Ablehnung der Hypothese getroffen werden muss. Die Beurteilung erfolgt bereits bei der Entscheidung darüber, was als „Schaden“ gilt, der für die Zwecke dieser Untersuchung in Betracht gezogen werden sollte.
Die Tatsache, dass Werte manchmal in die wissenschaftliche Argumentation einfließen, klärt noch nicht die Frage, ob es nicht besser wäre, sie nicht zu berücksichtigen. Um den normativen Vorschlag zu bewerten, haben Wissenschaftsphilosophen versucht, die verschiedenen Arten, wie Werte in die Wissenschaft einfließen können, und die verschiedenen Bezüge, die unter dem Begriff „Werte“ zusammengefasst werden, zu unterscheiden. Anderson (2004) beschreibt acht Phasen wissenschaftlicher Forschung, in denen Werte (‚evaluative presuppositions‘) auf epistemisch fruchtbare Weise eingesetzt werden können. In Umschreibung: 1) Orientierung in einem Feld, 2) Formulierung einer Forschungsfrage, 3) Konzeptualisierung des Ziels, 4) Identifizierung relevanter Daten, 5) Datengenerierung, 6) Datenanalyse, 7) Entscheidung, wann die Datenanalyse beendet werden soll, und 8) Ziehen von Schlussfolgerungen (Anderson 2004, 11). Ähnlich legt Intemann (2021) fünf Wege dar, „wie Werte in der wissenschaftlichen Argumentation eine Rolle spielen“, mit denen sich feministische Wissenschaftsphilosophinnen besonders beschäftigt haben:
(1) die Formulierung von Forschungsproblemen, (2) die Beobachtung von Phänomenen und die Beschreibung von Daten, (3) das Nachdenken über werthaltige Konzepte und die Bewertung von Risiken, (4) die Annahme bestimmter Modelle und (5) das Sammeln und Interpretieren von Beweisen. (208)
Ward (2021) stellt eine gestraffte und allgemeine Taxonomie von vier Arten vor, in denen Werte mit Entscheidungen in Verbindung stehen: als Gründe, die Entscheidungen motivieren oder rechtfertigen, als kausale Faktoren von Entscheidungen oder als Güter, die von Entscheidungen betroffen sind. Indem sie die Rolle von Werten in diesen besonderen Phasen oder Aspekten der Forschung untersuchen, können Wissenschaftsphilosophen Erkenntnisse mit höherer Auflösung anbieten als nur die Feststellung, dass Werte in der Wissenschaft überhaupt eine Rolle spielen, und Überschneidungen auflösen.
In ähnlicher Weise können Feinheiten über die Art der Werte, die in diesen verschiedenen Kontexten eine Rolle spielen, herausgearbeitet werden. Eine solche Klärung ist wahrscheinlich wichtig, um zu bestimmen, ob der Beitrag bestimmter Werte in einem bestimmten Kontext schädlich oder heilsam ist, und in welchem Sinne. Douglas (2013) argumentiert, dass der „Wert“ der internen Konsistenz einer Theorie und der empirischen Angemessenheit einer Theorie in Bezug auf die verfügbaren Beweise minimale Kriterien für jede tragfähige wissenschaftliche Theorie sind (799-800). Sie kontrastiert diese mit der Art von Werten, die Kuhn als „Tugenden“ bezeichnete, d. h. Umfang, Einfachheit und Erklärungskraft, die Eigenschaften von Theorien selbst sind, und Vereinheitlichung, neuartige Vorhersage und Präzision, die Eigenschaften sind, die eine Theorie in Bezug auf eine Reihe von Beweisen hat (800-801). Dies sind die Art von Werten, die für die Erklärung und Rechtfertigung der Entscheidungen von Wissenschaftlern, bestimmte Theorien zu verfolgen/aufzugeben oder zu akzeptieren/ablehnen, relevant sein können. Darüber hinaus argumentiert Douglas (2000), dass das, was sie als „nicht-epistemische Werte“ bezeichnet (insbesondere ethische Werturteile), auch in Entscheidungen in verschiedenen Phasen „innerhalb“ der wissenschaftlichen Argumentation einfließt, z. B. bei der Datenerfassung und -interpretation (565). Nehmen wir eine toxikologische Laborstudie, bei der mit Dioxinen belastete Tiere mit nicht belasteten Kontrolltieren verglichen werden. Douglas spricht von Forschern, die den Schwellenwert für eine sichere Exposition bestimmen wollen. Es ist zu erwarten, dass falsch-positive Ergebnisse zu einer Überregulierung der chemischen Industrie führen, während falsch-negative Ergebnisse zu einer Unterregulierung führen und somit ein größeres Risiko für die öffentliche Gesundheit darstellen. Bei der Entscheidung darüber, wo der Schwellenwert für eine unsichere Exposition anzusetzen ist, d. h. der Schwellenwert für einen statistisch signifikanten Unterschied zwischen Versuchs- und Kontrolltierpopulationen, muss die Akzeptanz dieser beiden Fehlertypen abgewogen werden. Douglas zufolge hängt diese Abwägung davon ab, „ob es uns mehr darum geht, die öffentliche Gesundheit vor der Dioxinbelastung zu schützen, oder ob es uns mehr darum geht, die Industrie, die Dioxine produziert, vor einer verstärkten Regulierung zu schützen“ (ebd., 568). Dass Wissenschaftler in der Tat manchmal solche Entscheidungen treffen, ist klar. Sie beurteilen zum Beispiel, ob ein Objektträger einer Rattenleber tumorös ist oder nicht, und ob Grenzfälle als gut- oder bösartig gelten sollen (ebd., 569-572). Außerdem ist nicht klar, ob in solchen Fällen die Verantwortung für solche Entscheidungen auf Nicht-Wissenschaftler abgewälzt werden kann.
Viele Philosophen akzeptieren, dass Werte zur Erzeugung empirischer Ergebnisse beitragen können, ohne deren epistemischen Nutzen zu beeinträchtigen. Andersons (2004) Diagnose lautet wie folgt:
Was die Kritiker daran stört, dass Werturteile die wissenschaftliche Untersuchung leiten, ist nicht, dass sie einen wertenden Inhalt haben, sondern dass diese Urteile dogmatisch sein könnten, so dass die Anerkennung von Beweisen, die sie untergraben könnten, ausgeschlossen wird. Wir müssen sicherstellen, dass Werturteile nicht dazu führen, dass die Forschung zu einer bestimmten Schlussfolgerung kommt. Dies ist unser grundlegendes Kriterium zur Unterscheidung zwischen legitimer und illegitimer Verwendung von Werten in der Wissenschaft. (11)
Die Datenproduktion (einschließlich Versuchsplanung und -durchführung) wird stark von den Hintergrundannahmen der Forscher beeinflusst. Manchmal gehören dazu theoretische Verpflichtungen, die dazu führen, dass Experimentatoren nicht aussagekräftige oder irreführende Beweise liefern. In anderen Fällen können sie dazu führen, dass Experimentatoren nützliche Erkenntnisse ignorieren oder gar nicht erst gewinnen. Um beispielsweise Daten über Orgasmen bei weiblichen Stummelschwanzmakaken zu erhalten, verkabelte ein Forscher die Weibchen so, dass sie Radioaufzeichnungen von orgasmischen Muskelkontraktionen, erhöhter Herzfrequenz usw. machten. Aber wie Elisabeth Lloyd berichtet, „… hat der Forscher … die Herzfrequenz der männlichen Makaken als Signal für die Aufzeichnung der weiblichen Orgasmen verkabelt. Als ich ihn darauf hinwies, dass die überwiegende Mehrheit der weiblichen Stummelschwanzorgasmen während des Geschlechtsverkehrs unter den Weibchen allein auftrat, antwortete er, dass er das zwar wisse, aber nur an den wichtigen Orgasmen interessiert sei“ (Lloyd 1993, 142). Obwohl Orgasmen von Stummelschwanzweibchen beim Sex mit Männchen untypisch sind, wurde der Versuchsplan von der Annahme geleitet, dass die Merkmale der weiblichen Sexualität vor allem wegen ihres Beitrags zur Reproduktion untersucht werden sollten (ebd., 139). Diese Annahme beeinflusste die Versuchsplanung in einer Weise, die es unmöglich machte, die gesamte Bandbreite der weiblichen Stummelschwanzorgasmen kennenzulernen.
Anderson (2004) legt eine einflussreiche Analyse der Rolle von Werten in der Forschung über Scheidungen vor. Forscher, die sich einem Interpretationsrahmen verschrieben haben, der in „traditionellen Familienwerten“ verwurzelt ist, könnten bei ihren Forschungen von der Annahme ausgehen, dass eine Scheidung meist schlecht für die Ehepartner und die gemeinsamen Kinder ist (ebd., 12). Diese Hintergrundannahme, die in einer normativen Bewertung eines bestimmten Modells eines guten Familienlebens wurzelt, könnte sozialwissenschaftliche Forscher dazu veranlassen, die Fragen, mit denen sie ihre Versuchspersonen befragen, auf solche zu den negativen Auswirkungen der Scheidung auf ihr Leben zu beschränken und so die Möglichkeit zu beschneiden, Wege zu entdecken, wie die Scheidung das Leben der Ex-Ehepartner tatsächlich verbessert haben könnte (ebd., 13). Dies ist ein Beispiel für den Einfluss, den Werte auf die Art der Ergebnisse haben können, die die Forschung letztendlich hervorbringt, was epistemisch nachteilig ist. In diesem Fall haben die Werte die Forschungsergebnisse so beeinflusst, dass gegenteilige Erkenntnisse nicht anerkannt werden konnten. Anderson argumentiert, dass der problematische Einfluss von Werten dann auftritt, wenn die Forschung „im Voraus manipuliert“ wird, um bestimmte Hypothesen zu bestätigen – wenn der Einfluss von Werten einem unverbesserlichen Dogmatismus gleichkommt (ebd., 19). „Dogmatismus“ in ihrem Sinne ist die Unfalsifizierbarkeit in der Praxis, ‚ihre Hartnäckigkeit angesichts aller denkbaren Beweise‘ (ebd., 22).
Glücklicherweise ist ein solcher Dogmatismus nicht allgegenwärtig, und wenn er auftritt, kann er oft irgendwann korrigiert werden. Oben haben wir festgestellt, dass die bloße Einbeziehung der zu prüfenden Theorie in die Generierung eines empirischen Ergebnisses nicht automatisch zu einem bösartigen Zirkelschluss führt – es kommt darauf an, wie die Theorie einbezogen wird. Selbst wenn die bei der Generierung empirischer Ergebnisse ursprünglich getroffenen Annahmen falsch sind, werden künftige Wissenschaftler die Möglichkeit haben, diese Annahmen im Lichte neuer Informationen und Techniken neu zu bewerten. Solange die Wissenschaftler ihre Arbeit fortsetzen, muss es also keinen Zeitpunkt geben, an dem der epistemische Wert eines empirischen Ergebnisses ein für alle Mal festgelegt werden kann. Dies sollte niemanden überraschen, der sich bewusst ist, dass die Wissenschaft fehlbar ist, aber es ist kein Grund für Skepsis. Es kann durchaus vernünftig sein, den gegenwärtig verfügbaren Beweisen zu vertrauen, auch wenn es logisch möglich ist, dass in der Zukunft erkenntnistheoretische Probleme auftreten. Ähnlich verhält es sich mit Werten (vgl. allerdings Yap 2016).
Auch wenn die Einbeziehung von Werten in die Generierung eines empirischen Ergebnisses manchmal epistemisch schlecht sein kann, können richtig eingesetzte Werte auch harmlos oder sogar epistemisch hilfreich sein. Wie in den Fällen der Forschung über den Orgasmus weiblicher Stummelschwanzmakaken und die Auswirkungen von Scheidungen können bestimmte Werte manchmal dazu dienen, die Art und Weise zu beleuchten, in der andere epistemisch problematische Annahmen potenzielle wissenschaftliche Erkenntnisse behindert haben. Indem sie das Wissen über die weibliche Sexualität über ihre Rolle bei der Fortpflanzung hinaus bewerten, können Wissenschaftler die Engstirnigkeit eines Ansatzes erkennen, der die weibliche Sexualität nur insofern betrachtet, als sie mit der Fortpflanzung zusammenhängt. Indem sie den absoluten Wert eines traditionellen Ideals für gedeihliche Familien in Frage stellen, können Forscher Beweise sammeln, die die empirische Grundlage für dieses Ideal destabilisieren könnten.
3.5 Wiederverwendung
Empirische Ergebnisse werden am deutlichsten in ihrem Entstehungskontext zur Geltung gebracht. Wissenschaftler konzipieren empirische Forschung, sammeln und analysieren die entsprechenden Daten und bringen die Ergebnisse dann in die theoretischen Fragen ein, die die Forschung überhaupt erst inspiriert haben. Philosophen haben jedoch auch Wege erörtert, wie empirische Ergebnisse aus ihrem ursprünglichen Kontext herausgelöst und auf unterschiedliche und manchmal unerwartete Weise angewendet werden (siehe Leonelli und Tempini 2020). Fälle von Wiederverwendung oder Neuzweckung empirischer Ergebnisse in verschiedenen epistemischen Kontexten werfen für Wissenschaftsphilosophen mehrere interessante Fragen auf. Zum einen stellen solche Fälle die Annahme in Frage, dass die Theorie- (und Werte-) Bindung den epistemischen Nutzen empirischer Ergebnisse auf einen bestimmten konzeptionellen Rahmen beschränkt. Alte babylonische Aufzeichnungen von Sonnenfinsternissen auf Keilschrifttafeln wurden verwendet, um zeitgenössische geophysikalische Theorien über die Ursachen der Verlängerung des Tages auf der Erde zu untermauern (Stephenson, Morrison und Hohenkerk 2016). Dies ist überraschend, da die antiken Beobachtungen ursprünglich aufgezeichnet wurden, um astrologische Prognosen zu erstellen. Dennoch können die Aufzeichnungen, so wie sie niedergeschrieben sind, mit genügend Hintergrundinformationen übersetzt, die Schichten von Annahmen, die in ihre Darstellung eingeflossen sind, aufgedeckt und die Ergebnisse mit den Mitteln des zeitgenössischen epistemischen Kontexts, von denen die Babylonier kaum zu träumen gewagt hätten, umgewandelt werden.
Darüber hinaus wirkt sich das Potenzial für die Wieder- und Weiterverwendung auf die methodischen Normen der Datenproduktion und -verarbeitung aus. Angesichts der Schwierigkeit, Daten ohne ausreichende Hintergrundinformationen über den ursprünglichen Kontext wiederzuverwenden, stellen Goodman et al. (2014) fest, dass „die Wiederverwendung von Daten am besten möglich ist, wenn: 1) Daten, 2) Metadaten (d. h. Informationen, die die Daten beschreiben) und 3) Informationen über den Prozess der Erzeugung dieser Daten, wie z. B. Code, zur Verfügung gestellt werden“ (3). In der Tat plädieren sie für die gemeinsame Nutzung von Daten und Code zusätzlich zu den Ergebnissen, die üblicherweise in der Wissenschaft veröffentlicht werden. Wie wir gesehen haben, ist das Aufladen von Daten mit Theorien in der Regel notwendig, um diese Daten einem ernsthaften erkenntnistheoretischen Nutzen zuführen zu können – das Aufladen mit Theorien macht die Bewertung von Theorien möglich. Philosophen haben erkannt, dass dieser erkenntnistheoretische Segen nicht notwendigerweise auf Kosten der „tragischen Lokalisierung“ von Daten geht (Wylie 2020, 285, zitiert nach Latour 1999). Es ist jedoch wichtig festzustellen, dass die nützliche Weitergabe von Daten zwischen verschiedenen Kontexten durch Voraussicht, Kuratierung und Management zu diesem Zweck erheblich gefördert wird.
Angesichts der vermittelten Natur empirischer Ergebnisse plädiert Boyd (2018) für eine „angereicherte Sichtweise der Evidenz“, in der die Evidenz, die als „Erfahrungsgericht“ dient, als „Beweislinien“ verstanden wird, die sich aus den Produkten der Datenerhebung und allen Produkten ihrer Transformation auf dem Weg zur Generierung empirischer Ergebnisse zusammensetzen, die schließlich mit theoretischen Vorhersagen verglichen werden, und die zusammen mit Metadaten zu ihrer Herkunft betrachtet werden. Zu diesen Metadaten gehören Informationen über die theoretischen Annahmen, die bei der Datenerhebung, der Verarbeitung und der Präsentation der empirischen Ergebnisse gemacht werden. Boyd argumentiert, dass der epistemische Nutzen empirischer Evidenz den Übergang zu neuen Kontexten überdauern kann, wenn Metadaten herangezogen werden, um die Verarbeitung von empirischen Ergebnissen, die von Annahmen geprägt sind, „zurückzuspulen“ und sie dann mit neuen Ressourcen neu zu verarbeiten. Die angereicherte Sichtweise von Evidenz unterstützt somit die Idee, dass Wissenschaftler wichtige epistemische Ziele nicht trotz, sondern oft gerade wegen der Verflechtung von Theorie und Empirie erreichen (ebd., 420). Darüber hinaus wird der erkenntnistheoretische Wert von Metadaten, die die verschiedenen Annahmen kodieren, die im Verlauf der Datenerhebung und -verarbeitung gemacht wurden, explizit gemacht.
Dass es wünschenswert ist, empirische Daten und Ergebnisse explizit mit Zusatzinformationen zu versehen, die es ihnen ermöglichen, zu reisen, lässt sich im Lichte der Norm der „Objektivität“, die als Zugänglichkeit für eine zwischenmenschliche Überprüfung verstanden wird, gut nachvollziehen. Wenn Daten in neuen Kontexten wiederverwendet werden, werden sie nicht nur zwischen Subjekten ausgetauscht, sondern können in einigen Fällen auch zwischen radikal unterschiedlichen Paradigmen mit unvereinbaren theoretischen Verpflichtungen ausgetauscht werden.
4. Der erkenntnistheoretische Wert der empirischen Evidenz
Eine der wichtigsten Anwendungen der empirischen Evidenz ist ihre Verwendung bei der Beurteilung des epistemischen Status wissenschaftlicher Theorien. In diesem Abschnitt gehen wir kurz auf philosophische Arbeiten zur Rolle empirischer Evidenz bei der Bestätigung/Falsifizierung wissenschaftlicher Theorien, bei der „Rettung der Phänomene“ und bei der Beurteilung der empirischen Angemessenheit von Theorien ein. Weitere philosophische Arbeiten sollten jedoch die vielfältigen Möglichkeiten untersuchen, wie sich empirische Ergebnisse auf den epistemischen Status von Theorien und das Theoretisieren in der wissenschaftlichen Praxis auswirken.
4.1. Bestätigung
Es liegt auf der Hand, dass bei gleicher Berechenbarkeit und gleichem Anwendungsbereich wahre Theorien besser sind als falsche, gute Annäherungen besser als schlechte und sehr wahrscheinliche theoretische Behauptungen besser sind als weniger wahrscheinliche. Eine Möglichkeit zu entscheiden, ob eine Theorie oder eine theoretische Behauptung wahr, nahe an der Wahrheit oder akzeptabel wahrscheinlich ist, besteht darin, daraus Vorhersagen abzuleiten und diese anhand empirischer Daten zu bewerten. Hypothetisch-deduktive (HD) Bestätigungstheoretiker schlugen vor, dass empirische Evidenz für die Wahrheit von Theorien spricht, deren deduktive Konsequenzen sie verifiziert, und gegen jene, deren Konsequenzen sie falsifiziert (Popper 1959, 32-34). Gesetze und theoretische Verallgemeinerungen führen jedoch selten, wenn überhaupt, zu Beobachtungsvorhersagen, es sei denn, sie sind mit einer oder mehreren Hilfshypothesen verbunden, die aus der Theorie stammen, zu der sie gehören. Wenn sich die Vorhersage als falsch herausstellt, hat HD Schwierigkeiten zu erklären, welche der beiden Verbindungen daran schuld ist. Wenn eine Theorie eine zutreffende Vorhersage enthält, wird sie dies auch weiterhin in Verbindung mit willkürlich ausgewählten irrelevanten Behauptungen tun. HD hat Schwierigkeiten zu erklären, warum die Vorhersage die irrelevanten Behauptungen nicht zusammen mit der Theorie von Interesse bestätigt.
Ein anderer Ansatz zur Bestätigung durch empirische Beweise ist die Inferenz auf die beste Erklärung (IBE). Die Idee ist grob, dass eine Erklärung der Evidenz, die bestimmte wünschenswerte Eigenschaften in Bezug auf eine Familie von Erklärungskandidaten aufweist, wahrscheinlich die wahre Erklärung ist (Lipton 1991). Nach diesem Ansatz werden theoretische Behauptungen durch ihre erfolgreiche Erklärung der empirischen Evidenz gestützt. Natürlich stehen die Befürworter der IBE vor der Herausforderung, eine geeignete Charakterisierung dessen, was als die „beste“ Erklärung gilt, zu verteidigen und den begrenzten Pool der in Frage kommenden Erklärungen zu rechtfertigen (Stanford 2006).
Bayes’sche Ansätze zur wissenschaftlichen Bestätigung haben große Aufmerksamkeit erregt und sind in der Wissenschaftsphilosophie inzwischen weit verbreitet. Bayesianer vertreten die Auffassung, dass die Beweiskraft empirischer Beweise für eine theoretische Behauptung in Form von Wahrscheinlichkeit oder bedingter Wahrscheinlichkeit zu verstehen ist. Ob ein empirischer Beweis für eine theoretische Behauptung spricht, könnte zum Beispiel davon abhängen, ob er wahrscheinlicher ist (und wenn ja, wie viel wahrscheinlicher) als seine Verneinung, wenn man eine Beschreibung des Beweises zusammen mit Hintergrundüberzeugungen, einschließlich theoretischer Verpflichtungen, zugrunde legt. Nach dem Satz von Bayes ist die Nachwahrscheinlichkeit der interessierenden Behauptung (d. h. ihre Wahrscheinlichkeit angesichts der Beweise) proportional zu ihrer Vorwahrscheinlichkeit. Die Frage, wie die Wahl dieser Prioritätswahrscheinlichkeiten zu begründen ist, ist einer der berüchtigtsten Streitpunkte, die sich den Bayesianern stellen. Wenn man die Zuweisung von Prioritäten zu einer subjektiven Angelegenheit macht, die von epistemischen Agenten entschieden wird, dann ist es nicht klar, dass sie gerechtfertigt werden können. Auch hier gilt, dass die Verwendung von Beweisen zur Bewertung einer Theorie zum Teil von den eigenen theoretischen Verpflichtungen abhängt (Earman 1992, 33-86; Roush 2005, 149-186). Wenn man sich stattdessen auf Ketten sukzessiver Aktualisierungen unter Verwendung des Bayes’schen Theorems auf der Grundlage früherer Beweise beruft, muss man sich auf Annahmen berufen, die im Allgemeinen in der tatsächlichen wissenschaftlichen Argumentation nicht vorkommen. Um den Einfluss von Prioritäten „herauszuwaschen“, wird beispielsweise ein Grenzwertsatz herangezogen, bei dem sehr viele Aktualisierungsiterationen berücksichtigt werden, aber ein Großteil des wissenschaftlichen Denkens, das von Interesse ist, findet nicht im Grenzwert statt, so dass Prioritäten in der Praxis einen ungerechtfertigten Einfluss ausüben (Norton 2021, 33).
Anstatt zu versuchen, alle auf empirischer Evidenz basierenden Bestätigungen einem universellen Schema zuzuordnen, könnte ein besserer Ansatz darin bestehen, „lokal“ vorzugehen. Nortons materielle Induktionstheorie besagt, dass sich die induktive Unterstützung aus Hintergrundwissen ergibt, d. h. aus materiellen Fakten, die bereichsspezifisch sind. Norton argumentiert, dass zum Beispiel die Induktion von „Einige Proben des Elements Wismut schmelzen bei 271°C“ zu „Alle Proben des Elements Wismut schmelzen bei 271°C“ nicht aufgrund eines universellen Schemas zulässig ist, das uns von „einige“ zu „alle“ führt, sondern aufgrund von Tatsachen (Norton 2003). In diesem speziellen Fall ist die Tatsache, die die Induktion zulässt, eine Tatsache über Elemente: „Ihre Proben sind im Allgemeinen in ihren physikalischen Eigenschaften einheitlich“ (ebd., 650). Dies ist eine Tatsache, die für chemische Elemente gilt, nicht aber für Materialproben wie Wachs (ebd.). Norton betont daher wiederholt, dass „alle Induktion lokal ist“.
Dennoch gibt es Menschen, die die Möglichkeit einer Bestätigung oder einer erfolgreichen Induktion skeptisch sehen. Da der Einfluss der Evidenz auf die Theorie nie ganz entscheidend ist, da es kein einziges zuverlässiges universelles Schema gibt, das die empirische Unterstützung erfasst, geht es bei der Beziehung zwischen empirischer Evidenz und wissenschaftlicher Theorie vielleicht doch nicht wirklich um Unterstützung. Der Verzicht auf empirische Unterstützung würde nicht automatisch den Verzicht auf jeglichen epistemischen Wert empirischer Evidenz bedeuten. Anstatt die Theorie zu bestätigen, könnte die epistemische Rolle der Evidenz darin bestehen, sie einzuschränken, indem sie beispielsweise Phänomene liefert, die die Theorie systematisieren oder adäquat modellieren kann.
4.2 Rettung der Phänomene
Von Theorien wird gesagt, dass sie beobachtbare Phänomene „retten“, wenn sie diese zufriedenstellend vorhersagen, beschreiben oder systematisieren. Wie gut eine Theorie eine dieser Aufgaben erfüllt, muss nicht von der Wahrheit oder Genauigkeit ihrer Grundprinzipien abhängen. So heißt es in Osianders Vorwort zu Kopernikus‘ Über die Revolutionen, einem locus classicus, dass die Astronomen „… in keiner Weise wahre Ursachen“ für die Regelmäßigkeiten unter den beobachtbaren astronomischen Ereignissen finden können und sich damit begnügen müssen, die Phänomene in dem Sinne zu retten, dass sie
… welche Annahmen auch immer verwenden […] um von den Grundsätzen der Geometrie aus Berechnungen für die Zukunft als auch die Vergangenheit anzustellen … (Osiander 1543, XX)
Die Theoretiker müssen diese Annahmen als Berechnungsinstrumente verwenden, ohne sich auf ihre Wahrheit festzulegen. Insbesondere die Annahme, dass sich die Planeten um die Sonne drehen, muss ausschließlich danach beurteilt werden, wie nützlich sie für die Berechnung ihrer beobachtbaren relativen Positionen in zufriedenstellender Näherung ist. In Pierre Duhems Ziel und Struktur der physikalischen Theorie wird eine ähnliche Auffassung vertreten. Für Duhem ist eine physikalische Theorie
… ein System von mathematischen Sätzen, abgeleitet aus einer kleinen Anzahl von Prinzipien, die darauf abzielen, so einfach und vollständig und genau wie möglich eine Reihe von experimentellen Gesetze zu repräsentieren. (Duhem 1906, 19)
„Experimentelle Gesetze“ sind allgemeine, mathematische Beschreibungen von beobachtbaren experimentellen Ergebnissen. Die Forscher erstellen sie, indem sie Messungen und andere experimentelle Operationen durchführen und den wahrnehmbaren Ergebnissen Symbole gemäß vorher festgelegter operativer Definitionen zuordnen (Duhem 1906, 19). Für Duhem besteht die Hauptfunktion einer physikalischen Theorie darin, uns dabei zu helfen, Informationen über Beobachtungsgrößen zu speichern und abzurufen, die wir sonst nicht im Auge behalten könnten. Wenn es das ist, was eine Theorie leisten soll, sollte ihre Haupttugend intellektuelle Ökonomie sein. Theoretiker sollen Berichte über einzelne Beobachtungen durch experimentelle Gesetze ersetzen und Gesetze auf höherer Ebene (je weniger, desto besser) entwickeln, aus denen experimentelle Gesetze (je mehr, desto besser) mathematisch abgeleitet werden können (Duhem 1906, 21ff).
Die experimentellen Gesetze einer Theorie können auf ihre Genauigkeit und Vollständigkeit geprüft werden, indem man sie mit Beobachtungsdaten vergleicht. Nehmen wir an, EL sei eines oder mehrere experimentelle Gesetze, die bei solchen Tests akzeptabel gut abschneiden. Gesetze auf höherer Ebene können dann danach bewertet werden, wie gut sie EL in den Rest der Theorie integrieren. Einige Daten, die nicht zu den integrierten experimentellen Gesetzen passen, sind nicht interessant genug, um sich darüber Gedanken zu machen. Andere Daten müssen unter Umständen durch Ersetzen oder Ändern eines oder mehrerer experimenteller Gesetze oder durch Hinzufügen neuer Gesetze angepasst werden. Wenn die erforderlichen Ergänzungen, Änderungen oder Ersetzungen zu experimentellen Gesetzen führen, die schwieriger zu integrieren sind, sprechen die Daten gegen die Theorie. Wenn die erforderlichen Änderungen zu einer besseren Systematisierung führen, sprechen die Daten dafür. Wenn die erforderlichen Änderungen keinen Unterschied machen, sprechen die Daten weder für noch gegen die Theorie.
4.3 Empirische Angemessenheit
Nach van Fraassens (1980) semantischer Darstellung ist eine Theorie empirisch adäquat, wenn die empirische Struktur mindestens eines Modells dieser Theorie isomorph zu dem ist, was er die „Erscheinungen“ nennt (45). Mit anderen Worten, wenn die Theorie „mindestens ein Modell hat, in das alle tatsächlichen Phänomene passen“ (12). Für van Fraassen überprüfen wir also ständig die empirische Angemessenheit unserer Theorien, indem wir sehen, ob sie über die strukturellen Ressourcen verfügen, um neue Beobachtungen aufzunehmen. Wir werden nie wissen, ob eine bestimmte Theorie vollkommen empirisch adäquat ist, denn für van Fraassen bezieht sich empirische Adäquatheit auf alles, was für Lebewesen wie uns prinzipiell beobachtbar ist, nicht auf alles, was bereits beobachtet wurde (69).
Der primäre Reiz des Umgangs mit empirischer Angemessenheit anstelle von Bestätigung liegt in der angemessenen epistemischen Bescheidenheit. Anstatt zu behaupten, dass bestätigende Beweise den Glauben (oder das gestärkte Vertrauen) rechtfertigen, dass eine Theorie wahr ist, beschränkt man sich darauf zu sagen, dass die Theorie weiterhin mit den Beweisen übereinstimmt, soweit wir das bisher beurteilen können. Wenn jedoch der epistemische Nutzen empirischer Ergebnisse bei der Beurteilung des Status von Theorien nur darin besteht, ihre empirische Angemessenheit zu beurteilen, dann könnte es schwierig sein, den Unterschied zwischen angemessenen, aber unrealistischen Theorien und ebenso angemessenen Theorien, die als Repräsentationen ernst genommen werden sollten, zu erklären. Die Berufung auf außerempirische Tugenden wie die Sparsamkeit könnte ein Ausweg sein, der aber Philosophen, die der damit unterstellten Verbindung zwischen solchen Tugenden und der Repräsentationstreue skeptisch gegenüberstehen, nicht ansprechen wird.
5. Schlussfolgerung
In einer früheren Denkweise sollte die Beobachtung als unvermittelte Grundlage der Wissenschaft dienen – ein direkter Zugang zu den Fakten, auf denen das Gebäude der wissenschaftlichen Erkenntnis errichtet werden konnte. Wenn es zu Konflikten zwischen Fraktionen mit unterschiedlichen ideologischen Verpflichtungen kam, konnten Beobachtungen das Material für eine neutrale Schlichtung liefern und die Angelegenheit objektiv regeln, da sie unabhängig von nicht-empirischen Verpflichtungen waren. Nach dieser Auffassung könnten sich Wissenschaftler, die in unterschiedlichen Paradigmen arbeiten, zumindest auf dieselben Beobachtungen berufen, und Propagandisten könnten für den öffentlich zugänglichen Inhalt von Theorien und wertfreien Beobachtungen verantwortlich gemacht werden. Trotz ihrer unterschiedlichen Theorien könnten Priestley und Lavoisier in den Beobachtungen eine gemeinsame Basis finden. Antisemiten wären gezwungen, den Erfolg einer von einem jüdischen Physiker verfassten Theorie zuzugeben, und zwar aufgrund der unanfechtbaren Tatsachen, die sich aus den Beobachtungen ergeben.
Diese Version des Empirismus in Bezug auf die Wissenschaft verträgt sich nicht gut mit der Tatsache, dass die Beobachtung an sich in vielen tatsächlichen wissenschaftlichen Methoden eine relativ geringe Rolle spielt und dass selbst die „rohen“ Daten häufig bereits theoretisch durchdrungen sind. Der strikte Gegensatz zwischen Theorie und Beobachtung in der Wissenschaft wird durch eine Untersuchung des Verhältnisses zwischen Theoriebildung und empirischen Ergebnissen fruchtbarer gemacht.
Zeitgenössische Wissenschaftsphilosophen neigen dazu, die Theorielosigkeit empirischer Ergebnisse zu begrüßen. Anstatt die Integration von Theorie und Empirie als Hindernis für die Weiterentwicklung der wissenschaftlichen Erkenntnisse zu betrachten, sehen sie sie als notwendig an. Ein „Blick aus dem Nichts“ hätte keinen Einfluss auf unsere speziellen Theorien. Das heißt, es ist unmöglich, empirische Ergebnisse zu nutzen, ohne einige theoretische Ressourcen zu rekrutieren. Um ein empirisches Ergebnis zur Einschränkung oder Prüfung einer Theorie zu verwenden, muss es in eine Form gebracht werden, die mit dieser Theorie verglichen werden kann. Um stellare Spektrogramme für die Newtonsche oder relativistische Kosmologie nutzbar zu machen, müssen sie verarbeitet werden – beispielsweise zu galaktischen Rotationskurven. Die Spektrogramme selbst sind nur Artefakte, Stücke Papier. Wissenschaftler brauchen theoretische Ressourcen, um überhaupt erkennen zu können, dass solche Artefakte Informationen enthalten, die für ihre Zwecke relevant sind, und erst recht, um sie für die Bewertung von Theorien zu nutzen.
Diese Sichtweise macht jedoch nicht alle zeitgenössischen Wissenschaftsphilosophen zu Konstruktivisten. Die Theorie vermittelt die Verbindung zwischen dem Untersuchungsgegenstand und der wissenschaftlichen Weltanschauung, sie trennt sie nicht. Darüber hinaus ist nach wie vor Wachsamkeit geboten, um sicherzustellen, dass die besondere Art und Weise, in der die Theorie in die Produktion empirischer Ergebnisse „einbezogen“ wird, nicht erkenntnistheoretisch schädlich ist. Theorie kann bei der Planung von Experimenten, der Datenverarbeitung und der Präsentation von Ergebnissen auf unproduktive Weise eingesetzt werden, zum Beispiel, wenn es darum geht, ob die Ergebnisse für oder gegen eine bestimmte Theorie sprechen – unabhängig davon, wie die Welt aussieht. Eine kritische Beurteilung der Rolle von Theorien ist daher wichtig für ein echtes Lernen über die Natur durch die Wissenschaft. Tatsächlich scheint es, dass außerempirische Werte manchmal eine solche kritische Beurteilung unterstützen können. Anstatt die Beobachtung als theoriefrei zu betrachten und deshalb den Inhalt zu liefern, mit dem Theorien bewertet werden können, sollten wir auf die Entscheidungen und Fehler achten, die beim Sammeln und Erzeugen empirischer Ergebnisse mit Hilfe theoretischer Ressourcen gemacht werden können, und uns bemühen, Entscheidungen zu treffen, die dem Lernen förderlich sind, und Fehler zu korrigieren, wenn wir sie entdecken.
Die Anerkennung der Beteiligung von Theorien und Werten an der Konstitution und Generierung empirischer Ergebnisse untergräbt nicht den besonderen epistemischen Wert der empirischen Wissenschaft im Gegensatz zu Propaganda und Pseudowissenschaft. In den Fällen, in denen der Einfluss kultureller, politischer und religiöser Werte die wissenschaftliche Forschung behindert, geschieht dies oft, indem sie die Art der empirischen Ergebnisse einschränken oder bestimmen. Indem wir uns jedoch bemühen, die Annahmen, die die Ergebnisse prägen, explizit zu machen, können wir prüfen, ob sie für unsere Zwecke geeignet sind, und versuchen, die Untersuchung gegebenenfalls umzustrukturieren. Wenn Meinungsverschiedenheiten auftreten, können Wissenschaftler versuchen, sie zu schlichten, indem sie sich auf die kausalen Verbindungen zwischen dem Forschungsziel und den empirischen Daten berufen. Das Tribunal der Erfahrung spricht durch empirische Ergebnisse, aber es tut dies nur durch sorgfältige Ausgestaltung mit theoretischen Mitteln.
Bibliografie
- Anderson, E., 2004, “Uses of Value Judgments in Science: A General Argument, with Lessons from a Case Study of Feminist Research on Divorce,” Hypatia, 19(1): 1–24.
- Aristotle(a), Generation of Animals in Complete Works of Aristotle (Volume 1), J. Barnes (ed.), Princeton: Princeton University Press, 1995, pp. 774–993
- Aristotle(b), History of Animals in Complete Works of Aristotle (Volume 1), J. Barnes (ed.), Princeton: Princeton University Press, 1995, pp. 1111–1228.
- Azzouni, J., 2004, “Theory, Observation, and Scientific Realism,” British Journal for the Philosophy of Science, 55(3): 371–92.
- Bacon, Francis, 1620, Novum Organum with other parts of the Great Instauration, P. Urbach and J. Gibson (eds. and trans.), La Salle: Open Court, 1994.
- Bogen, J., 2016, “Empiricism and After,”in P. Humphreys (ed.), Oxford Handbook of Philosophy of Science, Oxford: Oxford University Press, pp. 779–795.
- Bogen, J, and Woodward, J., 1988, “Saving the Phenomena,” Philosophical Review, XCVII (3): 303–352.
- Bokulich, A., 2020, “Towards a Taxonomy of the Model-Ladenness of Data,” Philosophy of Science, 87(5): 793–806.
- Borrelli, A., 2012, “The Case of the Composite Higgs: The Model as a ‘Rosetta Stone’ in Contemporary High-Energy Physics,” Studies in History and Philosophy of Science (Part B: Studies in History and Philosophy of Modern Physics), 43(3): 195–214.
- Boyd, N. M., 2018, “Evidence Enriched,” Philosophy of Science, 85(3): 403–21.
- Boyle, R., 1661, The Sceptical Chymist, Montana: Kessinger (reprint of 1661 edition).
- Bridgman, P., 1927, The Logic of Modern Physics, New York: Macmillan.
- Chang, H., 2005, “A Case for Old-fashioned Observability, and a Reconstructive Empiricism,” Philosophy of Science, 72(5): 876–887.
- Collins, H. M., 1985 Changing Order, Chicago: University of Chicago Press.
- Conant, J.B., 1957, (ed.) “The Overthrow of the Phlogiston Theory: The Chemical Revolution of 1775–1789,” in J.B.Conant and L.K. Nash (eds.), Harvard Studies in Experimental Science, Volume I, Cambridge: Harvard University Press, pp. 65–116).
- Daston, L., and P. Galison, 2007, Objectivity, Brooklyn: Zone Books.
- Douglas, H., 2000, “Inductive Risk and Values in Science,” Philosophy of Science, 67(4): 559–79.
- –––, 2013, “The Value of Cognitive Values,” Philosophy of Science, 80(5): 796–806.
- Duhem, P., 1906, The Aim and Structure of Physical Theory, P. Wiener (tr.), Princeton: Princeton University Press, 1991.
- Earman, J., 1992, Bayes or Bust?, Cambridge: MIT Press.
- Feest, U., 2005, “Operationism in psychology: what the debate is about, what the debate should be about,” Journal of the History of the Behavioral Sciences, 41(2): 131–149.
- Feyerabend, P.K., 1969, “Science Without Experience,” in P.K. Feyerabend, Realism, Rationalism, and Scientific Method (Philosophical Papers I), Cambridge: Cambridge University Press, 1985, pp. 132–136.
- Franklin, A., 1986, The Neglect of Experiment, Cambridge: Cambridge University Press.
- Galison, P., 1987, How Experiments End, Chicago: University of Chicago Press.
- –––, 1990, “Aufbau/Bauhaus: logical positivism and architectural modernism,” Critical Inquiry, 16 (4): 709–753.
- Goodman, A., et al., 2014, “Ten Simple Rules for the Care and Feeding of Scientific Data,” PLoS Computational Biology, 10(4): e1003542.
- Hacking, I., 1981, “Do We See Through a Microscope?,” Pacific Philosophical Quarterly, 62(4): 305–322.
- –––, 1983, Representing and Intervening, Cambridge: Cambridge University Press.
- Hanson, N.R., 1958, Patterns of Discovery, Cambridge, Cambridge University Press.
- Hempel, C.G., 1952, “Fundamentals of Concept Formation in Empirical Science,” in Foundations of the Unity of Science, Volume 2, O. Neurath, R. Carnap, C. Morris (eds.), Chicago: University of Chicago Press, 1970, pp. 651–746.
- Herschel, J. F. W., 1830, Preliminary Discourse on the Study of Natural Philosophy, New York: Johnson Reprint Corp., 1966.
- Hooke, R., 1705, “The Method of Improving Natural Philosophy,” in R. Waller (ed.), The Posthumous Works of Robert Hooke, London: Frank Cass and Company, 1971.
- Horowitz, P., and W. Hill, 2015, The Art of Electronics, third edition, New York: Cambridge University Press.
- Intemann, K., 2021, “Feminist Perspectives on Values in Science,” in S. Crasnow and L. Intemann (eds.), The Routledge Handbook of Feminist Philosophy of Science, New York: Routledge, pp. 201–15.
- Kuhn, T.S., The Structure of Scientific Revolutions, 1962, Chicago: University of Chicago Press, reprinted,1996.
- Latour, B., 1999, “Circulating Reference: Sampling the Soil in the Amazon Forest,” in Pandora’s Hope: Essays on the Reality of Science Studies, Cambridge, MA: Harvard University Press, pp. 24–79.
- Latour, B., and Woolgar, S., 1979, Laboratory Life, The Construction of Scientific Facts, Princeton: Princeton University Press, 1986.
- Laymon, R., 1988, “The Michelson-Morley Experiment and the Appraisal of Theories,” in A. Donovan, L. Laudan, and R. Laudan (eds.), Scrutinizing Science: Empirical Studies of Scientific Change, Baltimore: The Johns Hopkins University Press, pp. 245–266.
- Leonelli, S., 2009, “On the Locality of Data and Claims about Phenomena,” Philosophy of Science, 76(5): 737–49.
- Leonelli, S., and N. Tempini (eds.), 2020, Data Journeys in the Sciences, Cham: Springer.
- Lipton, P., 1991, Inference to the Best Explanation, London: Routledge.
- Lloyd, E.A., 1993, “Pre-theoretical Assumptions In Evolutionary Explanations of Female Sexuality,” Philosophical Studies, 69: 139–153.
- –––, 2012, “The Role of ‘Complex’ Empiricism in the Debates about Satellite Data and Climate Models,”, Studies in History and Philosophy of Science (Part A), 43(2): 390–401.
- Longino, H., 1979, “Evidence and Hypothesis: An Analysis of Evidential Relations,” Philosophy of Science, 46(1): 35–56.
- –––, 2020, “Afterward:Data in Transit,” in S. Leonelli and N. Tempini (eds.), Data Journeys in the Sciences, Cham: Springer, pp. 391–400.
- Lupyan, G., 2015, “Cognitive Penetrability of Perception in the Age of Prediction – Predictive Systems are Penetrable Systems,” Review of Philosophical Psychology, 6(4): 547–569. doi:10.1007/s13164-015-0253-4
- Mill, J. S., 1872, System of Logic, London: Longmans, Green, Reader, and Dyer.
- Norton, J., 2003, “A Material Theory of Induction,” Philosophy of Science, 70(4): 647–70.
- –––, 2021, The Material Theory of Induction, http://www.pitt.edu/~jdnorton/papers/material_theory/Material_Induction_March_14_2021.pdf.
- Nyquist, H., 1928, “Thermal Agitation of Electric Charge in Conductors,” Physical Review, 32(1): 110–13.
- O’Connor, C. and J. O. Weatherall, 2019, The Misinformation Age: How False Beliefs Spread, New Haven: Yale University Press.
- Olesko, K.M. and Holmes, F.L., 1994, “Experiment, Quantification and Discovery: Helmholtz’s Early Physiological Researches, 1843–50,” in D. Cahan, (ed.), Hermann Helmholtz and the Foundations of Nineteenth Century Science, Berkeley: UC Press, pp. 50–108.
- Osiander, A., 1543, “To the Reader Concerning the Hypothesis of this Work,” in N. Copernicus On the Revolutions, E. Rosen (tr., ed.), Baltimore: Johns Hopkins University Press, 1978, p. XX.
- Parker, W. S., 2016, “Reanalysis and Observation: What’s the Difference?,” Bulletin of the American Meteorological Society, 97(9): 1565–72.
- –––, 2017, “Computer Simulation, Measurement, and Data Assimilation,” The British Journal for the Philosophy of Science, 68(1): 273–304.
- Popper, K.R.,1959, The Logic of Scientific Discovery, K.R. Popper (tr.), New York: Basic Books.
- Rheinberger, H. J., 1997, Towards a History of Epistemic Things: Synthesizing Proteins in the Test Tube, Stanford: Stanford University Press.
- Roush, S., 2005, Tracking Truth, Cambridge: Cambridge University Press.
- Rudner, R., 1953, “The Scientist Qua Scientist Makes Value Judgments,” Philosophy of Science, 20(1): 1–6.
- Schlick, M., 1935, “Facts and Propositions,” in Philosophy and Analysis, M. Macdonald (ed.), New York: Philosophical Library, 1954, pp. 232–236.
- Schottky, W. H., 1918, “Über spontane Stromschwankungen in verschiedenen Elektrizitätsleitern,” Annalen der Physik, 362(23): 541–67.
- Shapere, D., 1982, “The Concept of Observation in Science and Philosophy,” Philosophy of Science, 49(4): 485–525.
- Stanford, K., 1991, Exceeding Our Grasp: Science, History, and the Problem of Unconceived Alternatives, Oxford: Oxford University Press.
- Stephenson, F. R., L. V. Morrison, and C. Y. Hohenkerk, 2016, “Measurement of the Earth’s Rotation: 720 BC to AD 2015,” Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences, 472: 20160404.
- Stuewer, R.H., 1985, “Artificial Disintegration and the Cambridge-Vienna Controversy,” in P. Achinstein and O. Hannaway (eds.), Observation, Experiment, and Hypothesis in Modern Physical Science, Cambridge, MA: MIT Press, pp. 239–307.
- Suppe, F., 1977, in F. Suppe (ed.) The Structure of Scientific Theories, Urbana: University of Illinois Press.
- Van Fraassen, B.C, 1980, The Scientific Image, Oxford: Clarendon Press.
- Ward, Z. B., 2021, “On Value-Laden Science,” Studies in History and Philosophy of Science Part A, 85: 54–62.
- Whewell, W., 1858, Novum Organon Renovatum, Book II, in William Whewell Theory of Scientific Method, R.E. Butts (ed.), Indianapolis: Hackett Publishing Company, 1989, pp. 103–249.
- Woodward, J. F., 2010, “Data, Phenomena, Signal, and Noise,” Philosophy of Science, 77(5): 792–803.
- –––, 2011, “Data and Phenomena: A Restatement and Defense,” Synthese, 182(1): 165–79.
- Wylie, A., 2020, “Radiocarbon Dating in Archaeology: Triangulation and Traceability,” in S. Leonelli and N. Tempini (eds.), Data Journeys in the Sciences, Cham: Springer, pp. 285–301.
- Yap, A., 2016, “Feminist Radical Empiricism, Values, and Evidence,” Hypatia, 31(1): 58–73.