Dieser Artikel ist Teil des Themenschwerpunkts "Menschlichkeit", in dem sich die alexandria-Redaktion fragt, was uns menschlich macht und was wir als menschlich wahrnehmen.
Irren ist menschlich, richtig zu irren dagegen wissenschaftlich. Denn während wir uns alle im Alltag den einen oder anderen Ausrutscher leisten, sind Irrtümer innerhalb der wissenschaftlichen Methodik eingepreist – und mitunter sogar produktiv.
Dabei kommt es aber auf den richtigen Umgang mit Fehlleistungen an: Macht etwa eine Theorie Vorhersagen, die bei Beobachtung nicht eintreten, muss sie fallengelassen werden, so das vom österreichischen Wissenschaftsphilosophen Karl Popper formulierte Ideal. Tatsächlich ist es für Popper das Kennzeichen wissenschaftlichen Arbeitens schlechthin, dass Modelle Ansätze dafür beinhalten, wie wir ihr Scheitern überprüfen können.
Doch abgesehen von dieser grundsätzlichen Rolle des Irrtums für die Wissenschaft, gab es auch in der Geschichte menschlichen Entdeckergeistes Fälle, wo der Irrtum selbst zum Forscher wurde. Frei nach Stefan Zweig hat euch alexandria fünf dieser Sternstunden des Irrtums zusammengestellt.
1. Phlogiston oder Das Ende der Alchemie
Bereits die auf die Antike zurückgehende Praxis der Alchemie könnte als produktiver Irrtum bezeichnet werden: Diese der Naturerforschung und spiritueller Transformation gleichsam gewidmete Disziplin ging nicht wissenschaftlich vor, sondern postulierte okkulte Verbindungen von Elementen und Planeten mit dem Körper und einer angeblichen kosmischen Ordnung. Doch als Nebenprodukt ihrer Experimente stellten Alchemist:innen etwa Porzellan her oder fanden das entflammbare chemische Element Phosphor.
Es war schließlich das Feuer, das den Übergang von der Alchemie zur modernen Chemie einläutete. Im 17. Jahrhundert trieb Gelehrte die Frage um, was genau bei einer Verbrennung vorgeht. So war etwa die Beobachtung, dass eine Kerze unter einem Glassturz verlischt, damals unerklärt.

Der Alchemist Georg Ernst Stahl spekulierte, dass die Flamme von Kerzen durch Phlogiston in geschlossenen Gefäßen erstickt wird.
Der deutsche Alchemist Georg Ernst Stahl spekulierte, dass bei einer Verbrennung eine geheimnisvolle Substanz aus dem brennenden Objekt entweichen müsse, die sich in geschlossenen Gefäßen anreichere, bis die Luft sie nicht mehr aufnehmen könne und die Flamme ersticke. Er taufte diese Substanz Phlogiston.
Gegen Ende des 18. Jahrhunderts, im Zeitalter der Aufklärung, mehrten sich Befunde, die der Hypothese widersprachen, und zwar gewichtige: Untersuchten Gelehrte die Masse von Proben vor und nach der Verbrennung, schien etwa bei Holz die Phlogiston-Hypothese zu halten, wurden die Proben doch leichter. Klare Sache, das entwichene Phlogiston fehlte. Doch bei Metallen kam es zu einer Gewichtszunahme.
Erst 1785 gelang es den Franzosen Marie und Antoine Lavoisier mithilfe quantitativer, wissenschaftlicher Methoden, die Rolle des Sauerstoffs in Verbrennungsprozessen zu verstehen. Heute wissen wir, dass Sauerstoff für Verbrennungen notwendig ist, und einmal aufgezehrt, die Kerze erlischt. Und auch die Gewichtszunahme bei der Verbrennung von Metall lässt sich durch die Bildung von schweren Oxiden erklären. Mit der Phlogiston-Hypothese räumten die Lavoisiers einen hartnäckigen Irrtum aus, der aber die Alchemie zur Chemie transformierte.
2. Malthus und die Bevölkerungsfalle
Im 18. Jahrhundert herrschte in den Städten Englands Elend: Hunger, Armut und Krankheit quälten die in Slum-artigen, überfüllten Mietskasernen hausende Unterschicht. Die Industrielle Revolution trieb die Menschen vom Land in die aus allen Nähten berstenden Städte, denn in den verrauchten, lauten, gesundheitsschädlichen Industriehallen gab es zumindest Arbeit – und damit ein Essen im Bauch.
Woher kommt dieses Leid? Der britische Ökonom Thomas Malthus konnte mit einer scheinbar einleuchtenden Erklärung aufwarten, in der er zwei Wachstumsgesetze miteinander verglich. Seiner Ansicht nach stieg die Produktivität einer Bevölkerung linear, also in etwa so wie die zurückgelegte Entfernung anwächst, fährt man mit gleichförmiger Geschwindigkeit.
Demgegenüber wachse die Bevölkerung laut Malthus exponentiell, ein Wachstumsgesetz, das uns spätestens seit der Corona-Pandemie schmerzlich bekannt sein sollte. Daher, so der Kernpunkt von Malthus’ These, steige die Nachfrage nach Lebensmitteln oder Wohnraum immer um ein Vielfaches schneller als das Angebot an diesen Gütern. Infolgedessen kommt es zu Verelendung und Hungersnöten, die die Bevölkerung reduzieren, bis sie sich wieder ernähren, damit wachsen kann und der Zyklus von vorne beginnt.
Armut und Hunger lassen sich Malthus zufolge also nicht verhindert, sind sie doch Folge streng mathematischer Gesetzmäßigkeiten. Bereits in seiner Zeit schlug dieser Befund Wellen: So setzte sich etwa Karl Marx sehr kritisch mit Malthus auseinander, während andere Denker:innen sich positiv auf seine Ideen bezogen und sie etwa in Form des Sozialdarwinismus weiterentwickelten.
Doch was ist dran an Malthus’ Gesetz? Wie sich herausstellte, hält sein Wachstumsgesetz im Allgemeinen empirischer Überprüfung nicht stand. So hat rasanter technischer und medizinischer Fortschritt in den Industrieländern dazu geführt, dass eine stark gewachsene Bevölkerung dennoch ernährt werden kann. Auch die These des exponentiellen Wachstums hat sich angesichts rückläufiger Geburtenzahlen im globalen Norden nicht bewährt. Damit entpuppt sich Malthus Modell als falsche Vereinfachung, die aber in ihrer Provokanz die ökonomische, demoskopische und soziologische Forschung anspornte.
3. Ultravioletter Glückstreffer
Sie vermiest uns immer mal wieder den Strandurlaub und kann uns doch mitunter das Leben retten – die Rede ist von ultravioletter Strahlung, die einerseits zum Abtöten schädlicher Keime genutzt wird, uns aber andererseits mit Sonnenbrand überzieht, sollten wir mal zu faul zum Eincremen gewesen sein.
Bei ultravioletter Strahlung, kurz UV, handelt es sich um energiereiche elektromagnetische Strahlung mit Wellenlängen, die knapp unter denen des sichtbaren Bereichs des elektromagnetischen Spektrums liegen. Da UV daher für Menschen unsichtbar ist, waren die Strahlen lange unbekannt und schulden ihre Entdeckung einer glücklichen Fehleinschätzung.
Bereits im Jahre 1800 entdeckte der deutsch-britische Astronom Wilhelm Herschel Infrarotstrahlen, die jenseits des langwelligen, roten Endes des sichtbaren Bereichs des Spektrums angesiedelt sind. Indem Herschel Sonnenlicht mithilfe eines Prismas in einen Regenbogen aufspaltete, erkannte er, dass sein Thermometer über dem roten Farbanteil höher ausschlug als im roten Bereich des Regenbogens selbst. Er nannte seine Entdeckung dementsprechend Wärmestrahlung.

Der Astronom Wilhelm Herschel wurde auf die infrarote Strahlung durch ein Experiment aufmerksam, in dem er Sonnenlicht in einen Regenbogen aufspaltete.
Es war der deutsche Physiker Johann Ritter, der bei Herschels Fund hellhörig wurde. Basierend auf der damals verbreiteten Naturphilosophie postulierte Ritter, dass es ein Gegenstück zur Wärmestrahlung geben sollte, das sich auf der anderen Seite des Regenbogens befinden müsse. Dabei berief sich Ritter auf Gedanken, wie sie etwa vom Philosophen Friedrich Schelling vertreten wurden, demzufolge die Natur in polaren, einander hervorbringenden Gegensatzpaaren organisiert ist.
Dass sich diese Ideen konkret auf das elektromagnetische Spektrum anwenden lassen, ist weder naheliegend noch empirisch haltbar. Und dennoch, ausgehend von seinen Annahmen, führte Ritter im Jahr 1801 ein Experiment durch, mit dem er die Existenz ultravioletter Strahlung durch die Schwärzung bestimmter lichtempfindlicher Silberverbindungen beweisen konnte. Damit stellen Ritters Überlegungen eine besondere Form des produktiven Irrtums dar, wo dubiose Annahmen dennoch zu richtigen Ergebnissen führen.
4. Der Hawthorne-Effekt
Während es bei naturwissenschaftlichen Experimenten möglich ist, das untersuchte System beinahe vollständig unter Kontrolle zu bringen, scheint das in der Psychologie unmöglich zu sein. Ihr Forschungsgegenstand, der menschliche Geist, ist viel zu ausdifferenziert und komplex, als dass eine Versuchsanordnung alle möglichen Wechselwirkungen berücksichtigen könnte.
Diese Einsicht mussten auch der Australier Elton Mayo und der US-Amerikaner Fritz Roethlisberger machen, die ab Mitte der 1920er Jahre bis in die 1930er eine Studienreihe in der Hawthorne-Fabrik der Western Electric Company durchführten. Ziel ihrer Untersuchungen war es, für die amerikanische Elektrizitätsindustrie herauszufinden, wie die Produktivität der Fabrikarbeiter:innen gesteigert werden könnte.
In ihrer Versuchsreihe erhielt eine Gruppe von Arbeiter:innen mehr Licht bei der Arbeit, die Kontrollgruppe arbeitete weiterhin ohne verbesserte Beleuchtungsbedingungen. Dabei gingen die Fachleute davon aus, dass die Gruppe mit mehr Licht auch eine höhere Arbeitsleistung erbringen würde.
Und tatsächlich stellen Mayo und Roethlisberger fest, dass die Gruppe mit besserer Beleuchtung einen größeren Output hatte. Doch die Arbeitsleistung verbesserte sich auch bei der Kontrollgruppe und ging sogar in der ersten Gruppe nicht mehr zurück, als die Forscher:innen die Lichtverhältnisse an die der Kontrollgruppe anglichen.
Die Hawthorne-Experimente konnten also die These, dass höhere Beleuchtungsstärke mit größerer Arbeitsleistung einhergeht, nicht bestätigen. Der Irrtum der Forscher:innen bestand aber nicht darin, dass ihre Ausgangsüberlegung falsch ist, sondern liegt im Design ihrer Versuche, die sich nicht zur Überprüfung der These eignen. Der Grund: Menschen verhalten sich anders, wenn sie beobachtet werden. Bereits die bloße Anwesenheit der Wissenschaftler:innen hat die Arbeiter:innen zu größerer Leistung bewogen.
Dieser als Hawthorne-Effekt bekannt gewordener Umstand muss in allen psychologischen Versuchsanordnungen berücksichtigt werden und beeinflusste darüber hinaus die Entwicklung zahlreicher Bereiche, darunter die Arbeitspsychologie, die Organisationsforschung und die Methodenkritik in der Sozialwissenschaft.
5. Einsteins Irrtum und die Quantenrevolution
Kaum eine Theorie ist für unseren modernen Alltag wichtiger als die Quantenphysik, hat sie doch Halbleiterchips, GPS und Laser erst möglich gemacht – Technologien, die für das Informationszeitalter unerlässlich geworden sind. Zurzeit arbeiten weltweit Fachleute darauf hin, nach dieser ersten Quantenrevolution eine zweite zu entwickeln.
Dabei steht Verschränkung im Zentrum der Aufmerksamkeit: Stellen wir uns ein verschränktes Teilchenpaar als zwei Münzen vor. Wird eine Münze geworfen, zeigt sie zufällig Kopf oder Zahl, doch vergleichen wir die Wurfergebnisse beider Münzen, sind sie korreliert: So könnten etwa immer beide Kopf oder beide Zahl zeigen. Paradoxerweise hält diese Korrelation über beliebige Distanzen hinweg.

Zwei miteinander verschränkte Münzen.
Doch wie können sich die beiden Münzen darüber verständigen, ob sie nun Kopf oder Zahl zeigen? Wenn man das Münzenpaar nur weit genug voneinander trennt, müsste diese Kommunikation schneller als die Lichtgeschwindigkeit ablaufen, was der Relativitätstheorie widerspricht. Schon dem Schöpfer dieser Theorie war das reichlich suspekt: Für Albert Einstein roch die Sache nach spukhafter Fernwirkung.
Um das Paradox zu erklären, führte er mit den Physikern Boris Podolsky und Nathan Rosen in einem berühmten Aufsatz von 1935 einen neuen Ansatz ein, der als ‚verborgene Variablen‘ bekannt wurde. Was, so das Argument des als EPR bekannt gewordenen Trios, wenn die Messergebnisse, etwa der Ausgang der Münzwürfe, schon vor dem Experiment feststehen, und von einer bis dahin nicht berücksichtigten, also verborgenen Variable gesteuert würden?
EPR postulierten damit, dass die Quantentheorie unvollständig sei, da sie um diese verborgenen Variablen ergänzt werden müsse – und traten damit ein ganzes Forschungsprogramm los. Basierend auf den EPR Annahmen leiteten Forscher wie Eugene Wigner und John Steward Bell Vorhersagen ab, die Theorien mit verborgenen Variablen treffen müssen und die im Widerspruch zu herkömmlicher Quantenmechanik stehen.
Doch auf dem empirischen Prüfstand konnten sich die Annahmen von EPR nicht bewähren: In einer Reihe Experimente konnten John Clauser, Alain Aspect und später Anton Zeilinger zeigen, dass die Quantentheorie wohl ohne verborgene Variablen auskommt – zum Glück, spielt doch ihre Abwesenheit etwa im Sicherheitsversprechen moderner Quantenkryptografie eine wichtige Rolle.