Startseite

Hans-Joachim Mascheck

Die Grundlagen der Sprache und der Wissenschaft

1. Ausgangspunkte

Da alle Ergebnisse der Wissenschaften und der Philosophie sprachlich formuliert werden müssen, gehörte die Sprache seit jeher zu den Themen der Philosophie. Im vergangenen Jahrhundert nahm die Untersuchung ihrer Probleme einen besonders breiten Raum ein und bildete geradezu einen der Schwerpunkte philosophischer Bemühungen. Dabei wurden zwar viele interessante und wertvolle neue Erkenntnisse gewonnen, doch auf die zentrale Frage nach den Beziehungen zwischen der Sprache und dem mit dieser Sprache Beschriebenen gibt es immer noch keine befriedigende Antwort.

Voraussetzung für eine Klärung dieser Frage ist die Bestimmung der Rolle der Sprache, die eindeutige Festlegung dessen, was mit Hilfe der Sprache beschrieben werden soll. Oft nennt man das einfach "die Welt", doch viele verstehen darunter etwas, was sich weder erkennen noch beschreiben lässt oder sie unterstellen zumindest anderen, das zu meinen. Die menschliche Sprache kann aber nur darstellen, was dem Menschen zugänglich ist - seine Sinneseindrücke und das Weltbild, das sein Geist und sein Verstand daraus erschaffen. Zu untersuchen sind daher die Beziehungen zwischen Sinneseindrücken, Sprache und Weltbild.

Aus den verfügbaren Sinneseindrücken erzeugt der menschliche Geist spontan und ohne bewusste verstandesmäßige Steuerung ein ursprüngliches Weltbild, bestehend aus einem Raum, in dem sich zahlreiche unterscheidbare und gegeneinander abgrenzbare Dinge befinden, und einer Zeit, in der die verschiedensten Veränderungen an und mit diesen Dingen erfolgen. Die erste, noch nicht sehr problematische Aufgabe der Sprache ist die Beschreibung dieses Weltbildes.

Im Laufe der weiteren geistigen Entwicklung, vor allem auch in den Wissenschaften, wird die Sprache immer mehr zum wichtigsten Hilfsmittel für die bewusste Erweiterung und Gestaltung des Weltbildes. Damit wird die Frage aktuell, welchen Anteil daran die Sinneseindrücke haben. Dass sie einen Beitrag liefern, steht außer Frage. Strittig ist jedoch, ob die Erweiterung und Gestaltung eigenständige schöpferische Leistungen des menschlichen Geistes sind, die durch die Sinneseindrücke nur provoziert werden, oder ob in der Gesamtheit der Sinneseindrücke etwas enthalten ist, was für die Bildung der Begriffe und die Formulierung von Gesetzmäßigkeiten nur einen geringen Spielraum zulässt und diese praktisch in ihrem Kern bestimmt. Diese realistische Position entspricht den Erfahrungen der Naturwissenschaftler, jene kreativistische wird gegenwärtig von sehr vielen Philosophen vertreten.

Für die Annahme einer durch die Sinneseindrücke lediglich angeregten eigenständigen schöpferischen Kulturleistung wird ins Feld geführt, dass wegen der Theorieabhängigkeit jeder Beobachtungsprache keine neutrale, unparteiische empirische Prüfung von Theorien und Hypothesen möglich ist. Dem ist entgegenzuhalten, dass die Aussagen der Theorien die genauen Anweisungen zur Durchführung von Versuchen, Beobachtungen und Messungen umfassen (sonst wären sie gar nicht vollständig und jeder beliebigen Interpretation preisgegeben) und somit direkt zu prüfen1 und nicht mit irgendwelchen zwangsläufig dilettantischen unabhängigen Beschreibungen von Beobachtungen zu vergleichen sind. Wissenschaftliche Forschung ist zugleich die Suche nach den geeignetsten Begriffen zur Beschreibung aller Zustände und Vorgänge2. Die Tatsache der Theorieabhängigkeit jeder Beobachtungssprache beweist nicht, dass es einen weiten Spielraum für die Formulierung der Theorien gibt und eine objektive Entscheidung zwischen konkurrierenden Theorien nicht möglich ist, sondern zeigt, dass die Entwicklungen der Sprache und der Theorie gar nicht voneinander getrennt werden können und somit der ganze Ansatz falsch war.

Zur Begründung der Möglichkeit einer weitestgehend freien, durch die Sinneseindrücke nur angeregten Entwicklung der Wissenschaften beruft man sich auf das Phänomen der Selbstorganisation. Es ist sicher nicht falsch, die komplexen Vorgänge bei der Herausbildung menschlicher Erkenntnisse unter dem Aspekt der Selbstorganisation zu betrachten. Daraus folgt aber etwas ganz anderes: Selbstorganisation setzt niedrige Entropie der Umgebung voraus und dabei entstehen und überleben nur solche Strukturen, die die niedrige Entropie bestmöglich ausnutzen. Vielen scheint gar nicht bewusst zu sein, dass es sich hierbei um eine grundlegende und unverzichtbare Bedingung handelt, deren Verletzung dem zweiten Hauptsatz widerspräche. Wäre die Verstandestätigkeit ein reiner Selbstzweck und Luxus, dann genügte natürlich die Nutzung der niedrigen Entropie der Umgebung durch die Nahrungsaufnahme. Soll sie aber eine Rolle in der dem Leben und Überleben dienenden tätigen Auseinandersetzung mit der Umwelt spielen, dann ist sie auf die Nutzung der niedrigen Entropie der Signale aus der Umgebung angewiesen, d. h. auf deren Redundanz.

Auf die Bedeutung der Redundanz für die Erkenntnis haben schon Norbert Wiener, Carl Friedrich von Weizsäcker, Helmut Seiffert u. v. a. hingewiesen. Diese Überlegungen lehnten sich zwar an die Informationstheorie an, in der die Redundanz als statistische Größe erstmalig eindeutig definiert worden war, doch sie wurden nicht als Teil dieser Theorie, sondern eher als eine Ergänzung dazu empfunden. So blieb auch unbemerkt, was davon schon in Shannons Arbeit angelegt war. Der Grund dafür war sicherlich, dass der Redundanz von der auf die Nachrichtentechnik spezialisierten Informationstheorie zunächst nur eine untergeordnete Rolle zugewiesen worden war. Die Anwendung auf die Theorie und Berechnung der Strömungsturbulenz zeigte jedoch beispielhaft, dass diese Theorie tatsächlich viel mehr leisten kann, als man ihr gemeinhin zutraut.

Die statistische Behandlung turbulenter Strömungsvorgänge wurde 1895 von O. Reynolds eingeführt. Nach einer Reihe bahnbrechender Arbeiten von G. I. Taylor in den Jahren 1935 bis 1938 setzte die Entwicklung einer umfassenden statistischen Theorie der Turbulenz ein, die etwa 1960 in ihren wesentlichen Zügen abgeschlossen war. Dabei betrachtete man die Turbulenz als einen völlig ungeordneten Vorgang. Als sich die Grenzen dieser Behandlungsweise zeigten und auch die Messtechnik entsprechend fortgeschritten war, begann man sich intensiv mit der experimentellen Untersuchung der Strukturen3 in turblenten Strömungen zu befassen. Die damit aufgeworfene Frage des Grades der Unregelmäßigkeit bzw. der Ordnung sowie die theoretische Feststellung, dass die Irreversibilität der turbulenten Prozesse - vor allem der Energiefluss im Spektrum - nicht dynamisch, sondern nur durch die Zunahme der Unregelmäßigkeit erklärbar ist, legten die Einführung einer informationstheoretisch definierten Entropie der Turbulenz nahe4.

Im weiteren Verlauf dieser Untersuchungen stellte es sich heraus, dass die Redundanz als Maß für den Grad der statistischen Abhängigkeit zwischen verschiedenen Daten und Indiz für das Vorhandensein innerer Gesetzmäßigkeiten die theoretische Definition der bisher empirisch eingeführten und experimentell nachgewiesenen kohärenten Strukturen ermöglicht, die dann zugleich die Grundlage einer optimalen Beschreibung der Zustände durch eine möglichst geringe Zahl unabhängiger Parameter bildet5. Daraus ergab sich auch eine etwas andere Sichtweise auf die grundlegenden Aussagen der Informationstheorie:

Für genügend große (in der Theorie zur Vereinfachung als unendlich angenommene) geordnete Datenmengen lassen sich zwei wichtige statistische Parameter definieren: eine relative Entropie Hrel und eine Redundanz R = 1 - Hrel. Die Redundanz ist ein Maß für die Gesamtheit der in der Datenmenge enthaltenen Gesetzmäßigkeiten beliebiger Art, die darin ihren Ausdruck finden, dass die verschiedenen möglichen Datenkombinationen von gleich großen und in gleicher Weise angeordneten Teilmengen mit unterschiedlicher Häufigkeit auftreten. Die Kenntnis dieser Gesetzmäßigkeiten ermöglicht die Rekonstruktion der ursprünglichen Daten mit Hilfe einer geringeren Datenmenge, deren notwendiger Umfang durch die Entropie angezeigt wird. Die Redundanz ist die Voraussetzung und die durch sie angezeigten Gesetzmäßigkeiten sind die Grundlage für die komprimierte Darstellung der Daten und die begrenzte Möglichkeit mehr oder weniger sicherer Schlüsse von bekannten Teilmengen auf außerhalb derselben liegende Daten. Im Besonderen ist die Redundanz der Sinneseindrücke die notwendige Voraussetzung für die Entwicklung von Sprachen zur komprimierten Darstellung dieser Sinneseindrücke und die Formulierung von Erfahrungen, die Schlüsse vom Gegenwärtigen auf Künftiges, Vergangenes oder anderes nicht unmittelbar Wahrnehmbares gestatten. Die Realisierung aller dieser Möglichkeiten erfordert die Aufdeckung der Gesetzmäßigkeiten, die diese Redundanz hervorrufen.

Es ist mithin müßig, darüber zu streiten, ob die Entropie oder die Redundanz die eigentliche Information ist. Jene enthält die Information über spezielle Fakten, diese die Information über die für die gesamte Datenmenge gültigen Gesetzmäßigkeiten. Und ebenso, wie der Zahlenwert für die Entropie nur die Menge der für eine Rekonstruktion erforderlichen Daten, nicht diese Daten selbst bezeichnet, gibt auch die Redundanz nur den Anteil an Gesetzmäßigkeiten an und besagt nichts über die Art derselben. Deren Bestimmung erfordert die Auswertung der gesamten Datenmenge, wohingegen für die Berechnung der erforderlichen Daten zur Rekonstruktion einer Teilmenge nur diese Teilmenge selbst nötig ist.

2. Die Redundanz als Maß für die Gesamtheit der in einer Datenmenge enthaltenen Gesetzmäßigkeiten

Der Sachverhalt wird etwas klarer, wenn man die Definition der Entropie in Shannons Originalarbeit näher betrachtet:

  • Theorem 5: Let p(Bi) be the probability of a sequence Bi of symbols from the source. Let

    where the sum is over all sequences Bi containing N symbols. Then GN is a monotonic decreasing function of N and

  • Um die Entropie nach dieser Formel zu berechnen, muss man nicht nur, wie dies zumeist dargestellt wird, die Wahrscheinlichkeiten für das Auftreten der einzelnen Zeichen kennen, sondern die Wahrscheinlichkeiten für das Auftreten beliebig langer Zeichenketten Bi. Deren Zahl wächst aber exponentiell mit der Länge N - für Binärfolgen mit N = 2 gibt es 1024 verschiedene Zeichenketten der Länge 10, für Folgen der lateinischen Kleinbuchstaben mit N = 26 gibt es bereits mehr als 11,88 Millionen verschiedene Zeichenketten der Länge 5. Shannons Formel, die die Berücksichtigung beliebig langer Zeichenketten fordert, ist daher nur für die Beweise, nicht aber für die Berechnung geeignet. Ihre wichtigste Funktion besteht darin, dass sich auf der Grundlage dieser Formel folgendes nachweisen lässt:

    1.  
    2. Der Grenzwert H existiert, denn die GN sind nie negativ und die Folge der GN ist monoton fallend.
    3.  
    4. Für jedes endliche N gibt es die Möglichkeit zur komprimierten Darstellung der Folge, indem man die verschiedenen Bi nicht durch gleichlange Zeichenketten der Länge N, sondern durch Zeichenketten unterschiedlicher Länge Li mit Li ³  - log p(Bi) kodiert. Die maximale Kompression wird durch die Entropie H bestimmt und die Aufrundung der Kodelängen fällt mit zunehmendem N immer weniger ins Gewicht.

    Es wird also nur bewiesen, was prinzipiell gilt, was möglich und für bestimmte Zwecke notwendig ist. Zur Veranschaulichung der Bedeutung der Berücksichtigung der Wahrscheinlichkeiten beliebig langer Zeichenk-etten für den Beweis seien zwei Beispiele angeführt:

    Gibt man beispielsweise die Farbwerte eines Pixelbilds mit einer Breite von 600 Pixeln zeilenweise nacheinander an, so liegen zwischen den Werten ursprünglich untereinander liegender Pixel 599 andere Werte, und die häufig vorhandenen Beziehungen zwischen untereinander liegenden Pixeln gehen überhaupt erst bei Kettenlängen von mehr als 600 in die Berechnung der Entropie ein.

    Der Zufallsgenerator eines bekannten Programmiersystems erzeugt eine Folge, die sich nach je 232 = 4 294 967 296 Elementen exakt wiederholt. Weiß man das, so folgt aus der oben stehenden Definitionsgleichung, dass die unendlich lange Folge insgesamt eine Entropie von 32 Bit hat, weil immer nur 232 verschiedene Teilfolgen beliebig großer Länge N > 232 vorkommen. Daraus folgt Bit. Die Folge ist mithin voll redundant. Wenn man das Bildungsgesetz kennt, das diese Redundanz erzeugt, dann genügt eine Datenmenge von 32 Bit, um beliebig lange Folgen eindeutig zu bestimmen.

    Die beiden Beispiele zeigen einerseits, dass Shannons Definition tatsächlich die verschiedensten Gesetzmäßigkeiten erfasst, andererseits aber auch, dass es im allgemeinen gar nicht möglich ist, die Entropie und die Redundanz einer gegebenen Folge mit Hilfe der Definitionsgleichung zu berechnen. Man kann sich diesen Größen nur annähern, indem man alle denkbaren Möglichkeiten zur Auffindung gesetzmäßiger Abhängigkeiten zwischen den Daten nutzt und überprüft, wieviel Angaben danach zur Rekonstruktion der Ausgangsdaten noch nötig sind, d. h., wie groß die verbleibende Entropie ist.

    Dass die Redundanz einer gegebenen Folge ein Maß für die Gesamtheit der darin enthaltenen Gesetzmäßigkeiten ist, wird in den Einführungen in die Informationstheorie in der Regel gar nicht erwähnt. Allein schon die Bezeichnung Redundanz, die Beschränkung des Nutzens dieser Größe auf die Erhöhung der Sicherheit und Robustheit der Datenübertragung und nicht zuletzt die Einführung als Differenz zwischen der Maximalentropie und der tatsächlichen Entropie werden der wichtigen Rolle der Redundanz bei Anwendungen außerhalb der Nachrichtentechnik in keiner Weise gerecht.

    Shannons Definitionsgleichung für die Entropie lässt aber auch eine andere und dieser Sachlage angemessenere Interpretation zu: Die obere Schranke GN für die Entropie kann beim Übergang von N zu der nächsthöheren Näherung + 1 nur fallen, die Redundanz mithin nur ansteigen. Das bedeutet, dass durch die Erfassung der statistischen Eigenschaften immer längerer Zeichenketten primär immer mehr Redundanz aufgedeckt wird und eigentlich die Entropie nur der Rest ist.

    3. Bedingungen für die Bildung von Begriffen

    Eine Sprache scheint zunächst nur die Zuordnung von Laut- oder Zeichenfolgen zu wahrnehmbaren Dingen, Vorgängen, Verhältnissen usw. zu sein, bezieht sich aber tatsächlich auf die Begriffe, die das Weltbild konstituieren. Da das oben als ursprünglich bezeichnete Weltbild spontan entsteht, braucht man sich zunächst über die Grundlagen der Begriffsbildung keine Gedanken zu machen und kann sich völlig auf die Formulierung der Vorschriften für die Zuordnung der Begriffe zu den Wahrnehmungen, d. h. die Begriffsdefinitionen, und die Beschreibung aller möglichen Beziehungen zwischen verschiedenen Begriffen und Operationen mit diesen konzentrieren.

    Problematisch wird es erst, wenn man durch bewusst gesteuerte Verstandestätigkeit neue - theoretische - Begriffe konstituieren will und meint, es käme nur auf die Definition an. Dann stellt man bald fest, dass noch irgendeine vernünftige und einleuchtende Bedingung fehlt, die die Beliebigkeit einschränkt. Denkbar wäre es beispielsweise, nur solche Begriffe zuzulassen, die mit Hilfe einer bestimmten Methode hergeleitet werden können.6 Aus den Ausführungen im ersten Teil ergibt sich jedoch eine notwendige Bedingung für die Begriffsbildung, die bisher noch nicht bemerkt wurde.

    Eine Sprache beschreibt nicht einfach die Phänomene, sondern stellt sie vor allem in sehr komprimierter Form dar. Das ist keine zweitrangige quantitative Angelegenheit, es ist auch nicht dem Unvermögen geschuldet, alle Einzelheiten beobachteter Phänomene zu behalten und wiederzugeben, sondern ist eine Notwendigkeit, ohne die die Sprache ihre Funktion im Alltag, im Beruf und speziell auch in den Wissenschaften nicht erfüllen kann.

    Grundlage aller komprimierten Darstellungen ist die Redundanz. Das Mittel zur diesbezüglichen Nutzung der Redundanz ist die kurze Kodierung häufig auftretender Komplexe zusammengehöriger oder in irgendeiner engeren Beziehung zueinander stehender Daten. Diese kurze Kodierung ist nur möglich, weil die Anzahl der häufig auftretenden Komplexe zwangsläufig wesentlich geringer ist als die Anzahl derer, die man rein formal bilden könnte. Daraus ergibt sich die zwingende Notwendigkeit, die Vergabe kurzer Kodes auf das zu beschränken, was in dem betreffenden Umfeld häufig auftritt, und zur Verbesserung der Darstellung ständig nach solchen häufig wiederkehrenden Elementen in der Fülle der Erscheinungen zu suchen. Die Bildung von Begriffen, die durch einzelne Worte der Sprache benannt werden sollen, ist mithin nur dann gerechtfertigt und zulässig, wenn das durch sie Bezeichnete in dem durch die Sprache zu Beschreibenden häufig genug auftritt.

    Bei der Bildung von Begriffen ist also zweierlei notwendig und voneinander zu unterscheiden: die Begründung und die Definition. Die Begründung stützt sich auf Erkenntnisse über die allgemeine Struktur der Gesamtheit des zu Beschreibenden, die Definition ist in erster Linie eine Handlungsanweisung, mit deren Hilfe man prüft, ob das dem Begriff Entsprechende in dem aktuell zu Beschreibenden enthalten ist.

    Das lässt die Möglichkeit mehrerer gleichberechtigter Definitionen offen. Für den Begriff Energie, dessen Begründung seine universelle Anwendbarkeit ist, gibt es beispielsweise in jedem Spezialgebiet der Physik eine andere Vorschrift zur Bestimmung der dadurch bezeichneten Größe, d. h. eine andere Definition. Das ist zugleich ein Hinweis darauf, dass man einen Begriff und seine Definitionen auseinanderhalten muss. Die Definitionen müssen selbstverständlich äquivalent sein. Da eine solche Äquivalenz durch neue Erkenntnisse immer relativiert werden kann, wird oft gefordert, nur eine von mehreren Definitionen als die gültige und die anderen als ggf. zu korrigierende Gesetze anzusehen.

    Gegenüber der Begründung für die Bildung eines Begriffs sind viele der bisher als grundlegend betrachteten Unterschiede von zweitrangiger Bedeutung. Ob es sich um eine einzelne Person handelt, die in einem bestimmten Bereich immer wieder auftritt und dadurch "redundant" ist, eine Klasse von Gegenständen, eine Eigenschaft, eine Tätigkeit, ein Prozess, ein Strukturmerkmal oder was auch immer - maßgebend allein ist, dass es sich um etwas handelt, was in den Beschreibungen des jeweiligen Realitätsbereichs immer wieder gebraucht wird, so dass es gerechtfertigt ist, den entsprechenden Sachverhalt zum Begriff zu erklären und dafür ein Wort der Sprache zu reservieren. Die vorgenannten Unterscheidungen spielten allein deshalb bisher eine so große Rolle, weil immer wieder versucht wurde, die Begriffsbildung von der Definition her zu begründen.

    Wie schwierig es ist, die geeignetsten Begriffe für die Beschreibung eines Realitätsbereichs herauszufinden, zeigt die historische Entwicklung aller wissenschaftlichen Disziplinen.

    4. Bedingungen für die Formulierung von Gesetzen

    Nach den Ausführungen im zweiten Abschnitt lässt sich die Redundanz der Sinneseindrücke im allgemeinen nur dadurch ermitteln, dass man Gesetzmäßigkeiten auffindet, die die Entropie der Sinneseindrücke herabsetzen. Das kann nur so erfolgen, dass man entsprechende Hypothesen aufstellt und überprüft, ob sich mit ihrer Hilfe die Zufälligkeit der Erscheinungen verringern lässt. Hier sind die schöpferischen Fähigkeiten des Menschen gefordert und das Verfahren scheint auf den ersten Blick die kreativistische Position zu stützen.

    Das wäre tatsächlich der Fall, wenn der Mensch durch die Gesetze, die sich bei diesem Verfahren als brauchbar erweisen, die Redundanz und damit die Ordnung erst erzeugen würde. Doch die Gesetze sind nur der Nachweis einer Redundanz, d. h., wenn es möglich ist, mit Hilfe der Gesetze die Zufälligkeit der Erscheinungen zu verringern, dann kann das nur geschehen, wenn diese tatsächlich die entsprechende Redundanz enthalten. So betrachtet gründet sich die kreativistische Position vor allem darauf, dass sich ihre Vertreter vergeblich fragen, was wohl in der ungeheuren Fülle einzelner Sinneseindrücke an Bedingungen für die Formulierung von Gesetzen objektiv enthalten sein könnte, weil ihnen der erst durch die Informationstheorie exakt definierte Begriff dafür fehlt.

    Mit Hilfe des Kriteriums der Verringerung der Zufälligkeit lässt sich nur feststellen, ob ein formuliertes Gesetz einen Schritt in die richtige Richtung darstellt, aber nicht, ob und inwieweit dieses Gesetz mit einem fiktiven, dem gesamten Geschehen zu Grunde liegenden Gesetz der Natur übereinstimmt oder wenigstens dem nahekommt, was sich im Grenzfall der vollständig erfassten Redundanz einstellen müsste. Hier liegt ein Sachverhalt vor, der allen, die sich an dieser Diskussion beteiligen, klar sein muss: Da die Folge der entdeckten Redundanz monoton steigt und es dafür eine obere Schranke gibt, nämlich die vollständige Redundanz (die völlig zufallsfreie Beschreibung alles Geschehens), existiert ein Grenzwert, und das mit völliger Gewissheit, auch wenn man ihn nicht angeben kann. Die Gesetze, mit deren Hilfe man nacheinander immer mehr von dieser Redundanz erfasst und sich somit dem Grenzwert nähert, können aber unterschiedlich sein; vor allem ist es nicht nötig, dass eine bessere Näherung lediglich eine Verallgemeinerung einer vorangehenden ist und diese rein formal als Spezialfall der besseren dargestellt werden kann. Derartige Richtlinien sind keine irgendwie herleitbaren Bedingungen, sondern Bestandteile der im Laufe der Zeit auf Grund von Erfahrungen für eine zielgerichtete Forschungsarbeit entwickelten Strategien. Alle Argumente, die Paul Feyerabend in Probleme des Empirismus und Wider den Methodenzwang vorgebracht hat, sind damit hinfällig. Die Bedeutung dieser Schriften besteht vor allem darin, dass sie ohne jeden Versuch, einen beschönigenden Ausweg zu finden, klar und deutlich die Konsequenzen beschreiben, die sich dann ergeben, wenn man wie Paul Feyerabend der unumstößlichen Überzeugung ist, dass es keine rationale Verbindung zwischen den Zeugnissen der Sinne und den Sätzen der Naturwissenschaften gibt und eine solche prinzipiell auch niemals aufgefunden werden kann.

    5. Bemerkungen zur Einheit der Natur

    Die Einheit der Natur ist der Titel eines seit 1971 immer wieder neu aufgelegten Buches von Carl Friedrich von Weizsäcker7, zugleich aber auch ein Begriff, der von konstruktivistisch und kreativistisch orientierten Wissenschaftstheoretikern als bloße Metapher für eine historisch durchgehaltene Zielsetzung8 betrachtet oder als unbegründbarer Mythos9 abgelehnt wird.

    Die Einheit der Natur ist jedoch keine frei erfundene Zielvorstellung, sondern eine notwendige Bedingung für die Möglichkeit jeglicher Naturwissenschaft. Sie muss vorhanden sein, damit es überhaupt Naturwissenschaft geben kann. Sie zeigt sich vor allem darin, dass verschiedenartige Phänomene niemals im Widerspruch zueinander stehen. Die rationale Auflösung scheinbarer Widersprüche war sogar in der Vergangenheit oft die Quelle vieler revolutionierender Erkenntnisse - der Newton’schen Mechanik, der elektromagnetischen Wechselwirkungen, des statistischen Ausdrucks für die Entropie, der Entdeckung des Wirkungsquants, der speziellen Relativitätstheorie (Trägheit der Energie) u. v. a. Auch der ausgeklügeltste Laborversuch und die kunstvollste Maschine sind immer Teile der Natur. Was dabei geschieht und zu beobachten ist, steht niemals im Widerspruch zu irgendwelchen anderswo ohne menschliches Zutun ablaufenden Vorgängen (wie Vertreter der kreativistischen Position nicht selten behaupten).

    Viele Phänomene, die scheinbar voneinander völlig unabhängig sind, bedingen einander in der Weise, dass das eine so sein muss, wie es ist, weil das andere so ist, wie es ist. Ob die Einheit jedoch so weit geht, dass alle Phänomene in allen Stücken einander bedingen und sich alles rational auf ein einziges Grundprinzip zurückführen lässt, ist allerdings fraglich. Das ist auch keine notwendige Bedingung für die Möglichkeit der Naturwissenschaft.

    Anmerkungen

    1 Das entspricht den kategorischen Beobachtungssätzen von W. V. O. Quine.

    2 Vgl. z. B. Friedrich Hund: Geschichte der physikalischen Begriffe. Heidelberg; Berlin; Oxford: Spektrum Akad. Verl. 1996

    3 Vgl. z. B. die Übersichtsartikel: Cantwell, B. J.: Organized motion in turbulent flow. Ann Rev. Fluid Mech. 13 (1981) 457-515 und Hussain, A. K. M. F.: Coherent structures and turbulence. Journ. Fluid Mech. 173 (1986) 303-356

    4 Mascheck, H.-J., Informationstheoretische Probleme der Turbulenz. TU Dresden, Sektion 12, WB Strömungstechnik, AG WSÜ, Forschungsbericht 27.11.1978
    - , Informationstheoretische Beschreibung der Turbulenz, Wiss. Z. d. TU Dresden, 29 (1980), 467-470.
    - , Ergebnisse der Anwendung der Informationstheorie für die Probleme der turbulenten Bewegung. Berichtsband 4. Tagung der Abt. Mathematik/Rechentechnik IH Köthen 1980, S. 57-65
    - , Stochastic Models of Turbulence, Seminar "Cislennye metody resenij uravnenij balansa", Berlin 20.-25.10.1980, AdW der DDR, ZI für Mathematik und Mechanik, Report R-05/80, S.57 63
    - , Informationstheoretischer Zugang zur Turbulenztheorie. ZAMM 64 (1984), S. M478-M479.

    5 Mascheck, H.-J., Grundzüge einer Theorie der Strukturmodelle in der statistischen Strömungsmechanik. TU Dresden, Sektion 12, WB Strömungstechnik, Forschungsbericht Dez. 1984
    - und D. Leuschner: Strukturmodell der turbulenten Grenzschicht. Wiss. Z. TU Dresden Heft 6/1988, 37, 95 - 100.
    - und D. Leuschner: Die Informationsentropie als Grundlage für eine Strukturtheorie der Turbulenz und die Entwicklung von Berechnungsverfahren. Technische Mechanik 9, 1988, 218 - 224

    6 Unter diesem Gesichtspunkt könnte man den logischen Aufbau der Welt von R. Carnap und den Konstruktivismus der Erlangen-Konstanzer Schule betrachten.

    7 v. Weizsäcker, C. F., Die Einheit der Natur. München: Carl Hanser Verlag 1971; Deutscher Taschenbuchverlag 1974 ff.

    8 Enzyklopädie Philosophie und Wissenschaftstheorie, herausgeg. v. J. Mittelstraß. Mannheim 1984; Stuttgart 1995. Artikel "Einheit der Natur", Verf. P. Janich

    9 Mittelstraß, J. , Wissen und Grenzen. Suhrkamp-Taschenbuch Wissenschaft Nr. 1566. Frankfurt am Main 2001. S. 112 - 117