Wissenschaften

Die Wissenschaften

  • Was sind die grundlegenden Kräfte der Natur?
  • Was hält die Welt in ihrem Innersten zusammen?
  • Was sind die kleinsten Teilchen und welchen Gesetzen folgen sie?
  • Welche ‚Eigenschaften haben Quantenobjekte?

(Welle oder Teilchen, welche Realität besitzen sie?)

  • Was verbindet das Kleinste mit dem Größten?
  • Was war am Anfang des Universums?
  • Welche Struktur besitzt das Universum?
  • Wodurch endete die „dunkle Ära“ des Universums?

(Vor der Bildung der ersten Sterne, rund 100 Mio. Jahre nach dem „Urknall“)

  • Welchen Gesetzen folgte die physikalische, chemische und biologische Evolution?
  • Welche Kräfte treiben das Universum auseinander?           
  • Welche Kraftträger gibt es außer der sichtbaren Materie?
  • Was ist unter der „Dunklen Energie und der „Dunklen Materie“ zu verstehen?

Für welche Kräfte stehen diese Phänomene?

Welche Eigenschaften haben sie?

  • Gibt es noch andere Universien, ein Multiversum?

(Die Naturgesetze könnten dabei sogar von Weltall zu Weltall variieren. Wir könnten es nicht feststellen.)

  • Wann endet alles?

Während die Religionen primär emotionale Orientierungsmodelle darstellen, erhalten wir von den Wissenschaften rationale. Beide sind Konstrukte des menschlichen Gehirns, nur werden beide von verschiedenen Hirnregionen beherrscht. Auf beide nehmen unsere evolutionären Grundausrichtungen, Fortpflanzung und Brutschutz einerseits und unsere kulturelle Existenzsicherung in Form von Ritualen und sozialen Wertfestlegungen andererseits Einfluss. Beide bestimmen in unseren jeweils gelebten Kulturen über Orientierungssetzungen und unsere sprachlichen Logiksysteme unser Denken. Unsere heutigen Probleme entstehen dadurch, dass wir einerseits biologische, evolutionäre Entwicklungsanlagen über ein kulturelles Gleichheitsgebot aufzuheben versuchen und andererseits unsere brutalen Gewaltanlagen, einst benötigt zur Tötung anderer Lebewesen für unsere Ernährung und dem Erkämpfen von sozialen Positionen, über ein interessenangelegtes humane Massenausrichtung leugnen. Für die Behebung dadurch auftretenden individuellen Störungen hat man eigene Berufsgruppen (Psychologen) und umfassende Rechtfertigungsunterlagen von großen Wissenschaftlergruppen geschaffen. Die Ungleichheit aller Individuen, der Geschlechter, der Intelligenzen usw. und damit unsere über  Jahrmillionen gewachsene verschiedene biologische Ausstattung des Ringens immer neuer DNA-Mischungen, unserer materiellen Gen-Ausrüstung versuchen wir über eine Individualismusideologie zu überwinden. Nicht indem wir unsere jeweiligen Ausprägungen in ihrer Eigenständigkeit in ihrer Verantwortung gegenüber dem Sozialen folgen, sondern über ein allumfassendes Freiheitsrecht, alle unsere möglichen Bedürfnisse möglichst unbegrenzt ausleben zu können, – letztlich zu Lasten der Natur, die wir dadurch schrittweise zerstören und uns damit nach und nach unserer homoiden Lebenshintergrundes berauben. Ob wir es wollen oder nicht wollen, auch wir sind nur Teil der Natur und auf diese in ihren komplexen Bezügen existentiell angewiesen.

Unsere Wissenschaften sind darauf ausgerichtet, uns Orientierungshilfen zu geben. Dabei ist ein Zentraleinhalte die Beherrschung unserer Umwelt, d. h. der Natur, was langfristig, da der Mensch nur kausal denken kann, die Natur aber komplex organisiert ist, zu deren Zerstörung führt. In seiner westlichen Zivilisation entfernt sich der Mensch immer mehr von ihr (in seiner Ernährung, seiner Fortbewegung, seinem Lebenserhalt, seinem Denken). Seine biologischen Programmierungen werden sozial zunehmend als kulturfeindlich angesehen (z. B. seine Sexualität durch den Feminismus, seine Gewaltprogrammierungen über ein Tabu). Nur was der Naturzerstörung dienlich ist, wird gefördert, so seine naturfremde Statusorientierung in dem von ihm gelebten Kapitalismus (dem größeren Auto, der größeren Villa, der größeren Yacht, dem Bewusstsein als vielfacher Geldmillionär nur der Mittelschicht anzugehören).

Alle unsere Erkenntnisse basieren auf Versuchen, kausale Abfolgen zu verstehen, nachzuvollziehen und zivilisatorisch zu seinen Vorteilen zu nutzen. Die Tatsache, dass alles Dasein dagegen komplex angelegt ist, und in seinem Kern letztlich alles mit allem zusammenhängt, wird dabei im besten Falle nur am Rande geahnt. Alle Wissenschaft ist nur eine rationale Orientierungssuche innerhalb der menschlichen Grenzen. Ihre Ergebnisse erweitern unser „Wissen“ und dieses Wissen erweitert unsere Macht über die Natur, bzw. das ihrer Nutzer. Wir bewundern evtl. ihre Einzelergebnisse, verstehen sie aber in ihren komplexen Zusammenhängen tatsächlich immer weniger. Wenn sie unseren Identitätsvorstellungen (z.B. unseren religiösen) widersprechen, so brillant sie auch sein mögen, erhalten sie kaum einen Einfluss auf unsere Orientierung.

Alle unsere wissenschaftlichen Ergebnisse sind mehr oder weniger nur zeitabhängig. Sie basieren auf:

  • unserer neuronalen Verarbeitungsfähigkeit (u. a. unserer Fähigkeit zur Bewertung kausaler Zusammenhänge), banal ausgedrückt, von unserem individuellen Stoffwechsel, der wiederum das Ergebnis unserer genetischen Ausstattung,unserer Prägungen, unserer Ernährung und unserer Bewegung ist.
  • unseren Beobachtungen und damit unserer wertabhängigen Registrierung von Fakten.
  • unseren kulturellen Vorgaben, unseren Logiksystemen, über die wir kausale Zusammenhänge bewerten.

Der menschliche Erfolg liegt in seiner Fähigkeit des Nachbaus der beobachteten kausalen Zusammenhänge und damit seiner Möglichkeit, sie im Sinne seiner Zivilisation zu steigern. Sein Problem, ihr Nachteil dabei ist deren Herausnahme aus ihrer Komplexität und damit der jeweiligen Vergewaltigung ihres betroffenen Umfeldes, was dann letztlich zu dessen Zerstörung führt.

Jede Gesellschaft ist auf ihre Wissenschaftler angewiesen, keine kann auf sie als kulturbestimmende Elite verzichten und stattet sie deshalb mit einer Reihe von Privilegien aus. Diese Privilegien sind es in unserer Gesellschaft, die ihre Positionen als erstrebenswert erscheinen lassen, die mit Neid und Macht umgeben sind, oft über Einflussstrategien besetzt werden und deshalb zunehmend auch unqualifizierte Vertreter in ihren Reihen haben. Die Massenakademiker versuchen sie, als für sich unerreichbar, oft abzuwerten, indem sie deren Elitestatus aufzuheben versuchen.

Es sind hauptsächlich drei große Fragenkomplexe denen sich die Wissenschaften widmen

  • Grundfragen (erkenntnistheoretische Fragen): Ihre Beantwortung erfolgt allgemein über die Metaphysik (Philosophie) und konkreter dann über die Erkenntnistheorie. Früher geschah dies zunächst über Mythen und dann über die Religionen. Fast alle ihre Antworten auf sie waren Theorien, Annahmen, zeitabhängige Paradigmen:
    • Was stand am Anfang allen Seins?
    • Aus welchen Urexistenzen und nach welchen Urgesetzen entstand das Universum und die Materie?
    • Nach welchen Gesetzen erfolgte die Evolution der Materie (organisierte sich die Materie)?
    • Wie entstand aus „toter“ Materie Leben?
    • Wie entstand innerhalb des Lebens unser Bewusstsein?
  • Orientierungsfragen: Fragen nach unseren Orientierungskriterien, unseren Logiksystemen und unseren Werten, d. h. unseren Orientierungssetzungen. Ihre Beantwortung erfolgt über die Logik, die Wissenschaftstheorien, die Ethik und bezieht sich in der Regel auf Antworten auf die Grundfragen. Ihr allgemeines Ergebnis ist das jeweilige Orientierungsmodell unserer Kultur.
  • Technologische Fragen: Sie bilden den Hauptinhalt unserer verschiedenen Wissenschaften. Sie zielen weitgehend auf Verfahrenstechniken zur Unterwerfung der Natur, der anthropogenen Anpassung von jeweiligen Gegebenheiten, des sozialen Zusammenlebens der Menschen oder der physischen und psychischen Gesundheit ihrer Individuen. Ihr Ergebnis ist unsere jeweilige Zivilisation. Ihre Antworten werden weitgehend von den Orientierungsfragen beeinflusst.

Unsere Wissenschaften bestimmen heute unsere Weltbilder. Sie schufen einst über den Umweg der Philosophie unsere Emanzipation von der Theologie. Über ihre zunehmende Dynamik veränderten die

  • Weltreisen des 15. und 16. Jhs. unsere Globen und unsere Vorstellungen von der Erde.
  • Autopsien unser Wissen über den menschlichen Körper.
  • Ausstellungsobjekte aus anderen Kulturen unser Wissen über diese.

Im 16. Jahrhundert wurden die entscheidenden Grundsteine für unser heutiges Weltbild gelegt, aufbauend auf empirische Erfahrungen und der Skepsis gegenüber dem kirchlichen, kanonisch bestimmten Wissen. Das alte „Wissen“ wurde dadurch brüchig. Getragen wurde dieses Verhalten von der Neugierde, der Triebfeder aller wissenschaftlichen Bemühungen. Sie erwächst aus unserem archaischen Bedürfnis nach einer gesicherten Orientierung. Dabei ist es eine Frage, ob wir auf Grund unserer anthropoiden Erkenntnisgrenzen überhaupt die letzten Geheimnisse des Universums werden erkennen können. Wir orientieren uns zurzeit an den Formeln der vier physikalischen Kräfte und versuchen diese in einer Feldformel zu vereinen. Vielleicht gibt es aber noch weitere, uns heute noch unbekannte Einflussgrößen, die wir als solche für deren Vereinigung benötigen. Was immer wir am Ende finden werden, es wird immer nur eine anthropogene Formel sein.

Unsere Kulturen bestehen aus einer Summe von Grundannahmen, über die seit einem längeren Zeitraum ein allgemeiner Konsens besteht, den sogenannten Paradigmen. Sie bestimmen nach Kuhn die Inhalte, d.h. die vorherrschenden Denkmuster, wie wir die Welt sehen sollen und unsere jeweiligen Vorgehensweisen. Verbunden damit sind auch unsere Interpretationen unserer wissenschaftlichen Untersuchungen. Sie stellen den jeweiligen Konsens in unseren Wissenschaften dar. Es kommt nach Kuhn zu wissenschaftlichen Revolutionen, wenn bisherige Paradigmen durch neuere abgelöst werden. So erfolgte durch eine solche Ablösung

  • die Wende vom geozentrischen zum heliozentrischen Weltbild,
  • der Phlogistontheorie (Theorie über die Oxidationsvorgänge) durch Lavoisiers Sauerstoffchemie,
  • der Physik Newtons durch Einsteins Relativitätstheorie.

Nach Kuhn stellen sie die Orientierungsgrenzen der Wissenschaftler dar, nach Lakatos (Hauptkritiker Kuhns) stellen sie nur einen Kern der sie tragender Theorien dar, die von sie schützenden Hilfstheorien umgeben werden. Kuhn lehnte Poppers falsifikatorischen Ansatz ab, weil nach ihm Paradigmen erst aufgegeben werden, wenn sie durch andere ersetzt werden können.

Noch nie besaß die Wissenschaft eine so große Deutungsmacht, wie sie diese zurzeit in Deutschland besitzt. Fast alle sozialen Entscheidungen folgen ihren Aussagen. Das Problem dabei ist, dass viele von ihnen interessenabhängigen Vorgaben folgen (z. B. bei geschlechts-, familienbezogenen oder Klimaergebnissen). Oft bestimmen auch Autoritäten und Wissenschaftsschulen die jeweiligen Diskussionen (z. B. beim Urknall). Eine Folge davon ist, dass einerseits das Vertrauen in die Wissenschaften gestiegen ist, man aber andererseits zunehmend obskuren Versprechungen von Charismatikern zu folgen bereit ist (z. B. bei homöopathischen Heilsversprechungen). Durch die Macht einzelner Wissenschaftsschulen ist es oft schwer, gegen deren beherrschenden Meinungsstrom zu schwimmen. Dann werden die jeweiligen Debatten nicht von einer zu erwartenden Rationalität, sondern von der Gesinnung der Diskutierenden bestimmt.

Ein Wissen stellt rational begründete Orientierungskriterien dar. Im Mittelalter ging es darum, zu fragen, was Gott uns mit den Naturphänomenen sagen wollte. Die Natur verstand man als eine Summe seiner Zeichen. Heute versucht man sie dagegen kausal als eine von Gesetzen determinierte Funktionsfolge zu erklären. Seit Galilei gilt nur noch als wissenschaftlich wahr, was gemessen werden kann. Descartes trennte dann die Geistes- und Naturwissenschaften  durch seine „res cogitans“ und die „res extensa“, dem bewussten Geist von der beseelten Materie. Er trennte das Subjekt aus dem Bereich der naturwissenschaftlichen Phänomene. Seit der Aufklärung wurden dann allein das rationale Denken und die Logik zur Grundlage aller Erkenntnis, – ihre Summe wurde die Wissenschaft. Voraussetzung für ihre Anerkennung wurde ihre  Überprüfbarkeit, d. h. ihre intersubjektive Nachvollziehbarkeit. Ihre Ziele wurden

  • die Gewinnung neuer Erkenntnisse (Orientierungswege),
  • die Ermöglichung von Voraussagen,
  • das Aufzeigen von technischen Möglichkeiten zur Beherrschung der Natur(der Menschheit, der Welt).

Nach Kuhn verläuft ihre Entwicklung in Sprüngen (Paradigmen). Nach Popper können wir allerdings nicht Wahrheiten erkennen, sondern nur gewisse Gewissheiten, Bewährungen von Thesen für deren Brauchbarkeit (= „kritischer Realismus“).

Die Wissenschaften bestätigen nur theoretische Konzepte. Ihre Inhalte und Methoden werden von den Paradigmen der  jeweiligen Forschungsbereiche bestimmt, die erst durch neue Theorien außer Kraft gesetzt werden können. Alle „Wahrheiten“ sind danach nur die Ergebnisse von Einsichten, die rational mit Hilfe von Argumenten begründet werden können. Eine Gewissheit erlangen sie über deren Brauchbarkeit über eine Wirklichkeit. Das bedeutet, dass alle wissenschaftlichen Erkenntnisse nur die zeitabhängigen Endergebnisse von komplexen, sozialen Prozessen sind. Was sich nicht in diese einordnen lässt, wird als Anomalie empfunden. Damit sind sie

  • von Voraussetzungen abhängig und
  • an Wertvorstellungen gebunden.

Nicht in die Paradigmen passende Kriterien werden

  • ausgeblendet,
  • neue Fakten eventuell zurechtgebogen, bestritten.

Da ihre Vertreter ihre Positionen oft dogmatisch vertreten, wagt man oft – trotz besserem Wissen -, ihnen nicht zu widersprechen. Die Reaktionen können sein

  • als „unwissenschaftlich“ hingestellt zu werden (das härteste „wissenschaftliche“ Urteil),
  • als „außerwissenschaftlich“ (was wissenschaftlich belegbar ist, aber nicht den geltenden Paradigmen entspricht),
  • die betroffenen Phänomene als nicht erklärbar, nichtkausal.

Anders Denkende werden dann

  • diffamiert,
  • Beweise nicht akzeptiert,
  • deren Aussagen bezweifelt,
  • ausgeschlossen (nicht zu Kongressen eingeladen, ihnen keine Redezeit gewährt),
  • nicht publiziert,
  • tot geschwiegen (gilt auch gegenüber vermeintlichen oder tatsächlichen Konkurrenten).

Da es zurzeit etwa 4000 verschiedene wissenschaftliche Einzeldisziplinen gibt, die alle ihre Existenz über Veröffentlichungen nachzuweisen versuchen, damit aber durch ihre Komplexität völlig unüberschaubar werden, ist die von uns jeweils erfasste wissenschaftliche Wirklichkeit immer nur ein Ausschnitt aus dem tatsächlichen wissenschaftlichen Sein, das in seiner Ganzheit ein Spiegelbild des jeweiligen menschlichen Seins in seiner jeweiligen Zeit darstellt.

Das Problem des Menschen und damit auch das seiner Wissenschaften ist dessen begrenzte persönliche Erkenntnisfähigkeit. Alle seine Erkenntnisse bauen auf kausalen Logiksystemen, während das Sein komplexen Abläufen folgt. Mit dem zunehmenden Erreichen des Verständnisses vieler kausaler Zusammenhänge werden uns gleichzeitig deren komplexe Verhältnisse bewusst. Wir wissen inzwischen, dass

  • auch unser Bewusstsein ein Ergebnis komplexer neuronaler Zusammenhänge in unserem Gehirn ist.
  • die Natur in ihrer Gesamtheit komplex organisiert ist. Jeder Eingriff berührt sieimmer auch in ihrer Ganzheit (kybernetisches Bild: Jeder Flügelschlag eines Schmetterlings in Australien hat auch Auswirkungen auf mich).
  • wir der Welt der Astro- und der Quantenphysik nur noch über Hypothesen folgen können, die in unsere Logiksysteme eingebettet sind, d. h. sich letztlich auf unsere sinnlichen Wahrnehmungswelt beziehen, aus ihr abgeleitet sind, sich aber unserem tatsächlichen Verständnis (bisher) entziehen.
  • die globale Weltwirtschaft, die sich aus der Fülle von vielen Einzelaktivitäten zusammensetzt, die sich aber inzwischen ihrer Komplexität wegen sich unserem Verständnis völlig entziehen. Abstrakt fassen wir sie vereinfachend unter dem Begriff des Kapitalismus zusammen, in dessen Abhängigkeit jeder von uns steht. Die globale Finanzwelt ist nur eines ihrer Phänomene, deren vergangene Krise nur ein Ausdruck unseres Unverständnisses ihrer Zusammenhänge ist.

Unser anthropogenes Problem ist, dass wir durch unsere Eingriffe in unsere Umwelt, d. h. letztlich in die Natur, im Grunde deren Endfolgen nie wirklich bedenken, bzw. erkennen. Auf diese Weise werden wir zu einer Art Krebsgeschwür für die Natur, und unsere persönlichen und sozialen Egoismen hindern uns, unsere Eingriffe in sie stärker zu hinterfragen.

Die Wissenschaften stellen den Versuch dar, evtl. über mögliche Irrtümer, kausale „Wahrheiten“ zu erkennen und damit neue Orientierungswege für die jeweiligen Gesellschaften zu finden. Unser Problem ist, dass bisher mit jedem neuen Wissen, auch das Erkennen unseres Nichtwissens wuchs und damit unsere Orientierung sich immer schwieriger gestaltete. Ein Wissenschaftler zu sein, bedeutet an den menschlichen Erkenntnisgrenzen zu arbeiten. Einer seiner Vorteile ist, dass er sich dabei selber in seinen Grenzen erkennen kann, zumal sein persönliches Wissen immer nur begrenzt sein kann. Es ist denkbar, dass er mit seinem Verstand das gesamte Universum erfassen kann mit allen seinen Gesetzen. Dabei muss er sich darüber im Klaren sein, dass er damit nicht an dessen Grenzen stößt, sondern immer nur an seine eigenen.

Unser Dasein ist deterministisch angelegt, – von einer uns unbekannten Vergangenheit bewegen wir uns auf eine uns unbekannte Zukunft hin. Aus dem Quantenbereich wissen wir, dass wir unsere Gegenwart nicht sicher erfassen können. Alle zukünftigen Zustände werden für uns immer einen gewissen Unsicherheitscharakter behalten, während das Sein unbeirrt sich seinem möglichen Ziel entgegen bewegt. Alle unsere Erkenntnisversuche haben einen ökonomischen und einen ethischen Hintergrund,

  • der ökonomische berührt unsere sozialen Prioritätsentscheidungen,
  • der ethische unsere bereits verinnerlichten Orientierungsprogramme.

Bei allen unseren großen Forschungsprojekten stellt sich auch die Frage nach deren Nutzen. Was bringt uns ein Glaube an einen Urknall. Wahrscheinlich nicht mehr als der an einen Gott mit einem Rauschebart des Michelangelo. Oft helfen uns existenzfremde Projekte uns von unseren tatsächlichen anthropogenen  Existenzproblemen abzulenken. Und bei unseren ethischen Fragen zeichnet sich zunehmend das Problem ab, ob wir alles das tun sollten, was wir theoretisch können, z. B. unsere Gene im Sinne eines „Idealmenschen“ neu zusammenzusetzen oder perspektivisch, auf neue Aufgaben gerichtet, mit digitalen Teilen uns so zu verbinden, dass wir dann als Cyborgs weiter existieren. Es wäre der Versuch, unser bisheriges fehlerbehaftetes, aber zu echten Empfindungen, zu Glück befähigten Menschsein zugunsten einer programmierten Algorithmengestalt zu verlassen. Nur wollen wir das? Sind wir dann wirklich noch Menschen, die wir als Menschen verstehen.

In unserer Sinngebung und damit in unserer Orientierung orientieren wir uns an Werten, an Werten die uns einerseits unsere Gesellschaft vermittelt hat und die andererseits von den geistigen Eliten ständig neu interpretiert, beeinflusst und in seltenen Fällen sogar paradigmatisch neu geschaffen werden. Den Wissenschaften kommt dabei eine besondere Bedeutung zu. Dank ihrer Erkenntnisse gestalten sie die Zivilisation, indem sie deren Beziehungen zu ihrer Umwelt gestalten helfen. Gebunden an ihr rationales Kausaldenken schaffen sie die kulturellen Beziehungen zwischen den individuellen Subjekten und deren Bezugsobjekten. Indem die Wissenschaftler betrachtungsmäßig zunächst letztere aus ihren Beziehungssystemen lösen, können sie diese für ihre Zwecke instrumentalisieren. Die Probleme, die dabei entstehen, werden durch den Umstand geschaffen, dass dabei die Objekte aus ihrer Komplexität genommen werden und alle anderen diese begleitenden Kausalsysteme dabei zunehmend zerstört werden. Eine Folge davon ist, dass wir sie über eine längere Phase in ihrer Gesamtheit vernichten und damit die Gegebenheiten auf die hin der Mensch biologisch in seiner Evolution programmiert ist.

In ihrer Fähigkeit zur Individualität ist die Menschheit sehr fruchtbar geworden, andererseits damit aber auch unkontrollierbar, extrem zerstörerisch. Auf ein ständiges Optimum in ihren  jeweiligen Dopaminhaushalt bedacht, fördert sie ständig ihre Bedürfniskultur, zumal ihre Sexualität biologisch auf eine statusmäßige Dominanz hin angelegt ist, auf eine ständige Überlegenheit, auf den größeren Wagen, die größere Yacht, das protzigere Haus, auf die Fähigkeit einen größeren Anteil an knappen Ressourcen zu besitzen. Früher waren dies die Nahrungsmittel, heute sind es die abstrakten Konsumartikel. Unsere Zivilisation ist eine Konsumgesellschaft geworden und die Wissenschaften sind deren Handlanger, die diese Entwicklungen im Dienste des Kapitals und der individuellen Lustbedürfnisse vorantreiben. Sie sind aber auch die einzige Institution, die uns deren negativen Folgen aufzeigen können.

Der Beginn unseres heutigen wissenschaftlichen Weltbildes entstand im 17. Jahrhundert. Die damaligen Naturphilosophen trieben es mit der Propagierung ihrer Naturerkundungsansätze voran. Nach der Zeit der Aufklärung setzte dann der Siegeszug der Naturwissenschaften und der Industrialisierung ein, der im vergangenen  Jahrhundert (20. Jh.) wahrscheinlich seinen Höhepunkt erreicht hat, um nun mit der Digitalisierung in ein neues Zeitalter zu münden.

Einst war die Humboldtsche Universität ein Ergebnis der Aufklärung gewesen, der Ort einer subjektiven Bildung, der zu einer verantwortungsvollen Selbständigkeit führte. Die heutige Universität fördert dagegen einen unpersönlichen Wissenskanon, der zunehmend von Algorithmen bestimmt wird. Unser anthropogenes Problem dabei ist, dass unser Bewusstsein, unser Geist und damit unsere subjektive Individualität die Ergebnisse der jeweiligen Einmaligkeit unserer hormonellen Botenstoffhaushalte sind und ihre Selbstfindung nur im Sinne einer persönlichen Orientierungssuche und nicht als rationale Wissensanhäufung erfolgen kann. Durch die Dominanz der einfacher angelegten Naturwissenschaften, deren Denken allein kausalen Abläufen gehorchen, denen wir relativ leicht dem evolutionären Weg von der Physik zur Chemie und von dort zur Biologie folgen können, bleiben uns deren komplexe Zusammenhänge nur schwer verständlich oder in vielen Fällen sogar verschlossen. Die Wissenschaftler behelfen sich dann für ihre Orientierung mit Hypothesen, die im günstigsten Fall zu sozialen Paradigmen, zu ganzen Orientierungskonzepten werden können.

Die Allgemeinbildung hat an Ansehen verloren. Früher gab es ein Bildungsbürgertum, Arbeitsbildungsvereine und Volkshochschulen. Heute werden sie ersetzt von Spaß- und Shoppinggesellschaften und die Schule, das Studium und die Arbeit sollen Spaß bereiten. Während man früher eine Universität besuchte, um eine Bildung zu erwerben, erfolgt dies heute weitgehend nur noch wegen einer möglichst hoch dotierten nachfolgenden Tätigkeit. Während man sich früher um die Aneignung eines  neuen eigenen Wissens bemühte, eine geistige Selbständigkeit anstrebte, steht heute sozial deren spätere Funktionsfähigkeit im Vordergrund des Blickfeldes.

Das vielleicht wichtigste Merkmal des Menschseins ist seine Fähigkeit Informationen zu sammeln, auszutauschen, zielgerichtet zu verbinden und dann an die nächste Generation als ausbaufähiger Sozialbesitz weiterzugeben. Es folgt dabei zunächst seiner tief in seiner Evolution angelegten Sensibilität auf Reize, gebündelt in seiner Intuition und Empathie und danach seinen jeweiligen sozialen Prägungseinflüssen, d. h. seinen jeweiligen Kulturen.

Unsere heutigen Paradigmen sind weitgehend nur noch soziale „Mainstream“-Bewegungen, da die Problematik ihrer Inhalte sich der Mehrzahl der an sie glaubenden Bevölkerung weitgehend entzieht und die Vertreter der zu ihnen gehörenden Einzelwissenschaften oft untereinander zerstritten sind. Wichtig für sie sind jeweils nur die Anhänger ihrer eigenen Theorien, die anderen Lehrmeinungen werden möglichst verschwiegen, bzw. nicht zitiert. Für die Mehrzahl von uns stand z. B. am Anfang des Universums der „Urknall“. Doch wer hat schon etwas von anderen Theorien über dessen Anfang gehört, den Hypothesen

  • der Stringkosmologie,
  • dem Steady-State Modell (einer unendlichen Weiterentwicklung),
  • dem „Big Bounce-Modell“ (u. a. einem Hervorgehen aus einem Schwarzen Loch),
  • der „Zeitschleife“ (eine Entwicklung ohne ein Vorher und Nachher).

Wir akzeptieren Hypothesen und kennen nicht die gedanklichen Grundlagen auf denen sie bauen. Für unsere Wahrnehmungswelt zurzeit zugänglich sind aufgrund von Kräfteberechnungen nur etwa 5 % des Universums (davon stellen die Massen aller seiner Sterne nur 5 % dar). Was die sogenannte „Dunkle Materie“ (26 % des Universums) und die „Dunkle Energie“ (69 % des Universums) überhaupt sind, wissen wir nicht.

Vieles aus unserem Wissen der minimalen und maximalen Welt sind nur Interpretationen, die zwar für unser Alltagsleben völlig bedeutungslos sind, – was berühren uns Beobachtungen in einer fremden Galaxie oder ein Zusammenstoß von Elektronen in einer unserer Forschungsstätten tatsächlich. Sie werden zwar zu Teilen unseres Weltbildes und stabilisieren  unsere Orientierung in unserer mittleren Orientierungswelt, und vielleicht fließen ihre Ergebnisse sogar in zivilisatorische Verbesserungen ein, aber unmittelbar betroffen sind wir von ihnen nicht.

Wie alles in einer Gesellschaft ethische Orientierungsvorgaben benötigt, gilt dies auch in spezieller Form für die Wissenschaften. Für Kant waren damit auch ethische Pflichten verbunden (z. B. diejenigen zur Selbstvervollkommnung; deshalb auch das Humboldtsche Ideal). Einerseits vertreten wir das Ideal der Freiheit der Wissenschaften, andererseits müssen wir akzeptieren, dass Wissenschaftler auch nur Menschen sind, die psychisch krank sein können, vom Ehrgeiz zerfressen und neidisch sein können. Ihr moderner Leistungsdruck und ihr Gewinnstreben können bei ihnen zur Erwartung schneller Forschungs- und Entwicklungserfolgen führen.

Als Hauptforderung an eine wissenschaftliche Arbeit wird deren voraussetzungslose Neutralität (Wertfreiheit) verlangt, deren Existenz Popper bestritt. Er ging von deren grundsätzlichen Interessenbindung aus. Die Arbeit beginnt mit einer Fragestellung und zerlegt dann ein Problem in Teilprobleme. Wichtig ist, dass deren Ergebnisse intersubjektiv nachprüfbar sind (Kontrollversuche ermöglichen). Grenzen können durch soziale Forderungen entstehen (z. B. Verbindungen zu möglichen nachfolgenden militärischen, menschen- oder naturfeindlichen Einsatz, Widersprüche zu religiösen Grundforderungen). Grundsätzlich müssen z. B. naturwissenschaftliche Arbeiten sich auf beobachtbaren Realitäten beziehen (nicht beobachtbare werden mit Hilfe von Setzungen beschrieben, die das Beobachtbare bestätigen. Über diese wird in Wissenschaftsschulen dann oft gestritten. Als Konsens werden sie nicht zu Paradigmen).

Heute besteht die Forderung, dass wir auch unsere wissenschaftlichen Werte zunehmend hinterfragen sollen, d. h.

  • auf ihre möglichen emotionalen Hintergründe,
  • auf ihre sozialen Auswirkungen,

da auch sie die Ergebnisse sozialer Setzungen sind, für die man früher keine anderen Orientierungshilfen gefunden hat. Man leitete sie als Gebot eines imaginären Gottes oder von versteckten Interessen ab. Heute können wir z. B. rational viele religiöse Gebote nicht mehr akzeptieren und dürfen sie, wenn sie z. B. im Gegensatz zum Grundgesetz stehen (wie z. B. viele Forderungen der Scharia) in unserer Gesellschaft auch nicht tolerieren. Konservative Dogmatiker unterscheiden dabei gerne zwischen wissenschaftlich zugänglichen Sachverhalten und den von einem Gott vorgegebenen Werten, während die liberalen Multikulturalisten bereits Entscheidungen zwischen wahr  und falsch ablehnen und damit auch auf moralische Maßstäbe verzichten. Für eine echte, nicht amerikanische dominierte globale Zivilisation brauchen wir aber anthropogene Orientierungsinhalte, die auf einem hohen Setzungsethos bauen, nach Möglichkeit auf einem allgemein akzeptierten Wertekonsens. Das könnten u. a. sein

  • die Forderung nach einer allgemeinen Verantwortung für sein Tun

(besonders gegenüber der Natur, weil sie unsere Existenzgrundlage darstellt),

  • die rechtliche Setzung der Gleichheit aller Menschen,

(bei einer Akzeptanz ihrer biologisch gegebenen Verschiedenheit, z. B. in Hinsicht auf ihre intellektuellen Leistungsfähigkeit. Das Problem dabei ist nur, dass es bei einer Verneinung dieser Unterschiede die tatsächlich kreativen Einzelpersönlichkeiten, die intuitiven Wissenschaftler nicht mehr geben darf, weil sie inzwischen durch Algorithmen zielgerichteter ersetzt werden können, d. h. zielgerichteter im Sinne von Vorgaben, aber nicht in Hinblick auf deren Kreativität).

  • die Forderung nach einer sozialen Gerechtigkeit, die z. B. die Ausbeutung anderer Menschen verbietet

(d. h. entgegen der archaischen Status- und damit Konsumdominanz in unserer kapitalistischen Gesellschaft, die auf der Ausbeutung anderer baut, nur schwer durchsetzbar).

In Deutschland  ist die Wissenschaftsfreiheit durch das Grundgesetz abgesichert (wegen der einstigen ideologischen Vereinnahmung durch den Nationalsozialismus. Sie führte damals zum großen Wissenschaftler-Exodus). Sie ist ein Grundpfeiler seiner demokratischen Gesellschaft. Der Staat muss dafür nur die notwenigen Rahmenbedingungen schaffen.

  • Ihre Merkmale sind:
    • ein kritisches, auf eine Wahrheit ausgerichtetes Denken

(unabhängig von individuellen Wertvorstellungen),

    • Weltoffenheit und Toleranz,
    • Verantwortungsbewusstsein gegenüber der Gesellschaft

(es gibt keine wertfreien Erkenntnisse).

  • Ihr Grundproblem ist,
    • dass sie oft an den Grenzen zum Unbekannten operiert,
    • dass ihre Ergebnisse oft von Interessengruppen abgelehnt werden.
  • Folgen davon sind, dass
    • unbequeme Ergebnisse geleugnet werden,
    • Kontrollinstrumente außer Kraft gesetzt werden

(z. B. über Budgetkürzungen),

    • dem Fachwissen oft „alternative“ Fakten gegenübergestellt werden,
    • sachlichen Diskussionen Emotionen gegenübergestellt werden.

Erst unsere Wissenschaften haben die geistigen Grundlagen für unsere heutige soziale Welt geschaffen. Ohne die Aufklärung mit ihren Forderungen nach Toleranz, Meinungsfreiheit und Bürgerrechte wäre sie nicht möglich geworden. Für Ihre Arbeit brauchen sie einen geschützten Raum, der zwar in seiner Faktenorientierung einerseits international orientiert sein muss, aber auch nicht nur ein Zuträger für eine Hegemonialmacht sein darf.

Unsere Wissenschaftler suchen für ihre Hypothesen Beweise und müssen dabei logischen Prinzipien folgen. Diese zeigen ihnen dann die Schwachstellen in ihren Argumentationen. Zu ihren Grundbegriffen gehören u. a.

  • Wahrheit (als Grundbegriff der Aussagelogik),
  • Kalkül:  Es besteht aus Annahmen (Axiomen) und Umformungsregeln und führt zu neuen Formeln (einer neuen zusammengesetzten Symbolwelt).
  • Modell: Es ist ein widerspruchsfreier Schluss in einem Axiomensystem. Dabei wird unterschieden zwischen seiner
    • Syntax (seinem Formengehalt) und seiner
    • Semantik (seiner Bedeutung).

Die Logik erlaubt über eine Symbolsprache, in der bestimmte Annahmen (Axiome) mit Hilfe von Gesetzen für ein Wissen, eine Aussage stehen können, zu einer eigenen Erkenntniswelt. Indem man für wahr und Falsch „1“ und „0“ als wahr und falsch setzte, gelangte man zum Prinzip der Digitaltechnik. In der Klassik diente sie als Grundlage für ein zwingendes Argumentieren (Aristoteles).

Mit Hilfe der Logik werden wir an die Grenzen unseres Denkens geführt. In den 29er Jahren war Wien der wichtigste Ort ihrer Erforschung (Wittgenstein, Gödel, Popper). Mit ihrer Hilfe ziehen wir unsere Schlüsse über unsere Welt. Wittgenstein glaubte, dass wir unser Denken und auch unsere Verständigung nur über logische Sprachspiele leisten können, d. h. über unsere rationale Orientierung, über das Sehen unseres Daseins als eine abstrakte Welt.

Die Mathematiker zielen auf zwingende Ergebnisse, die Logiker auf eine zwingende Richtigkeit. Hilbert versuchte die gesamte Mathematik auf einige einfache Schlussregeln mit wenigen Axiomen zurückzuführen. Gödel, der vielleicht bedeutendste Logiker seit Aristoteles, bewies dann die Unbeweisbarkeit auch von „wahren“ Sätzen in der Mathematik. Er erkannte die Grenzen des formalisierten Schlusses. Nach ihm wurden dann  „Wahrheit“ und „Beweisbarkeit“ zweierlei. Die Logik wurde zur Grundlage der Modelltheorie, zur Metawissenschaft der modernen Mathematik und führte über die Informatik zu unserer heutigen digitalen Computerwelt. In Zukunft wird die „künstliche Intelligenz“ und die Automatisierung im Zentrum ihrer Forschung stehen.

Unsere Wahrheit ist eine geistige Beschaffenheit, die möglichst nicht unseren

  • Prägungen,
  • Sinneswahrnehmungen,
  • kausalen Denkabläufen
  • kulturell abhängigen Logiksystemen

widersprechen soll. D. h., Sie ist immer nur ein anthropogenes Ergebnis, abhängig vom Standort des betroffenen Individuums in seiner Kultur. Wir konstruieren uns die Welt so, dass wir in unseren Orientierungen unseren Vorstellungen (innerhalb unserer Kultur) folgen können. Wir halten sie für annehmbar, wenn sie möglichst

  • einfach sind,
  • viele Zusammenhänge erklären,
  • empirisch überprüfbar sind.

Die Naturwissenschaften beschreiben die Welt so, wie sie sich für unsere anthropogene Realität darstellt. Wir sehen sie als Systeme, die wir in ihre Bestandteile zerlegen, im Laufe der Geschichte in immer kleinere, die in einer Beziehung zu einander stehen. Diese Bezüge erfassen wir in Naturgesetzen, die uns helfen, ihr Verhalten vorauszuberechnen und uns darauf einzustellen, d.h. uns danach orientieren zu können. Unsere heutigen Vorstellungen bewegen sich in einer Welt kleinster abstrakter Elementarteilchen, über die wir zugleich alle Bewegungen der Materie im Universum zu erfassen versuchen, da sie räumlich in einer Beziehung zu einander stehen und wir ihre Veränderungen in der Zeit erfahren. Wir beobachten sie als Funktionsbezüge.

Die Wissenschaften beschreiben die Wahrscheinlichkeit von Verhaltensweisen. Ihr Wahrheitsgehalt ist abhängig von

  • realen Beobachtungen,
  • abgeleiteten, in „Gesetzen“ zusammengefassten Vermutungen.

(Wir wissen nicht, ob es in der Realität ein „Elektron“ gibt, wir können darüber aber viele Phänomene in der Welt erklären, bzw. diskutieren. Unser Wahrheitsverständnis zeichnet ein bestimmtes Bild von den Gegenständen unserer Betrachtung, ursprünglich nur bezogen auf die beobachtbaren Realitäten, heute auch auf Dinge, die wir nur noch über hoch komplizierte anthropogene Messgeräte erfassen können, die unseren „wissenschaftlichen Glauben“ dann schaffen. Am Anfang steht eine Vermutung über ein Verhalten (Hypothese). Sie bestimmt die Bedingungen unter denen dies Verhalten eintrifft. Als nachvollziehbare Schlussfolgerung formuliert, wird sie zu einem Naturgesetz).

Unsere heutigen Physiker suchen nach den letzten unbekannten Bausteinen im Standardmodell der Teilchenphysik, den Higgs-Teilchen (z. B. im Genfer Kernforschungszentrum CERN). Letztendlich muss man den Aussagen der beteiligten Wissenschaftler glauben. Erkennen möchte man:

  • die mögliche Masse der Higgs-Teilchen,
  • die Eigenschaften des Higgs-Bosons,
  • die Quantenfluktuation,
  • die fundamentale Theorie der Quantengravitation,
  • die möglichen Symmetrien in der Quantenwelt

(Hierarchie-Problem; über eine Symmetrie ließen sich drei der vier Naturkräfte auf eine Grundkraft zurückführen),

  • die Existenz der Dunklen Materie,
  • eine Antwort auf die Frage, ob es im elektroschwachen Bereich unbekannte Gesetze gibt.

Die Chaostheorie (Theorie der dynamischen Systeme) besagt, dass kleinste Veränderungen in einer Anfangssituation zu großen Endergebnissen führen können.

Die Quantenverschränkung besagt, dass der quantenphysikalische Zustand eines Teilchens automatisch dem Zustand seines verschränkten Partners entspricht, unabhängig davon, wie weit entfernt er von diesem ist.

Beide Grundgedanken werden „wahr“ sein, doch beiden können wir nur als „Glauben“ folgen.

Das Vorgehen der Wissenschaften

In den Wissenschaften benutzt man für die Akzeptanz ihrer Ergebnisse ganz bestimmte Methoden. Das sind die

  • Verifikation: Der Nachweis der Richtigkeit (Wahrheit) eines Sachverhaltes, z. B. einer Hypothese. Formal benutzt man dafür Logiksysteme. In der Informatik werden so Fehler aufgedeckt. Der kritische Rationalismus (Popper) bestreitet deren Existenz, weil nach ihm allgemeine Gesetzesaussagen entweder wahr oder bei widersprechendem Sachverhalt widerlegt (falsifiziert) werden können.
  • Falsifikation: Das ist der Nachweis der Unrichtigkeit einer Theorie, Aussage oder einer Hypothese. Dies kann über den Nachweis von Widersprüchen, der Unvereinbarkeit mit den als wahr akzeptierten Axiomen oder dem Aufzeigen von Irrtümern erfolgen.((Zentralbegriff in Poppers Wissenschaftstheorie).

Dabei kann die Argumentationsweise nach ihrer Plausibilität deduktiv oder induktiv sein:

  • Deduktion: Das ist das logische Schlussfolgern (Konklusion) aus wahren Annahmen (Prämissen): U. a. der Schluss vom Allgemeinen auf das Besondere, die spezielle Erkenntnis aus einer allgemeinen Theorie,das Argument a posteriori (einer Erfahrung „nachfolgend“, aus einer vorausgegangenen Wahrnehmung).
  • Induktion: Hier wird von Einzelfällen auf das Allgemeine geschlossen (aus Beobachtungen und Erfahrungen), eine schon bei Aristoteles angewandte Methode. (Nach Popper sind sie immer Illusionsschlüsse, da man in der Realität immer von Deduktionsschlüssen ausgehe).

Darüber hinaus gibt es noch eine Vielzahl anderer Argumentationstypen: z. B.

  • indirekte Argumentationen (Beweise durch Widersprüche),
  • Scheinargumente (Sophismen),
  • Autoritätsverweise (Berufung auf Autoritäten),
  • Ideologische Argumentationen,
  • pragmatische Argumentationen (von der Nützlichkeit ausgehende),
  • Scheinkausalitäten (Schaffung unbewiesener Sachverhalte),
  • Zirkelschlüsse (Thesen mit sich selbst beweisen),
  • Erfahrungsbeweise ((komplizierte Sachverhalte mit einfachen Erfahrungen widerlegen),
  • Scheinargumente (u. a. Unterstellungen, Übertreibungen, versteckte Drohungen).

Weitere Forschungsformen sind:

  • Heuristik: Ein analytisches Vorgehen bei dem mit einer begrenzten Datenzahl umfassende Urteile (evtl. nicht optimale) gefällt werden können. Schleiermacher entwickelte sie zu einer eigenständigen Wissenschaft. Sie ist eine quantitative Methode zur Entscheidungsunterstützung.Besonders in der Informatik können so mit einem geringen Rechenaufwand für bestimmte Probleme schnell Lösungen gefunden werden.
  • Kausalität: Sie ist eine rationale Folgerung aus einem Ereignis oder Zustand.  Bei einer Multikausalität sind mehrere Ursachen beteiligt. Bei einer Kausalkette folgen einer Ursache andere.   In der Philosophie ergibt sich als ihre Konsequenz der Determinismus, nach dem alle Ereignisse aus vorausgegangenem hervorgehen. (Nach Mach gibt es keine Kausalitätsverhältnisse sondern nur funktionale Beziehungen).
  • Determinismus: Er geht davon aus, dass alle Ereignisse in unserem Dasein ein Folge von Vorausgegangenem, von Vorbedingungen sind, z. B. die natürlichen Prozesse ein Ergebnis der Naturgesetze. Diese Annahme ist umstritten:
    • Wäre sie immer zutreffend, gäbe es keinen freien Willen (dessen Existenz viele Gehirnforscher heute allerdings sowieso bestreiten).
    • Der Quantenbereich gilt (je nach Interpretation) auch als nicht deterministisch festgelegt. Er erlaubt keine genauen Vorhersagen. Bei Vorgabe der Anfangsbedingungen soll er allerdings mit Hilfe der Schrödinger-Gleichung auch eindeutig deterministisch verstanden werden können.
  • Chaosforschung: Sie beschäftigt sich mit klar umgrenzten Teilgebieten dynamischer Systeme, deren zeitlichen Entwicklung und Ordnung. Sie sind deterministisch angelegte Folgen, die experimentell nicht wiederholt werden können, allerdings keine Zufallssysteme, sondern mathematisch exakt beschreibbare. Ihr Verhalten ist wegen ihrer       Komplexität nicht vorhersehbar. Sie zeigen aber absehbare typische Verhaltensmuster (sogenannte Attraktoren). Typische chaotische Systeme sind z. B. das Wetter, der Herzrhythmus oder die Börsenkurse.
  • Dimension: Sie nennt in der
    • Mathematik die Zahl der Freiheitsgrade einer Position in einem Raum,
    • Physik die qualitativen Eigenschaften einer physikalischen Größe.

(Hier gibt es sieben Basisgrößen (u. a. Länge, Masse, Zeit) und eine Vielzahl aus diesen abgeleiteten Größen).

  • Feld (engl. Array): Dies ist eine Datenstrukturvariante, bei deren Verwendung gleichartig strukturierte Daten verarbeitet werden können. Indizes“ sind dabei eindeutige Schlüsselwerte (bedeutsam in Programmiersprachen).
  • Quanteninformation: Sie ist eine Information, die nicht mit klassischen Informationstheorien beschrieben werden kann, da in einem Quantensystem nie alle Werte gleichzeitig bestimmt werden können. Auf ihr beruhen in Zukunft die Quantentechnologien, die sich in ihren Eigenschaften von den klassischen Systemen unterscheiden. (Allgemein wird z. B. eine Informationsmenge eindimensional in „Bit“ angegeben, die Quanteninformationen dagegen dreidimensional in „Qubit“).
  • Quantenverschränkung: Das ist der Zustand eines Systems, das sich nicht über die Kombination unabhängiger Einzelteilchen beschreiben lässt, sondern nur als ein Gesamtzustand. Erklärt kann dieser nur über nichtlokale Theorien werden, d. h. über keine lokal-realistische Interpretationen. Er ist weder real noch lokal. Ihre Nutzung bewegt sich zurzeit nur im        theoretischen Bereich (z. B. dem der Quantencomputer).

Alle unsere physikalischen Prozesse gehen nach unserem heutigen Erkenntnisstand auf vier Grundkräfte zurück (Fundamentale Wechselwirkungen). Dies sind die

  • Gravitation (Schwerkraft): Die Anziehungskraft von Körpermaßen auf andere Massen. Sie bestimmt u. a. unser Gewichtserleben, die Wechselwirkung zwischen den Planeten und die Strukturen des Universums. Erfasst wird sie heute über die Allgemeine Realitätstheorie Einsteins.
  • Elektromagnetische Wechselwirkung: Ihre Kräfte können vom Menschen nicht direkt wahrgenommen werden. Je nach ihrer Ladung (positiv oder negativ) kann sie anziehend oder abstoßend wirken. Auf sie zurückzuführen sind das Licht, die Elektrizität, der Magnetismus und die chemischen Verbindungen (d. h. z. B. alle Materialeigenschaften).
  • Schwache Wechselwirkung: Sie kann vom Menschen nicht direkt wahrgenommen werden. Mit ihrer extrem kurzen Reichweite wirkt sie besonders bei den Umwandlungsprozessen im Elementarbereich, den Umwandlungen von Teilchenarten in andere (z. B. von Elektronen in Neutrinos) oder einen unverzichtbaren Zwischenschritt bei der Kernfusion von Wasserstoff zu Helium (aus ihr bezieht z. B. die Sonne ihre Strahlungsenergie).
  • Starke Wechselwirkung: Sie ist die stärkste Grundkraft in der Natur, weil sie die Elementarteilchen im Atomkern zusammenhält (z. B. den der Protonen und Neutronen). Sie stellt die Wechselwirkung zwischen den Quarks dar.

Neben diesen Kräften gibt es Überlegungen über weitere, z. B. Theorien über Supersymmetrien oder die Strings. Auch wird versucht, alle diese Kräfte in einer Grundkraft in einer „Weltformel“ zusammenzufassen. Bisher hat man dabei aber keinen Erfolg gehabt.

Aus einer „Weltformel“ müsste es möglich sein, die gesamte Physik ableiten und alle Naturgesetze erklären zu können. Mit ihrer Hilfe müssten wir die Entstehung und das Ende unseres Universums verstehen können. Viele Wissenschaftler haben sich an ihrer Erkenntnis bisher vergebens versucht. In ihr müsste die Welt der kleinsten Teilchen (Quantenmechanik) mit der der größten Kräfte (Gravitation, Einsteins „Allgemeiner Relativitätstheorie“) vereint werden können. Als eine Möglichkeit wird heute die Stringtheorie angesehen, die in vielen Dimensionen denkt und die unsere Vorstellungskraft übersteigt. Zurzeit ist sie noch nicht beweisbar.

In der Spitzenforschung gibt es zur Entstehung unseres Universums eine Vielzahl hypothetischer Theorien, aus denen sich dann eine unübersehbare Zahl weiterer Hypothesen ableiten. Die vielleicht bekanntesten sind die

  • Kopenhagener Quanteninterpretation, nach der ein Zustand sowohl reversibel wie auch deterministisch sein kann und damit für eine Messung irreversibel und nichtlokal ist.
  • Viele-Welten-Interpretation (Hugh Everett): Sie geht von den verschiedenen Zuständen („Welten“, Ereignissen) eines Quantensystems aus (nach Bryce De Witt), von einer universellen Wellenfunktion. Nach Everett ist die Wahrscheinlichkeit eines quantenmechanischen Messwertes genau berechenbar, aber sein Ergebnis nicht vorhersehbar. Daraus folgert er, dass ein feststehendes Ergebnis aus einer ursprünglichen Welt auch verschiedene Ergebnisse für verschiedene Welten zulassen könne.

Weitere Denkmodelle sind,

dass unser Universum aus einer „Blase“ eines Multiversums hervorgegangen ist (Andrei Demetrijewitsch Linde, Begründer der Inflationstheorie des Universums).

Verschiedene Physiker bezweifeln die Quantenmechanik dagegen grundsätzlich, da sie völlig unverständlich und  nur eine Rechenanleitung im mikroskopischen Bereich sei.

Während die alten Wissenschaften analog funktionierten, arbeiten die neuen weitgehend digital. Damit entsteht mit ihrer Hilfe eine völlig neue Welt, eine völlig neue Zivilisation, in der auf Erden alle Vorgänge als Daten bearbeitet und gespeichert werden. Die wissenschaftlichen Normen werden dann von Programmierern geschaffen. Eine zukünftige Kreativität wird es sein, für Wahrnehmungen die richtigen Algorithmen zu finden. Man muss sie als seine neue Sprache verstehen, als Weltsprache der Maschinen. Sie werden für Auftraggeber (Institute, Firmen, Geheimdienste) von Ingenieuren geschrieben. Ihre Bedeutung liegt darin, dass von ihnen immer mehr Entscheidungen in unserer Zivilisation getroffen werden. Sie sind die Sprache unserer zukünftigen digitalen Kultur, die in Nanosekunden ihre Entscheidungen wird treffen können. Als ihr anthropogener Nutzer hat der Mensch auf sie kaum noch einen Einfluss. Ihre fundamentalistischen Grundsatztexte können wir logisch kaum noch nachverfolgen. Ihre Sprache wird in naher Zukunft sogar unsere Handelssprache ersetzen können, zumal wir diese in naher Zeit durch Übersetzungsgeräte nicht mehr werden erlernen müssen. Zunächst in Subkulturen gepflegt, wird ihre Welt die Weltsprache der Zukunft sein. Die Digitalisierung unserer Welt wird zum wichtigsten Bestandteil ihrer Globalisierung:

  • Informationen stehen dann weltweit überall zur Verfügung,
  • fremde Wertvorstellungen können überall bedacht werden,
  • die Handlungen von Institutionen können durchschaubar werden,
  • für ihre Besitzer steigt der Wohlstand.

Der zukünftige wissenschaftliche Fortschritt wird weitgehend über die Analyse großer Datenbestände laufen. Heute erfolgt dies bereits in

  • der Genom- und Proteinforschung,
  • der Gehirnforschung,
  • der Biotechnologie,
  • der Teilchenforschung,
  • der Astrophysik,
  • den Sozialwissenschaften.

Riesige Datenmengen werden zum Hintergrund neuer Erkenntnisse. Neue Analyse- und damit neue Erkenntnismöglichkeiten entstehen. Die Wissenschaftler werden zunehmend zu analytischen Statistikern und damit der einsame, geniale, intuitive Wissenschaftler, der in seiner Arbeit auch über das jeweilige Grundverständnis seiner eigenen Wissenschaft hinausblicken konnte, immer mehr zu einer Ausnahmeerscheinung. Während die Wissenschaftler früher weitgehend deduktiv arbeiteten, vom Allgemeinen auf den Einzelfall schlossen, erfolgt nun zunehmend eine Umkehrung. Es wird nun induktiv von den Einzelfällen auf das Allgemeine, das Ganze geschlossen. Die großen Datenmengen

  • ermöglichen nun neue Fragestellungen,
  • verbessern die Hypothese- und Falsifikationsmöglichkeiten.

Hinter allen unseren heutigen Problemen stehen wissenschaftliche Dimensionen. Doch wer ist in der Lage, sie in ihrer Komplexität auch tatsächlich vollständig zu verstehen? Die Forderungen einer bildungsmäßigen Professionalisierung der Bevölkerung klingt zwar gut, ist aber unrealistisch, da sie an den intellektuellen Möglichkeiten des Durchschnittsmenschen vorbeizielt. Wir alle besitzen kaum Vorstellungen von der Komplexität unserer Lebenswelt. Eine Folge davon ist, dass wir fast alle Gegebenheiten, je nach Interessenlage, sowohl aus negativere wie auch aus positiver Sicht zur Diskussion stellen können und dann, je nach unseren Grundüberzeugungen bereit sind, den jeweiligen Aussagen zu folgen. Die Forderungen nach seiner stärkeren Rationalisierung der Debatten und einer größeren Transparenz ihrer Inhalte ist zwar berechtigt, aber vom Unterscheidungsvermögen des Normalbürgers, der Nichtfachleute weit entfernt. Wenn selbst Spezialisten nur noch zwischen geringen oder weniger geringen Folgen (z. B. bezogen auf eine künftige Klimaveränderung) unterscheiden können, wie soll es dann der normale Alltagsmensch. Er kann seine Entscheidungen nur in Anlehnung an seine Grundüberzeugungen fällen oder die Probleme, wenn es bequemer ist, einfach nur verdrängen. Obwohl zur wissenschaftlichen Diskussion die Bereitschaft zu zweifeln und sich zu irren gehört, fällt es in unserer komplexen Welt immer schwerer, Zusammenhänge zu verstehen, und wir sind dann dankbar, wenn Vereinfacher uns dann bei unserer Orientierung helfen.

Unsere Orientierung wird nicht nur begrenzt von Fakten, sondern auch von unserem Vorwissen, bzw. von unseren Vorurteilen. Damit ist sie stark fehleranfällig, bzw. über die Steuerung der Fakten manipulierbar. Einen gewissen Ausgleich für dieses Problem schafft die soziale Gemeinschaft, über die persönlichen Mängel ausgeglichen werden können. Hierin ist der große Vorteil einer Demokratie zu sehen. Unsere kulturellen und zivilisatorischen Leistungen sind Gemeinschaftsleistungen. Ihre Spitzen sind die Wissenschaftler, die sie über ihren konkurrierenden Zweifel und ihrem Wahrheitsideal vorantreiben. Ihr bester Ansatz scheint die Empirie zu sein, die rational kausale Abfolgen beobachtet. Neue technische Möglichkeiten erweitern in diesem Rahmen unsere Beobachtungsmöglichkeiten und weisen neue Wege in die Zukunft. Auf dem Hintergrund bestehender Paradigmen folgen die Wissenschaftler den Logiksystemen ihrer jeweiligen Kultur und versuchen einerseits deren Blickweite zu verbreitern, bzw. andererseits neue Erkenntnismöglichkeiten aufzuzeigen. Durch die Wissenschaftler unserer Zeit wissen wir zum Beispiel, dass

  • der Mensch etwa 25.000 Gene besitzt (heute werden nur noch 20.000 vermutet),
  • Umwelteinflüsse die Tätigkeit unserer Gene beeinflussen (Epigenetik),
  • wir alle in uns 1 – 4 % Neandertalergene in uns tragen (u. a. die Ursache für unsere blauen Augen und unsere blonden Haare, aber auch für unsere Neigung zu Allergien und Depressionen),
  • sich im Gehirn auch bei älteren Menschen noch Neuronen bilden,
  • Säugetieren (und damit auch der Mensch) mit Hilfe von Zellkernen geklont werden kann,
  • über die Genom-Editierung bald auch ausgestorbene Tiere rekonstruieret werden können,
  • nicht nur um die Sonne Planeten kreisen,
  • das All sich immer schneller ausdehnt und nur zu vier Prozent aus der uns bekannten Materie besteht,
  • wir über Algorithmen neue Wege für die Schaffung einer zukünftige Künstliche Intelligenz entwickeln können.

Ein Problem der heutigen wissenschaftlichen Forschung bereitet der Umstand, dass viele Erkenntnisse nicht mehr in unserer Kultur öffentlich diskutiert werden können, z. B. wenn sie

  • religions-, besonders wenn sie islamkritisch sind,
  • israelkritisch sind (sofort folgt der Holocaust-Hammer),
  • geschlechtsspezifisch, nicht feministisch orientiert sind,
  • schulische Ideologien in Frage stellen (z.B. den Gruppenunterricht),
  • dem amerikanischen Hegemonialstreben entgegenstehen.,
  • eine Rückbesinnung auf eine eigene Identität fordern (z. B. in der Sprache).

Damit verlieren unsere Universitäten zunehmend ihre Stellung Freiräume der Wahrheit zu sein. So werden anders denkende Wissenschaftler (z. B. Singer in Köln im Philosophiebereich) nicht mehr zu Vorträgen eingeladen. J.S. Mill forderte einst eine Meinungsfreiheit, weil andere Haltungen den eigenen Horizont erweitern könnten und man durch sie gezwungen sein kann, die eigenen Positionen zu überdenken.

Ihren Intentionen nach sind die deutsche Forschung und Lehre frei (Art. 5 Grundgesetz). Unsere gesamte Kultur basiert auf der Arbeit von Wissenschaftlern. Das Problem ist, dass mit ihren orientierungsgebenden Funktionen sie auch stark marktwirtschaftliche Interessen berühren und damit auch zunehmend in deren Dienste eingespannt werden. Man versucht mit ihrer Hilfe die öffentliche Meinung im Sinne der eigenen Geschäftsinteressen zu beeinflussen. Bekannt ist dies besonders von der Zigaretten-, chemischen -, Pharma-, der Lebensmittelindustrie, den Autoherstellern und den Agrarlobbyisten. Die Unternehmen

  • bestellen Studien: Das Ergebnis sind oft Gefälligkeitsgutachten. Unerwünschte Ergebnisse werden nicht veröffentlicht. Eindrücke können durch Bildbearbeitungen manipuliert werden. Mit Hilfe manipulierter Grafiken können bestimmte gewünschte Eindrücke geschaffen werden, indem sie Sachverhalte
    • verharmlosen oder übertreiben,
    • dramatisieren (z. B. bei Achsen nur Endbereiche zeigen),
    • Größenverhältnisse verzerren,
    • bei Entwicklungstrends bestimmte Zeitpunkte wählen,
    • mit relativen oder absoluten Werten arbeiten.
    • mit Hilfe prozentualer oder absoluter Werte tätig sind,
    • Unterschiede überbetonen,
    • Entwicklungen in Gesamtbezüge einbringen,
    • bei Darstellungen die Bezirke oder deren Bewohner angeben.

Dabei sind nicht die öffentlichen Fälschungen das Gefährliche, sondern die Grenzbereiche, das Fortlassen oder Überbetonen einzelner Aspekte. In Einzelfällen werden Daten sogar gefälscht, manipuliert, verbogen. Mit Hilfe der bestellten Studien versucht man unabhängige Erkenntnisse in Zweifel zu ziehen, dadurch allgemeine Verunsicherungen zu schaffen, evtl. durch das Führen auf eine Fehlfährte von monokausalen Zusammenhängen abzulenken und dadurch Zeit zu gewinnen. Das Problem ist, das viele der heutigen Forschungen gewinnorientierte Unternehmensaufträge sind. Die TU München (Deutschlands renommierteste Forschungsuniversität) schließt z.B. jährlich etwa 100 Forschungsaufträge mit Unternehmen ab.

  • engagieren Professoren: Findet die Wirtschaft in ihrem Sinne geeignete Wissenschaftler, so kann sie diese mit Hilfe von Geld, Ehren, dem Einbringen ihrer Publikationen in wichtige Zeitschriften, d.h. bei ihrer Karriere fördern. So gab es 2017 in Bayern 140 Stiftungsprofessuren, in Deutschland 576. Die TU in München lässt sie sich mit 20 Mio. finanzieren.

Auffallend ist die hohe Zahl der von der Autoindustrie geförderten Doktoranten (allein bei Audi 2012 130, bei VW 2017 330). Die Themen werden von den Firmen vorgegeben (nicht von den Betreuern. Diese erhalten nur Drittmittelzusagen, wenn die gewünschten Themen bearbeitet werden). Deren Arbeitsdaten lassen sich die Unternehmen dann durch Geheimhaltungsklauseln schützen.

    • Hausjuristen überprüfen dann deren Ergebnisse.
    • Die anschließenden Nutzungsrechte liegen dann ausschließlich bei den Unternehmen.

Die Universitäten legen ihre Verträge nicht offen. Die Forschungsarbeit verlagert sich zunehmend zu industrienahen Themen. Wirtschafts-, sozial- und umweltkritische Themen geraten dadurch forschungstechnisch ins Hintertreffen. Die Wirtschaft ist dann an Arbeiten interessiert, wenn sie ihr angenehme Ergebnisse verschaffen, diese als unabhängig erscheinen und ihnen eine größtmögliche öffentliche Aufmerksamkeit sicher ist. Es gibt heute zwischen den Universitäten und der Industrie unzählige Verflechtungen. Für diese Verbindungen gibt es viele Kanäle. Dabei sind die Grenzen zwischen durchaus begrüßenswerten Partnerschaften und Abhängigkeiten fließend. Oft werden die einzelnen Geldgeber verschwiegen: Man geht davon aus, dass die Universitäten zurzeit (2018) von den Unternehmen etwa 1,4 Mrd. erhalten.

  • finanzieren ganze Institute: Mache Hochschulen und Institute sind auf Grund privatrechtlicher Initiativen entstanden, z. B.
    • Universität Witten/Herdecke,
    • SAP schenkte der Universität Potsdam eine ganze Fakultät,
    • Lidl schenkte der TU München 20 Professuren.

Von den Forschungsergebnissen wird die anschließende Karriere der Wissenschaftler entscheidend bestimmt. Deshalb wird in manchen wissenschaftlichen Studien gelegentlich auch geschlampt und getrickst. Man forscht, wählt die Daten aus und interpretiert sie so lange, bis man zu einem (gewünschten) Ergebnis kommt. Dazu werden begleitend unerwünschte Fakten nicht genannt, beziehungsweise Kriterien im gewünschten Sinne verändert. Ein häufiger Fehler ist: Es werden richtige Werte angeführt, diese aber auf falsche Bezugshintergründe bezogen. Bei aller Eindeutigkeit mancher Zahlen, sie reduzieren oft komplexe Probleme nur auf einen einzigen Wert. Dieser wirkt dann genau, objektiv, ideologiefrei und vertrauenswürdig. Aber mit Hilfe von Zahlen kann man auch lügen, betrügen. Sie können falsch verstanden werden oder sogar bewusst erfunden worden sein. Immer stehen hinter ihnen die Wertvorstellungen ihrer Setzer. Wenn man als Leser Zahlenwerte liest, sollte man

  • die Interessen ihrer Herausgeber kennen,
  • den Schwierigkeitsgrad ihrer Feststellung,
  • deren relativen und absoluten Grundlagen,
  • mögliche wirtschaftliche und politische Interessen.

Ioannides warnt vor Studien, die

  • von geringen Versuchszahlen ausgehen,
  • auffallend oft zitiert werden,
  • aus den USA stammen.

Seit Platon wissen wir, dass wir die „Wahrheit“ über unser Dasein nie wirklich erkennen werden (Höhlengleichnis), immer nur Facetten von ihr. Im Laufe der Zeit haben sich die Zielsetzungen der Wissenschaft verändert. Während man

  • bis zur Aufklärung die Natur als Ausdrucksformen der Wirkungsweises Gottes ansah,
  • im 18 Jh. sie dann idealisierte (Romantik),
  • im 19. Jh. besonders ihre Realität zu verstehen suchte,
  • waren es im 20. Jh. das Erkennen der menschlichen Einwirkungen auf sie, die man zu verstehen suchte.

Mit jeder Zukunft wechselten die Ideale der Wissenschaften und mit den neuen Fragestellungen auch die Forschungsmethoden. Nach dem zweiten Weltkrieg setzte mit einer verstärkten Hinwendung zu den Naturwissenschaften die Zeit der Großforschung ein. Zu Forschungsteams können mehrere Tausend Wissenschaftler und Ingenieure gehören (z. B. beim Teilchenbeschleuniger in Genf).

Vor uns steht eine Zeit der anwendungsorientierten Nanowissenschaften, der Biotechnologie, Stringtheorie und der digitalen Anwendungsforschung, die völlig neue Forschertypen verlangt (Mischtypen aus Wissenschaftler, Ingenieur und Unternehmer). Für die Geistes- und Sozialwissenschaften scheint es kaum noch einen Platz zu geben, obwohl die menschengemäße Orientierung auf sie nicht verzichten kann. In unserer zunehmend als komplex erkannten, globalen Welt fällt es uns immer schwerer, uns tatsächlich rational zu orientieren, immer schwerer tatsächliche Ursachen zu erkennen. Wir bauen uns zunehmend unsere “Wahrheit“ nach unseren Wünschen zusammen. Wir verlieren unsere frühere traditionelle, auf Gott bauende Sicherheit. Das „Postfaktische“ relativiert unseren Wahrheitsbegriff. In unserer Unsicherheit können für uns Gerüchte zu Gewissheiten werden. Einst bestimmten die Wissenschaften unsere Meinungsbildung. Gesellschaftlich gingen in der Aufklärung aus ihr unsere Ideale der Meinungsfreiheit und der liberalen Demokratie hervor. Heute besteht für uns die Gefahr, dass wir ihr in ihrer Komplexität nicht mehr folgen können und weitgehend orientierungslos, wie wir dadurch geworden sind, den manipulierenden Interessen von Medien, der Politik oder irgendwelchen Ideologien folgen. Der einzelne Mensch kann in unserer Kultur kaum noch zwischen Wahrheit und Lüge unterscheiden. Eine Folge davon ist, dass wir in unserer Orientierungslosigkeit und der Individualisierung unserer Gesellschaft kaum noch in der Lage sind, anthropogene Negativentwicklungen der Weltzerstörung aufzuhalten.

Wissenschaftliche Schwerpunkte

Wenn man in der Sixtinischen Kapelle steht und zur Decke blickt und dort den in seinem rosa Mantel gehüllten Gottvater sieht, bekommt man einen ehrfurchtgebietenden Eindruck beim Betrachten seines möglichen Aussehens. Wenn man sich mit der Entstehung des Universums beschäftigt und dann liest, dass sich dieses alles aus einem tennisballgroßem Etwas entwickelt hat, alle Milliarden Galaxien, von denen unsere Milchstraße mit ihren Milliarden Planeten nur eine ist, auch dann überkommt eine Ehrfurcht vor der Kraft, die hinter dem allem steht. Beiden Vorgängen gemeinsam ist, dass man an sie glauben kann. Das eine Mal als an ein Bild aus der Genesis, das andere Mal als das „wissenschaftliche“ Ergebnis am Ende vieler physikalisch-mathematischer Betrachtungen.

Unsere Neuzeit ist dadurch gekennzeichnet, dass wir unsere Orientierungsinhalte zunehmend „wissenschaftlich“ erhalten, d. h. als bewährte kausale Abfolgen. Wir begreifen sie als anthropogene Wahrheiten, obwohl wir zunehmend erkennen müssen, dass alles im Universum komplex und nicht kausal organisiert ist, dass das Sein sozusagen einen einzigen universalen Organismus darstellt. Dadurch, dass wir ihn für unsere Orientierung kausal betrachten und unsere Wege, bzw. unsere Umwelt danach betrachten, bzw. gestalten, zerstören wir sie auf Grund der Vielzahl und der Intensität unserer Eingriffe zunehmend. Wir werden ihr mit unserer kausalen Wahrheit nicht gerecht. Wenn wir das Sein von drei Ebenen aus betrachten,

  • versuchen wir die Makroebene, unser Universum, bzw. die möglichen Multiversien letztlich auf Grund unserer Wahrnehmungsgrenzen nur noch mathematisch als Hypothesen zu begreifen. Wir ahnen, dass alles in komplexen Zusammenhängen besteht, versuchen die von uns postulierten vier physikalischen Urkräfte in einer Theorie zu vereinen, werden aber letztlich das Sein in seiner Ganzheit, außer in Abstraktionen, wahrscheinlich nie begreifen können.
  • Ähnlich ist es mit der Mikrowelt. Der Aufbau der Atome war und ist für uns in seinen Modellen nach nachvollziehbar, Den Aufbau der Quarks, bzw. Strings begreifen wir noch als Hypothesen, im vollen Wissen, dass wir ihnen in ihrer Komplexität, der Vielfallt ihrer möglichen Dimensionen nicht folgen können. Für unsere Orientierung verstehen wir bereits die Zeit als eine Dimension nicht, wieviel weniger die anderen Freiheitsgrade.
  • Verbleibt uns nur unsere mittlere Orientierungswelt, in der wir uns bewegen. Wir erhalten für sie von unserer jeweiligen Kultur unsere Richtwerte, entfernen uns darüber zunehmend aber von der Natur, auf die hin wir biologisch programmiert sind und vergewaltigen uns über unsere kulturellen Vorgaben dabei ständig selber. Unsere Richtwerte erhalten wir dabei zunehmend aus unserer aus ihren Gleichgewichten geratenen Emotionswelt, z. B. unserer völlig verkrampften Fortpflanzungswelt, für die unser Feminismus steht (siehe die Reaktionen auf die hysterische Metoo-Bewegung, die Reaktionen auf die Berliner Gedichtwand oder die schwedischen Rechtsvorgaben vor einem möglichen sexuellen Kontakt) oder unsere „rationalen“ Wissenschaften, deren Ergebnis, in unseren Technologien umgesetzt, am Ende mit der Zerstörung unserer Existenzgrundlagen parallel läuft (z. B. der Zerstörung unserer Nahrungsgrundlagen, der Umwelt, des Klimas). Wir sehen die Wissenschaften durch die Brille des zivilisatorischen Wohlstands, der ihre Entwicklung begleitet, immer nur positiv, zumal der einzelne Wissenschaftler in seiner Bedeutungslosigkeit darin nur ein kleines Rädchen ist. In ihrer wertbezogenen Orientierungslosigkeit führt sie uns aber direkt in unseren entwicklungsmäßigen Untergang. Wir erkennen von der tatsächlichen Realität immer nur Facetten, die wir in ihrer Summe dann zu unserem Weltbild addieren. In der kosmischen Komplexität werden wir deshalb wahrscheinlich nur eine kurzzeitige, bedeutungslose Episode darstellen.

Für unser Verständnis ist das Universum ein „Körper“, in dem sich Energie organisiert. Wie wissen wir (noch) nicht. Mit welchem Ziel werden wir vielleicht nie erfahren. Welche Rolle wir dabei spielen, wahrscheinlich auch nicht, da wir immer nur unsern menschlichen Orientierungsgrenzen verhaftet bleiben. Die Organisation des Universums nimmt nicht ab. Sie durchläuft für unser Erkenntnisvermögen nur immer neue Evolutionsstufen (physikalische, chemische, biologische, digitale). Unsere Zivilisation zielt darauf, sie in neue Nutzungsebenen zu bringen, in denen sie sich dann wahrscheinlich eigenständig weiterbewegen kann.. Wir wären dann vielleicht für eine neue Evolutionsstufe, evtl. eine digitale, nur eine Art Zwischenebene.

Für uns sind es vor allem die Naturwissenschaften, die unser Weltbild bestimmen. Sie stellen in ihrer Gesamtheit eine gewaltige Summe logischer Denkleistungen dar. Ihre Sprache ist die Mathematik, die uns mit Hilfe von logischen Schlussfolgerungen, d. h. die Verbindung von beobachteten Tatsachen zu unseren rationalen Denkergebnissen führt. Wir können mit ihrer Hilfe zwar erklären, wie etwas erfolgt, aber nicht, weshalb es erfolgt. Alle unsere rationalen Erkenntnisse basieren deshalb nur auf abstrakten Schlussfolgerungen, auf mathematischen Annäherungen und sind deshalb genau genommen nie völlig exakt. Deshalb können wir z. B. Einsteins Relativitätstheorie zurzeit auch noch nicht mit der Quantentheorie in eine Übereinstimmung bringen. Es gelingt uns bisher noch nicht, alle bekannten Naturgesetze in einem übergeordneten Gesetz zusammenzufassen. Wir besitzen für das Verständnis der Natur nur Bruchstücke, die in mancherlei Weise Gemeinsamkeiten besitzen, deren übergeordneten Zusammenhang wir aber nicht kennen. So wissen wir, dass z.B. zwischen der Gravitation und der Elektrizität Gemeinsamkeiten bestehen (zwei verschiedenen Kräfte: einerseits abhängig von der Masse, andererseits von der Ladung; die offene Wirkung mit ihrer festen Kausalität, bzw. die offenen Voraussetzungen mit den festen Gegebenheiten). deren gemeinsamer Ursprung bei ihren Elementarteilchen liegt.

Seit Einstein wissen wir, dass Energie und Masse gleichwertig sind und seit Newton, dass die Energie die Quelle der Gravitation ist. Für die Erhaltung der Energie haben wir eigene Gesetze aufgestellt, doch widersprechen sich in der Physik viele, bzw. sind mit einander nicht vereinbar, passen nicht zusammen. Sie stimmen nur in verschiedenen Merkmalen überein. Man kann nach Feynman die verschiedenen Zweige der Physik nur verstehen, wenn man ihre Gesetze nicht ernst nimmt, die Quantenmechanik würde z. B.  niemand tatsächlich verstehen, das gleiche Gesetz verschieden formuliert (z. B. das Gravitationsgesetz nach Newton, der Feldtheorie oder dem Hamiltonschen Prinzip) könne zu völlig verschiedenen Interpretationen führen.

Wir versuchen das Universum, das Dasein über unsere Hypothesen zu begreifen, dabei folgt es in seiner uns nicht zugänglichen Komplexität seinem eigenen Gesetz.  Wir versuchen es über unsere Beobachtungen innerhalb unserer Erkenntnisgrenzen zu verstehen und erkennen das Sein nur in den Grenzen, die Platon einst in seinem Höhlengleichnis beschrieb. Allerdings ist es das bisher Unbefriedigende in unseren Theorien, das uns in unserer Suche immer weiter vorantreibt und damit unsere zivilisatorische Evolution auf immer neue Ebenen führt. Für uns ist die Natur schön, weil wir uns letztlich in ihrer Schönheit wiederfinden. Wir sind ihre Kinder, ein Teil von ihr, den sie in Jahrmillionen geformt hat. Wir nehmen in ihr in Raum und Zeit den von ihr uns gegebenen Platz ein und gehen wieder in ihr auf. Vielleicht im Sinne Spinozas in eine allumfassende Substanz. Er hatte sie Gott genannt. Für manche „Wahrheiten“ benötigen wir Antennen. Man kann einem Blinden eine Landschaft nicht befriedigend erklären, einem Tauben nicht einen musikalischen Genuss, einem in irgendeiner Hinsicht beschränkten nicht die Großartigkeit des ihm nicht Zugänglichen.

Die Wissenschaftler sehen es als ihre Aufgabe an, für unsere Orientierung rational die Gesetze der Natur zu erkennen. Auf Grund dieser Kausalität ist ihr Denken letztendlich immer nur abstrakt und erfasst aus der Komplexität unseres Daseins einseitig immer nur Facetten, die deren Ganzheit außer Acht lässt, zerstört und die deshalb für eine Gesamtorientierung einer Kultur zu einseitig ist. An dieser Stelle müsste die Philosophie einspringen, deren Vertreter mit Hilfe ihrer intuitiven Setzungen, aus diesen ihre orientierunggebenden Werte ableiten und dadurch den Kulturen zu ihren Gesamtorientierungen verhelfen, in denen sich dann auch die Wissenschaften mit ihren begrenzten Orientierungsansätzen bewegen können. Gelingt dies nicht, dann wird die Menschheit in ihrer Evolution nur eine kurze Episode auf der Erde darstellen. Während die Physiker, Chemiker und Biologen von den einzelnen Sachverhalten ausgehen, die Mathematiker von ihren allgemeinen Gesetzen, müssen die Philosophen den Menschen in den Mittelpunkt ihres Denkens stellen (und dazu gehört z. B. auch sein „Glück“, das nur ein Ergebnis seiner Unvollkommenheit ist, und das es in einem gewissen Rahmen zu erhalten gilt, wenn unsere Gesellschaft zunächst nicht inhuman werden soll, bevor sie in einem Zwischenstadium als Cyborg am Ende sich selber in technische Vollkommenheit auflöst.

Alles Dasein scheint in irgendeiner Form Energie zu sein, die wahrscheinlich in ihrer Gesamtmenge konstant bleibt. Wir stabilisieren z. B. die unsere über unsere Nahrung. Vielleicht kann man die Kräfte im Universum ihres leichteren Verständnisses wegen nach folgendem Schema einteilen:

  • Universalkräfte: Wir kennen bisher keine. Evtl. stehen sie in irgendeiner Verbindung zur „Schwarzen Energie“ und zum „Schwarzen Loch“.
  • Grundkräfte der mittleren Ebene (unsere Wahrnehmungskräfte, z. B. die Gravitation): Sie beschreibt die Anziehungskraft zweier Körper aufeinander. Alles bewegt sich in seinem Bestreben geradlinig fort. Weshalb, wissen wir nicht. Gehindert wird es daran durch seine Masse, seine Trägheit. Auch deren Hintergrund kennen wir nicht. Dieser Hintergrund bestimmt die Anziehungskraft unserer Erde auf alle ihre Objekte und die Umlaufbahnen aller Gebilde im Universum. Sie ist der Hintergrund für die Verteilung der Materie in ihm und hält die Galaxien zusammen. Durch die Schwerkraft werden aus Gaswolken Sterne geboren. Über die Kenntnis der Konstanten der Gravitation können wir das Gewicht der Erde (und das anderer Gestirne) bestimmen. Wir wissen, dass sich die Gravitation der Materie im Kleinen (Quantenmechanik) anders verhält als im Großen. Doch wissen wir nicht wie und weshalb. Deshalb kann es zurzeit auch noch keine überzeugende Erklärung für die Unschärferelation (Heisenberg) und die Quantenmechanik gegeben werden. Die Elektronen können sich danach sowohl wie Teilchen und wie Wellen verhalten. Man kann es nicht vorhersagen.
  • Elementarkräfte (zurzeit nur mit Hilfsmitteln, weitgehend nur hypothetisch erfassbar): hierher gehört die elektromagnetische, die schwache und die starke Wechselwirkung. Mit unseren heutigen Theorien können wir die Vorgänge im Atomkern wahrscheinlich vollständig erklären, die wirksamen Kräfte zwischen den Neutronen und Protonen dagegen nicht. Um diese herauszufinden, lässt man sie mit hoher Energie aufeinanderprallen. Dabei hat man, mit diesen wechselwirkend, noch mehr Elementarteilchen gefunden.

Wie alle individuell und sozial Aktiven benötigen auch die Wissenschaften eine Orientierung. Dabei ist auch ihre Rationalität oft irrationalen Vorgaben unterworfen, wie im Mittelalter christlichen, während der Zeit des Nationalsozialismus rassistische oder heute naturfremde feministische. Wenn heute jemand im Bereich einer biologischen Geschlechterungleichheit arbeitet, verstößt er gegen ein feministisches Tabuthema. In unserem festgefügten Wissenschaftssystem ist es kaum noch möglich, geltende Paradigmen infrage zu stellen. Schon seit der Antike stritten rivalisierende Schulen um ihren jeweiligen Wahrheitskern. Bereits in den frühen Universitäten vereinigten sich dabei die „Diskursgemeinschaften“ zu juristischen Kollektiven, die unerlaubte Haltungen disziplinieren konnten. Es entstanden soziale Hierarchien einerseits, universitäre Rangebenen andererseits und ein ständiger kollektiver Statusneid, wie ihn dann später auch noch Humboldt beklagte.

Die traditionelle wissenschaftliche Vorgehensweise war:

  • das Aufstellen einer Vermutung

(evtl. bei Berechnung ihrer Folgen),

  • ein Experiment

(evtl. Vergleiche mit der Natur),

  • die Klärung der Übereinstimmungen.

Die Vorgehensweise der heutigen Experimentalwissenschaftler ist:

  • ein mathematisches Ergebnis am Anfang,
  • Diskussion ihres möglichen physikalischen Gehalts,
  • ihre Darstellung durch eine Wissenschaftsgemeinschaft.

Die tatsächlichen kreativen Leistungen liegen allerdings bei den intuitiven Wissenschaftlern (was man heute bei unseren Massenwissenschaftlern nicht gerne hört). Wahrscheinlich sind bisher alle wissenschaftlichen Großtaten von genialen Einzelforschern geleistet worden, von Menschen, die intuitiv auf neue Wege gestoßen waren und diese dann oft gegen große Widerstände durchgesetzt haben. Ihre Vorgehensweise war:

  • das Vorhandensein eines Problems,
  • eine oft lange Beschäftigung mit diesem

(evtl. auf dem Hintergrund breiter Grundkenntnisse),

  • dann eine intuitive, oft blitzartige Lösungserkenntnis

(Bollnow: „Fruchtbare Moment“),

  • Erklärungsversuche

(evtl. mit Hilfe einer mathematischen Formulierung).

Mit allen neuen Erkenntnissen entstehen die Grundlagen für neue Fragestellungen.

Wahrscheinlich ist das gesamte Universum ein einziger Organismus (evtl. Teil eines Multiversums),

  • in dem alles mit allem in einem Zusammenhang steht,
  • in dem alle Kräfte, alle Energie sich auf ein uns (noch) unbekanntes Ziel hinbewegen,
  • in dem bestimmte Regelmäßigkeiten gelten, die wir kausalen Gesetzen zuordnen. Es scheint im Universum eine partielle Symmetrie zu geben. Fast alles scheint symmetrisch zu sein, aber genau genommen nicht ganz. Und diese Differenz scheint es zu sein, die vielleicht die Triebkraft innerhalb seiner Evolution  ist.
  • der in seiner Komplexität unabhängig von unseren Eingriffen (und ohne Rücksicht auf uns) seinen Weg geht.

Mit Hilfe der Naturgesetze können wir partielle Aussagen über unsere Umwelt machen, z. B.

  • in der Physik über die Gesetze von der Erhaltung der Energie,
  • in der Chemie, dass aller Anfang mit dem Kohlenstoff begann und wie die Atome entstanden und sich aufbauten.
  • in der Biologie, dass durch die Energie eines Blitzes oder eines Meteoriteneinschlages sich aus Kohlenmonoxid und Ammoniak Formamid entwickelt haben. Damit begann die Evolution des Lebens.

All unser Dasein ist in seiner Evolution aus der Materie in Schritten einer abnehmenden Entropie entstanden. Durch die in ihr innenwohnenden „Gesetze“ entstand die Welt, wie wir sie kennen. Wir „erleben“ sie als ein Bewegungsspiel der sie beherrschenden Kräfte, Energien (der sich positiv ausdehnenden Energie, zu der die Zeit gehört und der ihr entgegenwirkenden Energie, der Schwerkraft). Alles Dasein bewegt sich zwischen diesen beiden auf ein uns unbekanntes Ziel hin.

Dabei vermessen wir die Welt mit Hilfe von sieben physikalischen Basisgrößen, über die wir alle weiteren physikalischen Einheiten definieren:

  • Meter           (Einheit der Länge),
  • Candela       (Einheit der Lichtstärke),
  • Mol             (Einheit der Stoffmenge),
  • Kelvin         (Einheit der Temperatur),
  • Kilogramm  (Einheit der Masse),
  • Sekunde      (Einheit der Zeit),
  • Ampere       (Einheit der Stromstärke).

Das Universum

Genau genommen wissen wir über das Universum in seiner Einheit gar nichts. Es ist nur ein intellektuelles, abstraktes Gebilde, das sich jeder Vorstellungskraft entzieht. Man geht heute von etwa 100 Milliarden Galaxien aus und dass es allein in der unseren, der Milchstraße, etwa 10.000 Milliarden Sterne gibt, von denen unsere Sonne nur einer ist. Und das soll nur ein Fünftel der „Dunklen Materie“ und ein Vierzehntel der „Dunklen Energie“ sein, von denen niemand weiß, was diese eigentlich tatsächlich darstellen. Nach unseren augenblicklichen Vorstellungen macht die

  • sichtbare Materie nur 5 % der Gesamtenergie aus,
  • Dunkle Energie 25 %,
  • Dunkle Energie 70 %.

Das „Schwarze Loch“ im Zentrum unserer Milchstraße soll 4 Millionen Sonnenmassen schwer sein und von der Erde 26.000 Lichtjahre entfernt sein

(ein Lichtjahr = 9.460.730.472.580,8 km = ca. 5,5 Billionen km).

Allein unsere Sonne soll einen Durchmesser vom 1.391.016 km haben (Erddurchmesser ca. 12.800 km). Und alle diese Dimensionen sollen vor dem sogenannten „Urknall“ von einem Gebilde, nicht größer als ein Tennisball; ausgegangen sein. Und daran sollen wir glauben. Zumindest entzieht es sich jeder Vorstellungskraft, zumal man kaum etwas über die tatsächlichen Ausgangsgrößen weiß. Die mathematischen Hypothesen beziehen sich stark auf Einsteins Relativitätstheorien, doch glaubte dieser selber nicht an die Urknalltheorie, sondern ging von einem alterslosen Universum aus, in dem sich die Materie unablässig selber erneuerte.

Das Standardmodell des Urknalls besagt, dass aus dessen frei werdenden Anfangsenergie ca. 50 % Materie und ca. 50 % Antimaterie entstanden, die sich gegenseitig auslöschten. Übrig geblieben sind davon 0,01 % Materie, aus der dann alle unsere Galaxien und Sterne entstanden sind. Doch wohin sind die 99,99 % der damaligen Ursprungsenergie, die sich über die Materie wieder in Energie verwandelt hatte, gelangt? Wo ist sie heute?

Die heutigen Theorien über die Entstehung des Universums besagen in einem abstrakt-anschaulichen Bild, dass seit 13,7 Mrd. Jahren sich folgende Entwicklungen vollzogen haben:

  • Am Anfang war eine „unvollkommene Gegebenheit“ mit einer unendlichen Dichte die „Singularität“.
  • Im „Urknall“, der „Inflation“, flog sie auseinander. Damit begann die „Zeit“.Wir kennen sie als vierte Dimension. Sie steht für die Bewegung der Körper. Da das Universum ein komplexer Körper ist, bewegt sie sich für uns ins Unbekannte.

(Niemand weiß, ob es ihn tatsächlich gegeben hat. Neuere Hintergrundmessungen (vermutet werden in ihnen Reste einer frühen Phase des Universums) erlauben an dem Inflationsmodell Zweifel: Wegen der Muster ihrer Temperaturunterschiede, dem Fehlen urtümlicher Gravitationswellen).

  • Nach 10 Mikrosekunden: Das Universum besteht aus einem Quark-Gluon-Plasma, einem extrem heißen Brei aus Quarks und Gluonen.

Während des Auseinanderfliegens entstanden Bereiche unterschiedlicher Dichte und Temperatur aus denen sich zunächst die Evolution der Materie entwickelte.

  • Nach 3 Minuten: Das Universum kühlt sich auf 2 Billionen Grad Celsius ab. Die Quarks verbinden sich zu Protonen und Neutronen.
  • Nach 380.000 Jahren: Nach einer Abkühlung auf 1 Mrd. Grad Celsius entstehen Helium- und Wasserstoffkerne („Nukleosynthese“). Eine Zeit der Dunkelheit beginnt.
  • Nach 200 Mio. Jahren: Die Abkühlung ist auf 2700 Grad Celsius gesunken. Die ersten neutralen Atome entstehen, danach Gaswolken, die dann zu Riesensternen kollabieren und als „Schwarze Löcher“ enden.
  • Nach 1 Mrd. Jahren: Das Universum ist wieder völlig transparent. Was die Reionisierung bewirkte, weiß man nicht.
  • Galaxien entstehen: Vermutlich um die „Schwarzen Löcher“. Sie entfernen sich im All immer schneller voneinander. Die Ursache dafür ist unbekannt. Angenommen wird unsere mögliche Unkenntnis der tatsächlichen Schwerkraftgesetze oder das Vorhandensein einer unbekannten „Dunklen Energie“, die wir nur als eine theoretische Größe kennen. Sie scheint die bedeutendste Kraft im Universum zu sein.

Zurzeit sind unsere Vorstellungen vom Kosmos, dass er aus Sternen besteht, die zusammen Galaxien bilden. Diese ordnen sich wiederum über Filamente (Wabenstrukturen), Schichten und Leerräume zu gigantischen Galaxienhaufen. Wir erahnen das Universum als ein riesiges System unendlicher Wechselwirkungen, die wir in ihrer Gesamtheit nicht durchschauen und die wir deshalb für unser Verständnis auf wenige Gesetzmäßigkeiten reduzieren.

Die Ausdehnung des Universums scheint von den Kräften der Dunklen Energie bestimmt zu werden. Ihr Ziel kennen wir noch nicht. Vielleicht bis zu einem dünnen Gas von Elementarteilchen oder über eine entgegengesetzte Kraft zu einer unendlichen Dichte. Da wir es  nicht wissen, entwickeln wir eine Theorie nach der anderen. Wir wissen sicher letztlich nur, das wir einen materiellen Ort innerhalb einer bestimmten Entwicklungsphase, einer bestimmten Zeit darstellen und damit, dass wir ein unendlich kleiner Teil innerhalb eines unvorstellbar großen Ganzen sind.

Wir wissen nicht, was die „Dunkle Materie“ ist. Wir können ihre Existenz zwar nicht beweisen, aber

  • es gibt keine andere Erklärung für die ‚Abweichungen in der gemessenen Gravitation.
  • Jede Galaxie ist von einer unsichtbaren Materie umgeben, die die Sterne im Außenbereich schnellere rotieren lässt.
  • Sie scheint mit normaler Materie nicht zu interagieren.
  • Ohne sie kann die Strukturbildung im Universum nicht erklärt werden.
  • Man kann nur ihre Verteilung messen, indem man die Ablenkungen des Lichts der Hintergrundgalaxien bestimmt.

Man weiß nur, dass sie die Galaxien umgibt und nur über ihre Schwerkraft mit dem übrigen Universum wechselwirkt. Sie wird verantwortlich gemacht für

  • den Zusammenhalt der Galaxiencluster,
  • die Rotationsgeschwindigkeit der Galaxien.

Man weiß nicht, ob sie evtl. eigene Atome und eigene Moleküle bildet oder evtl. sogar eigene unsichtbare Galaxien. Wir kennen sie nur über ihre Kräfte. Vermutet werden für  ihre Zusammensetzung Teilchen, die weder der elektromagnetischen noch der starken Kraft unterliegen und deshalb mit der gewöhnlichen Materie nicht wechselwirken. Evtl. wechselwirken sie mit sich selbst oder auf eine Kraft, auf die unsere (baryonische) Materie nicht reagiert. Vielleicht gehören die Neutrinos in ihre Welt, da sie fast keine Masse besitzen. Ihre Existenz lässt sich bisher nicht mit der Hilfe von Experimenten belegen.

In den Zentren aller Galaxien vermutet man riesige „Schwarze Löcher“. Man weiß nicht:

  • Wie sie entstehen?
  • Wie sie ihre Energien erhalten?
  • Welchen Einfluss sie auf die übrige Galaxie haben?

Man vermutet, dass wenn schwere Sterne ihren Brennstoff aufgebraucht haben und durch den Druck der Gravitation in sich zusammenfallen, sie entstehen. Alles ist dann auf einen einzigen Punkt von einer unendlichen Dichte konzentriert. Seine starke Anziehungskraft lässt nichts entkommen, – auch kein Licht (darum der Name). Deshalb lassen sie sich auch nur indirekt beobachten:

  • durch die Strahlung hereinfallender Materie vor ihrem Verschwinden,
  • durch die Gravitationswellen beim Zusammenstoßen zweier Schwarzer Löcher.

Sie müssen eine gewaltige Schwerkraft besitzen. Man erwartet bei ihrer Erforschung, dass sie um sich einen Ring wirbelnder Materie bilden, mit dessen Hilfe man Einsteins Allgemeine Relativitätstheorie überprüfen könne. Bei Abweichungen wäre sie unkorrekt, aber die Schwerkraft evtl. über einen neuen Ansatz besser zu verstehen. Ein allgemeines Problem, das mit ihm verbunden ist: Nach der Quantenmechanik gehen Informationen nie verloren. Doch wo bleiben diese hier? Vielleicht würde eine Vereinigung der Gravitations- und der Quantentheorie hier eine Lösung bringen.

Das Mikrouniversum

Der Mikrokosmos stellt eine Welt unzähliger Theorien dar. Danach besteht alles Sein in seinen letzten Mikrobereichen aus Energien (Wellen) und Teilchen, aus Quarks. Sie entziehen sich weitgehend unserer Beobachtung, da sie sich gleichzeitig in verschiedenen Zuständen befinden können (berühmtes metaphorisches Bild: Schrödingers Katze. Danach ist sie gleichzeitig lebendig und tot). Ihr Ergebnis: Beobachtungsergebnisse sind in diesem Bereich nicht objektiv, sondern immer nur subjektiv, da sie uns in beiden Erscheinungsformen entgegentreten können. Mit der Quantenphysik setzte ein neuer Paradigmenwechsel ein, der uns von Newtons bisherigem mechanistischem Weltbild, der Molekularphysik trennte. Sie führte uns zu einer  neuen Form der Wahrnehmung der Materie und hilft uns vielleicht eines Tages unseren Mikrokosmos mit unserem Makrokosmos in einer großen Daseinstheorie zu vereinen.

Nach den früheren Theorien bestand alle Materie aus Atomen:

  • Durchmesser: knapp 1 Milliardstel Millimeter,
  • Der Atomkern ist darin von Elektronen umgeben.

Der Atomkern besteht wiederum aus Protonen und Neutronen, die ihrerseits wiederum jeweils aus drei Quarks zusammengesetzt sind.

Nach den neuen Theorien gelten die Quarks als die fundamentalen Teile der Materie. In ihren Standardmodellen beschreiben die Elementarphysiker den Mikrokosmos als eine Welt von Teilchen und Feldern, die den Gesetzen des Elektromagnetismus und der schwachen und starken Energie unterliegen. Nach dem aktuellen Standardmodell (2018) gibt es 24 verschiedene Teilchen (Grundbausteine):

  • 6 Quarks:

In der normalen Materie: Up- und Down-Quarks in einem höheren Energiezustand: Charm, Strange, Top und  Bottom.

  • 6 Leptonen:

In normaler Materie: Elektron und Elektron-Neutrinos, in einem höheren Energiezustand: Myon, Myon-Neutrinos, Tau und Tau-Neutrino.

  • 12 Austauschteilchen (Eich-Bosonen):
    • Plotonen: Sie bestimmen die elektromagnetische Wechselwirkung (Sie entstehen in der Atomhülle und besitzen keine Ruhemasse. Man kann ihnen aber eine Masse rechnerisch zuordnen, abhängig von ihrer Energie).
    • W+-, W– und Z-Bosonen: Sie bestimmen die schwache Wechselwirkung und haben einen ganzstrahligen Spin (Eigendrehimpuls). Sie übertragen die Kräfte.
    • Gluonen (8 verschiedene): Sie bestimmen die starke Wechselwirkung.

Nach einem 25. Teilchen (Higgs-Teilchen) wird noch gesucht. 2018 glaubte man es in einem Versuch im CERN (Genf) gefunden zu  haben. Es soll den Teilchen ihre jeweilige Masse verleihen. Bei ihm besteht das Problem, dass es nach den Überlegungen der Physiker eine viel größere Masse besitzen müsste (wegen der Energiefluktuation aus dem Vakuum). Vielleicht benötigt man für seine Beschreibung ein völlig neues mathematisches Modell.

In unserem Alltag soll unsere Materie nur aus zwei Quarks-Arten und Elektronen bestehen. Erst bei höheren Energieformen scheinen die anderen Grundbausteine eine Rolle zu spielen.

Unser heutiges wissenschaftliches Problem ist, dass alle unsere Alltagserfahrungen denen in der Quantenphysik widersprechen. Nach ihr gibt es keinen vollkommen leeren Raum. Ähnlich wie in der Makrophysik findet man nur eine Vielzahl unbewiesener, vielleicht auch unbeweisbarer Theorien, die den Aufbau der Materie und die Entstehung des Lichts zu erklären versuchen. Zu ihren Hauptphänomenen gehören u. a.:

  • der Welle-Teilchen-Dualismus,
  • die Nichtdeterminiertheit der physikalischen Vorgänge.

Sie umfasst die

  • Quantenmechanik, die das Verhalten der Quantenobjekte beschreibt, deren Wellen- und Teilchencharakter,
  • Quantenfeldtheorie: Sie behandelt die Quantenfelder als Objekte, die Versuche alle physikalischen Kräfte in einer Theorie zusammenzufassen.

Im Vordergrund der Diskussionen stehen zurzeit die

  • Theorie zur Supersymmetrie („Susy“):

Jedem der 24 Elementarteilchen steht danach spiegelbildlich ein Susy-Partner gegenüber, der bisher noch nicht entdeckt wurde. In ihr werden die vier Grundkräfte zu verschiedenen Facetten eines Urphänomens. Mit ihrer Hilfe ließe sich das Phänomen der „Dunklen Materie“ klären. Danach werden die sichtbaren Sterne von einem unsichtbaren Stoff zusammengehalten, der 5 x schwerer ist als die sichtbare Materie, da sonst die Fliehkraft sie auseinanderreißen würde.

Es ist der Stoff, aus dem das Universum zu großen Teil besteht. Als Schlüssel für das Verständnis des Mikrokosmos gilt hier die Symmetrie. Er besteht aus Teilchen, die durch die Sterne hindurchfliegen können (auch durch den Menschen) Jedes sei so schwer wie ein Goldatom.

  • Stringtheorie:

Sie soll zurzeit die besten Ansätze für eine Vereinigung der Relativitäts- und der Quantentheorie besitzen. Danach besteht alles Dasein aus Schwingungs-        zuständen eindimensionaler Strings (aberwitzige Saiten). Teilchen sind deren Vibrationsergebnisse. Das Universum sei eine kosmische Symphonie aus wechselwirkenden Seitenlängen (= eine Summe von Harmoniegleichungen) Probleme bei dieser Theorie sind:

    • Bisher ist eine Existenz von Strings empirisch nicht nachweisbar.
    • Danach gibt es zu unseren drei Dimensionen noch 6 oder 7 weitere (die winzig zusammengerollt sich vorgestellt werden).

Nach dieser Theorie ist das Universum durch eine Quantenfluktuation entstanden, die sich anschließend in Bruchteilen von Sekunden ins Gigantische sich aufblähte. Nach dieser Theorie ist unser Universum nur eines in einem unvorstellbaren Multiversum  (es soll danach 10 hoch 500 Universien geben, die alle ihren eigenen Naturgesetzen folgen).

  • Schleifenquantengravitation:

Sie beschreibt den Raum als ein riesiges Spin-Netzwerk, bestehend aus Knoten   und Linien. Sie quantifiziert den Raum in Planck-Längen (ca. 10 hoch 35 m) und Planck-Zeit (ca. 10 hoch 43 s). Durch die Reduzierung auf diese Größenordnung hofft man die vier Grundkräfte in einer Theorie vereinen zu können. Die Elementarteilchen entsprechen hier bestimmten Eigenschaften. Durch ihre Hintergrundabhängigkeit bietet diese Hypothese gegenüber der Stringtheorie Vorteile.

  • Twistor-Theorie:

Die Zusammenführung der Relativitätstheorie und der Quantentheorie geht hier von Spin-Netzwerken aus.

Kausale dynamische Triangulation:

Die Raumzeit des Universums organisiert sich danach über zeitlich gleich ausgerichtete Dreiecke.

Asymmetrisch sichere Gravitation:

Eine endliche Anzahl von Werten betrachtet im Grenzwert unendlich hoher Energien.

Emergente Gravitation:

Die Ableitung der Raumzeit aus dem Zusammenspiel elementarer Bausteine und ihrer Kräfte.

Kausaler Mengen:

Die Raumzeit ist hier nicht kontinuierlich, sondern ergibt sich aus der kausalen Bewegung der Teilchen.

Zu den            geheimnisvollsten Elementarteilchen gehören die Neutrinos. Niemand weiß eigentlich, was sie genau sind, kennt ihr Aussehen, ihre genauen Eigenschaften oder ihre Funktion. Da sie nur eine schwache Wechselwirkung besitzen, können sie alle Materie geradlinig durchdringen (eine Ursache für die Schwierigkeiten ihres Nachweises), z. B. in jeder Sekunde unzählige unseren Körper oder unseren Planeten (1/3 fliegt sogar durch letzteren hindurch, 2/3 wechselwirkend). Unterschieden werden sie nach ihrem Entstehungsort (u. a. Weltall, Sonne, Erdatmosphäre, Kernreaktoren). Da sie sich auf ihrem Weg von der Sonne verwandeln können, müssen sie eine (bisher unbekannte) Masse besitzen. Man unterscheidet je nach den Leptonen mit denen sie auftreten drei Arten ( Elektron-, Myon- und Tau-Neutrinos). Die Leptonen sind elektrisch geladene Teilchen, während die Neutrinos neutral sind. Sie entstehen seit dem Urknall laufend und bilden die Energie, die beim Zerfall von Protonen und Elektronen entsteht. Ihre heutigen Quellen bilden hauptsächlich die kosmische Strahlung (evtl. aus den Schwarzen Löchern) und die Kernreaktionen im Innern der Sonne. Sie durchströmen das Weltall beinahe mit Lichtgeschwindigkeit. Feststellbar sind sie nur, wenn sie auf einen Atomkern treffen und die Lichtmenge, die Auskunft über die Energie eines Neutrinos gibt. Weil die so wenig fassbar sind, ist eine Wissenschaftliche Verständigung über sie auch schwer.

Zu diesem Szenarium gibt es auch Vorstellungen über das Ende des Universums. Dazu drei Beispiele (Theorien):

  • Big Crunch (Großes Knirschen): Die Ausdehnung des Universums wird durch die Gravitation abgebremst und dieses fällt wieder in sich zusammen.
  • Big Freeze (Große Erstarrung):Das Universum dehnt sich immer schneller auseinander (dafür verantwortlich ist die Dunkle Energie). “Der Raum zwischen der Milchstraße und den anderen Galaxien weitet sich immer             schneller“, bis sie außerhalb der besten Teleskope geraten. Übrig bleiben nur Schwarze Löcher, „und selbst die würden unmerklich verdampfen“.
  • Big Rip (Großes Zerreißen): Dunkle Energie zerreißt den Raum, die Moleküle und die Atome (frühestens in 2,8 Milliarden Jahren).

Diese neuen physikalischen Fragestellungen entwerfen ein völlig neues Bild von unserer Realität. Unsere tägliche Orientierung gilt nicht für die Welt der kleinsten Teilchen. Die uns bekannten Naturgesetze verlieren hier ihre Gültigkeit. Wir orientieren uns auf unserer (mittleren) Wahrnehmungsebene kausal, während die Quantenphysik verschränkt verstanden werden will. Die Teilchen in ihr können gleichzeitig verschiedene Zustände abdecken. Wir wissen hier nicht mehr, ob die Natur ihren Grundprinzipien nach real (nach Ursache und Wirkung) oder lokal (zeitlich verschränkt auch mit der übrigen Objektwelt) gesehen werden muss. Diese Verschränkungen widersprechen unseren bisherigen Naturgesetzen. Die Teilchen besitzen nur bestimmte Eigenschaften, wenn man sie beobachtet, diese misst. Dabei scheinen sie sich mit Überschallgeschwindigkeit auszutauschen. Die Versuche der bisherigen Philosophie darauf zu antworten waren:

  • Platon:  Wir erfassen die Welt nur über Schattenbilder der Wirklichkeit. 
  • Aristoteles:  Wir erfahren die Struktur der Wirklichkeit über unser Denken.
  • Descartes:  Da auf die Sinne kein Verlass ist, müssen wir uns der Wahrheit analytisch nähern.
  • Leibniz:  Es gibt eine Wahrheit des Verstandes und die Erfahrung.
  • Heute:  Wir sind sehr unsicher geworden. In unserem Alltagsleben berühren uns diese Ebenen nicht, bzw. verdrängen wir sie. Allerdings verändern sie unser Verständnis von der Welt. Wir stehen erst am Beginn des digitalen Informationszeitalters, und der Quantencomputer mit allen seinen weltverändernden Möglichkeiten steht vor unserer Tür. Mit ihnen wird ein neues Zeitalter der Menschheit beginnen.

Darüber hinaus werden wahrscheinlich auch spezifische medizinische Gesichtspunkte eine Rolle spielen. Noch sind die quantenbezogenen Gedanken stark esoterisch durchsetzt, doch wird man sich deren realen Hintergründen wahrscheinlich langfristig kaum entgegenstellen können. Die Grundgedanken dabei sind:

  • Der menschliche Organismus stellt auch ein Quantensystem dar, in dem sich die Quantenfelder selber organisieren und Informationen austauschen.

(Bisher wissen wir kaum etwas darüber. Die Forschung dazu steht erst in ihren Anfängen. Die ganzheitliche asiatische Medizin scheint hier auf Grund ihrer uralten Erfahrungen verschiedene Ansätze aufzugreifen; evtl. auch manche Therapeuten und manche Naturheilverfahren).

  • Das elektromagnetische Spektrum, besonders das Licht, nehmen einen entscheidenden Einfluss auf die Gesundheit unseres Körpers.
    • Die Lasertechnologie spielt heute bereits eine große Rolle in der Medizin.
    • Gesunde Zellen sollen 10 Biophotonen pro Sekunde abgeben (Krebszellen mehr).
    • Alle unsere neuronalen Übertragungen sind Quantenvorgänge und damit auch alle unsere Intuitionen.
    • Alle Körper strahlen elektrische Felder aus (evtl. kann über sie bei energetischen Defekten, bei der Feststellung von Krankheiten, geholfen werden).
    • In einem gesunden Organismus scheinen alle Quantensysteme harmonisch zusammenzuarbeiten.

Für die Erforschung der Mikrowelt werden keine Kosten gescheut. Selbst negative Ergebnisse werden als ein Erkenntniserfolg gewertet. So will China demnächst einen Ringtunnel mit einem Umfang von 100 km bauen. Damit will man die Higgs-Teilchen näher untersuchen und evtl. noch kleinere Teilchen finden. Auch der bereits bestehende Beschleuniger in Genf hat gewaltige Kosten bereitet und bindet Unmengen hochkarätiger Wissenschaftler an sich. Man hat an ihn hohe Erwartungen geknüpft, die sich aber bisher nicht erfüllt haben. Alle hier zur Prüfung herangezogenen theoretischen Weltmodelle, Hypothesen ließen sich bis jetzt nicht bestätigen (bis auf eine Existenz der Higgs-Teilchen, 2018 1x), weder die Existenz von supersymmetrischen Teilchen noch die Dunkle Energie.

Wir haben in Deutschland und in der Schweiz drei entsprechende Großforschungsanlagen:

  • DESY (Deutsches Elektronen-Synchroton, Hamburg):

Es gehört zur Helmholtz-Gesellschaft.

Seine Forschungsschwerpunkte sind:

    • die Entwicklung von Teilchenbeschleunigern,
    • Forschungsarbeiten mit Photonen,
    • Untersuchungen zu fundamentalen Eigenschaften der Materie.

Es arbeiten hier ca. 2.300 Mitarbeiter aus 45 Nationen (davon ca. 350 Doktoranten).

  • XFEL  (Europäische Freie-Elektronen-Laser mit Röntgenlicht, Hamburg):

Dies ist ein 3,4 kam langer, schnurgerader Röntgenlaser. Jährlich werden hier ca. 10 Mio. Gigabyte Daten gewonnen.

Seine Forschungsschwerpunkte sind:

    • mit Hilfe von elektronisch gewonnen Bildern ein tieferes Verständnis für Proteinstrukturen von Viren und Molekülen zu gewinnen,
    • chemische Reaktionen zu beobachten,
    • extreme Materialzustände zu untersuchen (besonders Fragen der Reibung).

Es arbeiten hier ca. 300 Beschäftigte (darunter ca. 120 Wissenschaftler).

  • CERN (Genf, stärkste Beschleuniger, größte Forschungsanlage für die Teilchenphysik der Welt):

Durch einen 27 km langen Tunnel in 50 – 175 m Tiefe will man, mit 7 Billionen Volt in zwei Strahlen Teilchen aufeinander schießen und über deren Zersplitterung ihnen die Geheimnisse der Materie entlocken (zu 99,999.999.99 % sausen sie durcheinander hindurch).

Zum CERN gehören drei Forschungsanlagen:

    • „Alice“ (ein 10.000-Tonnen-Koloss in 60 m Tiefe): In einem Beryllium-Rohr soll 10.000x pro Sekunde die Hitze des Urknalls entstehen (einige Billionen Grad in einem Superblitz). Hergestellt und erforscht soll hier das Quark-Gluom-Plasma werden.
    • „LHC“ (Large Hadron Collider, der Beschleunigerring): Produziert werden soll hier pro Sekunde ein Schwarzes Loch. Gesucht werden die Antimaterie und die unbekannten Dimensionen der Strings.
    • „Atlas“: Gesucht sollen hier die Higgs-Bosonen werden und Erkenntnisse zur Supersymmetrie und zu den Schwarzen Löchern.

Es arbeiten hier ca. 3.500 Mitarbeiter und ca. 15.000 Gastwissenschaftler aus 85 Ländern. Es gibt nur wenige Hierarchien, da kein einzelner Wissenschaftler das Wissen besitzt, um Entscheidungen von oben nach unten fällen zu können. Jeder muss sich in das Kollektiv einordnen. Bei den Arbeiten entstehen unvorstellbar große Datenmengen. Das Problem: Man weiß gar nicht, wonach man suchen soll (deshalb die große Zahl an Spitzenspezialisten).

Unser Universum (evtl. jedes Universum oder das Multiversum) stellt eine Energieeinheit dar, die, ausgehend von einer Energiekonzentration für unser begrenztes Erkenntnisvermögen, sich nach bestimmten Gesetzen bewegt. Zu diesen Aktivitäten gehören für uns

  • ihre ständige Ausdehnung in verschiedenen Wellenlängen,
  • eine innenwohnende Entropie,
  • die Gravitation,
  • die verschiedenen Formen der Wechselwirkung,
  • die verschiedenen Formen der Evolution, d. h.
    • der physikalischen Kräfte,
    • der chemischen Formen,
    • des biologischen Daseins

(um heute vielleicht in eine neue Form der Evolution zu wechseln),

    • der algorithmischen Digitalisierung.

Es stellt sich für uns als ein Organismus dar, in dem alles mit allem in einer energiemäßigen Beziehung steht. Jede Materie ist damit nur eine Form der Energiekonzentration. Selbst unsere persönliche Existenz scheint nur eine solche zu sein, deren Weiterexistenz, Bewegung nur über eine jeweilige weitere Energiezufuhr (unsere  Nahrung) gesichert werden kann. Unser Tod erscheint aus dieser Sicht nur eine Rückkehr in die verschiedenen Vorgängerstufen der Energie, der Evolution zu sein. Wir sind nur Körnchen, Kinder eines gewaltigen Energiesystems. Wir kommen aus ihm und kehren mit unserem Tod in dieses zurück.

Die Evolution

Mit den Erkenntnissen der biologischen Evolution endet der religiöse Schöpfungsmythos von der Entstehung des Menschen durch eine göttliche Macht. Unser heutiges Problem ist allerdings, das in den USA (2017) diese Erkenntnisse nur von 33 % der dortigen Bewohner anerkannt werden. In Deutschland bezweifelt sie noch jeder vierte. 40 % lehnen sie ab. Wir haben in den USA  zwar den größten wissenschaftlichen Ausstoß der Welt und die wichtigsten Institutionen für die Zukunftstechnologien, doch gleichzeitig durch die religiösen Fundamentalisten auch ein tiefes Misstrauen gegenüber den Wissenschaften. Eine Folge davon ist, dass in der Verbindung mit den dortigen Kapitalinteressen kaum etwas gegen die existentielle Bedrohung der Menschheit durch den Klimawandel getan wird (nur 48 % der dortigen Bevölkerung sehen sie als erwiesen an). Das dortige Großkapital ist natürlich daran interessiert, dass die USA weiterhin der mächtigste Staat der Welt bleibt und bildet deshalb mit den Fundamentalisten das Rückgrat der dortigen republikanischen Partei, für deren Wahlkämpfe gewaltige Summen gespendet werden. So ist die wissenschaftsfeindliche Wahl Trumps nur auf diesem Hintergrund zu verstehen.

Die biologische Evolution setzte nach der physikalischen und der chemischen ein. Nachdem sich aus Kohlenmonoxid und Ammoniak durch einen Blitz oder einen Meteoriteneinschlag, d. h. einer hohen Energiequelle, Formamid gebildet hat, entstanden durch deren Zerfall, unter bestimmten Bedingungen RNA-Bausteine. Ihre Moleküle konnten Informationen speichern, chemische Prozesse steuern, sich selbst vervielfältigen und sich der ständig verändernden Umwelt anpassen. Diese Veränderungen bildeten dann die Evolution des Lebens, an deren Ende heute der Mensch steht. Jedes Lebewesen, jede Person, jedes Individuum ist zunächst nur ein Evolutionsergebnis, ein biochemische Stoffwechselexistenz, die in unserer anthropogenen Kultur das Recht erhält, sich nimmt, sich selber einen Eigenwert zuzusprechen.

Wir, die Menschen, sind ein Ergebnis bestimmter ausbalancierter Naturkräfte, das Ergebnis bestimmter verschiedener Gegebenheiten, so dass unsere Entwicklung im Universum evtl. nur hier möglich wurde. Wir sind auf der Erde das Ergebnis mehrerer Parameter, mehrerer Konstanten auf die hin wir in unserer Existenz abgestimmt sind. Unser heutiges Problem ist, dass wir durch unsere kausalen Eingriffe in dieselbe, deren komplexe Zusammenhänge zerstören und uns dadurch selber unsere Lebensgrundlagen nehmen.

Im Rahmen der menschlichen Evolution ist sein Gehirn entstanden. Vor etwa 3 – 4 Mio. Jahren begann es, sich zu expandieren. Verantwortlich für sein Wachstum soll die Gen-Gruppe „Notch2nl“ sein. Andere Wissenschaftler sehen dagegen das Gen „ARH-GAP11B“ als bedeutsamer an, da dieses für die Faltung der menschlichen Großhirnrinde entscheidend gewesen sein soll. Welche Faktoren außerdem noch für dessen Leistungsfähigkeit verantwortlich wurden, erhofft man sich durch vergleichende Beobachtungen mit den Erbinformationen der Neandertaler (Pääbo in Leipzig) zu erhalten. Vor etwa 100.000 Jahren erreichte dann das menschliche Gehirn seinen heutigen Umfang (etwa 1400 g). Bezogen auf die menschliche Größe hat kein anderes Lebewesen ein vergleichbar großes. Es ist das komplexeste System, das wir kennen.

Noch sind viele Fragen über die Entstehung des Lebens in unserem Universum offen. Vermutet wird, dass einfache Lebensformen hier durchaus verbreitet sein können, „intelligente“ dagegen selten sein werden. Sollte es sie geben, dann müssen sie aber mit unseren Orientierungssystemen nichts gemein haben und eine mögliche Verständigung dürfte sehr unwahrscheinlich sein.

Unser Bewusstsein ist ein hochkomplexes System. Es besteht aus der Aktivität unseres Neuronennetzwerkes im Gehirn. Wir erfahren es partiell besonders aus seinen Reaktionen im Frontal- und Parietallappen. Seine tiefer liegenden Einflussgrößen ergeben sich aus der Aktivierung unserer Gene über unseren Stoffwechsel, d.h. unsere Energiezufuhr und deren Auswertung. Dabei ist unser Selbstgefühl ein Ergebnis bestimmter Gehirnprozesse. Nach Gillihan und Farah müssen wir bei ihm drei Formen unterscheiden: Das

  • physische Selbst: dem Gefühl unserer Körperlichkeit. Es ist im Parietallappen beheimatet.
  • psychologische Selbst: Es umfasst unsere subjektiven Wahrnehmungen und Erinnerungen und unsere Fähigkeit uns von anderen zu unterscheiden.
  • ausführende Selbst: Daran sind alle Gehirnteile beteiligt.

Genau genommen ist unser Selbst eine Illusion, da wir fest an unseren Körper gebunden sind und dieser sich ständig verändert. Wir sind morgens bereits ein anderer und in einem Jahr ein völlig anderer.

Nach unserem Kulturverständnis sind alle Menschen gleich. Dies ist der zentrale Inhalt vieler westlicher Verfassungen. Unser Problem in diesem Verständnis ist, dass im Rahmen unserer Gene, unseres Erbgutes jeder ein anderer ist, jeder andere spezifische Fähigkeiten besitzt. Alle unsere westlichen Ideologien sprechen dagegen, z. B. in der Erziehung und bei unseren Geschlechterrollen. In unserer heutigen Situation verbinden sich wissenschaftlicher Fortschritt und irrationale Ideologien, ohne dass wir deren Brisanz zu erkennen scheinen. Die Schwierigkeiten die sich daraus ergeben sind, dass wir durch diese Diskrepanz sozial gegenüber unseren massiven Zukunftsproblemen relativ handlungsunfähig geworden sind. Alle pochen auf ihre ideologischen persönlichen Rechten, die sie vor die sozialen setzen. Bei einer explosionsartigen Weiterentwicklung der Menschheit einerseits (den Geburtsraten in den unterentwickelten Ländern, der höheren Lebenserwartung durch die moderne Medizin) und der rasanten Entwicklung der Künstlichen Intelligenz andererseits (z. B. über den Cyborg zum autonom agierenden Roboter), bleibt für den historischen Menschen, wenn er seine bestehende Werte, fundamentale Orientierungssysteme nicht ändert, auf der Erde kein Platz mehr.

Hawking: „ Die Entwicklung von vollständiger künstlicher Intelligenz könnte das Ende der menschlichen Rasse bedeuten“.

Sollte sie gutmütig sein, kann sie vielleicht für den heutigen Menschen Reservate schaffen. Durch seine ständig wachsenden Bedürfnisbefriedigungen und seine ständige Suche nach seinem persönlichen Glück drängt er sich und die höheren pflanzlichen und tierischen Evolutionsstufen selber aus dieser Welt. Bewahren kann ihn wahrscheinlich nur davor ein allumfassendes Verantwortungsgefühl gegenüber allen seinen Existenzbereichen, eine Ehrfurcht gegenüber der restlichen Natur und eine grundsätzliche Bescheidenheit in seinem sozialen Sein.

Vermutet wird, dass uns die Künstliche Intelligenz spätestens 2050

  • überlegen sein wird,
  • wir mit ihr kaum konkurrieren können.

Die Biotechnologie (Gen-Technik)

Die ersten biologischen Moleküle entstanden in der Ursuppe der frühen Ozeane. Sie bestanden aus eiweißartigen Verbindungen und kurzen Nukleinsäuren und besaßen einen primitiven Stoffwechsel. Danach steigerten sich die Molekülverbände bis hin zu unseren heutigen komplexen Zellverbänden. Sollten dahinter bestimmte Naturgesetze stehen, so müssen sie als Anlage bereits mit dem „Urknall“ bestanden haben, bzw. entstanden sein. Bis heute sind solche noch nicht erkannt. Für die Beantwortung entsprechender Fragen wird noch nach zentralen Mustern gesucht. Möglich sind evolutionäre Informationssysteme von der physikalischen Evolution, über die chemische, die biologische zu der sich abzeichnenden digitalen, d. h. uns heute noch verborgenen übergeordneten Orientierungsprinzipien. Wir sind zurzeit bereits in der Lage synthetische DNA-Organismen zu entwickeln (Venter, Rockville-Institut) und der Schritt Lebewesen nach unseren Interessen zu schaffen, zeichnet sich bereits ab. Unser gegenwärtiges Problem ist, dass wir bisher für eine solche Entwicklung keine Ethik besitzen und in der zellulären Mechanik, der Komplexität der Proteine und der Botenstoffe dafür bisher kein in ihnen verborgenes Orientierungsziel erkennen können.

Bereits 1953 gelang es Stanley Miller in einem Glaskolben aus Wasser, Ammoniak, Methan und Wasserstoff mit Hilfe elektrischer Entladungen einfache biologische Moleküle herzustellen (Ursuppen-Experiment). Zwar können wir heute aus toter Materie noch kein Leben erschaffen, wohl aber bereits synthetische DANN-Organismen entwickeln. Im Universum bedeutet das biologische Leben Stoffwechsel, Wachstum und Fortpflanzung. In ihrer Evolution hieß das Bakterien > Einzeller > Pilze > Pflanzen > Tiere > Säuger > Hominiden > Mensch. Dass es eine immaterielle Lebenskraft gibt, ist eine esoterische Vorstellung.

Lebewesen können wachsen, sich vermehren und sich zu systembildenden Strukturen organisieren. Die Energie, die sie dafür benötigen, nehmen sie innerhalb ihrer hierarchischen Systeme über ihre Nahrung auf. Diese wird ihnen an der Basis der Nahrungskette von der Sonne zur Verfügung gestellt. Die Wissenschaftler sind zurzeit dabei, all  diese Prozesse synthetisch nachzuvollziehen. Zunächst hoffen sie mit Hilfe von synthetischen Viren, Nahrungsmittel schaffen und unser Leben optimieren zu können. Nach dem Durchbruch der Informationstechnologien stehen wir vor einer Revolution der Biotechnologien. Noch sind wir persönlich von dieser Entwicklung nicht betroffen und können sie deshalb verdrängen. Die Synthetisierung der DNA ist reine Chemie und wird zurzeit noch durch rechtliche Vorgaben eingeengt. Sobald wir aber die einzelnen Funktionen der Gene besser kennen, (sie bestimmen unseren Stoffwechsel und mit Hilfe des Lichts auch unsere innere Uhr),werden wir mit diesen gemäß unseren Interessen auch arbeiten, immer in der Erwartung, dass wir nie die Kontrolle über diese Entwicklung verlieren,

In unserer Öffentlichkeit wird die Gen-Technik weitgehend abgelehnt, ohne dass ihre Verneiner oft reale Vorstellungen von ihr besitzen. Bisher konnte man durch sie keine negativen Folgen beobachten. In der Arzneimittelindustrie ist sie bereits ein nicht mehr diskutierter Standard. Ihren schlechten Ruf hat sie durch die großen Chemiekonzerne erhalten, denen es in langen Bemühungen gelungen war, bestimmte Kulturpflanzen gegenüber ihren Vernichtungsmitteln selektiv resistent zu machen. Patentiert versprachen diese Pflanzen riesige Gewinne. Sie gilt als ein Werkzeug der Profitmaximierung multinationaler Konzerne (z. B. Mais-, Soja-, Rapssorten). Zurzeit beherrschen vier Chemie- und Saatgutmultis 60 % des Saatgutmarktes. Mit den neuen Crispr/Cas 9-Verfahren ist dies viel einfacher geworden (2012 von Emmanuelle Charpentier und Jennifer Doudna entwickelt; heute ein wissenschaftliches Standardverfahren). Gewünschte Eigenschaften lassen sich jetzt relativ schnell in bestimmte Ausgangspflanzen einschleusen. Noch besteht ein Verbot des Europäischen Gerichtshofes Organismen gentechnisch zu verändern, doch ist zu erwarten, dass betroffene Firmen ins nicht betroffene Ausland abwandern, um dort erfolgsversprechend und risikoarm diese Methode bei ihren Züchtungszielen einzusetzen.

Mit dem Crispr/Cas 9 –Verfahren lassen sich Erbgutabschnitte gezielt entfernen und austauschen:

  • Zunächst wird das gesamte Genom einer Pflanze ausgelesen.
  • Der gewünschte Gen-Abschnitt wird entfernt.
  • Das Cas 9-Riesenmolekül transportiert den neuen DANN-Abschnitt an die gewünschte Stelle.

Auf diese Weise können die Erbinformationen verschiedener Arten ausgetauscht werden. Ein bestimmter Erbgutabschnitt einer Zelle wird synthetisiert und mit dem Protein Cas 9 gekoppelt, das dann wie eine synthetische Schere funktioniert. Man nutzt dabei ein bakterielles Abwehrsystem gegen feindliche Viren aus.

Positiv gegenüber diesem neuen Verfahren sind eingestellt:

  • Grundlagenforscher: Die so gezüchteten Pflanzen unterscheiden sich nicht von natürlichen Mutationen.
  • Pflanzenzüchter:  Man erhält Pflanzen mit gewünschten Eigenschaften.
  • Industrie:  Die so erhaltenen Mikroorganismen und Pflanzen können wirtschaftlicher, klimatauglicher und umweltschonender sein.

Kritisch sehen das Verfahren:

  • Naturschützer: Die bisherige Pflanzenwelt wird durch die Designpflanzen verdrängt. Ihre größere Pestizidresistenz geht zu Lasten der übrigen Natur.
  • Ökobauern:  Die bisherige, umweltschonende Ökolandwirtschaft wird nicht mehr möglich sein. Das landwirtschaftliche Kulturgut wird von einem reinen Wirtschaftsgut verdrängt.
  • Kritiker: Die Ergebnisse unterscheiden sich von anderen Mutationen, weil die Umwelt keine Zeit besitzt, sich auf diese einzustellen. Auch kennt man nicht die Nebenwirkungen der Verdrängungen.

Mit Hilfe der Gen-Technik wird man Krankheiten heilen, bzw. deren Auswirkungen mildern können, indem man

  • kranke Gene ein- und ausschaltet,
  • kranke oder defekte Gene durch gesunde ersetzt,
  • die Auswirkungen mancher Krankheiten lindert

(z. B. neuromuskuläre oder bei Krebs).

Die zukünftige Krankenbehandlung wird maßgeschneidert, personenbezogen sein. Die Krankheiten werden untersucht, analysiert und ihre auf den jeweiligen individuellen Stoffwechsel abgestimmt (besonders bei Krebs wird die genetische Zusammensetzung des Tumorherds untersucht). Aus Kostengründen kommt sie heute oft nicht zum Tragen. Man geht allerdings davon aus, dass zukünftige Algorithmen die Patientendaten kostengünstig schnell werden analysieren und die notwendigen Behandlungsmethoden vorschlagen werden können.

Wahrscheinlich ist es nur eine Frage der Zeit, wo mit medizinischen Argumenten auch der Mensch genetisch verändert wird. Ein nächster Schritt kann seine genetische Perfektionierung sein und danach seine natürliche Zeugung durch eine solche in einer Nährlösung abgelöst werden. Da dies evtl. teuer sein wird, kann sich die Menschheit fließend in eine reiche Oberschicht und eine eigentlich überflüssige Massengesellschaft, die unterhalten werden will, teilen, mit jeweils eigenen Moralvorstellungen.

Zurzeit (2018) werden im Medizinischen Genetischen Zentrum (MGZ) in München jährlich 2000 Patienten genetisch auf die erbliche Gesundheit ihres möglichen Nachwuchses untersucht. Das Problem dabei ist, dass viele der genetischen Erkrankungen erst mit der Embryoentwicklung und deshalb nicht vorhersehbar entstehen. So hat z.B. in Deutschland nur einer von 300 Personen eine Veranlagung für Brustkrebs. Vielleicht wird die Crispr-Methode beim Menschen bei der Bluterkrankheit versucht, indem man über eine kleine Zahl von Stammzellen deren Gerinnungsfaktoren nur um 3 – 4 Prozent erhöht.

Ein zweiter Ansatz dürfte die Verlängerung unseres Lebens darstellen, d. h. den Verfall unseres Körpers zu bremsen und die gesamte Lebenszeit auszudehnen. Wie alt wir werden, folgt einem biologischen Programm und ist ein Ergebnis unserer Evolution. Molekulare chemische Prozesse schalten die verschiedenen Zelltypen nach und nach ab. Nach neueren Erkenntnissen glaubt man, evtl. das Leben auf 150 – 200 Jahre verlängern zu können (selbst 1000 Jahre werden von einzelnen Wissenschaftlern vertreten).

Für die Vorgänge, die zu unserem körperlichen Verfall führen, gibt es mehrere Theorien:

  • eine Verkürzung der Telomere (Endstücke der Chromosomen in den Zellen). Dieser Gedankenansatz gilt heute als überholt.
  • eine Alterung der Proteine: Sie haben in den Zellen nur eine begrenzte Lebensdauer. Vielleicht erfolgt dies mit dem Altern, ist aber nicht dessen Ursache. Wahrscheinlich werden die Aktivitäten der DNA und der Proteine auch durch Umweltfaktoren (wie z. B. Stress) geschädigt (z. B. durch das Abschalten) und diese Veränderungen an die Nachkommen weitergegeben Epigenetik).
  • toxische Stoffwechselprodukte (oxidativer Stress): Die Widerstandsfähigkeit lässt im Alter nach (nicht deren Ursache).
  • eine Alterung der  Mitochondrien (Zellkraftwerke; versorgen die Zellen mit Energie): Als Ursache vermuten einige Wissenschaftler eine Alterung deren Gene.

Mit einer Verlängerung unseres Lebensalters (bei einem Anwachsen der Menschheit auf 10, vielleicht auch 15 Milliarden) müssen sich alle unsere gesellschaftlichen Strukturen verändern:

  • unsere Grundorientierungen (unsere persönlichen und sozialen Werte),
  • unsere Ausbildung (wofür?  für welche Tätigkeiten?),
  • der Generationenvertrag,
  • unser Renteneinstieg,
  • die Sinngebung für unser Leben.

Niemand besitzt Vorstellungen über die Begleiterscheinungen, die damit verbunden wären.

Unsere Forschung an menschlichen Embryonen ist dabei, unsere bisherigen strikten Verbote hinfällig werden zu lassen (Embryonenschutzgesetz von 1990):

  • durch die Crispr/Cas 9-Technik ist die Arbeit mit Genen sehr viel einfacher und präziser geworden. Erbkranke Embryonen müssen jetzt nicht mehr sterben, sondern können im Frühstadium geheilt werden.
  • Künstlich erzeugte Spermien und Eizellen fallen nicht unter das Gesetz (in absehbarer Zeit möglich).
  • Die Umwandlung normaler Körperzellen in einen Embryo, herangewachsen in einer Nährlösung, fällt auch nicht unter das Gesetz (auch sie wird eines Tages voraussichtlich möglich sein).

Auf eine künstliche Produktion des Menschen sind wir ethisch nicht vorbereitet. Wir können sie in unserer Region zwar verbieten, aber in anderen Staaten wird sie wahrscheinlich ehrgeizig durchgeführt. Wenn uns unsere Probleme durch unsere Umweltzerstörung, unseren Ressourcenverbrauch und der Überbevölkerung über den Kopf wachsen werden, dann dürften sich uns ethisch viele neue Grundfragen stellen, bei denen wir die Antworten nach dem Menschenbild, das uns in die weitere „menschengemäße“ Zukunft führen soll, neu werden geben müssen.

Die Umweltzerstörung

Wir zerstören gleitend unsere Umwelt und erekennen dies nur über die Erinnerungen:

  • Unmittelbar nach dem Krieg (1945) versorgte der Autor seine Familie mit Eimern an Flusskrebsen, die er mit der Hand fing. Als er in den 80iger Jahren diese Tiere seinen Söhnen zeigen wollte, gab es in den damals mit ihnen überreichen Bächen keinen einzigen mehr.
  • Auf seinem Schulweg gab es am Straßenrand eine Fülle verschiedener Insekten, besonders an Schmetterlingen (sehr oft Schwalbenschwänze). Jetzt hat er seit Jahren von letzteren keinen einzigen mehr gesehen.
  • Die Sperlinge galten als Plage. Unzählige nisteten unter den Dachkanten, und die Bauern belohnten die Zerstörung ihrer Nester. Heute gibt es sie nur noch gelegentlich als kleine Schwärme.
  • Beim Bau seines Hauses sangen im Frühjahr auf den Feldern überall die Lerchen. Jetzt hat er seit Jahren keine mehr gehört.
  • Auf dem Weg zur Arbeit gab es viele Kiebitze in den umliegenden Feldern. Die Bauern haben deren Bestellung intensiviert und es gibt seit über 20 Jahren keine mehr.

Aber das alles sind nur Erinnerungen. Für die Kinder gab es viele Tiere und Pflanzen schon nicht mehr und die Enkel vermissen sie nicht, weil sie diese nie kennengelernt haben. Wir verändern mit unserer Zivilisation nicht nur unsere Umwelt ständig, wir zerstören sie auch. Und da dieser Prozess sich schleichend vollzieht, bemerken wir es kaum, wie wir einerseits an Lebensqualität ärmer werden und andererseits unsere Umwelt, d. h. unsere Existenzgrundlagen als biologische Wesen zerstören. Als Hintergrund unserer Zivilisation haben unsere Wissenschaften daran einen entscheidenden Anteil. Indem ihre Erkenntnisse marktwirtschaftlich genutzt und ständig neue Bedürfnisse geschaffen werden, bewegen wir uns auf eine Entwicklung zu, die wir wahrscheinlich wegen unserer individuellen Ausrichtung sozial nicht mehr beherrschen werden. Als das exemplarische Modellthema dafür gilt der Klimawandel.

Durch das menschliche Gewinnstreben müssen wir mit einem Klimaanstieg von bis zu 5 Grad Celsius rechnen. Unsere gesamte Wirtschaft ist auf Wachstum ausgerichtet. Begründet wird dies für die unteren Bevölkerungsschichten mit der Schaffung und Sicherung von Arbeitsplätzen. Es sei der Garant des Wohlstandes. Bereits 1972 hatte der „Club of Rome“ (Meadow-Studie über die Grenzen des Wachstums) ein radikales Umdenken gefordert, eine Begrenzung des Wirtschaftswachstums auf 1 % (besonders der reichen Länder). Im Pariser Abkommen 2015 verständigte man sich auf Vorschlag des Potsdamer Instituts für Klimaforschung (Schellnhuber) die mögliche zukünftige Erderwärmung deutlich unter 2 Grad Celsius zu halten. Wird dieser Wert überschritten, erwartet man einen Treibhauseffekt mit einem Anstieg auf 6 – 8 Grad Celsius. Doch alle Versuche einer Wachstumsbeschränkung scheiterten bisher (Scheitern der Klimakonferenz in Kopenhagen; Bush „Nein“ zum Kyoto-Protokoll). Da eine Beschränkung des CO2-Ausstoßes auf die Wirtschaft als Bedrohung angesehen wird, ist eine Erreichung der Zweigradgrenze nicht zu erwarten (trotz der Versprechen vieler Länder; u.a. auch das von Deutschland).

Noch immer werden die Probleme eines möglichen Klimawandels von breiten Bevölkerungsschichten bei uns nicht ernst genommen und dann von „gut“ Informierten auf den ständigen Klimawandel in der Geschichte der Erde hingewiesen. Doch fand dieser unter völlig anderen Voraussetzungen statt und zog sich über lange Zeiträume hin, so dass sich die jeweilige Umwelt darauf einstellen konnte. Für die sogenannten Milankovic-Zyklen, dem periodischen Wechsel der Eis- und der Warmzeiten alle 100.000 Jahre, gibt es drei Einflussgrößen, die die jeweilige Sonneneinstrahlung auf die Erde beeinflussen:

  • der periodische Wechsel der Erde von einer elliptischen zu einer fast kreisförmigen Umlaufbahn,
  • die Schwankung der Erdachse zwischen 22,5 – 24,5 Grad,
  • das Pendeln der Rotationsachse zwischen ihrer Ausrichtung auf den Polarstern und den Stern Wega.

Vor etwa 19.000 Jahren hatten wir unseren letzten Übergang von einer Eiszeit zu einer Warmzeit. Durch die folgende Erderwärmung gaben die Meere verstärkt Kohlenstoffdioxyd ab, was zur Folge einen weiteren Temperaturanstieg hatte.

Unser heutiges Problem ist, dass sich seit Mitte des 20. Jhs. unsere Erderwärmung von der Sonnenaktivität abgekoppelt hat und sich die CO2-Dichte in der Atmosphäre seit dieser Zeit verdreifacht hat. Dadurch kann immer weniger Erdwärme in das Weltall entweichen, mit möglichen drastischen Folgen für uns:

Normalerweise enthält die Luft 0,38 % Kohlenstoffdioxyd (ein farbloses, geruchloses und ungiftiges Gar). Es hat die Eigenschaft, einen Teil der zur Erde aus dem Weltall gelangenden Wärme zu absorbieren und auf die Erde zurückzustrahlen (Treibhauseffekt). Dadurch ist es entscheidend für das Klima auf der Erde verantwortlich. Normalerweise entsteht dieses Gas durch

  • den Zerfall toter Substanz,
  • die Atmung vieler Lebewesen,
  • natürliche Quellen (z. B. Vulkangase).

Abgebaut wird das freiwerdende CO2 durch die

  • Photosynthese der Pflanzen,
  • Speicherung in den Gewässern.

(Es baut sich in der Atmosphäre nicht selber ab).

Die Tätigkeit der Menschen schafft nun neue, bisher seltene Entstehungsarten des CO2-Anstieges durch

  • das Verbrennen von fossilen Brennstoffen und von Holz,
  • das Abholzen riesiger Waldgebiete (Amazonas, Alaska, Kanada, Sibirien),
  • die damit verbundene Erwärmung der Meere führt wiederum zu einer verstärkten CO2-Abgabe und zu einem erhöhten Wasserdampfanteil in der Luft, der den Treibhauseffekt noch einmal steigert,
  • das Tauen des Permafrostes im Norden,
  • die schrumpfenden Eispanzer in den Polarregionen.

Die Wissenschaftler gehen  heute von zehn möglichen Kipp-Elementen aus, die sowohl einzeln eine Teufelsspirale auslösen können, als sich auch noch zusätzlich gegenseitig unterstützen können. Alles müsse vermieden werden, dass

  • die in der Natur gespeicherten CO“-Massen und Methan frei werden,
  • die Sonneneinstrahlung auf die Erde negativ beeinflusst.

Sollte dies nicht gelingen, werden die Folgen sein:

  • ein Temperaturanstieg mit
    • einer Verschiebung der Klima- und der Vegetationszonen,
    • einem veränderten Auftreten der Niederschläge,
    • häufigeren Wetterextremen,
    • Gletscherschmelze und dem Schmelzen der Polarkappen,
    • verstärkter Algenblüte (da viele Algen giftig sind, hätte das ein verstärktes Artensterben zur Folge),
    • ein Anstieg der Meere (durch eine größere Wasserausdehnung bei höheren Temperaturen und dem verstärkten Abschmelzen. Folge: Bei einem Anstieg von nur 1 m gehen 150.000 qkm Landfläche verloren).
    • Korallenbleiche (Absterben der Korallen),
    • Veränderung der Meeresströme (u. a. ein Versiegen des Golfstromes, was in West- und Nordeuropa zu einem Kälteeinbruch führen würde),
  • sozial würde eintreten:
    • eine verstärkte Wanderbewegung von negativ betroffenen Menschen (laut Weltbankbericht: bis 2050 140 Mio. Klimaflüchtlinge),
    • Veränderungen im Tourismus (z. B. in den Skigebieten),
    • größere Versicherungsschäden.
  • biologisch würde eintreten:
    • ein vermehrtes Artensterben (nach der Umweltzerstörung unser zweitgrößtes ökologisches Problem),
    • Verlust der Biodiversität (Vielfalt in der Natur),
    • ein verstärktes Auftreten von Krankheiten.

Der IPCC (Zwischenstaatlicher Ausschuss für Klimaveränderungen) geht in seinem 4. Sachstandsbericht von einem Temperaturanstieg bis 2100 um 1,1, – 6,4 Grad Celsius aus. Doch bereits ein Temperaturanstieg vom 1,5 Grad würde auf Erden pro Jahr Folgekosten von 10,2 Billionen Dollar bereiten (ohne einen Klimaschutz von 14 – 27 Billionen). Wir rasen auf eine unvorstellbare Katastrophe zu. Unsere augenblickliche Situation gleicht einem kollektiven Suizidversuch. Es besteht die Gefahr, dass wir Werte erreichen, die kein Zurück mehr möglich machen. Wahrscheinlich reicht ein Stoppen der Entwicklung nicht mehr aus, sondern es müssen die Emissionen radikal reduziert und auf neue Techniken schnell umgestiegen werden. So wie die Wissenschaftler uns in diese Situation gebracht haben (bei besten Absichten) und jetzt die sich inzwischen abzeichnenden Probleme aufzeigen, wird es für viele von ihnen eine entscheidende Aufgabe sein, uns wieder aus diesen herauszuführen. Das UN-Sekretariat hat u. a. als Ziele bis 2020 gesetzt:

  • ein Erstellen von Klimaschutzplänen,
  • die Kohlekraftwerke zu schließen,
  • die Förderung von Elektroautos,
  • das Aufforsten von Wäldern.

Die Aussichten dafür, dass sich viel tut, sind schlecht. Dafür sind unsere Wissenschaftler viel zu stark mit den Interessen der Wirtschaft, des Kapitals und der Hegemonialbestrebungen ihrer Regierungen verflochten. Notwendig wäre u. a. eine vollständige Dekarbonisierung der Weltwirtschaft in den nächsten zwei bis drei Jahrzehnten, doch die Lobbyisten helfen den Wissenschaftlern, wie auch den Entscheidungsträgern sich ihrer Verantwortung zu entziehen. Besonders die Großmächte wollen ihre Wirtschaft und deren Gewinne wachsen sehen. Eine Folge davon wird sein, dass unsere Energiebedarf und unser Ressourcenverbrauch noch steigen werden. Für die Herrschenden fallen die Belastungsgrenzen der Natur ja nicht so ins Gewicht, da sie ihre Villen sowieso an den schönsten Stellen der Erde bauen können. Die Wohlhabenden können ihre Steaks mit Blattgold aufwerten lassen, während gleichzeitig in den Nebenstraßen Tausende Kinder verhungern.

In Verbindung mit den Gedanken eines Wirtschaftswachstums benötigen wir grundlegende Wirtschaftsreformen. Doch die Finanziers des Kapitalmarktes erzwingen die Ausplünderung unserer natürlichen Lebensgrundlagen. Notwendig wäre eine Kultur der Nachhaltigkeit und nicht die einer ständigen Bedürfnissteigerung, bei einer gleichzeitigen weitestgehenden individuellen Freiheit. Neben einer persönlichen Selbstbeschränkung und Genügsamkeit müsste sozial gleichzeitig eine gerechtere Verteilung der vorhandenen Güter erfolgen. Viele unserer Politikererklärungen sind pure Heuchelei, da die Betroffenen selber nicht entsprechend ihren Forderungen leben. Niemand will auf seinen Lebensstandard verzichten. Man kann (und muss) den Strom aus fossilen Quellen ablehnen, auch den Atomstrom, den der vogeltötenden und geräuschbildenden Windräder, wie auch die hässlichen Oberlandleitungen. Doch kaum jemand will auf die stromabhängigen Zivilisationsleistungen verzichten. Und die Holzfeuerung am Kamin schafft eine so romantische Atmosphäre, um sich dabei in Ruhe über den weit entfernten Klimawandel Gedanken zu machen. In Modewellen werden von den Medien der eine oder andere Schuldige thematisiert und 1000.000de Wissenschaftler liefern ihnen dafür Argumentationshilfen. Dabei ist unser ganzes Problem  dass unsere Kulturen falsch angelegt sind. Wir, die Menschheit ganz allgemein, sind mit unseren Ansprüchen und unserer Zivilisationsabhängigkeit (z. B. unseren Arbeitsplätzen) zur Naturbedrohung geworden. Wir müssten bei unseren Bedürfnissen alle radikal umdenken, doch kaum jemand ist dazu bereit. Wir tanzen buchstäblich unseren zivilisatorischen Totentanz. Wenn wir die heutige Entwicklung nicht in den Griff bekommen, dann brauchen wir über viele unserer heutigen Nebenprobleme nicht mehr nachzudenken.

Die Organisation der Wissenschaften

Einst gehörten die deutschen Gymnasien und Universitäten zu den besten der Welt. Das Land definierte sich nach den humboldtschen Reformen als Kultur- und Bildungsnation. Es wurde für seine wissenschaftlichen Leistungen, Komponisten, Schriftsteller und Künstler weltweit bewundert. Die meisten Nobelpreisträger kamen von hier. Aus der ganzen Welt strömten Studenten herbei. Infolge des ersten Weltkrieges, des Nationalsozialismus (ein Teil seiner geistigen Elite emigrierte, der verbleibende war weitgehend mit dem Naziregime verstrickt) und durch das nachfolgende Wiedererstarken der Kirchen geriet seine ehemalige geistige Position ins Hintertreffen. Das Land verlor zunehmend seine frühere kulturelle Bedeutung. Man bezog seinen Stolz aus dem Wiedererstarken seiner Wirtschaft (die weitestgehend noch das Ergebnis einer Nachwirkung seiner ehemaligen kulturellen Stellung und der Unterwerfung unter die amerikanischen Hegemonialbestrebungen im Kalten Krieg gegen die UdSSR gewesen waren, bzw. sich daraus ergeben haben). Die entscheidenden politischen Ziele wurden die Stärkung der wirtschaftlichen Position bei einem gleichzeitigen Ausbau des Sozialstaates, um die unteren Bevölkerungsschichten gegen die Versprechungen des Kommunismus zu immunisieren.

Lange Zeit waren die humboldtschen Reformen für das deutsche Bildungswesen maßgebend gewesen. Sie bestimmten dessen humanistischen Kern, der über diesen einst auch zu einem der Hauptmerkmale des deutschen Bürgertums, seiner Bürgerideale geworden und später durch dessen Allianzen mit dem Nationalsozialismus in Misskredit geraten war. Diese humboldtschen Ideale waren:

  • die Geistes- und Zweckfreiheit eines Studiums

(Es sollte in studierender Einsamkeit vorrangig der individuellen Persönlichkeitsbildung dienen).

    • die (Aus-) Bildung sollte zweckfrei sein,
    • Die Forschung und Lehre sollten eine Einheit bilden

(Die Professoren und Studenten sollten gemeinsam forschen. Die gute Lehre sollte gemeinsamer vorbildlicher Arbeit entspringen),

    • Aus dieser Geisteselite sollte der Staat seinen Führungsnachwuchs rekrutieren.

(Diese geistige Haltung hatte sich genau genommen erst im Laufe des 20. Jahrhunderts entwickelt. Humboldt selber leitete einst die Kulturabteilung des preußischen Innenministeriums nur 13 Monate (von 1809 – 1810); sein Schulgesetzentwurf wurde 1816 sogar abgelehnt. Der spätere Humboldt-Mythos entstand erst 1910 nach dem Jubiläumsvortrag Sprangers zum 100-jährigen Bestehen der Berliner Universität).

Die Hochschulen waren damals noch kleinere, elitäre Einrichtungen. Doch haben sich seine humanistische Positionen gegenüber einer heute oft gepflegten Vielwisserei als Forderungen noch heute erhalten. Danach soll ein Studium

  • auch einer Persönlichkeitsbildung dienen,
  • die eigene Urteilskraft fördern
  • zu einer kulturellen Offenheit führen,
  • die kulturellen Zusammenhänge verstehen lehren,
  • neben einem Fachwissen auch ein Orientierungswissen vermitteln,
  • neben dem Fachwissen auch die Fähigkeit zu Intuition und Empathie fördern

(die genialen Wissenschaftler gehen aus ihren Fähigkeiten in diesen Bereichen hervor).

Diesen historisch entstandenen Idealvorstellungen stehen heute gegenüber:

  • allein in Deutschland 2,8 Mio. Studenten, die sich heterogen zusammensetzen,
  • die schnellen Entwicklungen in der Technik,
  • die Digitalisierung bis hin zur Künstlichen Intelligenz,
  • der radikale Wandel nicht nur der Arbeitswelt sondern auch unserer gesamten Kultur,
  • unsere ausufernden individuellen Bedürfniserwartungen

(bei demnächst 10 Mrd. Menschen),

  • die Bedrohung unserer Lebensgrundlagen durch den Kapitalismus und die Hegemonialbestrebungen der Großmächte.

Durch die Globalisierung können die Menschheitsinteressen, die allgemeinen Sozialinteressen über die Individualinteressen Einzelner weltweit ausgespielt werden.

Einst hatten wir in Deutschland in der Handwerksausbildung Lehrlinge, Gesellen (Gehilfen) und Meister. In manchen Bereichen kamen später noch der Techniker hinzu, der zu der praktischen Ausbildung noch einen breiteren theoretischen Hintergrund erhielt. In der Hochschulausbildung gab es die Universitäten (Akademien), die sich im Mittelalter zunächst aus einer Verschulung der klassischen sieben Künste mit den geistigen Inhalten des Mönchtums ergaben. Die spezifische Ausbildung in den Klöstern und Domschulen wurde an eigenständige Ausbildungsstätten verlegt, zumal man auch in der staatlichen Verwaltung vermehrt Fachkräfte benötigte und Friedrich II. im Streit mit dem Papst lag (Gründung von Bologna 1088). Mehrere Jahrhunderte bestimmten dann die christlichen Orden die universitäre Entwicklung (besonders die Franziskaner und Dominikaner). Aus dieser Zeit stammte die Ausbildung zum Bachelor und danach zum Magister. Im Mittelalter kam man mit 15 Jahren in die sogenannte Artistenfakultät, in der die sieben klassischen Künste (artes liberales) unterrichtet wurden. Sie schloss nach ca. 6 Jahren mit dem Baccalaurus artium ab, der mit unserer heutigen Gymnasialausbildung vergleichbar war. Ihr folgte dann in den Fakultäten das Studium des Rechts, der Medizin oder der Theologie. Dieses dauerte 5 – 12 Jahre und schloss mit dem Magister oder Doktor ab.

Unsere historischen Hochschulen waren von den humboldtschen Idealen beherrschte Lehranstalten. Die vorwiegend verschulte, praxisnahe Ausbildung erfolgte an den Fachhochschulen. Früher war die eine Institution wissenschafts- und die andere berufsorientiert. An den Universitäten ergab sich die Lehre aus der Forschung. Nach dem nachzuvollziehenden Zwang zu Reformen sind unsere heutigen Universitäten verschulte, primär wirtschaftlich orientierte Ausbildungsfabriken geworden (das kanonisierte Bildungswissen wird in Modulen vermittelt) Die ehemaligen Universitäten wurden zu großen Fachhochschulen, und die ehemaligen Fachhochschulen dürfen sich Universitäten nennen. Die Lehrkräfte orientieren sich an ihren ökonomischen Vorgaben und die Studenten an ihrem möglichen, nachfolgenden Einkommenserwartungen.

Die alte deutsche Universität gibt es heute nicht mehr. Sie ist jetzt eher eine Schule mit einem festen Stundenplan und überprüfbaren Wissensanforderungen geworden. Als zunehmende Zuträgerinstitution für die verbündete amerikanische Hegemonialmacht wird Englisch auch an den deutschen Hochschulen zunehmend zur Unterrichts- und Examenssprache (unter Vorgabe der aktuellen globalen Bedeutung dieser Sprache).

Die Bologna-Reform (1999 von 29 Ländern vereinbart) hat die alte deutsche Universitätskultur abgelöst. Bis 2010 sollten alle nationalen Hochschulexamen von Bachelor- und Masterabschlüssen abgelöst werden. Im Konflikt zwischen Bildung und Ausbildung hat man sich für die letztere entschieden. Die Gründe dafür waren u. a.:

  • die früher oft überlangen Studienzeiten in vielen Fächern

(auch als Ergebnis einer gewünschten Selbstfindung im Sinne der             humboldtschen Ideale),

  • die Verarmung vieler Mittelstandsfamilien durch den Krieg

(der häufige Zwang als Werkstudent einen Teil seines Studiums selber zu verdienen),

  • als Antwort auf einen erkannten Bildungsnotstand (Picht)

(Erleichterung des Abiturs; um 1950 gingen 13 % der Kinder eines Jahrgangs auf ein Gymnasium, 2013 waren es 43 %, in den 60er Jahren studierten 10 % eines Jahrgangs, in den 80iger 20 % und heute jeder zweite),

  • eine bessere Vorbereitung für den Arbeitsmarkt,
  • die Akademisierung vieler Ausbildungsberufe,
  • eine Vereinheitlichung des Universitätsstudiums in Europa

(als Antwort auf eine zuvor extrem verschiedene Universitätswelt).

  • die häufige Entstehung von Hybridfächern (z. B. Biochemie),
  • die Entstehung neuer Arbeitsbereiche (z. B. im Umweltschutz).

Geplant waren:

  • ein gemeinsames Benotungssystem (ECTS-System):

Ziel: Sicherung einer gemeinsamen Ausbildungsqualität und Vergleichbarkeit der Studiengänge.

Die Leistungen werden durch ein Punktesystem (Credits) vergleichbar. Je 30 Studierstunden 1 Credit, je nach Aufwand der Vorlesungen und Seminare.

  • Anwesenheitspflicht,
  • studienbegleitende Prüfungen (statt Abschlussexamen),
  • nach 3 – 4 Jahren Bachelor (Aufnahmefähigkeit für den Arbeitsmarkt),
  • nach 1 – 2 weiteren Jahren Master

(aufbauend auf den Bachelor; gedacht hatte man an 20 % der Bachelorstudenten, heute sind es 70 -80 %),

  • Erasmus-Programm

(das bereits vorher angelaufen war; jeder 2. deutsche Student sollte danach für mindestens 3 Monate ins Ausland gehen; in der Realität wird dies heute nicht erreicht, da die ausländischen Studienzeiten oft nicht anerkannt werden),

Durch diese Maßnahmen wurden die Universitäten zu verschulten gehobenen Fachhochschulen, zu Ausbildungsfabriken. Die Ausbildungsprogramme richteten sich auf eine akademische Massenausbildung aus. An die Stelle einer Freiheit der Lehre trat eine Fixierung auf Module. Stichpunktartig werden nun Einblicke in Einzel-, Sonderthemen vermittelt, die aneinandergefügt werden können. Dicht gedrängte            Studienpläne sollen das Studium effizient machen. Das Bologna-Reform zerstörte die bisherige hoch angesehene deutsche Universitätskultur:

  • Früher gab es den Magister und das Diplom, heute den Bachelor und Master.
  • Früher gab es weniger Pflichtstunden, aber öfter ein Studium das zu einem selbständigen Denken führte.
  • Früher gab es charismatische Lehrer (einen Vertreter gelehrter Einsamkeit und gelehrter Ausstrahlung), heute den vernetzten Großorganisator von Studiengängen und Kollegs.
  • Früher war es gleichgültig an welcher Universität man sich zunächst einschrieb.

Heute differenziert sich die Hochschulwelt in Elite-Universitäten, Hochschulen ohne Prädikat, Fachhochschulen, Privat-Universitäten und Unternehmenshochschulen. Entgegen ihren Intentionen

  • erschwert sie einen Wechsel des Studienortes,
  • verbessert sie nur begrenzt einen größeren Bezug zur Arbeitswelt

(hohe Abbrecherquoten).

  • Früher unterstanden die Hochschulen direkt dem Wissenschaftsministerium. Heute ähneln viele eher Stiftungen mit einem Präsidenten an der Spitze.
  • Früher (1810) gab es nur 10 Studienfächer (die 7 Artes liberales, Jura, Medizin und Theologie), die zu drei akademischen Berufen führte: Juristen, Ärzte, Theologen.

Im Jahr 2005 gab es bereits 11.000 verschiedene Studienangebote (jedes benötigte ein eigenes Konzept und eine eigene Prüfungsordnung).

Heute sind es 18.000 Studienfächer (kaum ein Mensch beherrscht so viele Worte. Was ist deren spezifischer Inhalt?).

Die jetzige Ausbildung zielt auf ein Schmalspurstudium hin (begrenzt auf ein Spezialwissen für einen begrenzten Bereich), und vielleicht wird auch ein spezialisiertes Fachwissen immer wichtiger. Doch vieles deutet auch auf eine zukünftige entgegengesetzte Entwicklung und auf die größere Notwendigkeit eines Generalistenstudiums hin, zumindest eines Mindestmaßes von ihm. Der sich abzeichnende Siegeszug der Künstlichen Intelligenz in Verbindung mit der Biotechnologie wird die gesamte Wissenschaftsforschung revolutionieren und die gesamte Wissenschaftsentwicklung Computern und Forschungsingenieuren übertragen. Es wird in absehbarer Zeit kaum Lebensbereiche geben, die nicht von ihnen bestimmt werden.

Die einstige Umstellung der deutschen Hochschulen auf Bachelor- und Masterstudiengänge hatte kaum einen Hochschullehrer begeistert. Sie waren politische Entscheidungen. Die frühere Arbeitszeit der Professoren war nur begrenzt mit Verwaltungsarbeiten belastet gewesen. Heute umfasst diese über die Hälfte ihrer Zeit (Gutachten, Sitzungsteilnahmen   Forschungsanträge). Ihr ehemaliger guter Ruf sank und man begann dieser Entwicklung mit Exzellenzinitiativen entgegenzuwirken. Das Hinführen der Massen zu einem Massenstudium (heute studieren 40 % eines jeden Jahrgangs) führte zu einer verstärkten Hinführung zu Wissen, aber fort von einer den Werten verpflichteten Kultur. Es fehlt dieser Ausbildung eine kulturelle Leitidee, eine Reflexion darüber, was über das Fachwissen hinaus auch wichtig ist, an welche kulturellen Werte es gebunden sein soll. Früher war es der bürgerliche Bildungsbegriff gewesen, der begleitend zur industriellen Revolution als Gegenbegriff entworfen wurde. Als eine ganzheitliche, sinngebende und kulturschaffende Setzung stand er  der rationalen, zivilisationsschaffenden Industriewelt, Arbeitswelt gegenüber. Von Herder und Schiller einst als Ideal gedacht und von Humboldt umgesetzt, zielte er auf eine Vervollkommnung des einzelnen Individuums. Die industrielle Revolution begann mit einer Umstellung des damaligen Energieeinsatzes, mit der Dampfmaschine. Bis dahin zielte die Erziehung auf eine Eingliederung des Einzelnen in die Gesellschaft, mit Herder dann auf die Vervollkommnung des Einzelnen. Beide Vorstellungen waren noch von einem starken Anthropozentrismus bestimmt. Zuvor hatte der Mensch noch mit der Natur gelebt, jetzt aber nutzte er sie nur noch als Material und unterwarf sie mit Hilfe eines scheinbar grenzenlos möglichen Energieeinsatzes für seine individuellen Höhenflüge. Eine Folge davon ist, seine Eingriffe in deren komplexe Zusammenhänge, so dass dadurch auch seine zukünftige Existenz selber gefährdet ist. Ein neues Bildungsideal müsste deshalb einer neuen ökosozialen Welt entgegenarbeiten. Seine zentralen Inhalte müssten innerhalb der Digitalisierung die Ökologie sein. Man kann einen solchen Ansatz kritisieren, doch welchen anderen will man dann an seine Stelle setzen.

Es ist eine Ironie der Bologna-Reformen, die sich neben dem Englischen, Schwedischen und Holländischen auch stark am amerikanischen Universitätswesen orientiert haben, dass ausgerechnet die amerikanischen Eliteuniversitäten, trotz ihrer anderen Strukturen, sich auch heute noch an den humboldtschen Idealen orientieren. Vielleicht einer der Gründe, weshalb diese auch heute noch die meisten Nobelpreisträger stellen. Es gab vielleicht früher in Deutschland mehr faule Professoren als heute, aber vielleicht auch mehr echt kreative, mehr eine echte wissenschaftliche Elite und vielleicht auch deshalb mehr Nobelpreise. Keine Gesellschaft, keine Nation kann auf eine gewisse Elite verzichten (so ungern wie man das heute auch hört), die ihre Kultur voranbringt und sie in den Wettbewerb mit anderen Kulturen stellt. Unsere heutige Globalisierung hat die Eliteausbildung an die Elitehochschulen der USA geführt, zur Abwanderung unserer Spitzenwissenschaftler und zur intellektuellen Zuträgerfunktion für die dortigen Forschungsstätten (sogar durch die Förderung der amerikanischen Sprache an unseren Hochschulen). Unsere eigenen Interessen sind dabei aus dem Blickfeld geraten.

Heute beginnen in Deutschland etwa 46 % eines Jahrgangs ein Studium. Eine Folge davon sind überfüllte Hörsäle und, da oft kaum studierfähig mit ihrem heutigen Abitur, hohe Abbrecherquoten. Die Gründe für die Studiumflut sind

  • das höhere soziale Ansehen ihrer Absolventen,
  • die zurzeit geringere Arbeitslosenquote unter ihren Absolventen

(in Deutschland zurzeit ca. 2,4 %, mit einer abgeschlossenen Lehre 5 %; im Ausland sind es bis zu 40 %, z. B. in Dänemark; in den OECD-Ländern sollen für 20 % der Arbeitsplätze Akademiker benötigt werden),

  • vor allem die später höheren Einkommen

(Hochschulabsolventen verdienen durchschnittlich bis zu 70 % mehr, im Laufe eines Lebens ca. 1 Mio. mehr).

Im Studienjahr 2015/16 studierten in Deutschland 2,8 Millionen.

  • 2013 waren es ca. 423.000 deutsche Studienanfänger, mit ausländischen 509.000,
  • 4 von 10 Studenten entschieden sich für MINT-Fächer (Mathematik, Informatik, Naturwissenschaft, Technik),

23,3 % Naturwissenschaften, 9,9 % Ingenieurwesen, 6,3 % Informatik. Sie stellen die Fachkräfte von morgen.

9 von 10 finden später in ihrem Studienfach einen Arbeitsplatz.

Ein Problem, das sich dadurch abzeichnet, ist, dass es in Zukunft Facharbeiter und Arbeitskräfte im Dienstleistungsbereich fehlen wird, das evtl. eine möglichst akademische Ausbildung für alle in eine Sackgasse führen wird.

Ein traditioneller Unterschied besteht noch zwischen Universitäten und Fachhochschulen. Die Universitäten besitzen alleine das Promotionsrecht (noch; in Hessen auch die FH), agieren oft internationaler und ihre Professoren unterrichten nur 9 Semesterwochenstunden (während die FH-Professoren 18 Stunden unterrichten müssen).

Die Fachhochschulen wurden erst vor 50 Jahren gegründet. Viele von ihnen gingen aus Ingenieurschulen hervor. Das Studium war hier immer praxisorientierter, d. h. technik- und wirtschaftsnäher gewesen. Hier sollte auch ein Studium ohne ein Abitur möglich sein, das kürzer und anwendungsbezogener war. In ihm sollten sich praktische Ausbildung und theoretisches Studium verzahnen. Dadurch wurden sie für manche Regionen zu akademischen Knotenpunkten. Oft hatten sie enge Beziehungen zu den regionalen Unternehmen, transferierten ihr Wissen in diese und waren auf ihre Weise regionale Wirtschaftsmotoren. Man kann sie heute als Hochschulen für angewandte Wissenschaften bezeichnen, orientiert am regionalen, technisierten Arbeitsmarkt. Um vermehrt auch ausländische Studenten anzulocken,  nennen sie sich heute auch oft Universitäten (bzw. englisch Universities). Zurzeit verdienen Universitätsabsolventen in der Regel nach fünf Jahren mehr (doch entscheidet darüber immer mehr die Persönlichkeit der Bewerber).

Inzwischen wird die wissenschaftliche Arbeit (Forschung und Lehre) weitgehend von ihrer Finanzierung bestimmt, – in Deutschland durch den Staat (Bund und Länder), die Wirtschaft und eine Vielzahl von Stiftungen, im Ausland teilweise über ihren enormen Eigenbesitz. Es gibt in Deutschland 428 Hochschulen (108 Universitäten, 216 Fachhochschulen) deren Finanzierung von den Ländern getragen wird (zu 84 %). Die Kosten für die ca. 44.000 Professoren betragen 24,2 Mrd. (2011, zusammengesetzt aus Grundgehalt und Leistungszuwendungen, Drittmittel der Deutschen Forschungsgemeinschaft und der Wirtschaft).

  • Bund: Er darf sich an der Finanzierung nicht direkt beteiligen (Grundgesetz), nur befristet über Programme (z. Z. über 16 %):
    • außeruniversitäre Forschungseinrichtungen:

+   Helmholtz-Gemeinschaft (Bund 10%),

+   Leibniz-Gemeinschaft (Bund 50%, 2012 erhielt sie insgesamt  5,35 Mrd.),

+   Max-Planck-Gesellschaft,

+   Fraunhofer-Gesellschaft.

    • Mitfinanzierung von verschiedenen Programmen

(Qualitätspakt Lehre und Exzellenzinitiative, ca. 4 Mrd.),

    • Deutschlandstipendium (Hälfte Bund, Hälfte private Spender),

(14.000 Studenten, 2012 = 13 Mio.),

    • Bafög (Bund 65 %, Länder 35 %)

(671.000 Studenten = Gesamtsumme 2,4 Mrd.),

    • Deutsche Forschungsgemeinschaft (DFG):

(Bund 1,7 Mrd., Länder 823 Mio. 2012;der wichtigste Forschungsförderer; vergibt Drittmittel),

+   Graduiertenkollegs,

+   Sonderforschungsbereiche,

+   Exzellenzinitiativen (2012 zusammen 1,53 Mrd.),

+   Forschungsgemeinschaften an Universitäten,

+   Emmy-Noether-Forschungsprojekte

(für Nachwuchswissenschaftler, 922 Mio.).

  • Wirtschaft:
    • förderte Forschung und Lehre 2012 mit 2,5 Mrd,
    • zahlte für Stipendien, Praktika und Gehälter dualer Studenten 1,6 Mrd.,
    • zahlte für Stiftungsprofessoren 92 Mio.,
  • Stiftungen (eine Vielzahl):
    • Volkswagenstiftung (größte): ca. 100 Mio.,
    • Stiftungsverband für deutsche Wissenschaft: 3000 Personen – ca. 150 Mio.,
    • Vergabe von Stipendien für Auslandsaufenthalte und Forschungsprojekte.

Entgegen seinem früheren Ruhm gilt das deutsche Hochschulwesen heute international als mittelmäßig. An der Weltspitze stehen wir nur noch in den Bereichen der Neurowissen-schaften, der Altertumswissenschaften und im Bereich der Kunstgeschichte. Die gesamten zukunftsweisenden Forschungen erfolgen in anderen Regionen der Welt. Bezeichnend ist, wir sind führend in der Bioethik, die USA in der Biotechnologie. In den Hochschulbewertungen (Rankings) werden wir relativ schlecht bewertet. Sie entscheiden aber oft über die Wahl eines Studienortes und seine internationale Wahrnehmung. In diesen Bewertungen reduziert man Forschung und Lehre auf wenige Kernkriterien. Das Problem dabei ist,

  • dass die befragten Hochschulen bei der Datenerhebung wegen des oft Kleingedruckten bestimmten Kriterien zu wenig beachten,
  • die Auswahl der Kriterien (die fehlende Berücksichtigung von Kriterien in denen deutsche Hochschulen gut abschneiden),
  • die Zusammenfassung der verschiedenen Einzelkriterien zu einer Gesamtnote,
  • die geringe Berücksichtigung von spezifischen Fachprofilen,
  • das systematische Ignorieren der deutschen Hochschulen mit zentralen Lehrinhalten (THE berücksichtigt nur 31 deutsche Hochschulen).

Die führenden Bewertungsinstitute der Welt sind:

  • THEWUR („Times Higher Education World Universities Ranking“, von Verlag „TSL Education“ in London, oft kurz nur „THE“ genannt):

Bewertet werden: Forschung und Lehre, Zitiert werden und Einfluss der Universität zu je 30 %; Internationalität mit 7,5 %; Drittmittel von Unternehmen mit 2,5 %.

Als beste Universität gilt danach Oxford (Platz 1), gefolgt von Cambridge (Platz 2), so bewertet von einem englischen Rankinginstitut, das englische Hochschulen bevorzugt.

Die deutschen Hochschulen werden relativ schlecht bewertet. Am besten  SA-freundlichen Hochschulen LMU München (Platz 34) und die Techn. Uni München (Platz 41), Uni Heidelberg (Platz 45), Uni Freiburg (Platz 82); nur 8 deutsche Universitäten befinden sich unter den ersten 100 Plätzen; auf anderen befinden sich u. a.: Charité (Platz 126), Universität Potsdam (Platz 250), Techn. Uni. Hamburg (Platz 500).

  • TEF (Teaching Excellenz Framework, staatl. Uni-Ranking in Großbritannien):

Bewertet wird hier in vier Stufen:

    • Studentenangaben (u. a. Zufriedenheit mit den Lehrern, Betreuung, Abbrecherquoten),
    • Zusammensetzung der Studenten (u. a. Vorbildung, ethnischer Anteil, Studienfächer),
    • Studentengruppen (u. a. nach Geschlecht, sozialer Herkunft).
    • Erläuternde Erklärungen der Hochschulen.

 

  • SAES (Shanghai Ranking Academic Excellence Survey):

Es wertet die Antworten von ca. 3.500 angesehenen Professoren aus.

Dieses Institut zählt nur 4 deutsche Universitäten zu den 100 besten, keine unter der ersten 30.

  • CHE (Centrum für Hochschulentwicklung, Institut der Bertelsmannstiftung und der deutschen Hochschulrektorenkonferenz):

Bewertet wurden 21 Fächer in ca. 1600 Hochschulen aus über 90 Ländern, davon 73 deutsche Hochschulen mit 330 Fachbereichen.

Berücksichtigt wurden 30 Kriterien (Indikatoren), darunter aus dem Bereich Forschung und Lehre

    • Studierendenbefragung:

+   allgemeine Studierendenzufriedenheit,

+   Qualität der Lehrveranstaltungen,

+   Organisation des Studiengangs,

+   Kontakt zu den Lehrenden.

    • Daten der Hochschulen:

+   Betreuungsrelation,

+   Anteil der Bachelor-Abschlüsse (innerhalb der Regelstudienzeit).

Nach der Bewertung wurden die Hochschulen fünf Gruppen zugeordnet (orientiert am Durchschnitt der Hochschulen in einem jeweiligen Fach). Verglichen wurde, wie viele Fachbereiche bei einem Kriterium unterdurchschnittlich, durchschnittlich und überdurchschnittlich abgeschnitten haben. Danach wurde der Anteil der über- und unterdurchschnittlichen Ergebnisse in Relation zur Gesamtzahl der Randgruppen gesetzt. Diese vergleichenden Ergebnisse zeigten dann Trends (keine Urteile) und Leistungsunterschiede zwischen den Fächern. Das Ergebnis dieser Bewertungen war, dass die negativen THE-Bewertungen dem deutschen Hochschulwesen nicht gerecht werden. Systematisch werden dort Hochschulen mit zentralen Lehrinhalten ignoriert und viele Kriterien nicht berücksichtigt.

Negativ fallen im europäischen Vergleich auf:

    • das Verhältnis von Studierenden und Lehrenden,
    • die vorzeitigen Abbrüche in der Regelstudienzeit

(nur 47 % schaffen ihr Studium in der Regelstudienzeit).

Positiv sind dagegen mit überdurchschnittlich zufriedenen Studenten:

  • die Organisation der Studienprogramme,
  • die Lehrqualität,
  • DER Kontakt zwischen Lehrenden und Studierenden.

Die Stärke der deutschen Hochschulen war früher ihr Zusammenspiel von Forschung und Lehre. Durch die Bologna-Reformen wurden sie stark verschult. Das kam der englischen Hochschulkultur entgegen: flache Hierarchien, kleine Kurse, Debatierfreude. Gleichzeitig wurde in Deutschland die Lehrbelastung der Professoren um die Hälfte erhöht und der Mittelbau drastisch reduziert. Die Doktorandenbetreuung wurde von einer anrechenbaren Lehrleistung zu einer Privatsache der Professoren, für die die Doktoranten Arbeitsleistungen zu erbringen haben.

Ein Problem der deutschen Hochschulen ist,  ihre Bemühungen um internationale Anerkennung  (deshalb oft ihre starke Vernetzungen mit den USA). Dafür werden  sogar viele ihrer Lehreveranstaltungen und später ihre Examen in englischer Sprache abgehalten. Obwohl für deutsche Studenten eingerichtet, vom deutschen Steuerzahler bezahlt, werden hier stillschweigend Fakten geschaffen, die vorrangig nicht den eigenen nationalen Interessen entsprechen können (wohl den Hegemonialinteressen der USA). Der Wunsch nach einem internationalen Ansehen entspricht nach Michael Hartmann den irrigen Elitevorstellungen unserer Mittelschicht, die ihren sozialen Aufstieg über eine globale Orientierung zu erreichen versucht. Hier würden zwar viele Themen gesetzt, in der Regel aber nicht viel erreicht, da die tatsächlichen Eliten sich anders verhalten würden. Die Mittelschicht glaubt, dass die wichtigsten Entscheidungen global von Menschen mit gleichen Konsumgewohnheiten, gleichen Interessen und dem gleichen Lebensstil geschaffen würden, tatsächlich übten die wahren Eliten ihren Einfluss aber über ihre Netzwerke und ihre nationale Kultur aus,  – die Betonung liegt, über ihre nationale Kultur (die tatsächliche amerikanische, englische und französische Führungsschicht kommt aus kleinen Gruppierungen ihrer Elitehochschulen). Eine Wunschvorstellung ist, über die englische Sprache verstärkt ausländische Studenten anzulocken (doch viele von ihnen können auch diese Sprache nicht richtig). 2015/16 kamen 12,3 % der Studenten aus dem Ausland (in den Bachelor-Studiengängen 28 %). Besonders gefragt waren die ingenieurwissenschaftlichen Studiengänge.

Einst wollten die Hochschulreformer ihre Studiengänge passgenau auf bestimmte Berufe ausrichten. Sie wurden zu Masseninstitutionen, d. h. ausgerichtet auf eine fachbezogene Ausbildung großer Massen. Ein Problem wurde, dass jede Gesellschaft, unabhängig von ihrem großen Fachkraftbedarf, auch Eliten benötigt (unabhängig davon ob man das hören will oder nicht). Einst stellten diese die Universitäten. Nach ihrer Ausrichtung auf die Verschulung ihrer Inhalte erscheint dies für die Zukunft immer unwahrscheinlicher. Eine Lösung des Problems glaubte man (2005) über eine Differenzierung der Hochschulen durch Exzellenzinitiativen gefunden zu haben. Danach wollte der Bund unter ihnen 30 Forschungszentren und 40 Graduiertenkollegs finanziell besonders fördern. Jede Hochschule konnte sich darum bewerben:

  • Eine Exzellenzstrategie (Exstra) sollte die universitäre Spitzenforschung fördern.

385 Mio. Euro sollten für Exzellenzcluster zur Verfügung gestellt werden            (Cluster = Forschungsverbände aus verschiedenen Disziplinen; 3 – 10 Mio. Euro je Cluster). Die Ergebnisse 2018 waren:

    • 63 Universitäten reichten 195 „Antragskizzen“ ein

(die von 39 Wissenschaftlern gesichtet wurden).

    • 88 Skizzen von 41 Universitäten blieben übrig, für die dann ein Antrag gestellt werden konnte.
    • 11 Universitäten sollten sich Exzellenzuniversität nennen dürfen und erhielten 148 Mio. Euro jährlich zusätzlich (ab Sept. 2018).

(Die Bewerber sollten dafür mindestens 2 Exzellenzcluster gewinnen).

  • Erwartet wurden:
    • herausragende Wissenschaftler,
    • ungewöhnliche Forschungsprojekte,
    • das Erschließen unbekannter Wissensbereiche,
    • der Einsatz neuer Forschungsmethoden.
  • Die Wissenschaftler schlugen 46 Cluster vor, die politischen Landesregierungen erweiterten sie auf 57 (und senkten damit die Zuwendungen für die einzelnen Cluster).

Die Uni Bonn bekam 6 Cluster bewilligt, die Uni Hamburg 4. 31 % der Anträge kamen aus dem Bereich der Naturwissenschaften, 57 % aus dem Ingenieur- und MINT-Bereich, 19 % von den Geistes- und Sozialwissenschaften und 24 % von den Biowissenschaften (Lebenswissenschaften).

Die Wissenschaftler sollten durch diese Initiative in ihrer Arbeit frei von Wirtschaftsinteressen werden. Im Ausland ist es oft leichter Forschungsmittel zu erhalten. Viele der Wissenschaftler arbeiten deshalb auch in den USA (2005 – ca. 20.000). Die dortige Professorenauswahl erfolgt nicht nach Planstellen oder ideologischen Vorgaben (Quotenregelung), sondern nach einem vorangegangenen wissenschaftlichen Erfolg.

Ein Problem stellt der Umstand dar, dass alle wissen, dass sich unser Leben und unsere Wirtschaft nachhaltig ändern müssen. Doch niemand weiß, wie das tatsächlich geschehen soll. Unsere Wissenschaften zerlegen die Welt mit wachsendem Erfolg in ihre Einzelteile, doch berücksichtigen sie kaum die sozialen Folgen ihrer Arbeit. Sie sind zwar Teile unserer Gesellschaft, doch können sie sich durch ihre Spezialisierung weitgehend ihrer Verantwortung entziehen. Die sozialen Gegenkräfte argumentieren zwar gegen viele Entwicklungen, doch fehlt ihnen oft ein tatsächliches Wissen über die Zusammenhänge und die Folgen. Zu ihnen gehören besonders die Mitglieder der Berliner Plattform, d. h. die Gewerkschaften, Kirchen, Öko-Institute, Umweltverbände, Stiftungen, die  Dt. UNESCO-Kommission, der  Verbund Nachhaltiger Wissenschaft (NaWis). Durch die Arbeitsplatz-problematik greifen viele ihrer Vorschläge zu kurz und stellen deshalb für die politischen Mehrheiten keine Perspektive dar.

In der wissenschaftlichen Forschung konzentriert man sich bevorzugt auf spezialisierte Teilaspekte, denn nur hier sind Höchstleistungen möglich, die sozial auch belohnt werden. Diese Haltung kommt auch den Interessen der verschiedenen Wirtschaftszweige am meisten entgegen, deren Vertreter in allen bedeutenden Beratungsgremien der Bundesregierung sitzen und die weitgehend die Forschungsarbeiten über ihre Zuwendung  der Drittmittel bestimmen. Das Problem dieser Situation ist, dass dabei die Folgen für die Gesellschaft selten bedacht werden, d. h. man dabei zu wenig in die  Tiefe der Fächer geht und zu wenig die Komplexität ihrer Beziehungen berücksichtigt. Der tatsächliche wissenschaftliche Fortschritt ergibt sich heute zunehmend über die Vernetzung der verschiedenen Wissenschaften,

Da unsere Hochschulen, die für unsere Gesellschaft wichtigen Forschungsaufgaben alleine nicht mehr lösen können, gibt es in Deutschland zur Zeit (2018) etwa 750 außeruniversitäre Forschungsinstitute (die mit den amerikanischen Instituten teilweise hochgradig vernetzt sind; z. B. die Max-Planck-Institute). Darunter die „großen Vier“:

  • Fraunhofer-Gesellschaft:

Aufgaben: Fördert anwendungsorientierte Forschung (Technologietransfer,

Entwicklungsdienstleitungen),

Abteilungen: 80 Forschungseinrichtungen (69 Institute an über 40 Standorten),

Beschäftigte: 25.000 Mitarbeiter,

Gesamtetat: 2,3 Mrd. Euro (zu 70 % selbst erwirtschaftet aus Industrieaufträgen, der

Rest von Bund und Ländern).

  • Leibniz-Gemeinschaft:

Aufgaben: Natur- und Geisteswissenschaften, besonders Gutachten für die Politik;

das Bringen wissenschaftlicher Ergebnisse zur Marktreife,

Abteilungen: 93 selbständige Institute in 5 Sektionen (u. a. Geistes-, Wirtschafts-,

Lebens-, Natur- und Umweltwissenschaften),

Beschäftigte: 18.500 (davon 9300 Wissenschaftler),

Gesamtetat:  1,73 Mrd. Euro (2016).

  • Helmholtz-Gemeinschaft (größte Wissenschaftsorganisation in Deutschland)

Aufgaben: fördert naturwissenschaftlich-technische und biologisch-medizinische

Aufgaben,

Forschungsschwerpunkte: Energie, Umwelt, Gesundheit, Schlüsseltechnologien,

Malerei, Verkehr (Raumfahrt) (oft gemeinsame Forschungsstätten mit Universitäten),

Beschäftigte: 39.000 (darunter ca. 15.000 Wissenschaftler und ca. 6.800

Doktoranden),

Etat (2018):  4,5 Mrd. Euro.

  • Max-Planck-Gemeinschaft (MPG; laut THE die weltbeste nicht-universitäre Forschungseinrichtung):

Aufgaben: Förderung der Grundlagenforschung (natur-, sozial- und

geisteswissenschaftliche, oft Kooperationen mit Universitäten), Doktorandenschulen (Max Planck Schools),

Verleihung des Max-Planck-Humboldt-Forschungspreises an einen ausländischen Wissenschaftler (5 Mio. für mind. 5 Jr. Arbeit in Deutschland),

Verleihung des Zülch-Preises für Leistungen in der neurologischen Grundlagenforschung,

Verleihung der Otto-Hahn-Medaille für Nachwuchsforscher.

Abteilungen: 84 Institute (2018) innerhalb drei Forschungsschwerpunkte             (Sektionen):

    • Biologisch-Medizinische Sektion (27 Institute und 7 Forschungsinstitute; ein Schwerpunkt: Neurobiologie),
    • Chemisch-physikalisch-technische Sektion (32 Institute; Forschungsschwerpunkte Materie, komplexe Interaktionen, neuartiges Licht),
    • Geistes- Sozial- und Humanwissenschaftliche Sektion (19 Institute, darunter 8 juristische),

Hier auch der Bereich Philosophie: Bis 1981 u.a. das „Institut zur Erforschung der Lebensbedingungen der wissenschaftlich-technischen Welt“ in Starnberg (Direktoren: C.F.v. Weizsäcker, Jürgen Habermas),

Mitglieder:

  • Wissenschaftliche Mitglieder (301 Abteilungsdirektoren und 23.000 Mitarbeiter; 40 % der Wissenschaftler kommen aus dem Ausland),
  • fördernde Mitglieder: Firmen, Verbände,
  • auswärtige wissenschaftliche Mitglieder (in enger Zusammenarbeit).

Finanzierung: ca. 82 % durch Bund und Länder (1,8 Mrd.), Drittmittel (u. a. von der EU, Investmentfonds, Spenden).

Diese vier Forschungsgemeinschaften hatten nach 1990 auch die 58 Institute und 17 Außenstellen der ehemaligen „Akademie der Wissenschaften“ der DDR übernommen:

  • die Helmholtz-Gemeinschaft 3 Großforschungseinrichtungen und 9 Außenstellen

(u. a. das Max-Delbrück-Zentrum für molekularbiologische Grundlagenforschung mit 1400 Mitarbeiter, darunter 300 Doktoranden),

  • die Leibniz-Gemeinschaft 27 Institute und 4 Außenstellen,
  • die Fraunhofer-Gesellschaft 17 Institute,
  • die Max-Planck-Gesellschaft 2 Institute.
  • der Bund 3 Institute und 4 Außenstellen,
  • die neuen Bundesländer 6 Institute.

Ihre Tradition übernahm die 1993 gegründete „Leibniz-Sozietät der Wissenschaften“ in Berlin. (Als Nachfolger der ehemaligen Gelehrtengesellschaft der Berliner Akademie fungiert heute die „Berlin-Brandenburgische Akademie der Wissenschaften“).

Darüber hinaus werden die Wissenschaftler durch unzählige Preise gefördert. Der bedeutendste unter ihnen ist zurzeit in Deutschland der Leibniz-Preis, der mit bis zu 2,5 Mio. Euro Forschungsarbeiten unterstützt. Im Bereich Philosophie haben ihn erhalten:

  • 1986:  Jürgen Habermas,
  • 1989:  Jürgen Mittelstraß,
  • 2006:  Dominik Perler,
  • 2008:  Martin Carrier,
  • 2012:  Rainer Forst,
  • 2016:  Dag Nikolaus Hasse.

Das große Sorgenkind unter den heutigen Wissenschaften sind die Geisteswissenschaften. Im Rahmen der Bologna-Reformen haben sie ihre einstige Spitzenstellung verloren. Sie sind nicht im vordergründigen Sinne „nützlich“. Die Deutsche Forschungsgemeinschaft hat ihre Zuwendungen für sie und die Sozialwissenschaften auf 15,4 % zusammengestrichen. Geldgeber für Drittmittel gibt es für sie kaum. Aus ihrem Bereich kommen die Nichtangepassten, die Störenfriede. Das hinter jeder wissenschaftlichen Entscheidung auch immer Wertfragen stehen, soll möglichst nicht hinterfragt werden. Ihr kritisches Denken ist kein messbarer Wert, ist ökonomisch unrentabel, immer nur hinderlich. Gewünscht ist ein von unserem kapitalistischem System gezähmter Geist, obwohl wir alle wissen, – wenn wir uns  nicht taub stellen -, dass er uns direkt in den Untergang führen wird.

In Deutschland besaßen die Geisteswissenschaften früher immer eine Sonderstellung:

  • in den ersten Jahrzehnten des vergangenen Jahrhunderts sollten sie das kulturelle Deutschland gegen die Moderne verteidigen,
  • in den 60er und 70er Jahren (der Zeit nach dem Nationalsozialismus) sollten sie die geistigen Grundlagen für die neue Demokratie schaffen.
  • Heute glaubt man sie nicht mehr zu benötigen.

Im Rahmen unserer Amerikanisierung (verbrämt als Globalisierung, Weltoffenheit) werden wir zunehmend englischsprachig orientiert und unser Wirtschaft mit der der USA verzahnt, oft mit Tochterfirmen in anderen Staaten). Wir werden schleichend zu einer Unterstützungskraft der amerikanischen Hegemonialbestrebungen. Nach dem letzten Weltkrieg holten die Siegermächte zunächst unsere Wissenschaftler (bevorzugt die aus den militärisch interessanten Bereichen) für ihr Land. Ihnen ist u. a. die Entwicklung der russischen und amerikanischen Raketentechnik zu verdanken. Dann beschloss man Westdeutschland gegen die möglichen Bedrohungen aus dem Osten aufzurüsten, d. h. seine Industrien zu stabilisieren und für seine Interessen einzuspannen. Schüler- Studenten- und Wissenschaftleraustausch sollten eine innere Offenheit für die USA schaffen. Heute ist es so, dass sich das Englische durch das amerikanische Verhalten als wissenschaftliche Verkehrssprache durchgesetzt hat. Deutsche Institute geben sich englische Namen. Naturwissenschaftliche Berichte werden praktisch nur noch in Englisch geschrieben (nur dann werden sie oft zitatmäßig berücksichtigt). Deutsche Dozenten unterrichten ihre Studenten auf Englisch (ca. 1000 Studiengänge sind nur englischsprachig). Nur englische Texte erhalten eine gewisse Aufmerksamkeit. Dass dies alles auch ein zentraler Inhalt der amerikanischen Hegemonialbestrebungen ist, wird nie bedacht. Man ist stolz, dass seine Institute in der Grundlagenforschung mit den amerikanischen kooperieren, sich austauschen, sie unterstützen. Man verdrängt dabei, dass man damit indirekt auch zugleich die amerikanische Kriegsmaschinerie begünstigt. Man sollte in unserem Land fördern, dass

  • die deutschen Professoren im Inland in der eigenen Sprache lehren,
  • Tagungen mit einem deutschsprachigen Publikum auf Deutsch abgehalten werden.

Einst war „Deutsch“ die führende Wissenschaftssprache gewesen. Wahrscheinlich gab es einmal keinen amerikanischen Atomphysiker der nicht die deutsche Sprache beherrschte. In der Philosophie waren die Sprache Kants, Hegels, Nietzsches uns Wittgensteins Pflicht. Heute spielt die deutsche Philosophie international keine Rolle mehr. Auf Deutsch Gedachtes, englisch ausgedrückt, verliert seinen emotionalen psychischen Hintergrund und damit weitgehend seinen Aussagewert.

Das Unbequeme an den Geisteswissenschaften ist, dass

  • sie undogmatisch sind (im Idealfall),
  • als kleine Fächer leicht gestrichen werden können (dadurch das Wegbrechen ganzer Disziplinen),
  • als Verfechter von Werten für politische Interessenten oft unerwünscht sind,
  • ihre Studenten oft als erste Studierende von der Arbeitslosigkeit betroffen sind,
  • sie einem stark strukturierten Studium mit ihrer Forderung nach einem freien Lernen entgegenstehen.

Andererseits kann man auf sie nicht verzichten:

  • Sie sind es, die die Wissenschaften erst auf deren „Wahrheitsideal“ ausrichten

(und nicht auf eine von Ideologien beherrschte Freiheit).

  • Sie sind es, die in einer Kultur Denkräume öffnen können

(und nicht nur am Verfestigen bestehender Paradigmen arbeiten).

Kennzeichnend für sie sind ihre Methodenvielfalt, das Ablehnen letztgültiger Aussagen und eine intellektuelle Distanz zu ihrem Betrachtungsgegenstand. Für sie ist die Sprache nicht allein ein Datenträger sondern ein Ausdrucksmittel von Identitäten. Ihre wichtigen Themen auch in der Zukunft sind weiterhin:

  • unser zukünftiges Menschenbild

(Ohne ein solches können wir unsere künftigen Technologien nicht menschengemäß ausrichten),

  • unsere zukünftige soziale Gesellschaft, Weltgemeinschaft

(D. h. z. B. in unserem Falle die zukünftige Gestaltung unseres Erdteils, Europas).

Wissenschaftslaufbahnen, -karrieren

Ein Wissenschaftler zu sein, gilt für viele Menschen als Traumberuf. Verbunden mit ihm werden, eine individuelle Lebensgestaltung und eine freie Forschertätigkeit und für die Gesellschaft, die Schaffung von Mehrwerten. Darauf gründet sich ihr soziales Ansehen. Eine Voraussetzung für ihr Tun ist neben ihrer Kreativität und ihrem intuitiven Vermögen das Erkennen von Sachzusammenhängen. Wegen ihrer sozialen Bedeutung wurden sie einst mit vielen großen Privilegien für ihre Arbeit ausgestattet. Diese Privilegien und ihr Ansehen sind es, die ein Wissenschaftlerleben als Traumberuf erscheinen lassen-. Ihre heutige Realität sieht dagegen oft weniger ideal aus.

Unsere heutigen Professoren sind vorrangig nur noch Pädagogen. Größere intellektuelle Leistungen sind von den wenigsten zu erwarten. Ihre Tagesbedeutung hängt oft (wie auch die eines heutigen Künstlers, Intellektuellen oder die eines Politikers) von den Moden im jeweiligen zeitabhängigen Denken, den vorhandenen Paradigmen, bzw. ihren jeweiligen Orientierungsmodellen, ihren sozial getragenen Orientierungsideologien ab. Die alte deutsche Universität orientierte sich an der Vorstellung, dass in ihr Geistesakrobaten lehrten, ihre Gemeinschaft eine Gelehrtenaristokratie repräsentierte. Doch eine solche gibt es heute nicht mehr, nur noch der Anspruch auf deren Privilegien.

Einst galt Deutschland als eine Bildungsnation. Heute werden seine Hochschulen und Bildungseinrichtungen oft nur als Mittelmaß angesehen:

  • Die Pisa-Studien zeigen, dass die deutschen Schüler international nur noch ein Mittelmaß repräsentieren. Damit jeder ein Abitur und gute Noten erhält, wurden einfach die Anforderungen gesenkt. In Berlin sollen Schüler bis zum Abitur durchgeschleppt werden, die keinen fehlerfreien Satz schreiben können. Als problematisch erweisen sich die hiesigen Bildungsstrukturen, u. a. der Unterrichtsstil, die Problemorientierung in Gruppen anstelle einer Wissensorientierung (für eine intuitive Kreativität ist Wissen aber eine Voraussetzung). Schuld wird auch in der mangelnden Betreuung bei verschiedenen sozialen Herkünften gesehen. Es wird ideologisch nicht akzeptiert, dass es auch, genetisch bedingt, intellektuell verschiedene Begabungen gibt, die zu verschiedenen schulischen Leistungen führen können. Auch die Bildungshoheit der Länder stellt sich als ein Hindernis dar, die neu zu überdenken wäre.
  • Keine deutsche Hochschule gilt international noch als eine Spitzenuniversität.
  • An keiner deutschen Universität wird noch zukunftsträchtige Spitzenforschung betrieben.

(Als Hauptursache wird hier ihre schlechte finanzielle Ausstattung genannt).

  • In Deutschland hat kaum jemand eine wissenschaftliche Chance, der sich nicht den Regeln der hier herrschenden fachlichen Zunft unterwirft, sei es als Bewerber aus dem Ausland, bzw. als Außenseiter oder Querdenker im Inland.

(Im Ausland werden dagegen auch Kandidaten mit anderen geistigen Positionen gewählt, weil sie ein Universitätsleben befruchten können).

Von einem zukünftigen Wissenschaftler werden heute Talent, Fleiß und Angepasstheit verlangt. Sie sollen publizieren, auf Konferenzen vertreten sein und Studierende unterrichten. Vielleicht erhalten sie danach eine Professur. Und wer sich dann auch dort noch auszeichnet, darf auf eine Berufung in eine Forschungsgesellschaft hoffen (z. B. der Max-Planck-Gesellschaft). Hier kann er dann wirklich ein Wissenschaftler sein. Heute ist das Wissenschaftssystem global. Berufen können Spitzenforscher aus der ganzen Welt in Konkurrenz zu anderen Weltinstitutionen werden.

Der erste akademische Grad der heute erworben wird, ist der Bachelor. Da er in der Gesellschaft nicht ernst genommen wird, stellen die Unternehmen kaum einen ein. Ursprünglich war er als Regelabschluss gedacht gewesen. Er sollte breiten Bevölkerungskreisen den Weg zu einem Studium öffnen. Die Ausbildung bis hierher sollte eine Art wissenschaftlich akzentuierte Lehre sein, völlig verschult, so dass ein Bummelantentum nicht mehr möglich wäre. Wegen seines schlechten Ansehens, setzen etwa 60 % der Studenten ihre Ausbildung bis zum Master fort  (um deren Flut in den Griff zu bekommen, haben manche Hochschulen Zugangsbedingungen eingeführt, z. B. gute Bachelor-Abschlüsse). Da die erteilten Noten dort inzwischen relativ nichtssagend sind, gibt es den Vorschlag, sie ganz abzuschaffen und sich auf die Bewertungsstufen „Exzellent – bestanden – durchgefallen“ zu beschränken.

Jeder vierte Universitäts-Absolvent promoviert heute. Die Gründe dafür sind:

  • Traditionen (bei Ärzten bildet die Promotion weitgehend einen Namensteil; der Titel stellt praktisch den Studienabschluss dar; 80 % von ihnen promovieren),
  • das später höhere gesellschaftliche Ansehen (Profilierungsgründe),

(bei Juristen (ca. 1600 Doktoranden) und Wirtschaftswissenschaftlern (ca. 1200 Doktoranden) wird der Titel gerne gesehen. Er ist hier ohne eine wissenschaftliche Bedeutung),

  • die damit verbundenen höheren Einkommenserwartungen:
    • ein Dr. Ing. verdient pro Jahr ca. 30.000 Euro mehr,
    • ein Dr. jur. 27.000 Euro mehr,
    • ein Dr. rer. nat 21.000 Euro mehr.

(vorangegangen sind in der Regel 3 Jahre Laborarbeiten; oft Einstellungsvoraussetzungen für große Unternehmen; die Einstiegsgehälter sind um 10.000 Euro/Jahr höher; heute von 86 % der Chemiestudenten angestrebt).

Insgesamt gab es 2015 in Deutschland ca. 200.000 Doktoranden (44 % davon Frauen), d. h. in den

  • Naturwissenschaften und der Mathematik 30 % (= 60.000),
  • Ingenieurwissenschaften 19 % (= 38.000),
  • Sprach- und Kulturwissenschaften 18 % (= 36.000),
  • Wirtschafts- und Sozialwissenschaften 17 % (= 34.000),
  • Geisteswissenschaften 35.000 Doktoranden.

Viele Professoren nehmen gerne eine größere Zahl an Doktoranden, weil sie dadurch

  • oft mehr Forschungsgelder erhalten (sie erlauben die Einstellung von mehr Hilfskräften),
  • ein größeres Ansehen an ihrer Universität bekommen können.

Einst war die Promotion als eine Vorbereitung auf ein Wissenschaftlerleben gedacht gewesen. Doch ist dies heute weitgehend eine Illusion geworden. Die Zahl der neu zu besetzenden Lehrstühle zur Zahl der Promotionen verhält sich heute 11 zu 1. Die zurzeit 40.000 Professorenstellen werden bereits mit zwei Doktorandenjahrgängen abgedeckt. An den Hochschulen gibt es für die vielen Promovierenden gar keinen Platz mehr. Sie werden für Stellen ausgebildet, die es dort gar nicht mehr gibt. Ihre Arbeiten sollten einst einen Beweis für ein selbständiges wissenschaftliches Arbeiten darstellen und eine erste Stufe zu einer Professur sein. . Heute stellt der Titel nur noch einen intellektuellen Glanz dar, der heute, genau genommen, kaum noch gegeben ist. Die Promotionsnoten z. B. im Jahr 2009 waren

  • 3.694  –  mit Auszeichnung  (summa cum laude),
  • 12.874  –  sehr gut  (magna cum laude)
  • 6.579  –  gut  (cum laude),
  • 924  –  befriedigend  (satis bene),
  • 44  –  ausreichend  (rite),
  • 17  –  durchgefallen  (ups).

(bei 1069 Doktoranden unbekannt).

Die Noten variieren stark von Hochschule zu Hochschule, von Professor zu Professor. So erhielten an manchen Universitäten 60 % der Doktoranden die Note mit „mit höchstem Lob (summa cum laude¸ z. B. in Mannheim und Gießen in den Wirtschaftswissenschaften); bei anderen nur 14 %.

Die meisten Doktorarbeiten werden im Bereich der Medizin geschrieben (2009 ca. 7.700), doch gibt es für sie kaum angemessene Aufgaben. So stellen manche von ihnen eine Farce dar, leistbar von jedem Gymnasialschüler in der 10. Klasse. Eine solche Arbeit soll z. B. gewesen sein, das Messen des Pulses und des Blutdrucks eine Schulklasse vor einem zweiwöchigen Inselbesuch und danach  und ein dreiseitiger Bericht über diesen Vergleich. Man sollte hier den Titel sofort mit dem Examen verleihen.

Die durchschnittliche Promotionszeit dauert 4 Jahre. In dieser Zeit müssen die Doktoranden meistens für den Lehrstuhl ihres Doktorvaters arbeiten. Wie die Professoren die Dissertationen begleiten, können sie selber bestimmen (oft beschränken sich diese auf lose Absprachen).Oft hängt der wissenschaftliche Erfolg der Doktoranden von ihrem akademischen Gehorsam ab, dem sich Einfügen in die bei ihnen herrschende paradigmatisierende Sprache und dem Aufgeben einer eigenen kritischen Haltung. Sie arbeiten dort auf befristeten Teilzeitstellen für ca. 1.260 Euro netto bei vielen unbezahlten Überstunden. Ihre Abhängigkeit findet ihren Ausdruck in folgenden Gegebenheiten:

  • Die Professoren sind während der Promotion ihre Vorgesetzten.
  • Sie bestimmen die Arbeitszeiten.
  • Sie bestimmen die Entlohnung (da das Geld dem Lehrstuhl zugerechnet wird).
  • Sie können die Promotionszeit verkürzen oder verlängern.
  • Sie beurteilen die Ergebnisse.

Manchmal werden die Doktoranden sogar schikaniert und ausgebeutet und können sich kaum dagegen wehren. Zwar kann ein Machtmissbrauch nie vollständig verhindert werden, er sollte aber erschwert werden. Diese Abhängigkeit schafft ein ständiges gewisses Klima der Angst. Man kann sich dagegen kaum wehren, weil man durch seine befristeten Arbeitsverträge abhängig ist.

Ein Doktorvater kann in einem entscheidenden Ausmaß eine mögliche Karriere aber auch fördern, sie in seine Netzwerke und Seilschaften einbeziehen. Berechtigt kann er erwarten, dass in der Arbeit

  • etwas Neues steht (eine neue Erkenntnis, ein neues Thema oder eine neue Interpretation),
  • dieses Neue in das bereits Bekannte eingeordnet wird,
  • die Ergebnisse begründet werden,
  • die Begründungen nachvollziehbar sind,
  • damit verbundene noch offene Fragen aufgezeigt werden.

Bei einer Promotion steht im Hintergrund immer die Vorstellung von etwas Außergewöhnlichem, evtl. sogar von Genialität. Doch kann diese Forderungen nicht jeder Doktorand abdecken.

Ein Problem stellt oft der Anspruch vieler Professoren bei den Promotionsarbeiten als Erstautor genannt zu werden. Dies ist ein Anspruch, der in etwa dem eines Lektors gleicht,  der bei einem Roman als Hauptautor genannt zu werden will. Eine Promotionsarbeit soll die selbständige Arbeite eines Doktoranden sein, und es gehört zu den beruflichen Pflichten eines Hochschullehrers ihn dabei beratend zu begleiten und nur zu begleiten. Damit hat er aber auch wie ein Lektor kein Recht als Autor genannt zu werden. Der Doktorand nennt ihn in seiner Arbeit als Doktorvater und bedankt sich bei ihm. Die heutige Unsitte ist genau genommen eine Unverschämtheit.

In Deutschland gab es 2014 an den Hochschulen 160.000 wissenschaftliche Mitarbeiter (davon 84.000 mit Zeitverträgen und 50.000 an Forschungsinstituten). Die meisten von ihnen (93 %) arbeiten mit befristeten, schlecht bezahlten Zeitverträgen (2 – 3 Jr., manche haben nur Vertragslaufzeiten von unter 1 Jr.). Unser wissenschaftlicher Nachwuchs besteht weitgehend aus akademischen Tagelöhnern. Sie stellen ein „akademisches Proletariat“ dar. Obwohl sie oft 50 % des universitären Unterrichts leisten, werden sie jämmerlich entlohnt. So bekommen 60 % der Berliner Lehrbeauftragten monatlich ca. 1000 Euro netto, 23 % weniger als 600 Euro. Ein Dozent in einem Bachelor-Studiengang muss je Seminar 17 Doppelstunden à  25,– Euro geben (es können auch nur 10 Euro sein), d. h., er erhält dafür 850 Euro. Für seine unbezahlte Vorbereitungen und die Korrektur der Hausarbeiten benötigt er zusätzlich die doppelte Zeit. Das bedeutet, dass er eigentlich nur eine Entlohnung von 8,33 Euro erhält (weniger als der gesetzlich vorgeschriebene Mindestlohn, viele von ihnen arbeiten für 3 Euro die Stunde). Eine Kritik an diesen Verhältnissen wird kaum geübt, da man die Professoren nicht verärgern will. Die kurzzeitigen Verträge üben in deren Augen nur einen Erfolgszwang aus. Nach der Promotion hangeln sich so viele der Jungwissenschaftler in halben stellen von Vertrag zu vertrag, von Projekt zu Projekt. Viele von ihnen gelten später nach dem Auslaufen der Verträge sogar als „überqualifiziert und nicht vermittelbar“, dann erweisen sich die vorangegangenen Zeitverträge nur als Sackgassen.

Zwar sind die traditionellen Assistentenstellen mit der anschließenden Habilitation in Deutschland der normale Einstieg in eine wissenschaftliche Laufbahn, doch bietet letztere dafür keine Sicherheit. Nach dem Wissenschaftszeitvertragsgesetz (von 2007) dürfen die Nachwuchswissenschaftler nur 6 Jahre vor und 6 Jahre nach der Promotion befristet beschäftigt werden (das gilt für die meisten Arbeitsplätze, nicht für die mit Drittmitteln finanzierten). Das bedeutet, dass man innerhalb 6 Jahren seine Habilitation abgeschlossen haben muss, aber dass es danach für eine große Habilitantenzahl nur wenige Professorenstellen gibt (jährlich werden in Deutschland etwa 1700 Professorenstellen frei bei etwa 2000 Habilitationen). Oft erfährt man erst mit etwa 40 Jahren, ob man an einer Hochschule bleiben kann. D. h., dass die Betroffenen ihre besten Lebensjahre nur in unsicheren Arbeitsverträgen bei vagen Berufsaussichten verbringen müssen. Der Großteil unseres akademischen Mittelbaus kann sich selten eine sichere Existenz auf bauen. In einer Lebenszeit, in der die meisten ihre Familien gründen wollen, wird ihre Existenz von langen Arbeitszeiten, schlechten Gehältern, häufigen Umzügen und einer ständigen Unsicherheit bestimmt. Die unbefristet beschäftigten Professoren sind naturgemäß an einer finanziellen Abhängigkeit ihres Mittelbaus interessiert.

Um an einer Hochschule Karriere machen zu können, werden von einem erwartet:

  • eine gewisse Unterwürfigkeit unter den Lehrstuhlinhaber,
  • die Hinnahme möglicher Willkürentscheidungen

(Oft werden schlechte Behandlungen wegen den erhofften später besseren Berufsbedingungen akzeptiert),

  • kostenlose Mehrarbeit,
  • der Aufbau eines persönlichen Kontaktnetzes

(Die Wissenschaften sind weitgehend in informellen Netzwerken organisiert. Ihre Institutionen entscheiden, wer in ihren Kanälen publizieren darf).

  • Publikationen, Publikationen

(Je mehr, umso besser: Wesentlich ist das Zitiertwerden. Dafür bürgt weitgehend das Netzwerk des Lehrstuhls, dem man angehört).

  • Vorträge (das sich bekannt machen).

In vielen Bereichen gibt es einen weltweiten Wettbewerb. Eine Folge davon kann sein:

  • die Übertreibung von Ergebnissen (Erkenntnissen),
  • das Fortlassen, Verschweigen unliebsamer Fakten,
  • evtl. sogar die Fälschung von Daten.

Um die Lage des universitären Mittelbaus in Deutschland zu verbessern, wird vorgeschlagen:

  • die Abhängigkeit von den Professoren zu beschränken

(durch die Schaffung flacherer Hierarchien; z. B. durch die Einführung eines Mitbestimmungssystems, die Mitbenutzung der Hochschuleinrichtungen),

  • eine Ausdehnung der befristeten 1 – 2jährigen Verträge auf 5 Jahre

(mit einer möglichen anschließenden Entfristung, wenn bestimmte Leistungskriterien erfüllt werden),

  • die Abschaffung des Niedriglohnbereichs

(und dafür Einordnung auch des wissenschaftlichen Personals in die Tarifverträge des öffentlichen Dienstes),

  • Abschaffung des Promotions- und des Habilitationszwanges für den Erhalt einer Hochschullehrerstelle

(ähnlich auf persönlich Leistungen bauend, wie an den Kunstakademien oder teilweise an den technischen Hochschulen),

  • Zuordnung der Universitätsverwaltung an die Hochschule

(dadurch Entlastung der Professoren),

  • eine bessere Planbarkeit des Karriereweges.

Zurzeit verliert Deutschland jährlich ca. 25.000 hochqualifizierte Wissenschaftler an das Ausland. In der Regel gehen die Besten. Viele Spitzentalente werden mit Stipendien ins Ausland geschickt, um dann dort zu bleiben. Alleine in den USA arbeiten an den dortigen Hochschulen 5000 deutsche Wissenschaftler und an deren Forschungseinrichtungen 20.000. Bessere Arbeitsbedingungen für sie , hätten viele von ihnen zurückgebracht.

Das große Lebensziel eines Wissenschaftlers ist ein Lehrstuhl an einer Hochschule. Hier darf er in Freiheit neugierig auf seine Fragen  rationale Antworten suchen. Darin ist er hier kaum antastbar. Hier kann er seine gesellschaftliche Stellung entfalten. In Deutschland wird er damit Vertreter eines extrem hierarchischen Systems, unantastbar und mit einer hoch dotierten Anstellung auf Lebenszeit versehen. Nachdem er jahrelang gezeigt hat, dass er sich in das vorhandene System, die bestehende Paradigmenwelt einordnen kann und die formalen Bedingungen erfüllt, bewirbt er sich um einen ausgeschriebenen Lehrstuhl:

  • Eine Berufungskommission begutachtet seine bisher geleisteten Arbeiten, sichtet seine Publikationen und holt Gutachten über ihn ein (10 – 12 vor jeder Berufung). Ihre Mitglieder sind völlig frei in ihrer Arbeit und Personalpolitik. Ihr Problem ist: Entspricht der wissenschaftlich Qualifizierte auch den personalpolitischen Anforderungen (den Anforderungen beim Personalmanagment besonders bei komplizierten Charakteren).
  • Die Fakultätskommission benennt die geeigneten Kandidaten (in einer Rangliste).
  • Der Fakultätsrat berät den Vorschlag.
  • Der Hochschulsenat bezieht dazu Stellung.
  • Der Favorit erhält dann von der Hochschulleistung einen „Ruf“

(in der Regel der Erstplatzierte der Liste).

  • Verhandlungen der Hochschulleitung mit dem möglichen neuen Professor über seine Leistungsbezüge und seine Lehrstuhlausstattung.
  • Besetzung des Lehrstuhls nach erfolgreicher Verhandlung.

Damit gehört der Bewerber zur Führungselite unserer Gesellschaft (wie die Medien- und Militärspitzen). Er kann über seine Arbeiten gesellschaftlich Einfluss nehmen, da er mit seiner Berufung praktisch in die noch aus früherer Zeit überkommene Position eines Geistesaristokraten gehoben wurde, eine Position, die eigentlich heute nicht mehr zeitgemäß ist. Besonders deutlich wird dies an den Universitätskliniken (33 in Deutschland) mit oft mehr als 10.000 Mitarbeitern. Sie sind völlig hierarchisch organisiert. An der Spitze der einzelnen Fachbereiche steht der Lehrstuhlinhaber (Ordinarius, W3-Professor mit üppigen Zulagen), dann kommen die Oberärzte, danach die Fachärzte und zum Schluss die Assistenzärzte. In anderen Ländern, z.B. den USA, sind die Kliniken anders organisiert. Es gibt dort mehrere gleichberechtigte Bereichsleiter, die kollektiv zusammenarbeiten. Es findet dort verstärkt ein gedanklicher Austausch statt. Die Forschung ist stärker arbeitsteilig angelegt. Sie ist vermehrt modern datenorientiert und weniger auf den genialen, intuitiv arbeitenden, introvertierten Wissenschaftler ausgerichtet, für den es an unseren heutigen Massenuniversitäten immer weniger Platz gibt.

Ein weiteres Problem an unseren Hochschulen sind die Quotenprofessorinnen, Kinder unserer feministischen Sozialneurosen. Nicht dass es nicht großartige Wissenschaftlerinnen gibt, dafür könnte man viele herausragende Beispiele nennen. Doch leider gibt es sie interessenbedingt nicht überall, nicht in allen Fachbereichen. Eine Folge davon ist, dass hochqualifizierte männliche Bewerber nicht gewählt werden, weil ideologische Quotenvorstellungen dagegen sprechen (so z. B. in Berlin), oder gedanklich unbequeme, zeitgebundene Lehrstuhlinhaber über eine Quotenvorgabe entlassen werden (wie in Oldenburg der Marktwirtschaftskritiker Niko Paech). Eine Folge dieser Situation ist, dass es nicht nur männliche Fehlbesetzungen gibt, sondern auch viele weibliche. Bei beiden fällt es oft nicht so auf, weil an unseren Massenuniversitäten die Hauptfähigkeit der Professoren inzwischen die Lehre und nicht die Forschung ist, wie es gleichgewichtig noch im humboldtschen Modell gedacht gewesen war.

Publikationen

Der Stand unserer Zivilisation ist weitgehend ein Verdienst unserer Wissenschaften. Sie zeigen uns

  • unsere geistigen und funktionalen Orientierungswege, d. h.
  • die Herstellungsweise unserer zivilisatorischen Produkte,
  • die Möglichkeiten für ein humaneres Sozialverhalten,
  • die Hintergründe unserer Existenz

(und geben damit unserem Dasein erst seinen geistigen Sinn, nachdem die Religionen ihre Bedeutung dafür weitgehend verloren haben).

Methodisch suchen sie nach neuen Erkenntnissen und vermitteln deren aktuellen Stand über die Lehrtätigkeit ihrer Vertreter. In ihrer Gesamtheit stehen sie für die unübersichtliche Komplexität unseres Daseins. Zurzeit (2015) gibt es in der Welt etwa 8 Millionen Wissenschaftler für deren Arbeit weltweit etwa 1,7 Billionen Dollar ausgegeben werden.

Die klassische Einteilung der Wissenschaften erfolgte einst in Geistes-, Natur- und Gesellschaftswissenschaften. Heute gibt es sie in einer kaum noch überschaubaren Vielfalt, z. B. u. a. Agrar-, Ingenieur-, Wirtschafts- und Rechtswissenschaften. In ihnen allen werden Informationen gesammelt, analysiert und Schlussfolgerungen gezogen. Aufgrund der gesetzlichen Forschungsfreiheit steht es jedem frei sich auch außerhalb des akademischen Wissenschaftsbetriebes hier zu betätigen. Eine Besonderheit stellen die Geisteswissenschaftler dar, weil viele ihrer Gedanken wahrscheinlich schon einmal gedacht und gesagt worden sind. In ihren Arbeiten müssen sie zu einem Thema alles erreichbare Wissen zusammentragen, um es dann mit ihren eigenen Gedanken zu ergänzen. Neues wird hier immer nur auf dem Hintergrund bisheriger Erkenntnisse gedacht.

Eine wissenschaftliche Karriere kann man heute weitgehend nur noch über eine Vielzahl an Veröffentlichungen in möglichst renommierten Fachzeitschriften machen. Wer nicht veröffentlicht macht keine Karriere. Entscheidend im wissenschaftlichen Wettrennen ist die Erstveröffentlichung, das Zuvorkommen vor möglichen Konkurrenten. Wer als erster Daten veröffentlicht, kann von anderen artikelmäßig nicht mehr überrundet werden. Eine Folge davon ist, dass deren tatsächlicher neuer Inhalt auf Grund des Schreibzwanges oft relativ gering ist. Da die soziale Stellung des Wissenschaftlers heute aber stark von ihrer medialen Präsens abhängt und in vielen Branchen und Institutionen ein brutalere Machtkampf um Ansehen und damit Geldzuwendungen herrscht, fällt es immer schwerer den Wert dieser Arbeiten zu erkennen. Wenn man davon ausgeht, das zurzeit auf der Welt etwa 8 Millionen Wissenschaftler leben, die in mehr als 30.000 Fachzeitschriften monatlich etwa 1,3 Millionen Fachaufsätze publizieren (UNESCO 2015; 34 % davon in Europa, 25 % in den USA), kann man sich vorstellen, dass selbst Spezialisten in ihren Fachgebieten die Informationsflut kaum noch überblicken können. Für eine Karriere zählen heute quantitative Kriterien:

  • Wie viele Artikel geschrieben?
  • In welchen Zeitschriften erschienen?
  • Wie oft zitiert?

Nicht die Kreativität eines Autors ist entscheidend, sondern seine Publikationsmenge, selbst wenn es sich dabei nur um die Reproduktion alter Gedanken handelt. Ein früherer, bedeutender Geisteswissenschaftler würde nach diesem System heute kaum noch publiziert, wahrscheinlich kein bedeutender Philosoph, mit Sicherheit nicht Kant.

Neben der Zahl der Veröffentlichungen entscheiden über eine Universitätskarriere gute Netzwerke und damit das Zitiertwerden durch die eigene Wissenschaftsschule. Ein Ursache dafür ist eine häufige

  • Verwendung ihrer Schlüsselbegriffe,
  • Schlüsselzitate,
  • Schlüsselquellen.

Sie werden von den Algorithmen der Suchmaschinen erfasst und bestimmen dann deren Rangfolge auf den Webseiten wie die der „Academia edu“. Wer dann in der Folge weiter oben steht, wird häufiger zitiert. Wer häufiger zitiert wird, erscheint bedeutsamer, und wer bedeutsamer erscheint, hat größere Karrierechancen.

Durch den Publikationszwang sind auch viele Fehlentwicklungen entstanden:

  • Nur geglückte Daten werden genannt.

Wie in der freien Wirtschaft gibt es auch hier Betrügereien und Korruption

Seit 1975 stieg der Anteil der fehlerhaften Arbeiten um das Zehnfache. 2047 Arbeiten aus den Bereichen Biomedizin und Lebenswissenschaften mussten wegen Fehler oder gefälschten Daten zurückgezogen werden, teilweise Arbeiten aus denen seit Jahren intensiv zitiert wurde.

  • Erkannte Fehler (Misserfolge) werden von den Fachjournalen möglichst nur unauffällig widerrufen, während die Originalartikel weiterhin zitiert werden.

Eine häufige Ursache dafür sind Statistikfehler. Bereits publizierte Fehler gelten als nicht gut für den Ruf der Zeitschrift, des Forschungsinstituts oder des Autors.

  • Das Verschweigen fehlgeschlagener oder ergebnisloser Experimente.
  • Die tatsächlichen Laborergebnisse oft unzugänglich bleiben.
  • Die korrekturlesenden Gutachter überfordert oder neidisch sind

(Ihnen bleibt dadurch kaum Zeit für die eigene Forschungsarbeit. Sie bleiben anonym. Eine Forderung müsste sein, dass sie in Zukunft genannt werden).

  • Die Überprüfungsarbeit oft viel Zeit erfordert (evtl. sogar eigene Untersuchungen).

Für das Erkennen des Wertes Einer Forschungsarbeit gibt es den sogenannten „P-Wert“ („P“ von probability). Was er eigentlich genau bedeutet, ist unklar. Man orientiert sich nur nach ihm: z. B.

  • die Wissenschaftler bei ihrer Karriereplanung,
  • die Industrie bei der Auswahl von Nahrungsmittelzusätzen,
  • Ärzte bei der Entscheidung über die beste Behandlung.

Der Wert unterscheidet zwischen statistisch signifikant (kleiner als 5 %) und nicht signifikant bei der Zuverlässigkeit von Beobachtungen. Er sollte ursprünglich glaubwürdige Ergebnisse von den zufälligen trennen. Seine Bedeutung hat dieser Wert erhalten, weil er von den meisten Wissenschaftlern benutzt wird. Doch gilt er selber als unzuverlässig, und es gibt Forderungen ihn abzuschaffen. Sein Problem ist, das signifikante Zusammenhänge nicht ein Spiegelbild der Realzustände unserer Welt sind.

Die Zeitschriften entscheiden sich für die Publikation von Artikel, wenn sie

  • Neuheiten bringen (die Aufsehen erregend sind),
  • überraschende Ergebnisse beschreiben,
  • signifikante Zusammenhänge nennen.

Dabei werden zugleich von einer sauberenn wissenschaftlichen Arbeit erwartet (laut Deutschem Wissenschaftsrat):

  • ein sauberer Umgang mit Zitaten und Forschungsdaten,

(Der „Impact Factor“ gibt die Zahl der Zitate in Forschungsarbeiten an. Er sagt aber wenig über die Qualität einer Artikels).

  • die Möglichkeit die Versuche zu wiederholen

(Wahr können nur Ergebnisse sein, die überprüfbar sind. Sie werden in Beiträgen selten genannt).

  • eine systematische Literaturrecherche.

Der Weg bis zu einer Veröffentlichung folgt in etwa einem immer wiederkehrendem Schema:

  • Der Wissenschaftler schreibt über seine Forschungserkenntnisse:
    • Darstellung der Quellen, Methoden,
    • durchgeführte Experimente (Versuchsaufbau, Messergebnisse)

(die Daten müssen dabei gesichert und überprüfbar sein),

    • statistische Auswertung,
    • Schlussfolgerung

(Beschreibung seiner daraus abgeleiteten Überlegungen, Theorien, Hypothesen),

  • Einreichung des Manuskripts zu einer Veröffentlichung

(Fachzeitschrift, Fachverlag; renommierte Verlage haben eine hohe Ablehnungsquote, kleine, fachspezifische nehmen evtl. das Manuskript eher an),

  • Prüfung des Manuskripts durch eine Fachredaktion,
    • ein Redakteur gibt es zur Begutachtung an Fachleute weiter („Peer Review“),
    • deren Stellungnahme führt zur Ablehnung, Überarbeitung, bzw. Verbesserung (und erneuter Überprüfung) oder evtl. zur Veröffentlichung.

(Dieser Prozess kann Monate dauern. Je höher das Ansehen der Verlage, umso eher werden die Manuskripte abgelehnt: Internationale Fachzeitschriften erwarten nur Beiträge in englischer Sprache. Bei der Fülle der möglichen Artikel muss an die deutschen Institute die Forderung gestellt werden, dass sie auch deutschsprachige Fachzeitschriften bedienen, bzw. herausgeben, in denen sie ihre Beiträge für ihre Geldgeber auch in deutscher Sprache publizieren).

Ein weiteres Problem ist, dass viele wissenschaftliche Beiträge nicht frei zugänglich sind, weil die Herausgeber an ihnen verdienen wollen. Dafür gibt es zwei Formen:

  • das Abo-Modell: Hier befinden sich viele Spitzen-Magazine, u. a.
    • “Nature“ (gilt als einflussreichste Wissenschaftszeitung, konzentriert sich auf den physikalischen Bereich),
    • „Science“.

Die Veröffentlichungen können hier nicht gefordert werden. Sie publizieren nur wenige Beiträge und setzen bevorzugt auf spektakuläre Themen.

  • die Abo-Publikation über Fachverlage: Hier werden unglaubliche Summen verdient. Die Bibliotheken, Forschungseinrichtungen und Privatpersonen müssen für das Lesen der Beiträge Gebühren bezahlen. Damit ist für die meisten Menschen der Zugang zu den dort beschriebenen Forschungsergebnissen versperrt. Die drei größten Verlage sind:
    • „Elsevier“ (2,8 Mrd. Umsatz – 1 Mrd. Gewinn),
    • „Springer-Nature“,
    • „Wiley“.

(Bei ihnen werden ein Drittel aller wissenschaftlichen Arbeiten veröffentlicht. Die Bibliotheken zahlen mehr als 60% ihrer Ausgaben allein an diese drei Verlage.

50 % aller Artikel erscheinen bei den 6 größten Wissenschaftsverlagen (2013). Ein Jahresabo. kostet bei „Elsevier“ die Bibliotheken mehr als 20.000 Euro. Der Verlag gibt etwa 3.500 Zeitschriften heraus (u. a. „The Lancet“, „Cell“). Große Bibliotheken können 1000de Zeitschriften abonnieren. Die Verlage sammeln die Urheberrechte und kassieren dann ab.

  • „Journal of Controversial Ideas“:

In dieser neuen Fachzeitschrift können unbequeme Gedanken und Beiträge veröffentlicht werden, ohne dass deren Autoren genannt werden. Man will diese dadurch vor öffentlichen Angriffen durch Interessengruppen schützen. Dies gilt besonders für die Bereiche der Evolutionsforschung, bei Tierversuchen, politischen Beiträgen oder zu ethnischen oder geschlechtsspezifischen Themen. Die Fragwürdigkeit vieler wissenschaftlicher Forschung wird besonders bei letzterer Thematik deutlich. Es darf danach selbst die kleinste geschlechtsspezifische Besonderheit nicht geben, z. B. durch ihren verschiedenen Stoffwechsel und verschiedenen Körperbau auch keine geschlechtsspezifische Anfälligkeit für Krankheiten oder die verschiedene Wirkung von Arzneimitteln. Jede Diskussion darüber wird im Kein erstickt. Man kann diesen Tatbestand zur Kenntnis nehmen und ihn einfach ignorieren. Er zeigt aber auch, wie Wissenschaft in unserer „offenen“ Gesellschaft funktioniert. Sie ist kein gesellschaftlicher Freiraum, sondern bewegt sich in einem relativ engen Bereich sozialer Akzeptanz. Rationale aufklärerische Gedanken sind zwar ein Ideal, entsprechen aber nur begrenzt unserer gesellschaftlichen Realität.

  • „Open-Access-Magazine“: Sie können von allen ohne Kosten gelesen werden.

Redaktionell werden sie von Wissenschaftlern betreut. Hier werden die Verlage von den Autoren bezahlt (1000 – 2000 Euro je Arbeit). Die Beiträge werden weniger kontrolliert. Dieser Umstand zieht viele Schwindler und „Raubverlage“ an (zu ihnen gehören auch die Pseudoverlage, besonders im medizinischen Bereich und der Psychologie). 2018 erschienen etwa 1/5 der wissenschaftlichen Beiträge in diesem Bereich. Es können sich darunter auch solche renommierter Institute befinden. 12 der 30 deutschen DAX-Unternehmen publizieren auch bei solchen „Raubverlegern“.

  • Pseudojournale (Fake-Zeitschriften):

Sie drucken für Geld alles. Man kann seriöse Zeitschriften daran erkennen, dass sie von Verlagen herausgegeben werden. Bei Pseudozeitschriften erkennt     man die Herausgeber nicht (oft eine allgemeine E-Mail-Adresse im Ausland). Hier kann jeder Unsinn publiziert werden. Deshalb oft die Plattform von Interessengruppen (z. B. im medizinischen Bereich, politischen Ideologien).

Für die Existenz dieser Pseudojournale gibt es verschiedene Ursachen:

    • Zunächst besteht der große Druck auf die Wissenschaftler publizieren zu müssen, um zitiert werden zu können. Dies betrifft besonders junge Wissenschaftler (allgemein gilt: jährlich 2 deutschsprachige und zwei englischsprachige Beiträge).

Für das Zitiertwerden gilt der „Impact“-Faktor. So werden bei Berufungskommissionen der Medizin die Zahl der Publikationen und der Impact-Faktor der Zeitschriften addiert. (Für eine Karriere, Festanstellung ist er oft ausschlaggebend).

Für den fachlichen Stellenwert der verschiedenen Zeitschriften gibt es im Wissenschaftsbereich mit Qualitätssiegeln versehene Rangfolgen (A+,A,B,C,D,E). So werden in der Regel bei Vergabe von Forschungsgeldern oder Leistungszulagen nur A+- und A-Publikationen berücksichtigt.

    • Eine Folge davon sind die gewaltigen Beitragsmengen für die eine Zeitschrift oder ein Verlag gesucht werden (100.000de von Beiträge im Jahr, allein 2016 30.000 Promotionen, an manchen Instituten wie vom Fließband kommend).

Um die Publikationsmenge überblicken zu können, gibt es für die verschiedenen Fachbereiche „Review“-Zeitschriften mit Zusammenfassungen der erschienenen Beiträge.

    • Die Dauer der Gutachten (oft über ein Jahr), verbunden mit einer hohen Ablehnungsquote bei den seriösen Verlagen.
    • Das tiefe evolutionäre Bedürfnis des Menschen auch zur Gruppe der Publizierenden zu gehören. Dass nicht Wahrgenommen werden, wird schnell als eine Ausgrenzung, bzw. eine soziale Ächtung empfunden.

Man ist eher bereit, negative Reaktionen hinzunehmen, als gar keine Rückmeldung zu erhalten.

Es gibt diese Pseudozeitschriften in fast allen Fachbereichen. So soll der indische „Omics“-Verlag alleine bereits über 700 Journale besitzen. Darin werden jährlich ca. 50.000 Artikel publiziert (40 % aus Europa, u. a. auch aus Deutschland). Für die zahlten 18 deutsche Universitäten ca. 575.000 Euro. Der Gesamtumsatz dieses Verlages betrug 2016 ca. 10.5000.000 Euro. Von den angeblich 25.000 Wissenschaftlern, die für seine Gutachten arbeiten sollen, konnte man bisher nur380 belegen. Zwischen 2011 – 1017 soll er ca. 50 Mio. Dollar eingenommen  haben. Insgesamt sollen diese Verlage jährlich etwa 400.000 Artikel besitzen. In ihnen publizieren viele Personen, die ihren Ideen einen seriösen Anschein geben wollen, die ihren Unsinn als Wissenschaft deklarieren wollen. Und wenn dieser erst einmal veröffentlicht ist, dann ist es schwer, ihn aus den Medien zu bekommen. Für Laien ist es oft unmöglich, dies zu erkennen. Gerne publizieren in ihnen Pharmakonzerne über die Wirksamkeit ihrer Medikamente, Großbetriebe über ihre hauseigene Forschung und Heilpraktiker. Sie versuchen damit ihren Produkten einen seriösen Anschein zu vermitteln. Dubiose Studien erhalten so einen seriösen Anstrich. Man nimmt gerne auch Falschmeldungen als wahr an, wenn sie die eigenen ideologischen Grundhaltungen bestätigen oder wenn sie den eigenen Interessen dienen.

Ähnlich wie mit den pseudowissenschaftlichen Beiträgen ist es mit den pseudowissenschaftlichen Konferenzen. Auch über sie versuchen junge Wissenschaftler im internen Konkurrenzkampf ihren Stellenwert zu erhöhen. Normalerweise gelten Konferenzen für den wissenschaftlichen Gedankenaustausch und die Repräsentation der aktuellen Forschung als sehr wichtig, obwohl sie häufig nur der Selbstvermarktung und der Wissenschaftsunterhaltung dienen und keine Gesprächs- oder Debattierrunden im Sinne von Symposien darstellen. Bei den Pseudokonferenzen wird gegen eine Bezahlung eine wissenschaftliche Aufmerksamkeit versprochen, in dem Lebenslauf die Teilnahme an einer Konferenz genannt. So fordert „Waset“ von Vortragenden 400 Euro und von den Zuhörern 300 Euro. Als wichtigste Organisatoren von Pseudokonferenzen gelten:

  • Waset (World Academy of  Sience, Engeneering and Technology):

Wer eigentlich dahinter steht, weiß man nicht. Sie sollen allein 2017 400 wissenschaftliche Konferenzen und unzählige Unterkonferenzen organisiert haben.

  • Omics: Sie sollen über 3000 Konferenzen organisiert haben.

Unser heutiges Problem ist, dass nach den Religionen auch unsere Wissenschaften immer weniger in der Lage sind, den Menschen ein konsensfähiges Orientierungsmodell zu liefern. Die verschiedenen Interessengruppen suchen sich für ihre Diskussionen jeweils die Fakten heraus, die am ehesten in ihr ideologisches Wertekonzept passen. Unsere wissenschaftlichen Weltbilder gelten global nur noch als Gedankenmodelle neben anderen, und unsere traditionelle Informationsorientierung erweist sich mit den Fortschritten der sozialen Medien zunehmend als überholt. Schon jetzt haben wir:

  • „Plos One“, das große Onlinemagazin mit jährlich tausenden von Beiträgen (viele auch mit Relevanz).
  • Wichtige Literatur kann man über Datenbanken recherchieren.
  • In Zukunft werden die Computer für einen lesen, Zusammenhänge analysieren und zusammenfassen.
  • „Prevint-Server“ erlauben Einblicke in „Journal Clubs“, die den Zugang zu aktuellen Materialien ermöglichen und den wissenschaftlichen Austausch fördern.
  • Kurzbeiträge (Blogs) können evtl. auch für wissenschaftliche Beiträge in Zukunft bei Erstentdeckungen und deren Auswertung rechtlich eine Rolle spielen. Sie können für zukünftige Karrieren evtl. durchaus förderlich sein.

Die Konkurrenzsituation lässt den Wissenschaftsbetrieb oft ungerecht erscheinen und zur Abwertung anderer Arbeiten verleiten, bzw. andere Arbeiten nicht wahrnehmen wollen. Der Autor kann hier aus persönlicher Erfahrung ein Beispiel bringen (obwohl er nie eine wissenschaftliche Karriere angestrebt hat):

Seine „Geschichte der Gartenkunst“ wollten ursprünglich vier Verlage drucken. Gutachten (wahrscheinlich von Professoren oder angesehenen Gartendirektoren) haben davon abgeraten. Er stellte die Arbeit daraufhin ins Internet und wurde bis heute darin von fast ½ Million Menschen gelesen (viele von ihnen werden sich Teile dieser Arbeit auch ausgedruckt haben). Zum Abschlussband „Theorie der Gartenkunst“ verweigerten sich dann Professoren, obwohl sie diese ausgedruckt und gebunden erhalten haben, eine Stellungnahme. Keine Fachzeitschrift erwähnte ihn auch nur, obwohl er die einzige deutschsprachige Gartentheorie zurzeit überhaupt darstellt. (Der Autor würde heute Teile davon anders, naturbezogener konzipieren). Eine bekannte Gartenkennerin erklärte dem Autor gegenüber dieses Phänomen als Fachneid.

In einer demokratischen Gesellschaft sind die Wissenschaften ein Teil der Öffentlichkeit, und sie müssen sich deshalb auch der Öffentlichkeit stellen. Das bedeutet, dass ihre Ergebnisse für jedermann zugänglich sein müssen. Da die soziale Gemeinschaft sie weitgehend finanziert, muss die Wissenschaft auch zu einem öffentlichen Dialog bereit sein. Ihre Resultate müssen der Öffentlichkeit gehören (dazu gehört z. B. auch die Publikation von Misserfolgen). Vielleicht wäre es eine Hilfe, wenn die staatlichen Institutionen zu allen Streitfragen knappe Zusammenstellungen der positiven und negativen Seiten eines Problems machen würden, – mit allen gegebenen, bzw. noch fehlenden Fakten. Damit die bestehenden Wissenschaftsschulen (evtl. ideologischen Gruppen, Interessenverbände), die untereinander konkurrieren, nicht nur ihre eigenen Mitglieder fördern, während sie versuchen den Einfluss anderer zurückzudrängen oder sogar totzuschweigen, müsste man, um dem zu begegnen, ihre Tätigkeiten besser kontrollieren können, z. B. durch Gutachten zu Beiträge, deren Autoren der Öffentlichkeit bekannt gemacht werden sollen.

Jede wissenschaftliche Tätigkeit erfolgt auf dem Hintergrund von verinnerlichten, persönlichen Werten, die als soziale Vorgaben unserer allgemeinen Orientierung dienen. Um sie in einer „offenen“ Gesellschaft allgemein verträglich zu machen, bedürfen sie in der Regel eines begrenzenden, bzw. korrigierenden Gegenübers. So erlauben uns z. B. unsere in der Verfassung garantierten Freiheitsrechte ein weitgehendes Ausleben unserer psychischen Bedürfnisse und unseres Bewegungsdranges, andererseits  erfolgen sie direkt oder indirekt zu Lasten eines Gegenübers, in unserer Zivilisation in der Regel zu Lasten der Natur und bedürfen deshalb als begrenzendes Gegenüber die Verantwortung. Jede Freiheit muss deshalb an ein sie begrenzendes Pflichtbewusstsein gebunden sein. Ohne eine solche verliert sie ihre Berechtigung.

Gelebt werden die Werte sowohl von den einzelnen Individuen wie auch von den verschiedenen Gruppen. Im wissenschaftlichen Bereich ist im Gegensatz zu den wirtschaftlichen Unternehmen allerdings der kreative Einzeldenker gefragt, der aber in unseren Masseninstitutionen immer mehr diffamiert und möglichst in den Hintergrund gedrängt wird. Sozial wird auch in der Wissenschaft zunehmend die Gruppenarbeit, d. h. die Teamarbeit gefordert. Dabei ist diese im gewissen Sinne eine Vergewaltigung der Introvertierten, der denkenden Kreativen. Doch ist deren Kritik in unserer Massengesellschaft ein Tabu, da sie die soziale Dominanz der geselligen Außengeleiteten in Frage stellen würde. Dabei wissen wir, dass in Gruppen

  • tatsächlich immer nur wenige Leute arbeiten (ca. 20 %),
  • sofort Hackordnungen entstehen, bei denen dann die jeweils Ranghöheren die Diskussionen bestimmen,
  • ein freies Denken dort eine Illusion ist, da abweichende Gedanken oft nicht toleriert werden.

Tatsächlich kreative Arbeitsergebnisse waren und sind in der Regel immer die Leistungen von Einzelpersonen gewesen. Große Idee

  • wurden in der Regel von Einzelpersonen gegen  heftige Widerstände durchgesetzt.
  • wurden lesenswerte Bücher von Einzelpersonen geschrieben.
  • entstanden fast immer nur in einer geborgenen Atmosphäre (fast nie innerhalb von Gruppen).

(F. Scott Fitzgerald: „Keine große Idee wurde jemals in einer Konferenz geboren, aber eine Menge tollkühner Ideen sind dort gestorben“).

Der Vorteil einer Gruppenarbeit zeigt sich

  • bei der Aufdeckung der Schwächen einer Idee,
  • bei Problemlösungen in Unternehmen,
  • bei der Entstehung von Gruppengefühlen,
  • bei der Entstehung von Kommunikationsnetzwerken,
  • bei dem Austausch von Erfahrungen.

(Die Voraussetzung dafür sind aber die Schaffung organisatorischer Voraussetzungen, z. B. die Verhinderung einer Hackordnung).

Wahrscheinlich werden sich in den nächsten Jahrzehnten unser Wissen und damit gezwungenermaßen auch unsere Werte radikal verändern. Durch unser jeweils persönliches Festgelegtsein und dessen Beharrungsvermögen wird es dadurch große soziale Probleme geben, die es uns vielleicht nicht erlauben werden, global die richtigen Entscheidungen für die Menschheit zu treffen.

  • Werden wir bei den verschiedenen möglichen Zukünften die richtige wählen?
  • Werden wir bei unseren hohen Wissenschaftsstandards evtl. komplexe vage Phänomene übersehen?
  • Werden wir die richtigen Wahrscheinlichkeiten wählen?

(Prognosen gehen nicht auf Entscheidungsspielräume ein).

Unsere soziale Existenz ist immer ein Ergebnis zeitabhängiger Machtkämpfe der Gedanken, ihrer Repräsentanten und deren Nutznießern gewesen. Doch ist diese soziale Existenz immer eingebettet in die begrenzten Möglichkeiten unserer Erde, ihren physikalischen, chemischen und biologischen Möglichkeiten. Wir stoßen überall an ihre Grenzen und beachten sie nicht, bzw. werden durch unsere individuellen Bedürfnispflege, unser geschlechtsspezifischen Dominanzverhalten, unsere Gruppenvorstellungen, unsere nationalen Wünsche und die Hegemonialbestrebungen der Großmächte daran gehindert. Sie alle tragen dazu bei, dass wir als Ganzes, als Menschheit nur relativ hilflos reagieren können. Wir alle sehen die Probleme, die mit unserem Ressourcenverbrauch entstehen, die Umweltbelastungen durch unseren Müll, das Artensterben und sind dabei mit Hilfe der Gentechnik und der Digitalisierung unserer Zivilisation in einen neuen Evolutionsschritt zu führen. Doch wo bleibt dann die Menschheit, der wir noch angehören. Auf welche Werte, die wir kulturell für als uns Ideale geschaffen haben, wollen wir, bzw. sollen unsere Nachkommen nicht verzichten, z. B. auf Toleranz und Gerechtigkeit. Wahrscheinlich wäre dafür unsere einzige Chance, uns besser in die komplexen Systeme der Erde zu integrieren und das heißt, sie nicht mehr so hemmungslos auszubeuten, bzw. uns alle zu bescheiden.

Eine mögliche Prognose für die Menschheit besitzt folgendes Bild:

  • 11.000 v. Chr. (Holozän): Ende der Eiszeit; die Geschichte des sesshaften Menschen beginnt,
  • ca. 1950 – 2050 n. Chr. (Anthropozän): Zunehmende Erwärmung der Erde. Die Ernährung der Menschen ist noch landwirtschaftlich geprägt (auf wenige Kulturpflanzen und –Tiere bezogen).
  • ca. 2500 – 4500 n. Chr.: Drastische Reduzierung der Kulturpflanzen: Die Nahrungsproduktion erfolgt weitgehend in Laboren.
  • ab 4500 n. Chr.: Rückkehr zur Urnatur. Der Homo anthropocainensis immortalis ersetzt den Homo sapiens durch genetische und technische Manipulationen.

Diese Prognose geht noch von Jahrtausenden aus. Wahrscheinlicher sind aber nur Jahrzehnte, bzw. wenige Jahrhunderte, wenn man dann noch überhaupt von einem Menschen in unserem Sinne sprechen will und nicht nur noch von Cyborgs.

Unsere heutigen Massenuniversitäten sind Stätten des Mittelmaßes. Neben ihren Studentenmassen sind sie gekennzeichnet durch eine überbordende Bürokratie, eine Orientierungslosigkeit in den Geisteswissenschaften (u. a. der fehlenden Fähigkeit der heutigen Philosophie unserer Gesellschaft zeitgemäße, konsensfähige Orientierungskonzepte aufzuzeigen) und einem blinden, relativ inhaltlosen und damit wertlosen Publikationszwang. Einst kennzeichneten ihre Vertreter eine intellektuelle Unabhängigkeit und die Vermittlung einer sinnstiftenden existentiellen Orientierung aus. Seit der Bologna-Reform ist dies nur noch Geschichte, obwohl wir mehr denn je auf traditionell ausgebildete Eliten angewiesen sind, bzw. wären. Die auf die Menschheit zukommenden Probleme sind so groß, dass wir sie mit Hilfe unserer individualistisch ausgerichteten, orientierungslosen Massengesellschaften wahrscheinlich nicht bewältigen können.

Die historische Menschheit entwickelt sich, so wie sie sich darbiete, zunehmend zu einem riesigen, brodelnden Krebsgeschwür der Natur, dass für die evolutionäre Weiterentwicklung des Seins, sich seine eigenen biologischen Existenzgrundlagen zerstört, um danach evtl. einer neuen, weiteren Evolutionsebene den Weg zu öffnen. Doch ist dies unausweichlich? Noch verstehen wir die Gesetze, die Ziele der Evolution nicht. Rückblickend erkennen wir ihre physikalischen, chemischen und biologischen Formen, denen wir selber angehören und vermuten vor uns eine stehende digitale. Immer waren mit ihnen Energiebewegungen verbunden, die aufeinander aufbauten, auf der physikalischen die chemische, auf der chemischen die biologische und vielleicht in Zukunft auf der biologischen die digitale. Wir beobachten diese Entwicklung als eine kausale Abfolge und verstehen sie in unseren anthropogenen Grenzen nicht. Wir können darin menschengemäß keinen Sinn erkennen, der uns axiomatisch in unserer Orientierung weiterhelfen könnte. Vielleicht werden in einer nicht sehr lange vor uns stehenden Zeit sich algorithmische Systeme von uns als ihren biologischen Schöpfern lösen und über Zwischenstufen von Cyborgs ein neue Daseinsdimensionen vorstoßen. Doch welchen Platz werden dann noch unsere Enkel in einer solchen Welt einnehmen? Wir sind es heute, die dafür die Grundlagen schaffen müssen (soweit es dann noch Urenkel von uns überhaupt geben wird).

Damit haben unsere Wissenschaften ein gewaltiges Aufgabenpotential vor sich. Einerseits treiben sie unsere Zivilisation voran, andererseits bereiten sie damit aber auch die zukünftige Existenzgrundlage für unserer Species auf der Erde vor, – und das völlig kurzsichtig und orientierungslos. Selber statusorientiert und mit einer statusorientierten Wirtschaft verbunden, führen wir zivilisatorisch zu Lasten der Natur unsere anthropozentrischen Balztänze aus, die als solche zwar zu unserem evolutionären Erbe gehören, aber in unserem Verstand einen Grenzsetzer für unser Tun haben sollten.

Einst bestand der Lebenssinn eines Menschen, wie allgemein in der biologischen Welt, seine Existenz und die seiner Nachkommen zu sichern. Später fand er ihn, losgelöst von der Natur, in einer beruflichen Tätigkeit.

  • Doch welchen Inhalt wird seine Existenz in einer völlig digitalisierten Welt erhalten, wenn ihn eine sich selbst steuernde künstliche Existenz von dem allen entlastet?
  • Wie wird er seine Existenz dann ausrichten?
  • Wie wird er sein Leben mit der digitalen Welt verzahnen?
  • Welche molekularen Wechselwirkungen wird das auf seinen Körper haben?
  • Wie wird seine zukünftige Energiesicherung sein (biologisch über seine Ernährung, physikalisch und chemisch über seine zivilisatorischen Möglichkeiten)?
  • Welche Hilfen geben uns dazu unsere Wissenschaften, welche die Philosophie?

Unsere Wissenschaftswelt ist ein komplexes System in dem alles mit allem zusammenhängt (in Deutschland wird es nur durch dessen historischen Föderalismus behindert). Ihre Nutzung ist zwar weitgehend global orientiert (oft weitgehend zum Nutzen der Hegemonialmächte) ihre Finanzierung dagegen national, was sie gegenüber ihren Geldgebern auskunftsmäßig verpflichtet (z.B. in Deutschland, dass ihre Vertreter in deutscher Sprache lehren und publizieren und nicht zunehmend in der Sprache seiner orientierungsmäßig vor ihm stehenden Hegemonialmacht). Sie bilden die existentiellen Zukunftsgrundlagen eines Staates. Dessen Wohlstand hängt weitgehend von den durch sie angeregten Innovationen ab. Die Ergebnisse der Grundlagenforschung werden an die dortige Wirtschaft weitergegeben. Dadurch entstehen neue Technologien die dann Althergebrachtes verdrängen. Probleme entstehen, wenn diese Verbindungen dazu genutzt werden, der höheren Gewinne wegen, verstärkt die Natur zu zerstören. Die großen wissenschaftlichen Problemfelder der Zukunft werden u. a. sein

  • die Künstliche Intelligenz,
  • die Nanotechnologien,
  • neue Gentechniken,
  • die Energieversorgung
  • die Ernährungsversorgung,
  • die Gesundheitsversorgung und Pflege,
  • die Infrastruktur,
  • private und öffentliche Sicherheit (z. B. im Informationsbereich),
  • soziale Gerechtigkeit,
  • Umweltschutz,
  • der Evolution des Menschen entsprechende Sinngebungskonzepte.

Ein Problem wird immer deren ideologische (politische) Instrumentalisierung sein.