PRTF - Perry Rhodan Technik Forum

Teil 2 der Manual of Science

HYPERPHYSIK (2) - HYPERRAUM UND HYPERENERGIE


(c) Rainer Castor 13.03.1998

Die Schwierigkeit beim Verständnis von HYPERRAUM und HYPERENERGIE war vor allem mit den gesetzten »Randbedingungen« begründet, welche sich einerseits aus der Unanschaulichkeit des Hyperraums ergaben, andererseits aus der Herangehensweise der Arkoniden an die Phänomene. Besonderes letzteres führte dazu, daß sich terranische Hyperphysiker im Laufe der Zeit häufig die Haare rauften; leider war die Hyperphysik bis zur Hamiller-Algebra zu sehr auf die arkonidische Denkweise eingefahren und konnte sich nicht von ihr lösen.

Die mit dem »hyperphysikalischen Vorzeichen« von Hyperenergie (Ej) verknüpften »Randbedingungen« wurden im hyperphysikalischen Basisaxiom zusammengefaßt, bei dem als Ausgangsbedingung die formale Darstellung eines Vektors in einem n-dimensionalen Zustandsraum diente, wie sie auch auf der Erde durch David Hilbert beim Hilbert-Raum zu Beginn des 20. Jahrhunderts im Zuge der Beschäftigung mit sogenannten abstrakten Räumen einerseits und aus der Untersuchung von Integralgleichungen andererseits entwickelt wurde (ursprünglich eine rein mathematische Theorie, nahm sie jedoch einen gewaltigen Aufschwung, als Ende der 1920er Jahre entdeckt wurde, daß sie eine bequeme Formulierung der Quantenmechanik zuließ). Diese Darstellung wurden von den Arkoniden zur »Vereinfachung« allerdings auf eine fünfdimensionale eingeschränkt, weshalb bei dem Hyperraum meist »nur« die 5D-Parameter Berücksichtigung fanden. 

HYPERPHYSIKALISCHES BASISAXIOM: Im Verhältnis zum vierdimensionalen Raumzeitkontinuum (Standarduniversum) ist die Struktur des Hyperkontinuums eine Singularität, d.h. die Begriffe Raum, Zeit, Materie und die mit ihnen verbundenen physikalischen Gesetze können nur bei den hyperphysikalischen Äquivalenten/Ableitungen, die ins Standarduniversum eintreten, Anwendung finden.

HINTERGRUND: Singularität war in der Physik der Ausdruck dafür, wenn eine physikalische Größe unendlich wurde und/oder wenn die bekannten physikalischen Gesetze ihre Gültigkeit verloren; eine Bedingung - kein Raum, keine Zeit, keine Materie -, bei der die Mathematiker von »Nullmenge« sprachen. Beim Urknallmodell wurde z.B. angenommen, daß das Weltall in einem Zustand zu existieren begann, in dem Dichte und Temperatur unendlich groß waren. Weil aktuell unendlich Großes nicht Gegenstand der Physik war, ließ sich über den Augenblick des Urknalls selbst (genau wie über die gar nicht definierbare »Zeit« davor), seine Singularität, keine sinnvolle Aussage machen. Die Gesetze der Physik galten erst ab einer »gewissen Zeit« nach dem Urknall, und diese wurde meist mit der Größe der sog. Planck-Zeit von ca. 10-43 Sekunden in Verbindung gebracht:

T*; hierbei waren: h/2(h-quer = Planckkonstante h = 6,626*10-34 [Js] geteilt durch 2-pi, dem Umfang des Einheitskreises = 1,05459*10-34 [Js]); G = Gravitationskonstante = 6,672*10-11 [m3kg-1s-2], c = Lichtgeschwindigkeit = 2,99792*108 [m/s]), d.h. t* = 5,39038*10-44 s.

Wurde also von einer singulären Struktur des Hyperraums gesprochen, bedeutete das also a priori, daß in ihm die vertrauten physikalischen Gesetze nicht anzuwenden waren [vgl. z.B. PR 83: Nach der arkonidischen Hypermathematik gibt es im Hyperraum weder etwas vom üblichen Raumzeitcharakter, noch irgendwelche Begriffe, die mit Begriffen aus dem Normaluniversum identisch sind]!

Hyperenergie an sich war Bestandteil des Hyperraums; eine eigentlich triviale Feststellung, doch an sie geknüpft waren eben die beobachtbaren Phänomene beispielsweise in Form einer Transition. Daß auf diese Weise das Wesen der Hyperenergie bzw. des Hyperraums nicht anschaulicher wurden, lag nun einmal in ihrer Natur begründet. Daran änderte auch nichts, daß zur Beschreibung der Hyperenergie als ihre »fundamentalen Quanten« die Quintronen [PR 431] eingeführt wurden, die allerdings für Teilbereiche des hyperenergetischen Spektrums - entsprechend den verschiedenen Energiearten des Hyperraums - unterschiedliche Eigennamen erhielten (z.B. Hyperbarie als Quant der Hypergravitation) bzw. im Rahmen von »Hilfskonstruktionen« andere Hyperquanten »hervorbrachten«.

Die Hyperenergie-Maßeinheit wurde umschrieben als hyperequivalent energy, kurz »Hee«, und stammte in dieser Form aus der Zeit, als die Terraner die arkonidische Terminologie ins damals am weitesten verbreitete Englisch übersetzten. Dem Wert nach entsprach Hee der »Hilfskonstruktion« [J * i], also einem »imaginären Joule«. Hierbei galt: Die Summe von konventioneller Energie (Ekonv.) und Hyperenergie (Ej oder WH
= »Hyperarbeit«/»Hyperenergiemen-ge«) entsprach der Gesamtenergie (Eges.) eines Systems; ihre Einheit war folglich:

[J + J * i = J + Hee].

Im allgemeinen war allerdings unter konventionellen Bedingungen im Standarduniversum der wirksam werdende Hyperenergieanteil so gering (bzw. gleich Null), daß er vernachlässigt wird (u.a. ein Faktor, weshalb »konventionelle Naturwissenschaft« sich mit ihrer Handhabung so schwer tat). Umgekehrt: Ging Ekonv. gegen/gleich Null (lim. Ekonv. - 0), kennzeichnete das Hyperraumphänomene.

Als direkte Ableitung aus dem Basisaxiom ergab sich als Hauptkonsequenz, daß die Lichtgeschwindigkeit - trotz relativistischerAuszeichnung wie jede Geschwindigkeit (der Quotient aus Weg und Zeit: s/t) ein an Raum und Zeit gebundener Begriff - nicht auf den Hyperraum übertragen werden konnte und sämtliche Prozesse gewöhnlich als »zeitverlustfrei ablaufend« umschrieben wurden (die Arkoniden gingen demnach von einem grundsätzlich akausalen Charakter des Hyperraums aus!).

Dies war der Punkt, an dem irdische Physiker zumeist tief Luft nahmen. In der konventionellen Naturwissenschaft war der Kausalitätsbegriff fest verankert und nur lokale Theorien, bei denen es keine Wechselwirkungen gab, die sich schneller als das Licht ausbreiteten, wurden als schlüssig angesehen. Zwar gab es auch auf der Erde nicht-lokale Feldtheorien bzw. postulierte Phänomene mit akausalen Randbedingungen (Wurmlöcher etc.), doch die mit ihnen verbundenen Probleme führten meist dazu, das sie verworfen oder nicht beachtet wurden. Nicht-Lokalität umschrieb hierbei vereinfacht die innere Verbundenheit von Objekten (im Extrem: die Verbundenheit von »allem mit allem«!), obwohl sie räumlich wie zeitlich getrennt erschienen; d.h. eine nicht-lokale Wechselwirkung verband einen Ort mit einem anderen, ohne dabei Raum zu durchmessen, ohne Verfall und ohne Verzögerung - sie war unvermittelt, ungeschwächt und unmittelbar!

Zwar arkonidische Technik in praktischer Anwendung vor Augen, war der Formulierung Nullzeit dennoch ein Stolperstein, widersprach es doch jeder Logik und konventioneller Betrachtung, einen Vorgang mit nicht-verstreichender Zeit zu verbinden - ganz abgesehen davon, daß hier einerseits ein Absolutheitsstatus Einzug hielt, der seit den Einsteinschen Relativitätsbeziehungen grundsätzlich zu vermeiden war. Zweitens wurden Kausalitätsverletzungen möglich.

Allerdings mußte auch hierbei eine Einschränkung gemacht werden: Durch Einstein wurden Raum und Zeit zwar relative Vorstellungen, die bei Messungen in enger Beziehung zueinander standen, so daß die Zeit nicht länger als absolute Größe im Newtonsche Sinne aufzufassen war, sondern relativ zu einem bestimmten, der Trägheit unterliegenden Beobachter. Weil aber verschiedene Beobachter dasselbe Objekt beobachten konnten, waren gesetzmäßige Angaben notwendig, wie dasselbe Objekt in verschiedenen Koordinatensystemen beschrieben werden konnte. Dem Objekt »an sich« zukommende Merkmale waren dann solche, die gegen die Transformation von einem Koordinatensystem in ein anderes invariant blieben; hierzu zählten z.B. die Erhaltungssätze von Energie, Impuls, Schwerpunkt und Drehimpuls.

Aus diesem Grund war nach Arthur Young, DER KREATIVE KOSMOS, ...der Begriff Relativitätstheorie irreführend. Diese Theorie hatte nur beiläufig mit Relativität zu tun. In Wirklichkeit wollte man mit ihr invariante, d.h. absolute Größen finden, also Größen, die für alle Beobachter dieselben waren. Gerade dieser Aspekt der Relativitätstheorie hatte die größten Auswirkungen und führte zu dem gegenwärtigen sogenannten kosmologischen Postulat: zu der These, daß das Universum abgesehen von lokalen Abweichungen für alle Beobachter dasselbe sei....

Der Hinweis an Professoren wie Studenten, daß es sich um Begriffe drehte, die - weil an die vertraute raumzeitliche Welt gebunden - nicht auf den Hyperraum übertragen werden durften (bei den Hyperäquivalenten handelte es sich ja nur um Hilfskonstruktionen!), erleichterte die Akzeptanz.

Im übrigen gab es ja einen bekannten Bereich, der ähnliche »Merkwürdigkeiten« aufwies: In der submikroskopischen Welt der Quantenmechanik wurden konventionelle Betrachtungsweisen gleichfalls erschüttert, am deutlichsten erkennbar bei der Heisenbergschen Unbestimmtheitsrelation.

Vor allem mit der Unsicherheit hinsichtlich der Eigenschaften Energie und Zeit verband sich die scheinbar absurde Tatsache, daß - bei ausreichend kurzer Zeit - Teilchen erzeugt und vernichtet werden konnten, für die eigentlich gar nicht die Energie vorhanden war, sofern mit Ablauf des winzigen Zeitintervalls die Energiebilanz wiederhergestellt war; ein sog. virtueller Zustand - auch Energie- bzw. Quanten-Fluktuation genannt: Je energiereicher, desto kürzer die Lebensdauer und die Reichweite. Experimentell nicht nachweisbar und mit dem klassischen Energieerhaltungssatz nicht verträglich, war sie aufgrund der Energie-Zeit-Unschärfe dennoch möglich und deshalb von Bedeutung, weil virtuelle Teilchen quantenfeldtheoretisch als Wechselwirkung zwischen realen Teilchen aufzufassen waren. Prozesse dieser Art hatten im alltäglichen Leben keine Bedeutung, bei der Beschäftigung mit dem Subatomaren wurden die Physiker dagegen ständig damit konfrontiert.

Die Unbestimmtheitsrelation legte die Grenzen fest, innerhalb denen beispielsweise der Energieerhaltungssatz verletzt werden konnte: Strebte die Zeitdifferenz gegen Null, stand diesem Intervall immer mehr Energie zur Verfügung - im Extrem: bei Dt = Null(zeit) sogar DE = Unendlich.

Vor allem war dies eine Meßbeschränkung, die sich aus der Unschärfe ergab: Im Extremfall der Messung eines (beliebigen) Attributs mit absoluter Genauigkeit (D A = 0) ging jegliche Kenntnis seines konjugierten (mit ihm paarweise verbundenen) Attributs verloren (D B = ¥ )! So-mit ließ sich stets nur ein Attribut exakt bestimmen, die andere Hälfte blieb verborgen.

Ein Ergebnis, das auf den ersten Blick für die Praxis ohne Bedeutung zu sein schien... - aber hieraus und aus der Singularität des Hyperkontinuums folgte eine »Umformulierung« von Einsteins Masse-Energie-Relation, weil die Lichtgeschwindigkeit (als Konstante) bei Hyperraumphänomenen keine Anwendung fand, sondern nur als »Geschwindigkeit« in Bezug auf das Standarduniversum zu betrachten war. Aus

E=mc² wurde E=m bzw. nach t hin aufgelöst: T=

Für die mit dem Basisaxiom verbundene Randbedingung t = 0 hieß das, daß bei einer Transition die Masse des zu transportierenden Objekts eine endliche Größe war, der auf das Standarduniversum bezogene Weg ebenfalls, und die Zeit wurde nur dann Null, wenn die Energie den Wert Unendlich annahm: Einer beliebigen, endlichen Masse und einer beliebigen, endlichen Distanz wurden hier die o.g. Grenzwerte der Heisenbergschen Unbestimmtheitsrelation zugewiesen (- vgl. auch die Aussage über unendliche Temperatur beim Urknall: Je höher die Temperatur - die mittlere Bewegungsenergie pro Teilchen -, desto ungeordneter wurden die Bewegungen, sprich die Vergrößerung des Chaos. Zwar war bei unendlicher Temperatur das größtmögliche Chaos erreicht, aber auch die höchstmögliche Symmetrie. Sank die Temperatur, verminderte sich das Chaos und es konnten sich Strukturen bilden - die Ordnung nahm zu, die Symmetrie ab. Es war wie beim Übergang von Wasser zu Eis: Die Drehsymmetrie der Wassermoleküle gefror zu der eingeschränkten von Eiskristallen, die Richtungen im Raum auszeichneten und eine Ordnungsstruktur ergaben, die vorher so nicht gegeben war.).

»Unendliche Energie« war - ein weiterer Aspekt - jene Forderung, die zur Trennung von Quarks, den Bausteinen der Nukleonen, bei der Formulierung der Starken Kernkraft aufgestellt wurde. In 4D-Raumzeit gab es keine freien Quarks (abgesehen von der Singularität des Urknalls) - anders dagegen bei einer Betrachtung im Hyperraum: Hier mußten sie aus dem Bann der Gluonen-Wechselwirkung freigesetzt werden; etwas, das für den erhöhten Freiheitsgrad einer »Umgebung« mit n > 3 ohnehin galt, weil es dort nicht die dreidimensionale Geschlossenheit von Körpern geben konnte. Auch dies also eine Bestätigung der mit dem hyperphysikalischen Basisaxiom verknüpften Konsequenzen.

Vorwort  1 - 3 - 4 - 5 - 6 - 7 - 8 - 9 - 10 - 11 - 12


Alle Beiträge unterliegen dem Copyright des entsprechenden Autors und dürfen nur unter Nennung des Autors und der Quelle weiterverarbeitet werden.
Alle verwendeten Markenzeichen sind Eigentum des entsprechenden Inhabers.
PERRY RHODAN ®, ATLAN ® und Mausbiber Gucky ® sind eingetragene Warenzeichen der Pabel-Moewig Verlag KG, D-76437 Rastatt.
Hier originär veröffentlichtes Material steht unter
Creative Commons License
Creative Commons Attribution-NonCommercial-ShareAlike 2.0 Germany License
.