Forschergeist
Horizonte für Bildung und Forschung
https://forschergeist.de


FG100 Stellarator

Der Forschungsprototyp Wendelstein-7X für Energiegewinnung durch Kernfusion

Ob die Kernfusion auf der Erde in Zukunft einen Beitrag zur Energieversorgung leisten können wird, ist heutzutage immer noch offen. Doch die Grundlagenforschung bemüht sich seit Jahrzehnten, diese Frage durch praktische Experimente und Systeme dadurch zu beantworten um zunächst einmal ein stabiles technisches System zu entwerfen, in dem die ungeheuren Temperaturen herzustellen und zu erhalten, um die Voraussetzungen zu schaffen, die bei einem Fusionsprozess anfallenden Energien nutzen zu können.

Beim Max-Planck-Institut in Greifswald wird seit einiger Zeit das Stellarator-System entwickelt, dass das heiße Plasma durch ein durch komplex geformte Magnetspulen einschließt und das für einen zukünfitgen Dauerbetrieb bessere Bedingungen schafft als einfach gebautere Konzepte wie das Tokamak-System. Mit Leiter des Bereichs Stellarator-Dynamik und -Transport Thomas Klingner spreche ich über Geschichte und Technik des Stellarators.

https://forschergeist.de/podcast/fg100-stellarator/
Veröffentlicht am: 11. Januar 2026
Dauer: 1:52:16


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:00:42.355
  3. Der MPI Standort in Greifswald 00:02:42.559
  4. Persönlicher Werdegang 00:05:02.522
  5. Kernfusion 00:07:12.805
  6. Bauprinzip 00:18:00.883
  7. Plasma 00:38:06.094
  8. Stellarator-Aufbau 00:49:30.243
  9. Stellarator-Betrieb 01:03:09.707
  10. Diagnostik und Adaption 01:18:21.901
  11. Zukünftige Anwendung für Fusion 01:31:00.745
  12. Ausklang 01:49:35.214

Transkript

Tim Pritlove
0:00:42
Thomas Klingner
0:01:54
Tim Pritlove
0:01:55
Thomas Klingner
0:02:10
Tim Pritlove
0:02:29
Thomas Klingner
0:02:56
Tim Pritlove
0:03:32
Thomas Klingner
0:03:45
Tim Pritlove
0:04:15
Thomas Klingner
0:04:28
Tim Pritlove
0:04:29
Thomas Klingner
0:04:30
Tim Pritlove
0:05:01
Thomas Klingner
0:05:11
Tim Pritlove
0:05:33
Thomas Klingner
0:05:33
Tim Pritlove
0:05:35
Thomas Klingner
0:05:36
Tim Pritlove
0:05:38
Thomas Klingner
0:05:40
Tim Pritlove
0:05:54
Thomas Klingner
0:05:56
Tim Pritlove
0:06:03
Thomas Klingner
0:06:07
Tim Pritlove
0:06:08
Thomas Klingner
0:06:09
Tim Pritlove
0:06:18
Thomas Klingner
0:06:19
Tim Pritlove
0:06:30
Thomas Klingner
0:06:34
Tim Pritlove
0:07:09
Thomas Klingner
0:07:10

Ja.

Tim Pritlove
0:07:12
Thomas Klingner
0:07:46

Ja, ich bin nur kein Kernphysiker, insofern bleibe ich da mal ein bisschen an der Oberfläche, so in der Physikhistorie. Das Ganze geht ja zurück auf das Verständnis der Struktur der Atomkerne überhaupt. Kann man so hier Namen wie Ernest Rutherford nennen, der erstmal festgestellt hat, dass so ein Atomkern super klein ist und dass furchtbar viel Platz ist zwischen der Materie. Das war so der erste Schritt, die Rutherfordischen Streuversuche, damit fing das so langsam an. Natürlich war ein großer Schritt, als festgestellt wurde, dass man, also rein aus Zufall festgestellt wurde, dass man Kerne durch Beschuss, durch Neutronenbeschuss spalten kann. Und da war der Umkehrschluss natürlich sehr naheliegend. Alles, was man spalten kann, kann man auch wieder zusammenfügen. Und man hat dann relativ schnell dann schon vermutet, dass da auch der umgekehrte Prozess geht. Warum nicht? Also da gibt es überhaupt kein physikalisches Argument, dass der Rückwärtsgang nicht geht. Und hat sich diese Sache auch angeschaut, erstmal so rein spekulativ, das war erstmal ein bisschen schwieriger zu erkunden. Das Ganze war auch verbunden mit der großen offenen Frage, wie eigentlich die Sterne funktionieren. Denn Kernspaltung fiel aus, dass die über Kernspaltung ihre Energie erzeugen. Das konnte man einfach durch ein paar quantitative Rechnungen, durch ein paar Zahlen konnte man das relativ schnell ausschließen, dass das der Fall ist, chemische Verbrennung auch, kommt viel zu wenig bei rum. Und dann blieb bloß noch die Fusion übrig. Das war dann so die Hypothese. Und ich denke, das war Hans Beete, der der Sache dann wirklich auf die Spur gekommen ist. Dann gab es noch etliche, die dann verwickelt waren, später auch Weizsäcker. George Gamow hat auch eine wichtige Rolle gespielt. Der russisch-amerikanische Wissenschaftler, der oft schon vergessen ist. Und da mussten eben viele Puzzlesteine zusammengesetzt werden, bis man dann diese Zyklen, diese Prozesse, diese Prozessketten, die im Inneren der Sterne stattfinden, bis man die mal so hypothetisch aufstellen konnte und auf der Basis dieser Hypothese dann eben Rechnungen durchführt, die wie üblich in der Physik mit Beobachtungen abgleicht. Mit Plausibilitäten, mit Stabilität, mit Massebetrachtung und so weiter und so weiter, ob das alles zusammenpasst. Und das war im Prinzip dann überhaupt erstmal die Realisierung, dass es eben diesen Elementarprozess gibt, also eben analog zur Kernspaltung, entlang der Elemente, dass man eben die schweren Elemente spalten kann, dass man eben leichtere Elemente auch miteinander fusionieren kann. Und man kann alle möglichen Elemente miteinander fusionieren. Das ist völlig beliebig, also nicht völlig beliebig, Aber man hat ein weites Feld von leichten Elementen, die man miteinander fusionieren kann. Und das hängt eben sehr von den Bedingungen ab und von den entsprechenden Wahrscheinlichkeiten für die Fusion ab. Gut, und damit war das einfach erstmal ein Gesamtbild, was man sich da von den Kernkonstituenten gesetzt hat. Dann kam später noch die ganze Elementarteilchengeschichte dazu, wo man eben festgestellt hatte, dass diese Konstituenten, Protonen und Neutronen, dass die dann nochmal weitere Konstituenten haben, also nochmal weiter innerlich zusammengesetzt werden. Das war dann wieder eine ganz andere Thematik. Die damit nicht so direkt verbunden ist, indirekt natürlich schon. Gut, also das heißt, die Moral von der Geschichte hat eigentlich angefangen mit dem Elementarprozess, aber dann direkt auch die Übertragung auf den Prozess der Sterne und damit eben stellvertretend für die Sterne unserer Sonne abgebildet, weil das war bis dahin noch, wusste man einfach nicht, wie es geht.

Tim Pritlove
0:11:33
Thomas Klingner
0:11:42
Tim Pritlove
0:12:20
Thomas Klingner
0:12:28

Das ging letztlich in den 50er Jahren los. Also die Kernspaltung ist ja relativ früh schon erkannt worden als eine Energiequelle und zwar letztlich in zwei Richtungen. Also einerseits natürlich sehr prominent als Bombe. Das heißt, da gab es ja diese ganze Oppenheimer-Geschichte, das Wettrennen um die Bombe. Das ist ja letztlich auch einfach eine Freisetzung von sehr großen Mengen Energie, eine Vulgo-Bombe. Aber gleich parallel dazu hat man sich auch sofort dafür interessiert aus der Kernspaltung, Antriebsaggregate für U-Boote etwa zu entwickeln U-Boote müssen einfach lange tauchen können, und Elektromotoren da ist die Batterie schnell alle also das hat die Tauchdauer dann beschränkt deshalb war es eben halt sehr attraktiv einfach eine ja nicht ja also nicht. Einen Nicht-Verbrennermotor zu haben, der aber sehr lange läuft. Also deshalb ist das sehr früh schon vorangetrieben worden. Also sozusagen das Atom-U-Boot war so der Motivator dafür, den Leichtwasserreaktor zu entwickeln. Und das lief dann so letztlich auch parallel mit der Bombenentwicklung, also Reaktor und Bombe. Das ist am Ende vom Prozess her bei der Spaltung nicht so gut voneinander zu trennen. Und das war aber sehr stark getrieben eben von diesem Rüstungsaspekt und von diesem militärischen Aspekt. Deshalb waren da einfach sehr viele Ressourcen, auch sehr viel Dringlichkeit, denn wir kennen ja alle diese Geschichte. Die war bei der Fusion erstmal nicht. Trotzdem war klar, dass es auch ein Prozess ist, der Energieüberschuss, sogar noch effizienter Energieüberschuss produziert. Hatte aber eben erstmal nicht diesen militärischen Aspekt, als später mit der Wasserstoffbombe ist der so reingekommen, weil es ja sozusagen so ein Nachzünder, den man dann noch auf die Atombombe raufsetzt. Die funktioniert ja nicht super für sich. Aber auch so im Rahmen dessen ist dann so klargekommen, naja, jetzt muss man sich das auch mal angucken, ob man daraus nicht ein Kraftwerk bauen kann. Und das fing so in den 50er Jahren an. Und also so nach dem zweiten Weltkrieg eigentlich ernsthaft. Und da hat anfänglich hat es da viel Euphorie gegeben. So in dem Sinne, das dürfte ja eigentlich gar nicht so schwer sein. Und aus der Zeit kommen auch noch sehr optimistische Vorhersagen. Das war sowieso so eine Euphorie, wenn Sie da in die 50er Jahre gehen.

Tim Pritlove
0:15:08
Thomas Klingner
0:15:10
Tim Pritlove
0:15:25
Thomas Klingner
0:15:27

Ja, und keine Nachteile, nur Vorteile und Energie für jeden. Also wie gesagt, das war eine euphorische Zeit. Aus solchen Euphorien heraus kommen natürlich auch manchmal etwas überoptimistische Vorhersagen. Und das ist dann auch der Geburtsort für den ältesten Fusionswitz. Das ist eine Energie, die immer 50 Jahre entfernt ist. Denn man hat sich ja damals schon zu solchen recht optimistischen Vorhersagen treiben lassen, dass man sagt, innerhalb dieses Jahrtausends schaffen wir es auf jeden Fall. Also 1950, das heißt innerhalb des 20. Jahrhunderts. Da gab es eben einige Warne, die gesagt haben, das sieht nicht so einfach aus. Und dieses Jahrhundert können wir irgendwie vergessen, das wird nichts. Aber auf die hat keiner gehört. Die Presse hat nur die Optimisten zitiert. Und damit ist dann dieses Etikett dann gleich kleben geblieben, denn wir haben es ja immer noch nicht. Das Jahrtausend ist vorbei, wir haben es immer noch nicht und da müssen wir uns immer wieder anhören, was ist denn das für eine traurige Geschichte. Und wenn man uns jetzt fragt, sagen wir auch zweite Hälfte dieses Jahrhunderts und dann hört sich das halt nach so einem Moving Target an, wie nach der berühmten Möhre, der der Esel die ganze Zeit hinterherläuft, obwohl sie eben halt an einer Angel vorhin gehalten wird und der Esel realisiert das nicht, so eselig sind wir gar nicht. Aber inzwischen hat man einfach besser verstanden, was das für eine harte Nuss ist. Die da geknackt werden muss und auch, was die Bedingungen sind, die man schaffen muss, um diesen Elementarprozess wirklich effizient auf die Beine zu stellen. Denn Fusion an sich zu machen, ist ein Elementarprozess. Das ist total einfach. Das kann jeder im Keller machen. Da gibt es Wikipedia-Artikel, wie man Fusion macht, braucht man echt nicht viel. Braucht man ein Hochspannungsnetzgerät, eine Pumpe, fertig. Das ist wirklich nicht viel.

Tim Pritlove
0:17:18
Thomas Klingner
0:17:20
Tim Pritlove
0:17:22
Thomas Klingner
0:17:22
Tim Pritlove
0:17:39
Thomas Klingner
0:17:42
Tim Pritlove
0:17:58
Thomas Klingner
0:18:21
Tim Pritlove
0:19:58
Thomas Klingner
0:19:59
Tim Pritlove
0:20:42
Thomas Klingner
0:21:00

Ja, die Sonne ist erstmal groß. Das hilft. Dann hat sie bezogen auf das Plasma einen nochmal deutlich, deutlich extremeren Materiezustand. Vor allem die Dichte ist erheblich höher als das, was wir mit vernünftigen Aufwand hier auf der Erde herstellen können, zumindest so als kontinuierliches System. Wir reden im Zentrum der Sonne, wo die Fusion stattfindet von einer Materiedichte, die etwa Faktor 1000 höher ist als unsere Festkörperdichte, unsere konsensierte Materie, die uns umgibt. Also unsere ganze Welt besteht ja im Großen und Ganzen aus kondensierter Materie. Also Steine, Wasser, letztlich auch Luft kann man da gut dazu zählen. Nicht ganz, das ist ein Übergang. Aber das ist ja alles tausendmal Dichte. Also das heißt wirklich ordentlich hohe Dichte und dann eben ordentlich hohe Temperatur. Und dann nimmt sich die Sonne einfach das Volumen und Zeit. Das heißt man wartet. Die Sonne kann warten. Und diese Kombination aus all den Dingen, die ist nicht gut. denn, Solchen Materiezustand können wir auf der Erde nicht mit vernünftigem Aufwand erzeugen. Und wenn ja annähernd für Nanosekunden, also für winzige Bruchteile von Sekunden, das ist das, was man in der Laserfusion versucht. Da nähert man sich tatsächlich dem Materiezustand im Zentrum der Sonne so halbwegs an und versucht also auf die Art und Weise das zu machen. Das ist aber offenbar eben halt ein Kurzzeitprozess. Also ein ganz kurzer Blitz, der so erzeugt wird. Also für einen Bruchteil in der Sekunde erzeugt man mal ein tatsächlich sonnenartiges Plasma.

Tim Pritlove
0:22:40
Thomas Klingner
0:22:40
Tim Pritlove
0:23:28
Thomas Klingner
0:23:30
Tim Pritlove
0:24:13
Thomas Klingner
0:24:14
Tim Pritlove
0:24:38
Thomas Klingner
0:25:06
Tim Pritlove
0:26:37
Thomas Klingner
0:26:38
Tim Pritlove
0:27:07
Thomas Klingner
0:27:11
Tim Pritlove
0:27:42
Thomas Klingner
0:27:56
Tim Pritlove
0:28:09
Thomas Klingner
0:28:10
Tim Pritlove
0:28:29
Thomas Klingner
0:28:34
Tim Pritlove
0:29:08
Thomas Klingner
0:29:14
Tim Pritlove
0:29:34
Thomas Klingner
0:29:36
Tim Pritlove
0:30:37
Thomas Klingner
0:30:38
Tim Pritlove
0:32:03
Thomas Klingner
0:32:12
Tim Pritlove
0:32:41
Thomas Klingner
0:33:00
Tim Pritlove
0:33:32
Thomas Klingner
0:33:34
Tim Pritlove
0:33:43
Thomas Klingner
0:34:04
Tim Pritlove
0:34:06
Thomas Klingner
0:34:10
Tim Pritlove
0:35:51
Thomas Klingner
0:35:57
Tim Pritlove
0:36:41
Thomas Klingner
0:36:42
Tim Pritlove
0:36:44
Thomas Klingner
0:37:12
Tim Pritlove
0:37:16
Thomas Klingner
0:37:25
Tim Pritlove
0:38:05
Thomas Klingner
0:38:15
Tim Pritlove
0:38:20
Thomas Klingner
0:38:37
Tim Pritlove
0:38:52
Thomas Klingner
0:38:54
Tim Pritlove
0:39:00
Thomas Klingner
0:39:02
Tim Pritlove
0:39:04
Thomas Klingner
0:39:05
Tim Pritlove
0:39:19
Thomas Klingner
0:39:21
Tim Pritlove
0:40:41
Thomas Klingner
0:40:43
Tim Pritlove
0:41:05
Thomas Klingner
0:41:06
Tim Pritlove
0:42:25
Thomas Klingner
0:43:01
Tim Pritlove
0:43:28
Thomas Klingner
0:43:32
Tim Pritlove
0:43:37
Thomas Klingner
0:43:37
Tim Pritlove
0:44:13
Thomas Klingner
0:44:16
Tim Pritlove
0:45:12
Thomas Klingner
0:45:14
Tim Pritlove
0:46:18
Thomas Klingner
0:46:30
Tim Pritlove
0:47:56
Thomas Klingner
0:48:37
Tim Pritlove
0:49:30
Thomas Klingner
0:49:47
Tim Pritlove
0:49:50
Thomas Klingner
0:50:34

Ja, die ganze Kunst steckt in den Magneten drin. Denn die Ausführung der Magneten, die Geometrie dieser Elektromagnete bestimmt die Geometrie des Magnetfeldes. Und das musste man auch bitter lernen in der Physik, dass es auf die Geometrie des Magnetfeldes wirklich ankommt. Also in den Frühzeiten dieser Stellarator-Konfiguration, dieser Stellarator-Maschinen, hat man das ein bisschen ad hoc gemacht. Das heißt, man hat einfach ein ringförmiges, torusförmiges Magnetfeld. Erzeugt so erstmal als basis genommen und dann ja jetzt müssen wir diese verdrillung noch machen und hat man einfach so eine helix reingepackt nicht oder eine doppel helix und der helischen sachen hat man reingepackt das war einfach dafür gab es keinen physikgrund sondern müssen es irgendwie verdrehen das war so im prinzip diese der der ansatz schon ein bisschen intelligenter aber eigentlich ein bisschen schuss ins blaue und das war eher eine enttäuschung also das heißt da war die Wärmeisolation wirklich schlecht, also viel schlechter als bei dem Tokamak-Prinzip, wo man sich immer so vergleichen durfte, weil die sehr ähnlich sind, macht man natürlich den direkten Nachbarn zum Vergleich, guckt darüber. Und beim Tokamak hat man einfach viel bessere Wärmeisolationen beobachtet und damit viel höhere Temperaturen und hat sich also diesem Ziel, dieser 100 Millionen Grad, dieser berühmten schon viel stärker angenähert und damit war es erstmal eine Enttäuschung. Und diese Enttäuschung saß tief, die saß so tief, dass viele Labors auf der Welt gesagt haben, aus irgendwelchen Gründen ist das Mist, wir haben es nicht verstanden warum, aber wir lassen das mal. Und haben sich einfach auf den Gewinner Pfad begeben und Tokamaks gebaut, weil der einfach auch gut lief. Und dann sagen, warum sollen wir jetzt unsere Arbeitskraft verbrennen an irgendetwas, was nicht ordentlich läuft. Eigentlich sind so zwei große Gruppen am Ball geblieben. Es gab noch ein paar andere, die auch mitbetrieben haben, aber zwei große Gruppen. Das ist ein großes Institut in Japan und halt unser Institut. Und bei uns wurde so ein bisschen grüblerisch sich auch die Frage gestellt, woran liegt das eigentlich? Und da ist eine ganze Forschergeneration reingegangen in dieses drüber brüten und dieses Nachschöpfen, was eigentlich die Gründe für diese Enttäuschung sind. Also warum ist der Stellerator schlecht? Das war die entscheidende Frage. Und das ist so Schritt für Schritt gelungen, das so zu verstehen, also was wirklich mit diesen individuellen Teilchen passiert, also warum die entkommen können. Denn jeder Wärmeverlust ist am Ende ein Entkommen. Das Transport, wir nennen das dann ja Physiktransport. Woher kommen diese Transportprozesse? Wenn man es dann verstanden hat, dann ist der nächste Schritt, dass man sich überlegen kann, wie kann man das heilen. Und dann ist so Schritt für Schritt sind diese ganzen Nachteile, die der Stellarator einfach bei dieser Ad-Hoc-Magnetfeldkonfiguration hat, sind geheilt worden, indem man das Magnetfeld in seiner Form angepasst hat. Das heißt also, die Krümmung der Magnetfeldlinien, auch wie dicht die liegen, also die Stärke des Magnetfeldes, wie die Stärke variieren muss, Das hat man dann immer mithilfe von numerischen Codes immer weiter so justiert, dass es zu dem Plasma passte, dass also dieser Transport verringert wurde. Und wenn man dann die Geometrie hat, dann rechnet man rückwärts die Spulen aus. Also das heißt, die Spulen, die sehen ein bisschen merkwürdig aus, wenn man die jetzt so anguckt, so im Bild anschaut, aber die sind genau so, wie die Physik sie haben will.

Tim Pritlove
0:54:14
Thomas Klingner
0:54:17
Tim Pritlove
0:54:26
Thomas Klingner
0:54:54
Tim Pritlove
0:55:47
Thomas Klingner
0:55:49
Tim Pritlove
0:56:01
Thomas Klingner
0:56:11

Ja, und das ist ganz blöd. Also da kommt man recht... Relativ schnell zum Schluss, dass man mehr Energie für die Spulen braucht, als man jemals rausbekommen würde. Und da ist es wieder nichts, was man gebrauchen kann. Weshalb der vernünftige Weg ist, und das ist eigentlich banal dieser Weg, ist, dass man den wohlbekannten Effekt der Superleitung nimmt. Superleitung ist ja nun auch schon ein uraltes Phänomen der Physik. Also schon ein bisschen her, dass wir es 100 Jahre gefeiert haben. Es gibt eben Materialien, Legierungen vor allem, metallische Legierungen, aber inzwischen auch keramische Materialien, die unter kalten Bedingungen supraleitend werden. Das heißt also einen elektrischen Strom völlig ohne Widerstand leiten. Und eine supraleitende Spule, also ein Elektromagnet, ein supraleitender Elektromagnet, funktioniert am Ende so, dass man den Strom dort hineinschickt und der fließt ohne elektrischen Widerstand. Das heißt, er fließt, bis man ihn wieder rausnimmt. Damit ist dieser Magnet am Ende nicht unterscheidbar von einem Permanentmagneten. Er sitzt dort und erzeugt einfach das Magnetfeld und erzeugt weder Wärme noch Braucherenergie, weil der Strom ohne elektrischen Widerstand fließt. Und ein Magnet braucht ja nur dann Energie, wenn der elektrische Strom in Wärme umgewandelt wird, die auch lästig ist, die man abführen muss, die man auch gar nicht haben wollte. Also insofern der Weg zu gehen ist Supraleitung. Und unsere Magnete, also unsere 70 Magnete, sind alle Supraleiten. Das superleitende Material ist ein alter Klassiker, einer der ältesten Supraleiter, die so der technischen Verwendung sind, Niob-Titan. Und Niob-Titan ist bei minus 270 Grad Celsius, also bei 3 Kelvin, sehr zuverlässig Supraleitend.

Tim Pritlove
0:57:59
Thomas Klingner
0:58:14
Tim Pritlove
0:58:38
Thomas Klingner
0:58:41
Tim Pritlove
0:59:13
Thomas Klingner
0:59:18

Also komplett entkoppelt voneinander. Das hat nichts mit den Magneten zu tun. Also die Magnete müssen auf minus 270 Grad runtergekühlt werden und es ist trotzdem nicht einfach, aber es hat nichts mit dem Plasma zu tun, sondern es hat damit zu tun, dass unsere Welt, unsere Umgebung nicht bei minus 270 Grad ist, sondern dass wir unsere Raumtemperatur 20, 30 Grad haben, so rundherum. Das heißt also, wir müssen von unserer Raumtemperatur auf diese minus 270 Grad runterkommen und wir müssen dann eben sehr scharf unterscheiden zwischen der warmen Welt, das ist einfach unsere Welt, nicht die Welt des Plasmas, sondern die menschliche Welt, das ist die warme Welt und die kalte Welt, das ist die Welt der Spulen. Deswegen befinden sich diese Spulen wiederum in einem Vakuum, was wir zwischen dem Plasmagefäß und dem Außengefäß aufbauen. Damit sind die wiederum wärmeisoliert. Wenn man in einem Vakuum drin sitzt, da hat man keine Wärmeverbindung zu unserer warmen Welt, zu unserer menschlichen warmen Welt. Das heißt, das muss man auch erstmal wieder entkoppeln, also nochmal in Isolationsaufgabe, aber anders. Und zweitens müssen die Magnete natürlich aktiv gekühlt werden. Denn zunächst beginnen die mit Raumtemperatur. Also wenn die so einfach da stehen, jetzt, wo sie das Ding besucht haben, haben die Raumtemperatur. Und dann dafür benutzt man einen Kühlschrank. Was also nicht anders ist als das raumwarme Bier, was man eben halt gerne etwas kälter haben würde. Dafür benutzt man auch einen Kühlschrank. Nur ist unser Kühlschrank ein bisschen größer. Das Kühlmittel ist flüssiges Helium. Also Heliumgas, was dann eben in den flüssigen Zustand gebracht wird. Und flüssiges Helium ist so in diesem Bereich von minus 72 Grad, 3 Kelvin, da kann man das ganz gut so betreiben. Und wir beginnen also mit Heliumgas und nach dem alten Kühlschrankprinzip, das heißt also diesem Expansions- und Verdichtungsprinzip, wie im Kühlschrank halt so funktioniert, wird dieses Heliumgas dann immer weiter runtergekühlt, bis es flüssig wird. Und dieses flüssige Helium zirkuliert dann in den Spulen und kühlt die Spulen auf die niedrige Temperatur, auf diese Minus 270 Grad ab, die erforderlich sind, damit die Spulen superleitend sind. Sonst ist Niob Titan nicht superleitend. Das ist im ganzen Gegenteil, ein ganz schrecklich schlechter Leiter.

Tim Pritlove
1:01:36
Thomas Klingner
1:01:42
Tim Pritlove
1:01:45
Thomas Klingner
1:01:46
Tim Pritlove
1:01:56
Thomas Klingner
1:02:34
Tim Pritlove
1:03:06
Thomas Klingner
1:03:47
Tim Pritlove
1:03:49
Thomas Klingner
1:04:11
Tim Pritlove
1:04:20
Thomas Klingner
1:04:22
Tim Pritlove
1:04:27

Ja.

Thomas Klingner
1:04:28
Tim Pritlove
1:05:49
Thomas Klingner
1:05:52
Tim Pritlove
1:06:48
Thomas Klingner
1:07:26
Tim Pritlove
1:07:29
Thomas Klingner
1:07:31
Tim Pritlove
1:08:08
Thomas Klingner
1:08:10

Ja, die Vakuumpumpen. Die pumpen die ganze Zeit. Es ist nicht so, dass man die nach ausschaltet und man tut Gas rein, das wird auch manchmal so vermutet, sondern es ist einfach ein fester Zyklus. Das heißt, man hat eingeleitetes Gas und es wird permanent gepumpt und als Folge ergibt es dann einen Gasdruck aus diesem Gleichgewicht aus Einleitung und Abpumpen. Und dieses eingeleitete Gas, das wird dann in den Plasmazustand versetzt, also wird dann ionisiert und da gibt es mehrere Möglichkeiten. Diese Möglichkeiten, die heißen alle Plasmaheizung, das sind Plasmaheizmethoden. Heizung heißen die, weil einfach Energie von außen in dieses Gas eingebracht wird. Das Gas wird also in dem Sinne aufgeheizt, es wird Energie reingebracht. Eines unserer wichtigsten Verfahren basiert auf Mikrowellen es werden also Mikrowellen erzeugt im Prinzip wie die Küchenmikrowelle mit Mikrowellenröhren sehr große Mikrowellenröhren, Diese Mikrowellen, die heizen erstmal Elektronen, das heißt so ein klein bisschen ist dieses Gas immer ionisiert, das heißt ein paar Elektronen findet man immer, die sitzen in diesem Magnetfeld, durch ihre Wechselwirkung mit dem Magnetfeld machen die Elektronen eine Spiralbewegung um die Magnetfelderlinien herum. An diese Spiralbewegung koppeln diese Mikrowellen direkt an. Die haben selber ebenfalls eine Rotation eingeprägt und die koppeln direkt daran an, machen denn diese Elektronen sehr heiß, sodass die Elektronen wiederum Stöße machen mit neutralen Gasatomen und dann passiert so ein Lawineneffekt. Und dieser Lewin-Effekt führt dazu, dass innerhalb von winzigen Bruchteilen von Sekunden das ganze Plasma aufgebaut wird und dann ist das gesamte Gas ionisiert. Dann hat man also keine neutralen Wasserstoffatome mehr im Zentrum des Plasmas, sondern nur noch Protonen und Elektronen.

Tim Pritlove
1:10:12
Thomas Klingner
1:10:19
Tim Pritlove
1:10:24
Thomas Klingner
1:10:26
Tim Pritlove
1:10:27
Thomas Klingner
1:10:48
Tim Pritlove
1:10:49
Thomas Klingner
1:11:49

Ja, in der Tat brauchen wir jetzt ja die Kenngrößen. Und über einige Kenngrößen haben wir ja schon gesprochen. Die Teilchendichte, Anzahl der Teilchen pro Kubikmeter. Also das heißt, man muss eine Dichtemessung machen. Der zweite wichtige Parameter ist die Temperatur. Wie heiß ist das? Also welche Temperatur äquivalent hat die Bewegung der Ionen und die Bewegung der Elektronen? Beobachtung an beides, weil die auch miteinander verkoppelt sind. Ich hatte ja schon erwähnt, dass wir die Elektronen heizen. die elektronen ionisieren aber die elektronen geben auch wiederum energie an die ionen weiter das ist alles miteinander verschränkt also das steht im wärmekontakt miteinander das heißt wir heizen über die elektronen die ionen wir haben auch andere heizmethoden wo die ionen direkt heizen und dann kombinieren wir die auch zusammen so oder so man braucht also auf diese beiden kenngrößen braucht man und man braucht die auch mit räumlicher auflösung denn die sind nicht etwa konstant. Sondern die ändern sich etwa, wenn man vom Zentrum raus geht. Im Zentrum ist es am heißesten und eben halt auch am dichtesten. Und dann fällt das zum Rand sowohl die Temperatur als auch die Teilchenzahl ab. Wir nennen das denn Profile. Das sind Profildaten. Also wie so ein Reifenprofil. Kann man sich das vorstellen. Das ist eine Größe, die auch räumlich variiert. Vor allem eben halt in der Richtung senkrecht zum Magnetfeld. Also von innen nach außen. Das sind die Profildaten. Da gibt es auch gewisse Variationen, die entlang des Torus sind, die sind auch wichtig, aber das ist schon die höhere Kunst. So oder so braucht man also räumliche Auflösung erstmal von diesen grundsätzlichen Kennedaten. Ein weiterer Punkt, den man zur Beurteilung der Güte des Plasmas braucht, ist die Güte des Wärmeeinschlusses. Und dahinter steht folgende Logik. Man kann ein Plasma ja sehr heiß machen, indem man es einfach sehr stark heizt. Also mit endlos viel Energie heizt. Also es ist einfach das mit Geld heiß machen. Man kauft einfach so viel Heizleistung, wie die Kasse hergibt und dann kriegt man schon irgendwann ein heißes Plasma. Das sagt aber nichts aus über die Güte der Wärmeisolation, auf der ich mal so rumreite, also wie gut das Magnetfeld ist, wie gut der Einschluss ist. Sondern die Kunst ist ja mit möglichst wenig Heizleistung eine hohe Plasmatemperatur zu erzeugen. Und das ist die dritte große Kerngröße, das ist die sogenannte Energieeinschlusszeit. Und das hört sich so ein bisschen seltsam an, warum man das in Zeit misst, aber das ist eigentlich sehr anschaulich. Man kann Wärmeisolation sehr gut als Zeit charakterisieren. Und das kennt man sogar aus dem Alltag. Wenn man in seinem Haus ist und die Heizung abschaltet.

Tim Pritlove
1:14:39
Thomas Klingner
1:14:40

Wie lange bleibt es warm? Und das ist bestimmt durch die Güte der Wärmeisolation. Wenn Sie nur Einfachverglasung haben und dünne Wände, dann kühlt das viel schneller ab. Das heißt also, eine lange Abkühlzeit ist ein Zeichen für eine gute Wärmeisolation. Das gleiche gilt für die Plasmaphysik. Diese Einschlusszeit soll so groß wie möglich sein. Und da gibt es so gut wie möglich, also am besten unendlich lang, dass wir die perfekte Wärmeisolation ist, die Wärme bleibt immer drin. Das wäre so ein Extremfall. Aber da gibt es eben halt so Kennzahlen, Erfahrungswerte, die man eben halt aus allen Maschinen der ganzen Welt zusammengesammelt hat über die Jahrzehnte, sodass man so eine Orientierung hat, was so der typische Korridor da ist, den man so erreichen kann und an dem reiben sich alle. Aber im Prinzip gilt das Ziel so gut wie möglich. Aber das, was so eben mit den technologisch realisierbaren Magneten heutzutage und der Optimierung der Magnetfeldgeometrie möglich ist, das ist dann so die Zielzahl, die man dort erreichen muss. Da muss man so gut wie möglich, aber eben mehr ist dann auch nicht drin, erreichen. also die Güte der Wärmeisolation, dann gibt es eben halt einen Korridor für die Teilchendichte und es gibt einen Korridor für die Temperatur. Und diese drei Größen muss man so zusammenbringen und das ist auch in ein konkretes Kriterium hineingegossen, das sogenannte Lawson-Kriterium, wo man eine Grenze überschreiten muss und dann wird Fusion effizient. Dann wird die so effizient, dass man mehr Fusionsenergie, das ist dann so die heilige Kurve, wo mehr Fusionsenergie rauskommt, als man reinsteckt, da gibt es noch eine zweite heilige Kurve, da ist. Die Energie, die im Plasma durch Fusion entsteht, hoch genug, um das Plasma selber zu heizen. Dann braucht man keine externe Heizung mehr und dann brennt es einfach vor sich hin. Das ist dann das brennende Plasma. Und diese beiden Punkte, die haben auch einen schönen Fachbegriff. Das eine ist der Break-Even-Punkt, also der Durchbruchpunkt. Genauso viel Energie wie rein wie raus. Und das andere ist eben das Burning-Plasma, das brennende Plasma. Und das kann man sich dann vorstellen wie so eine Gasflamme. Wie eine chemische Flamme. brennt einfach. Muss man nichts mehr machen von außen. Braucht kein Streichholz mehr. Brennt. Kerze brennt.

Tim Pritlove
1:16:53
Thomas Klingner
1:17:03
Tim Pritlove
1:17:04
Thomas Klingner
1:17:16
Tim Pritlove
1:17:18
Thomas Klingner
1:17:19
Tim Pritlove
1:17:56
Thomas Klingner
1:17:58
Tim Pritlove
1:18:00
Thomas Klingner
1:18:04
Tim Pritlove
1:18:21
Thomas Klingner
1:18:43
Tim Pritlove
1:18:48
Thomas Klingner
1:19:00

Sowohl als auch. Einerseits ist die Methodik der Plasmabeobachtung durchaus ein Forschungsgebiet, was sich ständig in Entwicklung befindet, wo man die Genauigkeit, aber auch die Auflösung sowohl im Raum wie auch in Zeit immer wieder erhöht, die Aussagekraft erhöht. Und weil es auch durchaus schwierige Techniken sind und schwierige Methoden sind, physikalische Methoden sind, braucht man wiederum Redundanz. Also das heißt, man beobachtet die eine Größe nicht nur mit einer Methode, sondern auch gerne mal mit zwei oder mit drei verschiedenen Methoden, um sicherzustellen, dass die übereinander liegen, dass die die gleiche Aussage machen. Also nur dann kann man im strengen experimentalfysikalischen Sinne seinen Daten auch wirklich trauen, wenn man mit völlig unterschiedlichen Methoden, mit völlig unterschiedlichen Blickwinkeln zum gleichen Ergebnis kommt. So streng ist ja Wissenschaft. Ähm, multipliziert schon die Anzahl der Instrumente. Also dass man da einen mehrfachen Blick auf die gleiche Größe nimmt. Dann werden diese Methoden alle weiterentwickelt. Und da gibt es eben passive Methoden, die einfach das Licht angucken, aus dem Licht selber Schlüsse ziehen. Dann gibt es aktive Methoden, die mit starken Lasern arbeiten. Dann etwa Streuung oder Interferometrie machen. Das heißt also Veränderung der Wellenlänge des Laserlichtes. Also wie gesagt, ein ganz breites Methodenspektrum, was man denn dort abdeckt. Einige Methoden funktionieren nur am Rand, andere Methoden funktionieren nur im Zentrum, andere Methoden funktionieren im Übergangsbereich. Es gibt auch nicht one size fits all, nicht sozusagen die magische Plasma-Beobachtungsmethode, die einem einfach alles liefert, was man wissen möchte, die gibt es nicht. Sondern man muss da wirklich einen Indizienprozess führen, also ganz viele Puzzlesteine zusammenfügen, die auch manchmal nicht so richtig zusammenpassen wollen, weil es alles mit so ein bisschen schwammig, auch mit Unsicherheiten so versehen ist. Und dann braucht man den Puzzlestein eben auch gleich mehrfach, damit man da so sagen kann, okay, ist das jetzt wirklich der Richtige? Und aus daraus ergibt sich so ein Gesamtbild. Und dieses Gesamtbild, also dieses ganze Spektrum, was sich da aus dem Gesamtbild ergibt, also das Methodenspektrum, das bezeichnen wir als Plasma-Diagnostik. Das ist so ein bisschen so ein Eigenbegriff, der sich hier bei uns so etabliert hat. Und er dann immer so ein bisschen wie an so einem patienten der diagnostiziert wird mit ganz vielen instrumenten von allen seiten wo versucht wird herauszufinden wie es diesen patienten dann so geht also das heißt die vielfachheit der methode und die jeweilige spezialisierung der methode auf bestimmte bereiche oder bestimmte fragestellungen ist ganz ganz essentiell um ein gesamtbild dafür zu geben und die sache wird dann besonders. Ja, besonders delikat, wenn man dann noch den Zeitaspekt reinbringt. Denn das musste man auch erstmal lernen, dass dieses Gas gar nicht mal so friedlich ist, also einfach nicht so als Gas dort fröhlich sitzt und nichts macht, sondern dass es ein hochdynamischer Prozess ist. Dadurch, dass es ein geladenes Gas ist, was einem Magnetfeld ausgesetzt ist, ist dieses geladene Gas auch in der Lage, elektrische Felder zu bilden. Also kleine Abweichungen zwischen der Dichte der Elektronen und der Ionen erzeugt sofort starke elektrische Felder. Und die in Kombination mit den magnetischen Feldern, und diese elektrischen Felder können sich nur für kurze Zeit bilden, erzeugt etwas, was wir als Dynamiken bezeichnen. Das heißt, es wird ein dynamisches System, es beginnt sich räumlich und zeitlich zu entwickeln. Und zwar auf Skalen, die können von Millimeter reichen bis Meter reichen, also alles mögliche passiert da. Und die Königsdisziplin da drin ist dann die Plasmaturbulenz, auch das musste man mühsam lernen, dass dieses Plasma sogar sich wie ein turbulentes Medium entwickelt, wie wir es etwa vom Wetter her kennen. Also wenn wir draußen einen schönen Nordoststurm haben und hier Bäume und, Menschen durchgeschüttelt werden, dann merkt man diese Turbulenz dieses Gases und ein Plasma ist am Ende genauso ein turbulentes Gas. Das kann Wirbel bilden, das kann starke Strömungen bilden, die mal von links, mal von rechts kommen, die manchmal aufweilen, dann wieder verschwinden, die also eine starke zeitliche Entwicklung haben, die aber auch eine räumliche Komponente hat, eine stark ausgeprägte räumliche Komponente. Und auch das muss man alles durch seine Instrumente abdecken. Nämlich erst mit diesem dynamischen Bild, also das Plasma als dynamisches Phänomen, hat man tatsächlich die ganze Geschichte. Und da kommt dann auch wieder die Kunst rein, die zu verfolgen ist, nämlich dieses Plasma tatsächlich und die Dynamiken dieses Plasmas unter Kontrolle zu haben, so dass man einen kontrollierten Zustand herstellt, also einen möglichst ruhigen Zustand herstellt.

Tim Pritlove
1:23:55
Thomas Klingner
1:24:29
Tim Pritlove
1:25:12
Thomas Klingner
1:25:13

Also vermeiden. Das heißt, man tastet so den gesamten Operationsraum mal ab, wo sind eigentlich die guten Ecken. Und die sind auch nicht so Gott gegeben, die liegen nicht so auf dem Tisch, dass man die schon vorher weiß. So ist das nicht. Aus guter Theorie hat man Vorhersagen. Die sagen, ja, da wird es wackelig, da ist es stabiler. Das stimmt sehr oft, trotzdem muss man das alles abtasten danach. Und das heißt, das ist im Prinzip dann so die Vermeidung von Ärger. Das ist die allerniedrigste Ebene. Aber auch schon sehr wichtig, dass man ein Operationsregime rausfindet, wo man sagt, okay, also bei dem Magnetfeld, bei der Heizleistung, wenn ich das so mache und so mache, dann wird es gut. Und das ist auch Fleißarbeit, da den Operationsraum zu durchmustern. Man muss eben sehr gut beobachten. und das mit Theorie und Simulation immer wieder auch abchecken, ob man das dann auch so verstanden hat, warum das so ist, weil ansonsten kann das durchaus auch eine Fehlinformation sein. So, wenn man sich jetzt in etwa instabile Regime begeben muss, weil die andere günstige Bedingungen oder günstige Eigenschaften haben, sagt, naja, nehmen wir mal so als Beispiel, da habe ich besonders hohe Temperaturen. Aber das ist nicht so furchtbar stabil. Dann fängt man an, mit Regelungsmethoden da etwas zu machen. Und da gibt es eben das Feed-Forward und das Feedback. Feed-Forward ist, dass man irgendeinen Aktuator hat, also irgendeinen Einfluss nehmen kann, der dann diese Instabilität stabil macht, der das so ausregelt. Dass man sozusagen wirklich aktiv einfach steuert. Wenn ich dabei so selber so sage.

Tim Pritlove
1:27:00
Thomas Klingner
1:27:04
Tim Pritlove
1:27:16
Thomas Klingner
1:27:23

Das ist zum Beispiel eine Regelgröße. Man kann auch gezielt geringe Mengen von, Nichtwasserstoffgasen einleiten. Das ist ganz schick. Damit kann man so Strahlung erzeugen, also elektromagnetische Strahlung, Licht kann man damit so ganz gezielt in bestimmten Bereichen erzeugen, die dann das Plasma sozusagen beruhigen oder die Prozesse am Rand dann eben halt beruhigen. Nicht nur damit es gut aussieht, sondern damit man etwa unerwünschte Wandbelastungen reduzieren kann. Das ist etwa so eine ganz wichtige Regelgröße, die haben wir jetzt gerade ganz gut in den Griff bekommen, solchen Strahlungsgürtel so mit einem Fremdgas zu erzeugen, sodass uns die Wand nicht so heiß wird. Das ist auch so ein Ding, so eine Art Instabilität, da hat man plötzlich einfach Überhitzung der Wand. Mist, dann kann man das so natürlich nicht betreiben, aber wenn man diesen Strahlungsgürtel erzeugt, dann kann man das so betreiben. Dann bildet die Heizung selber natürlich eine Regelgröße, das heißt also an der kann man regeln, also wie stark und wo. Den Gaseinlass oder wenn es eben halt kein Gas ist, haben wir auch andere Instrumente, um neutrale Wasserstoffatome dort hineinzubringen. Das geht über so kleine gefrorene Wasserstoffpillen. Die kann man dort einschießen und da diskutieren wir gerade, wie wir das geregelt machen, wie wir das aktiv geregelt machen. Wenn man es dann richtig gut im Griff hat, etwa bei diesem Strahlungsgürtel, dann kann man das eben halt in Feedback packen. Das heißt also im Prinzip beobachtet man dann das Plasma, wackelt das oder ist das jetzt nicht da, wo ich es haben möchte und dann habe ich einen Aktuator, also einen Einfluss, ein Fremdgas, was ich dort an einer ganz bestimmten Stelle sehr kontrolliert einleite, einer ganz bestimmten Menge und das führt dann wiederum, dass diese Information, die ich dann darüber habe, dass die mir sagt, jetzt ist gut und das packt man dann in solche automatischen Schleifen rein.

Tim Pritlove
1:29:18
Thomas Klingner
1:29:21
Tim Pritlove
1:29:30
Thomas Klingner
1:29:38
Tim Pritlove
1:30:15
Thomas Klingner
1:30:21
Tim Pritlove
1:30:22
Thomas Klingner
1:31:21
Tim Pritlove
1:31:28
Thomas Klingner
1:31:29
Tim Pritlove
1:31:42
Thomas Klingner
1:31:45
Tim Pritlove
1:31:58
Thomas Klingner
1:32:04
Tim Pritlove
1:32:21
Thomas Klingner
1:32:25

Sowas wie 45 Meter. Okay. Also es ist eine große Anlage, es ist aber auch keine bizarr große Anlage. Also wenn sie mal in so einem Gigawatt Braunkohlekraftwerk gewesen sind, das sind auch große Kessel mit diesen zig Meter hoch und wirklich sehr, sehr beeindruckend. Also ein Gigawatt braucht auch einfach große technische Anlagen. Das ist ja erstmal nichts Besonderes, das ist nicht außerhalb der Skala draußen, sondern es ist einfach ein ganz normales Großkraftwerk. Für ein Großkraftwerk ist das Ding viel zu klein. Diese 30 Kubikmeter, die sind im Hinblick auf das Verhältnis zwischen dem Volumen zu der Oberfläche so ungünstig, dass wir gar nicht diese Temperaturen, diese 100 Millionen Grad damit erreichen können. Als Folge ist es natürlich auch nutzlos, dort Tritium reinzutun. Das würde so wenig fusionieren, man würde nichts daraus lernen und wir müssten die ganze Anlage als nukleare Anlage trotzdem betreiben, weil wir mit Tritium umgehen, das ist dann auch ein radioaktives Element und das wäre dann plötzlich alles nuklear. Und das ist kein Mehrwert, wenn man nichts daraus lernt und eben halt nur die Umstände hat. Das wäre rein symbolisch und das ist wissenschaftlich und auch technologisch nutzlos. In dem Sinne, das ist kein Fusionsexperiment, sondern das ist zunächst erstmal eine Anlage, um herauszufinden, ist dieses Magnetfeld jetzt in der Lage, die Wärmeisolation, auf der ich immer wieder rumreite, diese Wärmeisolation herzustellen unter stabilen, kontrollierten, geregelten Bedingungen, die es braucht. Um in einer größeren Anlage dann Fusion zu machen. Aber das ist genau die Strategie. Man könnte natürlich jetzt einen Schuss ins Blaue machen, gleich eine große Anlage bauen. Aber da wir noch nicht gut genug wissen, ob diese große Anlage, mit der man gleich Fusion machen könnte, ob die das auch wirklich liefert, baut man aus rein ökonomischen Gründen das natürlich erst mal als kleine Anlage, die noch keine Fusion macht, wo man sagen kann, so jetzt haben wir alles beisammen, dass wir diesen großen Wurf machen können. Das ist letztlich eine Risikoreduktion, also Investitionsrisikoreduktion. Denn es wäre nicht auszuschließen, dass man eine Großanlage baut und die läuft nicht gut. Die liefert einfach nicht genug. Das ist ein Mistkraftwerk. Und man will ja die Basis dafür herstellen, dass man weiß, was man tut, dass man dann gleich bei dieser ersten Generation, bei der ersten ihrer Art, dass man dort gleich ein funktionstüchtiges Kraftwerk auf die Beine stellt.

Tim Pritlove
1:34:54
Thomas Klingner
1:35:33
Tim Pritlove
1:36:16
Thomas Klingner
1:36:19

Naja, das sind unterschiedlich große Maschinen. Größte spielt immer eine Rolle. Die sind auch von unterschiedlichen Entwicklungsstadiumen, also unterschiedliche Generationen da drin. Also der Wendelstein ist schon die größte und vor allem die am weitesten fortgeschrittene Anlage also die mit großem Abstand modernste und leistungsfähigste Anlage da ist jetzt so im Prinzip das ganze Wissen, der Welt, der Stellarator-Welt und der letzten Dekaden da reingeflossen und da ist alles mal zusammengebündelt. Warum ist der Stellarator jetzt eigentlich ein guter Kandidat? Naja, wenn man jetzt einmal wieder zurück geht zur Physik. Dieser berühmte Strom im Plasma, der beim Tokamak ja erforderlich ist und der auch ein Vorteil ist, weil der Strom das Plasma auch heizt. Das war ursprünglich mal ein ganz großer Pluspunkt beim Tokamak, als das die dominante Heizung war. Aber dieser Strom, den kriegt man ja dann nicht raus, der muss da gemacht werden. Und der hat schon auch seine Nachteile. Er macht das Plasma instabil, also diesen elektrischen Strom mag das Plasma gar nicht so gerne. Wir sprachen über diese dynamischen Phänomene da drin, dass das Plasma seine eigene Dynamik entwickelt. Und die kann dazu führen, dass das Plasma auch einfach sich mal verabschiedet innerhalb von sehr kurzer Zeit. Und dann wird dieser Strom, und wir reden bei dem Strom in einem Tokamak von Megaampere, von Millionenampere, wird dann sehr plötzlich unterbrochen. Und das ist ein sehr unangenehmes Event. Das heißt also, dann wird die ganze Maschine ordentlich durchgeschüttelt und muss inspiziert werden. und das ist kein gutes Betriebsszenario, das ist ein Kopfschmerz. Das gibt es beim Stellarator nicht. Der Stellarator hat ja keinen Strom, der braucht keinen Strom, weil man die ganze Magnetfeldformung in die Magnete reingesteckt hat. Das ist ein Riesenvorteil, die Stromlosigkeit des Fusionsplasmas. Hört sich so ein bisschen nischig an. Nicht so, man sagt halt Stromlosigkeit des Fusionsplasmas, aber das ist schon ein dickes Ding. Also ein stromloses Plasma ist per se, per Definition viel stabiler. Wo kein Strom drin ist, kann auch kein Strom abbrechen. Wir brauchen keinen Strom da drin. Das heißt, in anderen Worten, das Magnetfeld, was wir mit diesen externen Magneten generieren, ist für sich dieses immaterielle Gefäß, in das man das Plasma reinfüllt und es bleibt da drin sitzen, bis man es wieder rausnimmt. Und das ist der zweite wichtige Aspekt. Das Stellarator-Plasma, das Stellarator-Fusions-Plasma, das füllt man in dieses Magnetfeld rein und im idealen Fall hockt das da drin. Und das bedeutet, dieses Kraftwerk läuft auch einfach stundenlang, den ganzen Tag, wochenlang. Das ist eine ganz stabile Angelegenheit. Das ist in diesem Gefäß drin. Man hat immer den Gaseinlass, man hat die Pumpen und das Plasma arbeitet dort wie so ein Gasöfchen. Das ist ein zweiter Aspekt, der einem beim Tokamak Sorgen macht. Diesen Strom, der ist ja nicht von selber im Plasma, den muss man dort hineinbringen. Und wenn man etwa den Tokamak ITER in Südfrankreich nimmt, dafür braucht man einen gewaltigen Magneten noch in der Mitte, also eine so große Spule noch in der Mitte, diesen Strom in das Plasma induziert. Diese Induktion erfordert, dass man diesen Magneten in der Mitte hochfährt und wieder runterfährt. Und das passiert nicht innerhalb von einer Sekunde oder Bruchteil einer Sekunde, sondern über Minuten oder gar Stunden kann das passieren. Ist aber eine zusätzliche Komplikation, weil man dadurch so Zyklen reinbekommt, dieses Hochfahren, Runterfahren, Hochfahren, Runterfahren. Und das ist technisch problematischer, wenn man es eben im Vergleich zu einfach einem Magnetfeld, was das Plasma einfach aufbewahrt, wo man gar nichts machen muss. Also das heißt, es gibt da so Plus und Minus. Der Druckermark ist nach wie vor immer noch die leistungsfähigste Fusionsmaschine, die mit ihren Betriebsparametern, mit diesen Plasmaparametern am nächsten an die Fusion rangekommen ist. Also hat immer noch so die Nase vorne. Der Stellarator robbt sich da jetzt so langsam ran an diese Werte. Und die Entwicklung sieht ganz gut aus. Wenn man mit dem Steuerator auf solide Füße gestellt, die gleichen Güteparameter für das Plasma erzeugt wie in einem Tokamak, ist der Steuerator gewiss besser. Also man kann die stationär betreiben, also am Dauerstrich, im Dauerbetrieb betreiben und er ist stabil. Das ist beides für ein Kraftverbot.

Tim Pritlove
1:41:02
Thomas Klingner
1:41:34

Das ist ein wichtiger Punkt und das kann man sagen, das ist so eine Schwäche des Stellerators. Nichts im Leben ist perfekt. Jeder hat Stärken und Schwächen. Eine Schwäche des Stellarators besteht daran, dass die Kräfteverteilung, die von diesen Magneten impliziert wird, die resultiert aus der Form dieser Magnete, dass die sehr komplex ist. Simpel gesprochen kann man sagen, diese nicht planaren Magnete, diese geformten Magnete, sobald sie vom Strom durchflossen sind, wollen sie eben werden und wollen sie rund werden und entsprechend bilden sich die Kräfte aus. Das heißt, sie versuchen sich in diese einfache Form selber zu bringen, weil sie müssen in diese nicht ebene Form hinein gezwungen werden mit Stahlgehäusen und das geht dann über die Stahlgehäuse, geht das in die Schrauben, in die Stützstrukturen. Das heißt, die ganze mechanische Struktur muss erstens recht hohe Kräfte aushalten. Also hier beim Wendelstein sind das sowas wie 100 Megapaskal, um das mal so zu illustrieren. Das ist so wie eine Tonne auf einem Quadratzentimeter. Also so ein Auto auf einem Quadratzentimeter sitzen. Bei Fusionsmaschinen, die nochmal stärkeres Magnetfeld brauchen, ist es entsprechend nochmal mehr. Da hat man nochmal so einen Faktor 3, 4, 5, teilweise sogar 8 mehr, je nachdem wie stark man das Magnetfeld macht. Und das geht alles schon arg an die technischen Grenzen, was so Stähle eigentlich noch mögen, was Stähle also ertragen können. Das heißt also, man hat dort durchaus eine Maschinenbauaufgabe, die nicht vom Pappe ist. um mit diesen starken Kräften klar zu kommen. Starke Magnete, wir haben Sprachen davon, je stärker das Magnetfeld, desto besser die Wärmeisolation. Und diese starken Magnetfelder erzeugen einfach auch starke Kräfte. Und diese starken Kräfte müssen von einer starken Stahlstruktur, Stützstrukturen und Haltestrukturen abgefangen werden. Und da kommt man an die Materialgrenzen von Stahl ran. Da geht man so an die Extreme. Also ist technisch durchaus machbar, Aber man legt da schon ganz gut die Ohren an.

Tim Pritlove
1:43:46
Thomas Klingner
1:44:35
Tim Pritlove
1:45:58
Thomas Klingner
1:46:02

Große Industriekomplexe, große Agglomerationen, also Megastädte, wie man das so nennen kann. Wo Grundlast einfach so da ist, wo das auch einen Mehrwert darstellt, wo man sich Blackouts auch nicht leisten kann. Nur mal nebenbei gesagt, speichern hört sich immer so einfach an, aber auch Energie speichern ist gar nicht ohne. Das ist sehr teuer, das ist nach wie vor Batterieforschung, riesen Forschungsgebiet. Die Batterien, die wir gewohnt sind, sind eben halt von der Telefonbatterie bis zur Autobatterie, also von Elektromobilität. Das ist ja alles so unsere Erlebniswelt, also sozusagen der Consumer-Bereich. Aber wenn wir jetzt von Terrawattstunden-Batterien reden, das ist eine ganz andere Liga für die Grundversorgung. Also die großen globalen Schwankungen von Wind und Sonne, also der Sonnenzyklus ist ganz offenkundig, der ist ja geometrisch gegeben, noch ein bisschen durch Wetter gesteuert, der Windaspekt ist völlig durch Wetter gesteuert. Und diese Schwankungen muss man ja durch Speichern ausgleichen. Und das Problem ist wirklich nicht von Pappe. Und das kombiniert sich mit der Transportaufgabe. Also Energie speichern ist schwierig und Energie transportieren ist schwierig. Da kann die Fusion ausspielen, dass sie erstens als große Energiequelle nicht aus der Fläche transportiert werden muss und dass sie als ein Wärmekraftwerk einfach verfügbar ist, die hohe Verfügbarkeit hat. Und wo dieses Segment ist und wie groß das Segment ist, das hängt sehr von den sozioökonomischen Bedingungen des jeweiligen Landes ab, wie stark es industrialisiert ist. Ein viel ländlicheres Land ist da wahrscheinlich ganz anders aufgestellt als ein hochindustrialisiertes Land. Wie die Industrien sind, ob das eine starke chemische Industrie ist, die braucht unendlich viel Prozesswärme. Ob es dort Stahlindustrie gibt, ist auch an Energie, Stahlschmelzen oder sowas gewohnt.

Tim Pritlove
1:48:00
Thomas Klingner
1:48:01
Tim Pritlove
1:49:23
Thomas Klingner
1:49:24
Tim Pritlove
1:49:34
Thomas Klingner
1:50:12
Tim Pritlove
1:50:56
Thomas Klingner
1:51:00
Tim Pritlove
1:51:02