8. Dezember 2016, Dr. Wolfgang Dick
Wenn eine Minute plötzlich 61 Sekunden hat
GIZ-Vortrag über die Schaltsekunde
Am Ende des Jahres ist es wieder soweit. Während die meisten Menschen in das neue Jahr hineinfeiern, wird auf unseren Uhren einmal genau um ein Uhr Ortszeit eine Minute 61 Sekunden haben. Es wird
eine Schaltsekunde eingeführt. Die letzte wurde im vergangenen Jahr im Juni angebracht. Viele Menschen werden davon nicht viel mitbekommen und alles nur aus der Presse erfahren. Trotzdem dient
die Aktion dazu, unser normales Leben nach dem „Sonnentag“ auszurichten. Da sich die Erde immer langsamer dreht, würde unsere normale Uhrzeit aus den Atomuhren langsam über hunderte von Jahren
von der normalen Tageszeit abweichen. Mittag wäre dann nicht mehr mitten am Tag, sondern in die Nacht verschoben. Aus diesem Grund wird künstlich die wesentlich genauere Atomzeit auf die erlebte,
mittlere Sonnenzeit angeglichen. Doch dies hat nicht nur Vorteile. Die Schaltsekunde beeinflusst Fahrpläne, Börsengeschäfte und Computernetzwerke. Zusätzlich wird es in etwa 1500 Jahren notwendig
werden, alle 33 Tage eine Schaltsekunde einzuführen. Aus diesem Grund streiten sich die Wissenschaftler über eine mögliche Abschaffung der Schaltsekunde. Darüber berichtete Dr. Wolfgang Dick von
Zentralbüro des Internationalen Erdrotationsdienstes beim Bundesamt für Kartographie und Geodäsie in Frankfurt am Main in seinem GIZ-Vortrag „Wer hat an der Uhr gedreht? Die Schaltsekunde und
ihre Folgen.“
Unser Leben und Handeln ist strikten Abläufen unterworfen, die sich meist in einen strengen Zeitplan einordnen. Doch was ist die von uns selbstverständlich genutzte Zeit überhaupt. Heutzutage
kommt unsere Uhrzeit aus Atomuhren. Seit 1967 ist eine Sekunde das 9.192.631.770-fache der Periodendauer eines Übergangs zwischen den beiden Hyperfeinstrukturniveaus des Grundzustands von
Caesium-Atomen. Damit bezieht sich die Sekunde auf „Atomschwingungen“, die konstant gleichmäßig verlaufen, solange die Uhren nicht Einsteins relativistischen Effekten unterworfen werden. Solche
stabilen Uhren erzeugen die sehr genaue Internationale Atomzeit TAI.
Demgegenüber steht die Universalzeit UT1, die aus astronomischen Beobachtungen eine Art „mittlere Sonnenzeit“ beschreibt. Doch diese Beobachtungen werden beeinflusst durch die Jahreszyklus der
Erdrotation. Die Erde kann man sich einfach als Kreisel im Weltraum vorstellen. Die Drehbewegung des Kreisels wird dabei von äußeren Einflüssen, wie den Anziehungskräften des Mondes beeinflusst.
Zudem ändert sie sich auch, wenn sich Massen auf der Erde verlagern. Dies ist vergleichbar mit einem Eiskunstläufer. Seine Pirouette wird auch schneller, wenn er die Arme eng an den Körper legt.
Solche Rotationsschwankungen treten auch im Laufe des Erdenjahres auf. Luftströmungen in der Atmosphäre verlagern sich, Eismassen schmelzen ab oder nehmen zu oder Meere erwärmen sich und dehnen
sich etwas aus. Insgesamt verlangsamt sich die Rotation aber. Damit nimmt aktuell jeder Tag um etwa 1,7 Millisekunden zu. In etwas mehr als eineinhalb Jahren ist damit die Tageslänge um eine
Sekunde länger. Eine Schaltsekunde wird nötig. Die Atomzeit wird angepasst und als Koordinierte Weltzeit (UTC) im Alltagsleben genutzt, die der heute nicht mehr verwendeten Greenwich Mean Time
(GMT) entspricht.
Zur Laufendhaltung dieser Zeitskala braucht man genaue astronomische Messungen von UT1. Diese werden international koordiniert mit dem Radioteleskop Wettzell durchgeführt. Dabei betrachten zwei
weltweit verteilte Teleskope, wie zum Beispiel Kokee Park auf Hawaii, Wettzell in Deutschland und Tsukuba in Japan, die gleiche Radioquelle im Weltall. Die Milliarden Lichtjahre gereisten Signale
treffen aufgrund der weltweiten Verteilung zu unterschiedlichen Zeitpunkten auf die Teleskope. Ändert sich die Erdrotation, ändert sich auch der Laufzeitunterschied zwischen den Teleskopen. Es
ergibt sich eine präzise Aussage über die Erdrotationsparameter und damit über UT1. Während also an Silvester die Menschen ins neue Jahr feiern und von der Schaltsekunde nur bedingt erfahren,
arbeiten die Wissenschaftler in Wettzell bereits wieder an der Messung der Uhrenabweichungen für die nächste Schaltsekunde.
13. Oktober 2016, Dr. Harald Lück
Einsteins letztem unbewiesenen Postulat auf der Gravitationsspur
GIZ-Vortrag über den Nachweis von Gravitationswellen
Vor hundert Jahren postulierte Albert Einstein als Folge seiner Allgemeinen Relativitätstheorie die Existenz von Wellen, die von beschleunigten Massen ausgehen und sich mit Lichtgeschwindigkeit
in der Raumzeit ausbreiten. Diese im vierdimensionalen Raum fortlaufenden Wellen waren bis vor kurzem noch graue Theorie, auch wenn Indizienbeweise schon ihre Existenz vermuten ließen. Am 14.
September 2014 um 11:30 Uhr und 45 Sekunden unserer Zeit gelang es schließlich, den Beweis ihrer Existenz real zu erbringen und damit Einsteins letztes offenes Postulat experimentell zu
untermauern. Zwei moderne Michelson-Morley-Interferometer in den Vereinigten Staaten von Amerika zeichneten ein Ereignis auf, dass durch die Verschmelzung von zwei schwarzen Löchern mit gemeinsam
65 Sonnenmassen vor 1,3 Milliarden Jahren innerhalb 200 Nanosekunden Wellen mit einer Energie von zwei Sonnenmassen in die Raumzeit ausstrahlte. Es war stark genug, um von den Sensoren auf der
Erde erstmals erfasst und im Rechenzentrum in Hannover erstmals entdeckt zu werden. Dr. Harald Lück, einer von damals 1004 direkt beteiligten Wissenschaftlern, begeisterte deshalb am
vergangenen Donnerstag bei einem GIZ-Vortrag mit dem Titel „Detektion von Gravitationswellen“ mit anschaulichen Beispielen und vielen Informationen quasi aus erster Hand die zahlreichen Zuhörer
im Vortragsraum des Geodätischen Observatoriums Wettzell.
Freie, bewegte Massen fliegen auf geraden Bahnen und ziehen sich gegenseitig an. Diese Feststellung machte schon Isaac Newton und führte die Gravitationskraft ein. Einstein erkannte 300 Jahre
späte, dass die Gravitation nicht zwingend eine Kraft sein muss, wenn man den drei Raumdimensionen mit der Zeit eine weitere hinzufügt. Die Tatsache, dass sich zwei Körper durch Anziehung
aufeinander zu bewegen, kann dadurch so erklärt werden, dass es Krümmungen in den vier Dimensionen gibt, entlang denen die Massen fliegen. Dies ist für unseren dreidimensional geprägten Verstand
schwer ersichtlich. Doch vergleichbar ist dies, wenn zwei Schiffe entlang zweier Längengrade in die gleiche Richtung fahren. Jedes Schiff fährt auf der zweidimensionalen Kugelfläche immer stets
geradeaus, so dass es für jedes Schiff so aussieht, als würde es einen geraden Kurs verfolgen. Trotzdem treffen sich die Schiffe an einem der Pole, da sie sich ja auf der dreidimensionalen
Erdkugel bewegen.
Bewegen sich die Massen nicht gleichförmig, sondern werden beschleunigt, breiten sich „Schockwellen“ über den Raum aus. Je größer das Ereignis, desto stärker die transportierte Energie in den
Wellen. Obwohl sich hier Energien von mehreren Sonnenmassen ausbreiten, ist ihr Nachweis schwierig, da die Energie der Wellen mit der Materie nur wenig in Wechselwirkung tritt. Trotzdem wird auch
der dreidimensionale Raum durch die Wellen gestreckt und gestaucht. Jedoch bedarf es der Detektion von Veränderungen in Dimensionen von Yoctometern, das sind Änderungen eines Meters an der
22-igsten Stelle nach dem Komma.
Dies ist nur noch anhand der Änderungen von Interferenzmustern mit überlagerten Laserlichtstrahlen möglich. Ähnlich den im Schulunterricht gezeigten Interferenzmustern bei Spaltversuchen wird die
Verstärkung und Auslöschung von zwei Lichtstrahlen genutzt. Ein starker, sehr stabiler Laserlichtstrahl wird aufgespaltet und über zwei rechtwinklig zueinander angeordneten, mehrere Kilometer
lange Röhren gelenkt, an deren Ende je ein Spiegel das Licht zurückspiegelt. Das zurückkommende Licht wird wie im Spaltversuch überlagert. Ändern sich die Distanzen, ändern sich Auslöschungen und
Verstärkungen und somit die Helligkeit des überlagerten Lichts. Dieses Michelson-Morley-Interferometer ist so in der Lage, die Änderungen der „Raumzeit“ zu messen, da eine Gravitationswelle die
Längen der beiden Röhren ändert. Aktuell braucht es aber schon ein Ereignis, wie dem Verschmelzen zweier massereicher schwarzer Löcher, damit überhaupt ein eindeutiges Signal nachgewiesen werden
kann. Dies war im September und im Dezember 2015 möglich, was ein erster Schritt dahin ist, unser Universum nicht nur im sichtbaren Licht sondern auch mit Gravitationswellen „zu sehen“.
23. Juni 2016, Dr. Johannes Ihde
Monument mit Vermessungsgeschichte
GIZ-Vortrag über Helmertturm in Potsdam - Dr. Johannes Ihde referierte
Heute steht er verwittert und einsam auf dem ehemaligen Telegrafenberg in Potsdam. Doch in seiner 123-jährigen Geschichte erlebte er das Aufkeimen der Erdvermessung als feste Einrichtung der
preußischen Territorialherrschaft. Er war als astronomisch-geodätischer Bau Zentralpunkt eines Netzes der Mitteleuropäischen Gradmessung vom Nordkap bis Persien und vom Atlantik bis zum Ural. Die
Rede ist vom Helmertturm, der nach einem der bedeutenden Geodäten der deutschen Geschichte benannt ist. Nach den Weltkriegen Wurden die Daten aus den damaligen Vermessungen noch bis in die 1990er
Jahre hinein genutzt. Jedoch reduzierte sich die Bedeutung des Turmes aufgrund politischer Gegebenheiten, so dass er langsam fast in Vergessenheit geriet. Als monumentales Bauwerk, das bewegende
Vermessungsgeschichte schrieb, soll der Turm nun mittels Spenden wieder saniert und der Nachwelt erhalten werden. Diese Themen fasste Dr. Johannes Ihde vom Bundesamt für Kartographie und Geodäsie
in Frankfurt am Main in seinem Vortrag „Der Helmertturm Potsdam und seine Bedeutung für die europäische Triangulation“ für den letzten GIZ-Vortrag in diesem Halbjahr zusammen.
Neben der Bedeutung von Kartenmaterial und Vermessungsdaten für das Militär, den Staat und die Wirtschaft waren damals wissenschaftliche Fragestellungen zur Form der Erde und ihrer Abplattung,
zur Lage der Erdachse oder zu Änderungen der Drehgeschwindigkeit der Erde im Zentrum des Interesses. Schon im 18. Jahrhundert wurden dazu von verschiedenen Ländern Meridianbögen vermessen. Im
damaligen Preußen wurde für diese Aufgaben das Preußische Geodätische, Institut gegründet. Man begann mit der Durchführung von Triangulationen, also dem Aufbau von Dreiecksnetzen, um eine Fläche
für die Landvermessung geodätisch zu vermarken. Die Akribie der damaligen Vermessung spiegelt sich auch in Karikaturen wider, zum Beispiel zeigte Dr. Ihde eine Zeichnung, in der ein Landvermesser
mit Zylinder und Frack dem „deutschen Michl“ in sein Bettgemach einen Vermessungspflog rammt.
Zur Wende ins 20. Jahrhundert wurde Potsdam quasi zum Weltzentrum für die wissenschaftliche Geodäsie. Diese Entwicklung fiel in eine wissenschaftliche Glanzzeit Deutschlands, in der die
Wissenschaftlichen Ergebnisse maßgeblich aus dem deutschsprachigen Raum geprägt waren. Eine der federführenden Personen im Bereich der Erdvermessung dieser Zeit war Friedrich Robert Helmert. Als
Direktor des Geodätischen Instituts Potsdam legte er die Grundpfeiler und definierte in einem seiner Bücher die Geodäsie als die Wissenschaft von der Ausmessung und Abbildung der Erdoberfläche.
Für astronomische und geodätische Analysen ließ er auf dem Telegrafenhügel in Potsdam einen Messturm errichten und stattete ihn mit entsprechenden Instrumenten aus.
Der Aufwand für die Vermessung eines ganzen Landes war durchaus erheblich. Aus heutiger Sicht, in der jeder Navigationssysteme im Handy benutzt, ist es kaum vorstellbar, dass Trupps von 30 und
mehr Leuten damit beschäftigt waren, Besselsche Messapparate auf exakt planierten Straßen auszurichten, um wenige Kilometer exakt zu vermessen. Die Triangulationen wurden dann an Zentralpunkte
angeschlossen, die als geodätisches Datum die Position, Orientierung und Zeit des Netzes bildeten. Einer dieser Zentralpunkte für das Reichsdreiecksnetz vvurde schließlich der 1924 nach seinem
Erbauer benannte Helmertturm. Dies gestaltete sich schwierig, da er im originalen Netz nicht enthalten war. Trotzdem bildete er schließlich 1944 den Zentralpunkt für ein Netz, das vom Atlantik
bis in den Ural und vom Nordkap bis weit nach Persien ging. Diese Daten waren für die Alliierten auch nach dem Krieg noch von höchster Brisanz, so dass die USA 1945 innerhalb von vier Stunden
sämtliche Unterlagen von Friedrichroda in Thüringen nach Bamberg transportieren líeß, um dort das Institut für Angewandte Geodäsie zu gründen, das später nach Frankfurt am Main übersiedelte und
heute als Bundesamt für Kartographie und Geodäsie für das Geodätische Observatorium federführend ist. Dieses ist wie damals der Helmertturm eine der globalen, geodätischen Marken.
12. Mai 2016, Dr. Michael Hovenbitzer
Erfassung Deutschlands von der Vogelperspektive
GIZ-Vortrag über die Nutzung der Fernerkundung für die Kartographie
Digitale Karten sind aus dem heutigen Alltag nicht mehr wegzudenken. Adresssuche und Routenplanung über Geoportale im Internet haben Papierkarten fast komplett abgelöst. Geodaten der
Landesvermessung und übergreifend für ganz Deutschland sind bis zu gewissen Auflösungen kostenlos in Online-Viewern erhältlich. Interaktiv können verschiedene Ebenen zum Bebauungsplan, zur
Landbedeckung, zur Pflanzenklassifizierung oder zur Vermessung eingeblendet werden. Dabei haben sich die Techniken in den letzten Jahrzehnten erheblich verbessert. Satellitentechniken und
Befliegungen mit Flugzeugen und Drohnen ermöglichen heutzutage regelmäßige Luftbildkartierungen ganzer Landstriche mit Auflösungen bis zu zwei Zentimeter pro Bildpixel. Dies stellt neue
Herausforderungen zum Thema Datenschutz, ermöglicht aber auch ganz neuartige, automatisierte Techniken zur Bewertung von Geodaten für das Landmanagement und den Katastrophenschutz in
Krisensituationen. Über dieses breite Themenspektrum informierte am vergangenen Donnerstag Dr.-Ing. Michael Hovenbitzer vom Bundesamt für Kartographie und Geodäsie in Frankfurt am Main in seinem
GIZ-Vortrag „Deutschland von oben – Fernerkundung im Dienste der Kartographie“.
Schon in den Anfängen der Luftfahrt begann man mit der fotografischen Erfassung aus der Luft. Überliefert ist, dass der französische Fotograf Nadar im Jahr 1858 erste Luftbildaufnahmen aus dem
Korb eines Fesselballons heraus anfertigte. Der Weg von diesen schräg nach unten aufgenommenen Luftbildszenen hin zu den heute genutzten Orthofotos war jedoch lange. Heutzutage nehmen Flugzeuge
bei strukturierten Überflügen senkrecht nach unten überlappende Luftbilder auf. In Bayern wird dies in einem dreijährigen Turnus durchgeführt, so dass alle drei Jahre jede Region einmal kartiert
werden kann. Diese Luftbilder können dann wegen ihrer Überlappbereiche photogrammetrisch ausgewertet werden, so dass über daraus entstehende 3D-Informationen mittels digitaler Geländemodelle und
kartographischer Projektionen digitale Landkarten entstehen. Diese verzerrungsfreien und maßstabsgetreuen Abbildungen der Erdoberfläche nennt man Orthofotos, die Auflösungen von 10 Zentimeter pro
Pixel erlauben. Einschränkungen ergeben sich nur durch ungünstige Wetterbedingungen zum Beispiel durch Wolkenbedenkungen. Trotzdem können automatisierte Computeralgorithmen die Informationen
verschiedener Spektralbereiche, wie sichtbares Licht, Infrarot oder Radar, in den Aufnahmen nutzen, um Zusatzinformationen zu gewinnen. So können nicht nur bebaute Flächen von Grün- oder
Wasserflächen unterschieden werden. Es ist sogar möglich, automatisch Nadelwald von Laubwald oder spezifische Baumarten in den Luftbildern zu klassifizieren. Es ergibt sich ein digitales
Landbedeckungsmodell.
Unterstützt werden die herkömmlichen Erfassungen durch Drohnenbefliegungen, da damit kleinere Areale mit höheren Auflösungen bis zu zwei Zentimeter pro Pixel erfasst werden können. Diese
Auflösungen dürfen aber aufgrund behördlicher Richtlinien nicht öffentlich zur Verfügung gestellt werden, da darauf bereits Gesichter oder schützenswerte Details erkennbar sind. Die Bedeutung für
solche Geodaten steigt zudem, da mittels Satellitenbefliegungen aus dem Weltraum innerhalb von wenigen Tagen Krisenregionen erfasst werden, um den Katastrophenschutz und Rettungskräfte nach
Naturkatastrophen zielgenau zu leiten. Eine neue Komponente innerhalb dieser Aufgaben bildet das europäische Erdbeobachtungssystem „Copernicus“, das mit den Sentinel-Satelliten diesen Aufgaben
des kontinuierlichen Monitorings und der Unterstützung von Sicherheits- und Landmanagement nachkommt. Ein wichtiges Ziel von Copernicus ist, dass die gewonnen Daten für jedermann kostenlos zur
Verfügung stehen, nach dem Motto „Geodaten für jedermann“.
14. April 2016, Prof. Ernst Rasel
Der Mikrokosmos der Quantenphysik im Dienste der Vermessung
GIZ-Vortrag über Quanten-Gravimeter und der Physik dahinter
Als Isaac Newton der Geschichte nach in seinem Garten den berühmten Apfel vom Baum fallen sah, war im 17. Jahrhundert eines der wichtigsten Gesetze im Makrokosmos gefunden: das Newtonsche
Gravitationsgesetz. Es besagt, dass sich zwei Massen gegenseitig anziehen und dabei beschleunigt aufeinander zu fallen. Die Gravitation ist die strukturgebende Kraft im Universum, die Galaxien
und den Raum formt und Sonnensysteme und Planeten auf ihren Umlaufbahnen hält. Taucht man in den Mikrokosmos der Atome, werden die klaren Verhältnisse der Umlaufbahnen durch diffuse Wolken aus
negativ geladenen Elektronen um positiv geladene Kerne ersetzt. Entsprechend der Aufenthaltswahrscheinlichkeit der Elektronen bilden sich Bereiche aus, die von Elektronen besetzt oder nicht
besetzt werden können. Diese so geformte, „delokalisierte“ Materie der Quantenmechanik, in der man den Aufenthaltsort der Materie nur mittels Wahrscheinlichkeitsrechnungen erfassen kann, ist die
strukturgebende Kraft des Mikrokosmos. Trotz dieser völlig unterschiedlichen Gesetzmäßigkeiten lässt sich der Makrokosmos mit der Physik des Mikrokosmos vermessen, wenn man mittels Lasers
geeignet manipulierte Atome im freien Fall zur Bestimmung der Fallbeschleunigung nutz und damit quasi wieder den Fall des Newtonschen Apfels bestimmt. Von dieser Technik jenseits der normalen
Vorstellungskraft berichtete am vergangenen Donnerstag Prof. Dr. Ernst M. Rasel von der Leibnitz Universität Hannover in seinem GIZ-Vortrag „Jonglieren mit Atomen – Quantenoptik für die
fundamentale Physik und die Geowissenschaften“.
Die Theorie dahinter ist durchaus anspruchsvoll und basiert auf der Atominterferometrie. Jeder Materie ist eine Wellenlänge zugeordnet, die über den Impulssatz mit einer
Masse-Geschwindigkeitsbeziehung verbunden werden kann. Das bedeutet, dass Laserlicht in der richtigen Resonanzfrequenz einen Impuls und damit Lichtdruck auf ein Atom in Richtung des Lichtstrahls
übertragen kann. Durch geeignetes Einstrahlen des Laserlichts lassen sich die Energiezustände der Atome so verringern, dass sie abgebremst werden und damit einen bestimmten inneren Zustand
einnehmen. Die Materie wird dadurch auf wenig über den absoluten Nullpunkt abkühlt. In Verbindung mit Magnetfeldern werden zudem Atome einer bestimmten Geschwindigkeit festgehalten und damit
eingefangen. Vergleichbar ist dies mit einer Kaffetasse, in der nur die Wassermoleküle zurückbleiben, die nicht schnell genug sind, um als Dampf zu entfliehen.
Aufgrund des Wellen-Teilchen-Dualismus verhält sich jedes Atom dann ebenso wie eine Welle und kann durch einen Strahlteiler gleichzeitig verschiedene Zustände einnehmen. Wird so ein Atom gezielt
einem Fall unterzogen, verhalten sich die unterschiedlichen Zustände beim Fallen unterschiedlich. Während des Falls werden verschiedene Zustandswechsel veranlasst. Bei der anschließenden
Detektion bildet sich dadurch wie bei einem Lichtspaltversuch ein Interferenzmuster, das klare Rückschlüsse über den Fall ermöglicht. Die Beschleunigungsveränderungen durch den Einfluss von Ebbe
und Flut oder durch andere Massenvariationen werden so exakt mittels der fallenden Atome messbar. Aktuell wird diese Technik stetig verbessert. Waren vor Jahren noch riesige
Experimentieraufbauten nötig, können heute mit zentimetergroßen Atomchips bestückte Messinstrumente dazu genutzt werden, um den Fragestellungen der fundamentalen Physik auf den Grund zu gehen und
damit zu beweisen, ob das Newtonsche Gravitationsgesetzt wirklich korrekt ist. Test in der Schwerelosigkeit, die z.B. im Bremer Fallturm oder bei Raketenflügen durchgeführt werden, haben die
Eignung der Apparatur bereits unter Beweis gestellt.
17. März 2016, Dr. Franz Leibl
Ein Plus für Natur und Wissenschaft
Vortrag über den Nationalpark Bayerischer Wald
45 Jahre nach seiner Gründung hat im ersten Nationalpark Deutschlands die Natur die ihr überlassene Region zurückerobert. Der Luchs ist zurückgekehrt, die Artenvielfalt ist riesig und der
Borkenkäfer hat zu einer ungeahnten Waldverjüngung beigetragen. Diese Entwicklung wurde über Jahrzehnte durch zahlreiche Forschungsprojekte begleitet, so dass dieser Nationalpark auch
international geschätzte Forschungsergebnisse beim Übergang von einem Wirtschaftswald zu einem natürlichen Wald geliefert hat. Darüber berichtete der Leiter der Nationalparkverwaltung Dr. Franz
Leibl in seinem Vortrag "Aktuelle Forschungsergebnisse aus dem Nationalpark Bayerischer Wald" am vergangenen Donnerstag am Geodätischen Observatorium Wettzell.
Bei dem zu 98% bewaldeten Nationalpark konzentrieren sich die Forschungen natürlich auf die Entwicklung des Waldes. Der größte Feind des Waldbesitzers - der Borkenkäfer - hat im Nationalpark zu
einer drastischen Umgestaltung des Waldes geführt. Zwischen abgestorbenen Fichtenstümpfen wächst nun ein junger, widerstandsfähiger Wald von großer Biodiversität heran. Vor allem Insekten, aber
auch Vögel, Moose und Pilze profitieren enorm von dem abgestorbenen Wald, denn das Totholz ist der Schlüssel für die Artenvielfalt. Während in 1 Hektar Wirtschaftswald höchstens 20 Festmeter
Totholz zusammenkommen, beträgt im Nationalpark die Totholzmenge 110, in Urwäldern sogar bis zu 300 Festmeter. Dabei ist auch die Totholzvielfalt entscheidend: ein Mix aus dicken Stämmen und
Kleinholz, am besten ganze Bäume, sind dabei optimal.
Neben der eher im Stillen ablaufenden Rückkehr z.B. seltener Käferarten sorgt ein Rückkehrer stets für öffentliches Interesse - der Luchs. Von etwa 16-18 erwachsenen Individuen zählt das
Nationalparkgebiet Bayerischer Wald - Sumava zu ihrem Revier. Eine deutliche Zunahme der Luchspopulation ist kaum zu erwarten, da männliche Luchse große Reviere von bis zu 400 Quadratkilometern
beanspruchen, und Jungtiere in andere Reviere abwandern. Das Monitoring der sehr scheuen Großkatzen erfolgt heute hauptsächlich durch Fotofallen, von denen etwa 65 in dem Gebiet existieren. Diese
Technik vermeidet Stress für die Tiere, der beim Anbringen und Abnehmen von Sendern entsteht.
Der Nationalpark ist aber auch eine ideale Modellregion für den Nachweis des Klimawandels. Neben der gemessenen Zunahme der Jahresmitteltemperatur von etwa 1°C in den letzten 100 Jahren läßt sich
der Temperaturanstieg auch phänologisch belegen. Die Blütezeit etwa der Buche hat sich in den letzten 40 Jahren um 30 Tage von Ende Mai auf Ende April verschoben. Daneben ist auch ein Ausweichen
kälteliebender Tierarten in größere Höhen zu beobachten, und ein völliges Verschwinden dieser Tierarten ist als Folge des Klimawandels in Zukunft zu erwarten. Der Klimawandel macht sich aber auch
in den Abflussmengen der Bäche und Flüsse deutlich bemerkbar. Durch die früher einsetzende Schneeschmelze haben die Abflüsse im März und April zugenommen, währen sie im Mai deutlich
zurückgegangen sind.
Bei den Forschungsmethoden werden heute auch modernste Techniken eingesetzt. Die für die Erfassung des Baumbestandes erforderlichen und aufwändigen Begehungen werden im Nationalpark durch
Methoden der Fernerkundung ersetzt, was mit einer enormen Kosteneinsparung verbunden ist. Laserscanner an Bord von Flugzeugen liefern heute extrem detaillierte Abbilder der Erdoberfläche, in
denen jeder einzelne Baum identifizierbar ist. Daneben liefern diese Aufnahmen auch ein Abbild des Bodens, in dem jedes topographische Detail erkennbar ist. Was mit diesen Technologien in Zukunft
vielleicht noch möglich sein wir, läßt sich nur erahnen.
Neben den gesamtgesellschaftlich wichtigen Forschungsaktivitäten bietet der Nationalpark auch handfeste wirtschaftliche Vorteile. Die 1,2 Millionen Besucher jährlich lassen den einen oder anderen
Euro in der Region und beleben das Hotel- und Gastronomiegewerbe. Dabei widerspricht der Grundsatz des Nationalparks, nur sanften Tourismus zuzulassen, in keiner Weise den Wünschen und
Bedürfnissen der Besucher. Umfragen haben ergeben, dass die Erholung und das Naturerlebnis 95% der Befragten wichtig bis sehr wichtig ist, und dass 50% der Touristen innerhalb der nächsten 5
Jahre den Park ein weiteres Mal besuchen werden. Nach 45 Jahren muss der Nationalpark trotz einiger kritischer Stimmen als Erfolgsgeschichte bezeichnet werden.
18. Februar 2016, Lutz Küpper
Die nötige Präzision für die Entdeckung neuer Welten
GIZ-Vortrag über die Herstellung von Teleskopspiegel am TC Teisnach
Mit hochpräzisen Teleskopen blicken wir Menschen heutzutage Milliarden Lichtjahre in die Vergangenheit unseres Universums. Unvorstellbare Entfernungen machen die Dimension des Universums
sichtbar. Diesen Blick erlauben hochgenaue Teleskopspiegel, deren Herstellung an die Grenzen des mechanisch Machbaren geht. Ihre Oberfläche darf dabei auf bis zu zwei Meter Spiegeldurchmesser
nicht mehr als 30 Nanometer von der idealen, vorgegebenen Spiegelform abweichen. Diese Abweichung ist weniger, als ein Grashalm in einer Sekunde wachsen kann. Enorme Maschinen mit
interferometrischen Messtürmen bis zu 10 Meter Höhe und einem Gewicht von 85 Tonnen schaffen die Stabilität und nötigen Auflagepunkte, um eine solche Genauigkeit zu erreichen. In diese Welt der
kleinen und großen Dimensionen tauchten am vergangenen Donnerstag die Zuhörer beim Vortrag von Lutz Küpper von der IFasO GmbH, die am Technologie-Campus Teisnach mit der Technischen Hochschule
Deggendorf (THD) die Produktion solcher Spiegel erforscht und revolutioniert. Den Vortrag mit dem Titel „Von der Idee einer Spiegelfertigung bis zum Blick ins Universum“ begleiteten auch der
Präsident der Technischen Hochschule Prof. Dr. Peter Sperber und der Leiter des Technologie Campus Teisnach Prof. Dr. Rolf Rascher.
Die Idee, in Teisnach Spiegel für Teleskope herzustellen, entstand aufgrund einer Forschungsanfrage australischer Teleskopbauer, die nach einer Möglichkeit suchten, zusammen mit der THD bis zu
zwei Meter große Spiegel präzise schleifen und polieren zu lassen. Die THD steuerte damals aus Forschungsmitteln entsprechend die Finanzen für das aufwändige und teure Vorhaben bei, so dass 2010
ein erstes Konzept für mögliche Verfahren und die Konstruktion des Ultra-Präzisions-Generators 2000 (UPG 2000) entstand, der Maschine, die die Aufgabe bewältigen konnte. Das darauf
zusammengestellte Team aus erfahrenen, „alten Hasen“, jungen Ingenieuren von der Hochschule und hoch qualifizierten Fachkräften aus der Glasindustrie schaffte es bereits 2015, Teleskopspiegel der
gewünschten Präzision aus Zerodurblöcken zu schleifen.
Dabei ist besonders die Lagerung und reproduzierbare Aufnahme der zu schleifenden bis zu zwei Tonnen schweren Glaskeramikblöcke bei Mess- und Schleifvorgängen ein schier endloses Thema. Um die
nötige Stabilität zu erreichen, ist die Präzisionsmaschine auf einem Granitkörper aufgebaut. Die meisten der Führungs- und Verschiebeeinheiten sind als Hydrostaten ausgelegt, so dass die
Spiegelrohlinge quasi auf einem Ölfilm schwimmend bewegt werden können. Zahlreiche Versuche mussten unternommen werden, um die verschiedenen Haltepunkte entsprechend auszulegen, die während des
mehrstufigen Prozessablaufs mal für das Schleifen starr, für das Vermessen aber schwimmend agieren sollen.
Doch der Aufwand hatte sich gelohnt. In mehreren Schritten wie Schleifen, taktiler Messung, Polieren, interferometrischer Messung können heute bei zahlreichen Wiederholungen der Schritte
die geforderten Genauigkeiten erreicht werden. Ein kompletter Ablauf aller Vorgänge vom Rohling bis hin zur fertigen Oberfläche dauert dabei im günstigsten Fall zwei Monate. So wird einer der
ersten in Teisnach produzierten Spiegel auf der 1788 Meter hohen Sternwarte auf der Lomnitzer Spitze in der Slowakei eingesetzt. Dort ermöglicht der Spiegel, der exakter geschliffen wurde, als
ein Gras in einer Sekunde wachsen kann, den Blick in Milliarden Lichtjahre entfernte Regionen.