High-quality near-real time Quantitative Precipitation Estimation (QPE) and its prediction for the next hours (Quantitative Precipitation Nowcasting, QPN) is of high importance for many applications in meteorology, hydrology, agriculture, construction, water and sewer system management. Especially for the prediction of floods in small to meso-scale catchments and of intense precipitation over cities timely, the value of high-resolution, and high-quality QPE/QPN cannot be overrated. Polarimetric weather radars provide the undisputed core information for QPE/QPN due to their area-covering and high-resolution observations, which allow estimating precipitation intensity, hydrometeor types, and wind. Despite extensive investments in such weather radars, QPE is still based primarily on rain gauge measurements since more than 100 years and no operational flood forecasting system actually dares to employ radar observations for QPE. RealPEP will advance QPE/QPN to a stage, that it verifiably outperforms rain gauge observations when employed for flood predictions in small to medium-sized catchments. To this goal state-of-the?art radar polarimetry will be sided with attenuation estimates from commercial microwave link networks for QPE improvement, and information on convection initiation and evolution from satellites and lightning counts from surface networks will be exploited to improve QPN. With increasing forecast horizons the predictive power of observation-based nowcasting quickly deteriorates and is outperformed by Numerical Weather Prediction (NWP) based on data assimilation, which fails, however, for the first hours due to the lead time required for model integration and spin-up. Thus, RealPEP will merge observation-based QPN with NWP towards seamless prediction in order to provide optimal forecasts from the time of observation to days ahead. Despite recent advances in simulating surface and sub-surface hydrology with distributed, physicsbased models, hydrologic components for operational flood prediction are still conceptual, need calibration, and are unable to objectively digest observational information on the state of the catchments. RealPEP will prove that in combination with advanced QPE/QPN physics-based hydrological models sided with assimilation of catchment state observations will outperform traditional flood forecasting in small to meso-scale catchments.
El Niño ist die warme Phase der El Niño/Southern Oscillation (ENSO), und beschreibt die dominante Variabilität der Tropen auf Zeitskalen von Monaten bis Jahren. Obwohl ENSO im tropischen Pazifik geschieht, werden starke regionale und globale Einflüsse auf das Klima, auf die Ökosysteme der Meere und auf dem Land, und damit auch auf die Wirtschaft einzelner Länder beobachtet. Klimamodelle sagen vorher, dass El Niño sich unter dem Einfluss der globalen Erwärmung verstärken könnte, und dass sich sogenannte Super El Niños entwickeln könnten, d.h. El Niño Ereignisse, welche stärker und langlebiger sind als die stärksten im 20. und 21. Jahrhundert beobachteten Ereignisse. Es ist allerdings noch unklar, ob sich zum Beispiel die sogenannten Teleconnections, also Fernwirkungen von El Niño, linear mit der Stärke des Ereignisses im tropischen Pazifik entwickeln werden. Es ist zudem noch unzureichend erforscht, ob sich die Teleconnections selbst verändern werden. Es gibt aber Hinweise, dass sich die Teleconnections von El Niño nichtlinear verhalten, und dass daher ein Super El Niño völlig andere globale Auswirkungen haben könnte als ein historischer El Niño. Durch die Vorhersage der Klimamodelle, dass sich solche Super El Niño - Ereignisse in Zukunft häufen könnten, ist ein besseres Verständnis möglicher Nichtlinearitäten von Teleconnections nötig. Dieses Forschungsvorhagen untersucht die Nichtlinearität in der Stärke und im Charakter von El Niño Teleconnections für eine Erde in einem wärmeren Klima. Im Speziellen wird die Fernwirkung von El Niño auf die Troposphäre und Stratospähre der mittleren Breiten in der Nord- und Südhalbkugel untersucht.
Binnengewässer sind ein wichtiger Bestandteil des globalen Kohlenstoffkreislaufs und vor allem Emissionen des Treibhausgases Methan (CH4) aus Gewässern sind von zunehmendem globalen Interesse. Jüngste wissenschaftliche Untersuchungen zielen darauf ab, das prozessbasierte Verständnis der räumlichen und zeitlichen Dynamik der CH4-Emissionen aus Gewässern und ihrer treibenden Faktoren zu verbessern. Prognosen dazu, wie sich Methanemissionen aus Gewässern durch anthropogenen Einflüsse oder durch den Klimawandel bedingt verändern, sind auf Basis bisheriger Modelle nicht zuverlässig möglich. Viele der Faktoren, welche die Raten der Methanproduktion, -Oxidation und Emission in aquatischen Sedimenten beeinflussen, stehen in direkter oder indirekter Beziehung zur Strömungsgeschwindigkeit. Die Strömungsabhängigkeit der Methanproduktion und Methanemissionen von aquatischen Ökosystemen wurde jedoch bisher nicht explizit untersucht. In diesem Projekt werden wir neuartige experimentelle Mesokosmensysteme einsetzen, um die Strömungsabhängigkeit dieser Prozesse in einer Reihe von gezielten Laborexperimenten zu untersuchen. Der experimentelle Aufbau simuliert die Bedingungen, denen aquatische Sedimente in einem hydraulischen Gradienten von schnell fließenden (lotischen) hin zu schwach strömenden (lentischen) Systemen ausgesetzt sind. Solche Übergänge treten beispielsweise entlang von Längsgradienten in Flussstauhaltungen auf. Unsere Experimente zielen darauf ab, den Einfluss der Strömungsgeschwindigkeit auf diejenigen Prozesse zu untersuchen, die zur Bilanz von Methan im Sediment und an der Sediment-Wasser-Grenzfläche beitragen. Die Ergebnisse werden wir in ein prozessbasiertes Modell implementieren, welches neben relevanten biogeochemischen Parametern auch die Strömungsgeschwindigkeit als explizite Randbedingung berücksichtigt. Mit dem validierten Modell werden wir die Relevanz der Strömungsgeschwindigkeit für die Emissionen von Methan aus unterschiedlichen Gewässern mit Hilfe eines systemanalytischen Ansatzes untersuchen.
Kartoffelstärke kann sehr vielseitig eingesetzt werden und ist ein wichtiger Baustein der Nationalen Bioökonomie-Strategie Deutschlands. Im Vergleich zu überwiegend monogen vererbten Merkmalen wie manchen Krankheitsresistenzen sind quantitative Merkmale wie der Knollen- oder Stärkeertrag züchterisch schwieriger zu bearbeiten. Autotetraploidie, geringer Vermehrungskoeffizient und eine Vielzahl relevanter Selektionsmerkmale mindern den Zuchtfortschritt in quantitativen Merkmalen bei Kartoffeln zusätzlich. Verfahren der prädiktiven Züchtung wie genomische Selektion versprechen daher einen großen Nutzen in der Kartoffelzüchtung. In der vorausgegangenen Projektphase (PotatoTools) wurden genomische und statistische Werkzeuge zur prädiktiven Stärkekartoffelzüchtung aber auch erste Vorhersagemodelle entwickelt. Das Hauptziel des vorliegenden Vorhabens ist es nun, unter Nutzung der bereits entwickelten genomischen Ressourcen wesentliche Fragen zum Einsatz prädiktiver Verfahren in der Kartoffelzüchtung zu beantworten. Im Detail planen wir die (i) Erhöhung der Repräsentativität des Sets an strukturellen Genomvarianten durch Erweiterung des Resequenzierungspanels, (ii) Abschätzung der Genauigkeit der Leistungsvorhersage über Materialgruppen unterschiedlichen Verwandtschaftsgrads hinweg sowie der Genauigkeit der Vorhersage von Populationsmittel und Spaltungsvarianz, (iii) Evaluation der Vorhersagegenauigkeit von spektroskopisch erfassten Prädiktoren vgl. zu molekulargenetischen Prädiktoren und (iv) Optimierung von Kartoffelzüchtungsprogrammen hinsichtlich des genutzten Züchtungsschemas und der idealen Balance zwischen kurz- und langfristigem Selektionsgewinn. Mit dem in diesem Projekt gewonnen Wissen wird die prädiktive Züchtung für quantitativ vererbte Merkmale der Kartoffel weiter verbessert sowie für den routinemäßigen Einsatz vorbereitet werden.
Zweck und Ziel: Simulation und Prognose des Stoffhaushaltes abwasserbelasteter Fliessgewaesser zur Beurteilung der Auswirkungen wasserwirtschaftlicher und wasserbaulicher Massnahmen, einschliesslich Eutrophierungserscheinungen und Auswirkungen von Verklappungsmassnahmen. Ausfuehrung: Weiterentwicklung des von Dr. G. Huthmann in der BfG aufgebauten Modells, welches weitgehend empirische Zusammenhaenge verwendet, zu einem fuer verschiedene Anwendungen aussagekraeftigen Modell. Dabei werden die biologischen Vorgaenge - soweit erforderlich - mit Hilfe deterministischer Ansaetze formuliert. Die Modellentwicklung enstsprechend den Ergebnissen von Gewaesseruntersuchungen, Laborexperimenten und Literaturstudien. Ergebnisse: Das Modell besteht jetzt aus einem hydrologischen Modell, einem Temperaturmodell und dem eigentlichen Guetemodell. Folgende Stoffkonzentrationen werden berechnet: C-BSB5 (Biochemischer Sauerstoffbedarf der organischen Kohlenstoffverbindungen), CSB (Chemischer Sauerstoffbedarf, Bichromatoxidation), organischer Stickstoff, Ammoniumstickstoff, Nitratstickstoff, geloester Phosphor, ungeloester Phosphor, geloester Sauerstoff, Truebung. Ferner werden die Biomassen derjenigen langsam wachsenden Organismen berechnet, welchen einen wesentlichen Einfluss auf den Stoffhaushalt ausueben (Nitrifikanten, Algen, Zooplankter). Neuere Guetemodellrechnungen zum Sauerstoffhaushalt der Saar nach Ausbau zeigen, dass besonders in den Sommermonaten in den mittleren Stauhaltungen Lisdorf, Rehlingen und Mettlach mit Sauerstoffmangelsituationen zu rechnen ist. Um Fischsterben zu vermeiden, muss deshalb - beim jetzigen Sanierungszustand der Einleiter - kuenstlich
Enhanced Geothermal Systems (EGS) zielen darauf ab, die in der Erdkruste gespeicherte Wärme durch zirkulierende Flüssigkeiten zwischen Injektions- und Produktionsbohrlöchern zu extrahieren. Ideale Bedingungen finden sich typischerweise in Formationen in einer Tiefe von 2 bis 5 km, in denen die Durchflussrate für kommerzielle geothermische Anlagen nicht ausreicht und in denen die Temperaturen hoch sind (d. H. >> 100 ° C). Daher ist die Hochdruck-Flüssigkeitsinjektion, die als hydraulische Stimulation bekannt ist, eine allgemein angewandte Technik, um ein verbundenes Bruchnetzwerk zu erzeugen, das die Flüssigkeitszirkulation erleichtert. Die hydraulische Stimulation geht typischerweise mit einer induzierten Seismizität einher, die von der Öffentlichkeit wahrgenommen werden kann und sogar Schäden verursacht. Das Ziel dieses Projekts ist es, ein grundlegendes Verständnis der induzierten Seismizität in gebrochenen Gesteinen zu vermitteln, das die Fähigkeit verbessert, das seismische Risiko vorherzusagen und zu kontrollieren. Dieses Projekt geht von der Hypothese aus, dass die Seismizität gemeinsam durch die Bruchnetzgeometrie und die aktivierten thermo-hydromechanischen (THM) Prozesse in geologischen Systemen gesteuert wird. Wir werden Discrete Fracture Networks (DFN) anwenden, um die strukturellen Diskontinuitäten darzustellen und die THM-Prozesse mit hoher Auflösung zu modellieren. Dieses Projekt verwendet die Datensätze aus kleinen (Dekameter-) Stimulationsexperimenten am Grimsel-Teststandort in der Schweiz und modernste numerische Modelle, um Folgendes zu erreichen: 1) Testen Sie die Wirksamkeit hochauflösender Modelle zur Erfassung der seismische, hydraulische und mechanische Prozesse, die mit kleinen Experimenten beobachtet wurden; 2) Verknüpfung der geometrischen Attribute eines Bruchnetzwerks (wie Intensität, Konnektivität, Länge und räumliche Verteilung) mit der räumlichen, zeitlichen und Größenverteilung der induzierten Seismizität; 3) ein neuartiges Prognosemodell für die maximal mögliche Größe vorschlagen und testen, das die gemeinsamen Auswirkungen von Multiphysikprozessen berücksichtigt, die unter standortspezifischen geologischen Bedingungen und Betriebsbedingungen dominieren; 4) Bewertung der Hochskalierung der hochauflösenden DFN-Modelle im kleinen Maßstab (Dekameter), um die Experimente im Reservoir-Maßstab (Kilometer) zu simulieren. Dieses Forschungsprojekt ist neu in der Behandlung der durch Injektion induzierten Seismizität durch hochauflösende physikbasierte Modelle und hochwertige Datensätze, die aus einzigartigen In-situ-Experimenten abgeleitet wurden. Die vorgeschlagene Forschung hat erhebliche Auswirkungen auf die Förderung der Übergangspolitik hin zu einer Versorgung mit erneuerbaren Energien und trägt dazu bei, unser Wissen über die Auslösemechanismen induzierter Erdbeben zu erweitern.
Eine Hauptquelle der Vorhersageunsicherheit liegt in der Auslösung von Konvektion durch bodennahe Prozesse wie Grenzschichtturbulenz oder Strömung über Orographie. Für derlei Prozesse wird eine stochastische Beschreibung weiterentwickelt und implementiert. Die erweiterte Parameterisierung wird für unterschiedliche Wetterlagen mit Augenmerk auf die Charakteristika des Fehlerwachstums, die Wechselwirkung mit der großskaligen Strömung und der Güte von Ensemble-Vorhersage getestet. Die relative Bedeutung einzelner Prozesse und deren Wechselwirkung wird untersucht.
Mit der Abwasserbehandlung auf Kläranlagen gehen eine Vielzahl von chemischen und biologischen Prozessen simultan einher. Diese sich gegenseitig beeinflussenden Prozesse, deren Auswirkungen, wenn sich bestimmte Parameter im Prozess ändern und wie Veränderungen vorhergesagt werden können, stellt die Betreiber der Anlagen zum Teil vor große Herausforderungen. Die meisten Einflüsse auf den Prozess bei sich ändernden Umständen sind bereits bekannt, lassen sich aber nur mit großem Aufwand darstellen. Im laufenden Betrieb fällt eine große Anzahl an Messparametern mit entsprechenden Daten an, die zentral abgespeichert werden. Hierbei handelt es sich zum einen um fest eingestellte Betriebswerte, zum anderen aber auch um Daten zu Verbräuchen und sich in Abhängigkeit der Prozesse ergebende Daten. Diese Daten stehen dabei meistens direkt bzw. indirekt in Beziehung zueinander. Bedingt durch die sehr großen Mengen an Daten war es bisher nur sehr schwer möglich, alle anfallenden Messwerte hinsichtlich eines Zielparameters auszuwerten. Eine Möglichkeit zur Analyse, die in den letzten Jahren mehr Beachtung gewinnt, besteht über die Nutzung von künstliche Intelligenz (KI), die durch tausende Rechenoperationen pro Sekunde Muster aufdecken kann. Über die Auswertung historischer Daten kann mit Nutzung der KI ein mathematischer Zusammenhang hergestellt werden. Dieser Zusammenhang soll für die Erstellung zukünftiger Prognosemodelle verwendet werden. Das zum Einsatz kommende Prognosemodell beruht dabei auf einem Digitalen Zwilling der Kläranlage, welcher, verbunden über die Sensoren der Kläranlage, diese virtuell abbildet und in Echtzeit mit seinem wirklichen Vorbild vernetzt ist. Diesem Vorgehen liegt der pragmatische Annahme zugrunde, dass der genaue Einfluss eines bestimmten Parameters zunächst nicht bekannt sein muss, sofern er mathematisch beschrieben werden kann. Das erstellte Modell kann dann beliebig auf Zielparameter eingestellt werden. Im Zuge des Forschungsvorhabens soll dieser Ansatz für die Anwendbarkeit einer möglichen Prognose der Absetzbarkeit des Belebtschlamms vorgenommen werden, explizit der Schlammindexvorhersage (ISV) im Belebtschlammverfahren.
| Organisation | Count |
|---|---|
| Bund | 3450 |
| Europa | 177 |
| Kommune | 20 |
| Land | 259 |
| Weitere | 19 |
| Wirtschaft | 20 |
| Wissenschaft | 1419 |
| Zivilgesellschaft | 36 |
| Type | Count |
|---|---|
| Daten und Messstellen | 2 |
| Ereignis | 1 |
| Förderprogramm | 3427 |
| Text | 41 |
| unbekannt | 27 |
| License | Count |
|---|---|
| Geschlossen | 57 |
| Offen | 3439 |
| Unbekannt | 2 |
| Language | Count |
|---|---|
| Deutsch | 3180 |
| Englisch | 702 |
| Resource type | Count |
|---|---|
| Archiv | 2 |
| Bild | 7 |
| Datei | 1 |
| Dokument | 31 |
| Keine | 1986 |
| Multimedia | 1 |
| Webseite | 1488 |
| Topic | Count |
|---|---|
| Boden | 2419 |
| Lebewesen und Lebensräume | 2860 |
| Luft | 2324 |
| Mensch und Umwelt | 3498 |
| Wasser | 2024 |
| Weitere | 3461 |