API src

Found 32 results.

Quantitative Bewertung von Umweltindikatoren

Im Rahmen des Sachverständigengutachtens "Quantitative Bewertung von Umweltindikatoren" wurde ein R-Programm entwickelt, mit welchem alternative Bewertungsverfahren zur Beurteilung von Umweltindikatoren angewandt werden können. Diese IT-gestützten Analysen historischer Zeitreihenentwicklungen ermöglichen die Beurteilung zukünftiger Trendentwicklungen auf Basis standardisierter statistischer Maßzahlen sowie automatisierter Trend-Identifikations-Algorithmen. Die R-Anwendung ermöglicht dabei eine Anwendung etablierter Bewertungsroutinen der derzeitigen Umweltberichterstattung sowie eines eigenständigen, im Rahmen dieses Vorhabens entwickelten zeitreihenökonometrischen Spezifikations-Algorithmus. Bei der Indikatorbewertung können sämtliche anwendbaren Verfahren durch die Nutzerinnen und Nutzer flexibel modifiziert werden. Insbesondere der Vergleich der für unterschiedliche Bewertungsverfahren und -vorgaben identifizierten Trendtendenzen ermöglicht eine objektivierte Beurteilung der Frage, ob aktuelle Indikatorentwicklungen auf das zukünftige Erreichen gegebener Indikator-Zielwerte schließen lassen. Zudem können die Auswirkungen alternativer zukünftiger Trendentwicklungen auf die berechneten Zielerreichungsgrade betrachtet werden. Zum Projektabschluss wurde der Quellcode dieser Anwendung dem Umweltbundesamt vollständig übergeben. Das Programm kann daher zukünftig auf beliebigen Arbeitsplatz-PCs des Umweltbundesamtes ohne größeren Aufwand installiert werden. Quelle: Forschungsbericht

Quantitative Bewertung von Umweltindikatoren

Research Group on Spatial Decision Support Systems

Das Projekt "Research Group on Spatial Decision Support Systems" wird vom Umweltbundesamt gefördert und von Universität Münster, Fachbereich Geowissenschaften, Institut für Geoinformatik durchgeführt. The research interests of our group are in two areas of Spatial Information Science: 1) spatial decision support techniques and 2) human-computer interaction in collaborative spatial decision making and problem solving. In the area of spatial decision support techniques we aim at supporting people (individuals, groups and organizations) in solving spatial decision problems by addressing three fundamental steps of decision process: intelligence, design, and choice. The focal research problems here are: - Idea generation tools including structured diagramming and cartographic visualization (2D, 3D) supporting 'spatial thinking' and the identification of value-objective-attribute hierarchies; - GeoSimulation models to generate decision options and compute their consequences; - Multi-criteria analysis techniques to evaluate decision options using spatial data about option impacts and user preferences; - Participatory techniques and collaborative approaches to group decision making. Subsequent research questions we are interested include: - Which software architectures are useful for developing robust spatial decision support systems? - Can a generic toolkit for spatial decision support be created? - What decision support services can be offered on-line in wide area networks (Internet) using open spatial data standards? In the area of human-computer interaction research our rational is that methods and techniques for spatial decision support must be subjected to empirical studies so that substantive knowledge about the intended effects of applying geospatial information technologies can be developed. We plan to study information processing, and problem-solving in interactive, collaborative spatial decision environments built by others and ourselves. In building prototype software environments we use off-the-shelf GIS software such as ArcGIS, Idrisi, Grass, use the existing GIS toolkits such as ArcObjects, apply various geosimulation tools, and use higher level programming languages such as Java and VB. Substantive domains for application development and testing of collaborative decision support environments include: - Urban development and transportation planning; - Community planning; - Water resource management; - Land use change. Our group welcomes interested students and other potential participants who would like to work with us in the broadly-defined research area of SDSS. We are very much open to new ideas, which may expand the above listed research interests.

Scenarioanalyse mit dem dynamischen Gewaessermodell SALMO zur Prognose der Wassergueteentwicklung in stehenden und gestauten Gewaessern

Das Projekt "Scenarioanalyse mit dem dynamischen Gewaessermodell SALMO zur Prognose der Wassergueteentwicklung in stehenden und gestauten Gewaessern" wird vom Umweltbundesamt gefördert und von Technische Universität Dresden, Fachrichtung Hydrowissenschaften, Institut für Hydrobiologie durchgeführt. Mit dem am Institut fuer Hydrobiologie entwickelten dynamischen Oekosystemmodell SALMO laesst sich der Einfluss externer Belastungsquellen (Naehrstoffe, organische Belastung) und gewaesserinterner Massnahmen (Stauspiegelabsenkung, Teilzirkulation, Biomanipulation) auf die Wasserqualitaet von Talsperren und Seen (Phytoplanktonbiomasse, Sauerstoff, Nitratkonzentration) abschaetzen. So half das Modell in einer Studie der IDUS-GmbH bei der Charakterisierung von Einfluss und Wechselwirkungen unterschiedlicher Belastungskomponenten (Naehrstoffe, lichtabsorbierende Stoffe) bezueglich der Wasserguete der Talsperre Bleiloch. Unter massgeblicher Beteiligung des Instituts fuer Automatisierungs- und Systemtechnik der TU Ilmenau entstand eine komplette Neuimplementierung des Gleichungssystems mit dem Simulationssystem Matlab/Simulink sowie in der objektorientierten Programmiersprache JAVA. Diese ermoeglicht die Simulation raeumlich kompartimentierter Gewaesser, eine einfachere Handhabbarkeit des Gleichungssystems und eine betraechtliche Erweiterung des Anwendungsspektrums von SALMO als Werkzeug fuer Forschung, Lehre und Entscheidungsfindung.

Dynamisch erweiterbare Simulationsumgebung für regenerative Energiesysteme (DESIRE)

Das Projekt "Dynamisch erweiterbare Simulationsumgebung für regenerative Energiesysteme (DESIRE)" wird vom Umweltbundesamt gefördert und von Hochschule für Technik und Wirtschaft Berlin, Fachbereich 1 Ingenieurwissenschaften - Energie und Information durchgeführt. DESIRE ist eine an der HTW Berlin entwickelte Simulationsumgebung für regenerative Energiesysteme. Obwohl diese Simulationsumgebung extrem viele Freiheitsgrade bietet, ist ein Erlernen auch für Personen mit geringeren Computerkenntnissen in kürzester Zeit möglich. Um dies zu erreichen, baut DESIRE auf MS Excel als Entwicklungsumgebung auf, wobei Geschwindigkeitsnachteile von MS Excel bei komplexen Simulationsrechnungen durch die Entwicklung höherer Funktionsbibliotheken in einer höheren Programmiersprache wie C++ in Form von Dynamic Link Libraries (DLL) kompensiert werden. DESIRE enthält verschiedene Funktionsbibliotheken aus unterschiedlichen Bereichen regenerativer Energien, die sich dynamisch zu Werkzeugen oder komplexen Simulationsmodulen kombinieren lassen. Zahlreiche Analyse- und Simulationswerkzeuge (Tools) bieten auch dem Laien die Möglichkeiten der Analyse regenerativer Energiesysteme mit DESIRE. Eine Online-Version von DESIRE ermöglicht zusätzlich das Ausführen von DESIRE-Tools auch direkt über das Internet und erweitert so das eLearning-Angebot der HTW Berlin. Die Tools wurden in JAVA implementiert und erfordern zum Ausführen lediglich einen Webbrowser und ein aktuelles JAVA-Plugin. Hier können Anwender spielerisch komplexe funktionale Zusammenhänge verinnerlichen. DESIRE ist ein internes Projekt der HTW Berlin. Die Simulationsumgebung wird inzwischen in der Lehre und in weiteren Drittmittelprojekten wie dem Solar Decathlon Europe (SDE) eingesetzt.

Teilvorhaben: Entwicklung und Implementierung kanonischer Basismodelle netzgebundener Wechselrichter

Das Projekt "Teilvorhaben: Entwicklung und Implementierung kanonischer Basismodelle netzgebundener Wechselrichter" wird vom Umweltbundesamt gefördert und von elena international GmbH durchgeführt. Die Bundesregierung hat sich im Koalitionsvertrag das Ziel gesetzt, den Anteil erneuerbarer Energien (EE) an der Stromversorgung bis zum Jahr 2030 auf 65% zu steigern. Um dies zu gewährleisten, ohne die Netzstabilität und damit die Versorgungssicherheit zu gefährden, müssen zahlreiche Herausforderungen bewältigt werden. Hierbei sind zwei wichtige Aspekte, dass ein Großteil der EE sowie auch Energiespeicher über Wechselrichter an das Netz gekoppelt ist und dass die meisten EE an die Mittel- und Niederspannungsebene angeschlossen sind. Diese Änderungen in Struktur und Dynamik der Stromnetze erfordern neue Formen der systemdienstlichen Regelungen, die vorab modelliert und praktisch validiert werden müssen, um auch zukünftig einen zuverlässigen und effizienten Netzbetrieb sicherzustellen. Hierfür ist es unabdingbar reduzierte Modelle geregelter Wechselrichter zu entwickeln, die sowohl numerisch und analytisch handhabbar sind, als auch verlässliche Aussagen über das tatsächliche Systemverhalten zulassen. Die Hauptinnovation des Vorhabens ist daher die Entwicklung einer Open-Source Software in der Programmiersprache Julia, die experimentell validierte kanonische Basis-Modelle geregelter netzgebundener Wechselrichter sowie neueste, netzstützende Regelungskonzepte aus der Forschung integriert. Dies mündet in eine Neurelease der von uns entwickelten 'PowerDynamics.jl'-Bibliothek als 'PowerDynamics.jl 2.0' (PDB2). Das Open-Source-Prinzip garantiert dabei eine nachhaltige Verwertung sowie einen auch zukünftig raschen Forschungstransfer. Mit Hilfe geeigneter Modellreduktionsverfahren werden gemeinsam mit dem FG RuN kanonische Modelle netzgebundener Wechselrichter entwickelt, in Julia implementiert und in PDB integriert. Im nächsten Schritt werden die Modelle um geeignete Regelungskonzepte zur Erbringung von Systemdienstleistungen durch EE ergänzt und ebenfalls in PDB integriert.

Teilvorhaben: Prototypische Anwendung des Softwaresystems

Das Projekt "Teilvorhaben: Prototypische Anwendung des Softwaresystems" wird vom Umweltbundesamt gefördert und von WVI Prof. Dr. Wermuth Verkehrsforschung und Infrastrukturplanung GmbH durchgeführt. Elektronische Fahrgeldmanagementsysteme (EFM) gewinnen im ÖPNV an Bedeutung. Sie schließen eine elektronische Preisermittlung ein und können innovative, stärker nutzungsbezogene Tarifsysteme umsetzen. Die Entwicklung flexibler Tarifkonzepte ist jedoch hoch komplex und stellt die Verkehrsverbünde vor besondere Herausforderungen. Die Entwicklung solcher Tarifsysteme erweist sich heutzutage insbesondere aufgrund fehlender Real- und Vergleichsdaten als äußerst schwierig. Dies ist ein wesentliches Hemmnis bei der Einführung elektronischer Tarife bzw. EFM-Systemen der Stufe 3. Das Forschungsprojekt hat daher zum Ziel, einen grundlegend neuen methodischen Ansatz für die Tarifentwicklung im ÖPNV mit einer neuen, sich derzeit etablierenden tarifspezifischen Programmiersprache zu kombinieren und dies über ein Softwaresystem mit Software As A Service (SaaS)-Komponenten als Werkzeug für den zukünftigen Projekteinsatz nutzbar zu machen.

VOKos - Effizienzsteigerung durch verfahrenstechnisch optimierende Korrosionsschutzkonzepte in Verbrennungsanlagen mit heterogenen Festbrennstoffen

Das Projekt "VOKos - Effizienzsteigerung durch verfahrenstechnisch optimierende Korrosionsschutzkonzepte in Verbrennungsanlagen mit heterogenen Festbrennstoffen" wird vom Umweltbundesamt gefördert und von SAR Elektronic GmbH durchgeführt. 1.Durch die Betriebsdatenanalyse von ca. 10 Anlagen zur therm. Abfallbehandlung erfolgt eine erste Einordnung und Abgrenzung von Korrosionsgeschehen und erste Einschätzungen über die Einflüsse auf das Korrosionsmaß. 2.Ein wesentliches Problem-sowohl in der realen Anlage als auch in der Modellierung-ist die Brennstoffaufgabe mit ihren zahlreichen Unbekannten. Durch Berechnungen zum Brennstoffmassenstrom wird die Modellierung der Aufgabe deutlich verbessert. 3.Erst durch die Kopplung der FLR mit dem Feuerungsmodell wird es möglich, verschiedene sim. Zustände des Brennbettverhaltens zu validieren.4.Durch Herstellen von expliziten Feuerungszuständen können erstmalig Zusammenhänge zwischen Betriebsparametern und dem Partikelaustrag erkannt (und gemessen) werden. Jedes der zu bearbeitenden Arbeitspakete erfordert ein unterschiedliche Herangehensweise und Methode. Die Betriebsdatenanalyse erfolgt durch die Anwendung von statistischen Methoden in Korrelation mit konstruktiven und verfahrenstechnischen Merkmalen. Die Kopplung zwischen FLR und Feuerungsmodell ist softwarelastig. Es werden div. Programmiersprachen und Industriestandards angewendet, damit eine betriebssichere Kopplung zustande kommt. Die Untersuchungen zur Partikelfreisetzung mittels Primärmaßnahmen sind praxisorientiert, da hier bei laufender Anlage in den Feuerungsbetrieb eingegriffen wird. Analog dazu verhält es sich bei der Umsetzung der gewonnenen Erkenntnisse. Auch diese müssen bei laufenden Anlagenbetrieb getestet werden.

sub-project: AB Assitance Konfigurator (Scheer)

Das Projekt "sub-project: AB Assitance Konfigurator (Scheer)" wird vom Umweltbundesamt gefördert und von Scheer GmbH durchgeführt.

Developing Hardware and Design Methodologies for Heterogeneous Low Power Field Programmable Servers (FiPS)

Das Projekt "Developing Hardware and Design Methodologies for Heterogeneous Low Power Field Programmable Servers (FiPS)" wird vom Umweltbundesamt gefördert und von OFFIS e.V., FuE-Bereich Verkehr durchgeführt. Goals: Many of today's technical blessings, e.g. weather forecast, fuel efficient car-shapes, medical tomography analysis or even a simple Google query depend on massive computer programs that are executed on super-computing centers with thousands of computers, which consume a lot of electrical energy. With increasing super-computing demand severe economic and ecological problems arise. Already 15% of the world-wide electrical energy is used to power all the computers in use today, and this number is quickly increasing. There are alternative kinds of computing devices such as smart-phone processors, 3D graphic chips and reconfigurable FPGA hardware (as used in DSL modems and network switches), which can provide much higher energy efficiency than traditional processors. Today, a typical super-computing program consists of a huge number of small jobs. Some of them can be run on these alternative architectures, reducing the demand and therefore the required number of traditional high-energy, high performance processors. Motivation: The FiPS project thus proposes to build a new heterogeneous super-computer class. It combines traditional high performance processors for complex tasks with many of the efficient alternative processors for simple tasks. As the total number of processors increases, these new super-computers will be slightly faster, but will at the same time substantially reduce the energy demand. FiPS will not only have an ecological impact by reducing energy demand (and thus carbon dioxide emission), but also an economic impact by cutting one of the major costs of running a super-computing center, its energy costs. Supercomputing will become cheaper and thus affordable for many other applications. Promotion: This project has received funding from the European Union's Seventh Framework Programme for research, technological development and demonstration under grant agreement no 609757. Technology: The drawback of building super-computers from a heterogeneous network of processors rather than a regular grid of identical processors is that heterogeneous systems are much harder to program, as the individual properties of many different components have to be considered. For instance, different processors require different programming languages, and it has to be decided, which processor type will finally run a computation job, either to get the result as fast as possible or with the lowest energy costs. And finally, all processors working on different parts of the same problem have to synchronize on their intermediate results. This is up to now only possible in a regular grid of homogeneous processors. To solve these issues, FiPS will setup a programming methodology, in which just a single programming language is used to write the super-computing program. The final software is then analyzed and splitted into chunks by the FiPS methodology. (abridged text)

1 2 3 4