This dataset documents a series of analogue experiments designed to investigate the coupled evolution of magma-driven surface uplift and rainfall-driven geomorphic processes. Seven controlled laboratory experiments were conducted, each combining shallow intrusion of a magma analogue with imposed rainfall of varying intensity, in order to systematically explore the role of surface processes under different forcing conditions. The experimental setup consists of a rigid Plexiglas container filled with a water-saturated granular mixture formulated to reproduce brittle crustal behaviour under wet conditions. Magmatic intrusion was simulated by injecting a fixed volume (360 cm³) of low-viscosity polyglycerine through a basal inlet at three distinct injection rates, while surface processes were imposed using an overhead rainfall system delivering three different rainfall intensities. Topographic evolution during each experiment was monitored using a structured-light laser scanner (Artec Leo). For every model run, six Digital Elevation Models (DEMs) were generated at synchronised stages corresponding to 0%, 20%, 40%, 60%, 80% and 100% of the injected volume, yielding a total of 42 DEMs. Raw scans were processed through a triangulated irregular network (TIN) meshing workflow and subsequently rasterised to GeoTIFF format without additional post-processing, in order to preserve the original topographic signal. In parallel, time-lapse photographic documentation was acquired throughout each experiment using a digital camera, providing a complementary visual record of dome growth, surface incision and sediment redistribution. The dataset is organised into two main components: (i) high-resolution topographic datasets (DEMs) and (ii) time-indexed photographic sequences, both linked to the temporal evolution of each experiment. Quality control procedures include scanner calibration prior to acquisition, verification of mesh consistency and raster resolution, and a closed-system experimental design ensuring mass conservation. All data are distributed in their original formats and accompanied by detailed documentation describing experimental procedures, data processing workflows, and file organisation, enabling reproducibility and reuse in quantitative analyses of coupled magmatic and surface processes. This publication results from work conducted under the transnational access/national open access action at University Roma Tre, Laboratory of Experimental Tectonics (LET) supported by WP3 ILGE - MEET project, PNRR - EU Next Generation Europe program, MUR grant number D53C22001400005.
Im Rahmen dieses Projekt sollen auf der Basis von Erfahrungen mit Rottedeponien (mechanisch-biologische Behandlung vor der Deponierung) in Deutschland, als einem hochindustrialisierten und durchaus kapitalkraeftigen Land, Konzepte fuer weniger kapitalkraeftige Laendern entwickelt werden. Hiermit wird eine oekologisch hoeherwertige Form der Abfallbeseitigung (Rottedeponie) technisch einfach und finanziell tragbarer moeglicht. Das Projekt ist dreiphasig angelegt. Die erste Phase beinhaltet die Sammlung von Informationen und Erfahrungen ueber Rottedeponien fuer Hausmuell und Restmuell in Deutschland sowie Untersuchungen der Abfallzusammensetzung vor Ort im Beispielland. In der zweiten Projektphase wird eine repraesentative und qualifizierte Abfallprobe, entsprechend den in der ersten Projektphase gewonnen erkenntnissen, ueber die Abfallzusammensetzung in diesem Land hergestellt. Diese Abfallprobe wird auf verschiedene Weisen (mit oder ohne Klaerschlammzugabe) in unterschiedlichen Betriebsarten (mechanisch-biologisch im Muellgrossbehaelter unter Luftzufuhr) vor der Endablagerung vorbehandelt. In regelmaessigen Abstaenden werden Gasproben, Sickerwasser und Muellproben untersucht. Nach der mechanisch-biologischen Behandlung wird die behandelte Abfallprobe in der Deponie abgelagert. Die dritte Phase beinhaltet die Auswertung der Versuche und die Untersuchung der Uebertragbarkeit des vorgestellten Modells auf andere Laender. Das angewandte Verfahren stellt sicher, dass ein weitgehend gleichmaessiges, reaktionsaermeres und gut verdichtbares Material zur Ablagerung in der Deponie herstellt wird. Um die klimatischen Faktoren als Einflussparameter erfassen zu koennen, werden die Modellversuche in zwei Durchgaengen (Modellversuch Sommer/Winter) angelegt.
Im beantragten Projekt soll die Wechselwirkung von Strömungs- und Substratbedingungen auf die Struktur und Funktion von Biofilmen untersucht werden. Entscheidend ist hier die Kombination von experimenteller und modelltechnischer Kompetenz, die es erlauben soll, das Biofilmwachstum, die Struktur, die Wechselwirkung mit dem Fluid und den Abtrag von Biomasse für einen großen Bereich von verschiedenen Bedingungen zu modellieren. Auf der experimentellen Seite soll vor allem die optische Kohärenztomographie (OCT) genutzt werden, um auf der Biofilm-Mesoskala Informationen zur Fluidstruktur-Wechselwirkung zu generieren. Sauerstoffoptoden sollen eingesetzt werden, um zweidimensional aufgelöste Informationen zur Biofilmaktivität zu ermitteln. Die experimentellen Daten werden dann genutzt, um ein Kontinuum-Biofilmmodel zu erstellen und zu kalibrieren. Im Vergleich zu den bisher verwendeten Biofilmmodellen wird im zu entwickelnden Modell die Interaktion der Biofilmstruktur mit dem umgebenden Fluid integriert. Dafür müssen die mechanischen Eigenschaften des Biofilms bekannt sein. Sie sollen mit der OCT ermittelt werden, die es erlaubt, zwei- und dreidimensionale Bilddaten der Biofilme bei sich ändernden Strömungsbedingungen zu ermitteln. Die Daten werden dann in das Biofilmmodel übertragen, dafür sollen entsprechende Protokolle entwickelt werden. Zunächst wird der Biofilm als homogene Struktur betrachtet, in weiteren Schritten werden die mechanischen Biofilmeigenschaften dann auch als heterogen angenommen. Neben dem Wachstum wird auch der Abtrag von Biomasse (also kohäsive und adhäsive Eigenschaften) in das Modell eingehen, auch dafür sollen mit Hilfe der OCT entsprechenden Experimente zur Verifikation durchgeführt werden. Die Vorhersagefähigkeit des entwickelten Biofilmmodelles soll zum Ende des Vorhabens anhand eines realen Abwasserbiofilms getestet werden. Ziel ist es, dass mit Hilfe des entwickelten Modells das Verhalten von Biofilmen für eine große Breite von Strömungs- und Substratbedingungen vorhersagbar wird.
It is well established that reduced supply of fresh organic matter, interactions of organic matter with mineral phases and spatial inaccessibility affect C stocks in subsoils. However, quantitative information required for a better understanding of the contribution of each of the different processes to C sequestration in subsoils and for improvements of subsoil C models is scarce. The same is true for the main controlling factors of the decomposition rates of soil organic matter in subsoils. Moreover, information on spatial variabilities of different properties in the subsoil is rare. The few studies available which couple near and middle infrared spectroscopy (NIRS/MIRS) with geostatistical approaches indicate a potential for the creation of spatial maps which may show hot spots with increased biological activities in the soil profile and their effects on the distribution of C contents. Objectives are (i) to determine the mean residence time of subsoil C in different fractions by applying fractionation procedures in combination with 14C measurements; (ii) to study the effects of water content, input of 13C-labelled roots and dissolved organic matter and spatial inaccessibility on C turnover in an automatic microcosm system; (iii) to determine general soil properties and soil biological and chemical characteristics using NIRS and MIRS, and (iv) to extrapolate the measured and estimated soil properties to the vertical profiles by using different spatial interpolation techniques. For the NIRS/MIRS applications, sample pretreatment (air-dried vs. freeze-dried samples) and calibration procedures (a modified partial least square (MPLS) approach vs. a genetic algorithm coupled with MPLS or PLS) will be optimized. We hypothesize that the combined application of chemical fractionation in combination with 14C measurements and the results of the incubation experiments will give the pool sizes of passive, intermediate, labile and very labile C and N and the mean residence times of labile and very labile C and N. These results will make it possible to initialize the new quantitative model to be developed by subproject PC. Additionally, we hypothesize that the sample pretreatment 'freeze-drying' will be more useful for the estimation of soil biological characteristics than air-drying. The GA-MPLS and GA-PLS approaches are expected to give better estimates of the soil characteristics than the MPLS and PLS approaches. The spatial maps for the different subsoil characteristics in combination with the spatial maps of temperature and water contents will presumably enable us to explain the spatial heterogeneity of C contents.
Auch in aeroben Böden finden Denitrifikationsprozesse statt, aller Voraussicht nach in heterogen verteilten anoxischen Mikrobereichen. Lokal anaerobe Bedingungen sind dabei entweder das Ergebnis einer limitierten Sauerstoffnachlieferung oder von besonders hohem Sauerstoffverbrauch bei der mikrobiellen Zersetzung von leicht abbaubarer organischer Substanz. Die Dynamik des Stickstoffumsatzes wird durch ein Zusammenspiel von mikrobieller Aktivität und abiotischen Bedingungen gesteuert, die eng mit der Bodenstruktur zusammenhängen. Denitrifikation ist ein Mehrskalenprozess, bei dem die biogeochemischen Prozess in einzelnen Poren stattfinden, während die relevante Skala für den Transport von Sauerstoff und organischer Substanz Millimeter bis Dezimeter ist. Schließlich werden für Klimasimulationen die aggregierten Produktflüsse für Gebiete mit einer Fläche von mindestens einigen Quadratkilometern benötigt. Diese enorme Spanne von mindestens drei Skalen über mehr als 9 Größenordnungen soll in diesem Projekt durch Modellierung und numerische Simulation mit einer Hierarchie von drei verschiedenen Modellen überbrückt werden. Ein dreidimensionales porenskaliges Modell wird zur Simulation einzelner Aggregate verwendet, ein ebenfalls dreidimensionales kontinuumskaliges Modell zur Simulation von Experimenten in Boden-Mesokosmen und ein drittes, eindimensionales Modell zum Testen von Upscaling-Konzepten, die später Eingang in Simulationen für ganze Landschaften finden sollen. Die Modelle werden mit Batchexperimenten parametrisiert und durch Untersuchung ihrer Fähigkeit zur Prognose der zeitlichen Dynamik der Denitrifikation und der Stöchiometrie der Produkte für Experimente mit unterschiedlichen Materialien (von künstlichen porösen Medien bis zu ungestörten Böden) und Randbedingungen validiert. Die Hierarchie von Modellen wird dann verwendet um verbesserte effektive Modelle der Denitrifikation auf der Macroskala zu entwickeln. Die betrifft insbesondere die Bildung, Ausdehnung und Auswirkung anaerober Mikrozonen.
# robbenblick A Computer Vision project for object detection and annotation management using YOLOv8, SAHI, and FiftyOne, with the primary aim of counting objects (Robben) in large aerial images. ## Overview This repository provides a complete MLOps pipeline for: * **Data Preparation:** Converting raw CVAT annotations (XML) and large images into a tiled, YOLO-compatible dataset. * **Automated Experiments:** Systematically training and tuning YOLOv8 models. * **Tiled Inference:** Running optimized inference (SAHI) on large, high-resolution images for object counting. * **Evaluation:** Assessing model performance for both detection (mAP) and counting (MAE, RMSE, R²). * **Visualization:** Analyzing datasets and model predictions interactively with FiftyOne. ## Pretrained Model Weights Pretrained model weights are available on Hugging Face: https://huggingface.co/ki-ideenwerkstatt-23/robbenblick/ ## Project Workflow The project is designed to follow a clear, sequential workflow: 1. **Prepare Data (`create_dataset.py`):** Organize your raw images and CVAT `annotations.xml` in `data/raw/` as shown below. ```text data/raw/ ├── dataset_01/ │ ├── annotations.xml │ └── images/ └── dataset_02/ ... ``` Run the script to generate a tiled, YOLO-formatted dataset in `data/processed/` and ground truth count CSVs. 2. **Tune Model (`run_experiments.py`):** Define a set of hyperparameters (e.g., models, freeze layers, augmentation) in `configs/base_iter_config.yaml`. Run the script to train a model for every combination and find the best performer. 3. **Validate Model (`yolo.py`):** Take the `run_id` of your best experiment and run validation on the hold-out `test` set to get **detection metrics (mAP)**. 4. **Infer & Count (`predict_tiled.py`):** Use the best `run_id` to run sliced inference on new, large images. This script generates final counts and visual outputs. 5. **Evaluate Counts (`evaluate_counts.py`):** Compare the `detection_counts.csv` from inference against the `ground_truth_counts.csv` to get **counting metrics (MAE, RMSE)**. 6. **Visualize (`run_fiftyone.py`):** Visually inspect your ground truth dataset or your model's predictions at any stage. ## Configuration This project uses two separate configuration files, managed by `robbenblick.utils.load_config`. * **`configs/base_config.yaml`** * **Purpose:** The single source of truth for **single runs**. * **Used By:** `create_dataset.py`, `predict_tiled.py`, `run_fiftyone.py`, and `yolo.py` (for validation/single-predict). * **Content:** Defines static parameters like data paths (`dataset_output_dir`), model (`model`), and inference settings (`confidence_thresh`). * **`configs/base_iter_config.yaml`** * **Purpose:** The configuration file for **experiments and tuning**. * **Used By:** `run_experiments.py`. * **Content:** Any parameter defined as a **YAML list** (e.g., `model: [yolov8n.pt, yolov8s.pt]`) will be iterated over. `run_experiments.py` will test every possible combination of all lists. ## Environment Setup 1. Clone the repository: ```sh git clone git@github.com:ki-iw/robbenblick.git cd robbenblick ``` 2. Create the Conda environment: ```sh conda env create --file environment.yml conda activate RobbenBlick ``` 3. (Optional) Install pre-commit hooks: ```sh pre-commit install ``` ## Core Scripts & Usage ### `create_dataset.py` * **Purpose:** Converts raw CVAT-annotated images and XML files into a YOLO-compatible dataset, including tiling and label conversion. * **How it works:** * Loads configuration from a config file. * Scans `data/raw/` for dataset subfolders. * Parses CVAT XML annotations and extracts polygons. * Tiles large images into smaller crops based on `imgsz` and `tile_overlap` from the config. * Converts polygon annotations to YOLO bounding box format for each tile. * Splits data into `train`, `val`, and `test` sets and writes them to `data/processed/dataset_yolo`. * Saves a `ground_truth_counts.csv` file in each raw dataset subfolder, providing a baseline for counting evaluation. * **Run:** ```sh # Do a 'dry run' to see statistics without writing files python -m robbenblick.create_dataset --dry-run --config configs/base_config.yaml # Create the dataset, holding out dataset #4 as the test set python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 4 ``` * **Key Arguments:** * `--config`: Path to the `base_config.yaml` file. * `--dry-run`: Run in statistics-only mode. * `--test-dir-index`: 1-based index of the dataset subfolder to use as a hold-out test set. * `--val-ratio`: Ratio of the remaining data to use for validation. ### `run_experiments.py` * **Purpose:** **This is the main training script.** It automates hyperparameter tuning by iterating over parameters defined in `base_iter_config.yaml`. * **How it works:** * Finds all parameters in the config file that are lists (e.g., `freeze: [None, 10]`). * Generates a "variant" for every possible combination of these parameters. * For each variant, it calls `yolo.py --mode train` as a subprocess with a unique `run_id`. * After all runs are complete, it reads the `results.csv` from each run directory, sorts them by `mAP50`, and prints a final ranking table. * **Run:** ```sh # Start the experiment run defined in the iteration config python -m robbenblick.run_experiments --config configs/base_iter_config.yaml # Run experiments and only show the top 5 results python -m robbenblick.run_experiments --config configs/base_iter_config.yaml --top-n 5 ``` ### `predict_tiled.py` * **Purpose:** **This is the main inference script.** It runs a trained YOLOv8 model on new, full-sized images using Sliced Aided Hyper Inference (SAHI). * **How it works:** * Loads a trained `best.pt` model specified by the `--run_id` argument. * Loads inference parameters (like `confidence_thresh`, `tile_overlap`) from the `base_config.yaml`. * Uses `get_sliced_prediction` from SAHI to perform tiled inference on each image. * Saves outputs, including visualized images (if `--save-visuals`), YOLO `.txt` labels (if `--save-yolo`), and a `detection_counts.csv` file. * **Run:** ```sh # Run inference on a folder of new images and save the visual results python -m robbenblick.predict_tiled \ --config configs/base_config.yaml \ --run_id "best_run_from_experiments" \ --source "data/new_images_to_count/" \ --output-dir "data/inference_results/" \ --save-visuals ``` ### `evaluate_counts.py` * **Purpose:** Evaluates the *counting* performance of a model by comparing its predicted counts against the ground truth counts. * **How it works:** * Loads the `ground_truth_counts.csv` generated by `create_dataset.py`. * Loads the `detection_counts.csv` generated by `predict_tiled.py`. * Merges them by `image_name`. * Calculates and prints key regression metrics (MAE, RMSE, R²) to assess the accuracy of the object counting. * **Run:** ```sh # Evaluate the counts from a specific run python -m robbenblick.evaluate_counts \ --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" \ --pred-csv "data/inference_results/detection_counts.csv" ``` ### `yolo.py` * **Purpose:** The core engine for training, validation, and standard prediction. This script is called by `run_experiments.py` for training. You can use it directly for validation. * **How it works:** * `--mode train`: Loads a base model (`yolov8s.pt`) and trains it on the dataset specified in the config. * `--mode validate`: Loads a *trained* model (`best.pt` from a run directory) and validates it against the `test` split defined in `dataset.yaml`. This provides **detection metrics (mAP)**. * `--mode predict`: Runs standard (non-tiled) YOLO prediction on a folder. * **Run:** ```sh # Validate the 'test' set performance of a completed run python -m robbenblick.yolo \ --config configs/base_config.yaml \ --mode validate \ --run_id "best_run_from_experiments" ``` ### `run_fiftyone.py` * **Purpose:** Visualizes datasets and predictions using FiftyOne. * **How it works:** * `--dataset groundtruth`: Loads the processed YOLO dataset (images and ground truth labels) from `data/processed/`. * `--dataset predictions`: Loads images, runs a specified model (`--run_id`) on them, and displays the model's predictions. * **Run:** ```sh # View the ground truth annotations for the 'val' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset groundtruth \ --split val \ --recreate # View the predictions from 'my_best_run' on the 'test' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset predictions \ --split test \ --run_id "my_best_run" \ --recreate ``` ### `streamlit_app.py` * **Purpose:** Quick test runs with the trained model of your choice for counting the seals in the image(s) and visualization. * **How it works:** * Loads the selected YOLO model from `runs/detect/`. * Upload images, run model, then displays the counts and model's predictions as image visualization. * **Run:** ```sh # View the ground truth annotations for the 'val' split export PYTHONPATH=$PWD && streamlit run robbenblick/streamlit_app.py ``` ## Recommended Full Workflow 1. **Add Raw Data:** * Place your first set of images and annotations in `data/raw/dataset_01/images/` and `data/raw/dataset_01/annotations.xml`. * Place your second set (e.g., from a different location) in `data/raw/dataset_02/images/` and `data/raw/dataset_02/annotations.xml`. 2. **Create Dataset:** * Run `python -m robbenblick.create_dataset --dry-run` to see your dataset statistics. Note the indices of your datasets. * Let's say `dataset_02` is a good hold-out set. Run: `python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 2` * This creates `data/raw/dataset_02/ground_truth_counts.csv` for later. 3. **Find Best Model:** * Edit `configs/base_iter_config.yaml`. Define your experiments. ```yaml # Example: Test two models and two freeze strategies model: ['yolov8s.pt', 'yolov8m.pt'] freeze: [None, 10] yolo_hyperparams: scale: [0.3, 0.5] ``` * Run the experiments: `python -m robbenblick.run_experiments`. * Note the `run_id` of the top-ranked model, e.g., `iter_run_model_yolov8m.pt_freeze_10_scale_0.3`. 4. **Validate on Test Set (Detection mAP):** * Check your best model's performance on the unseen test data: `python -m robbenblick.yolo --mode validate --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --config configs/base_config.yaml` * This tells you how well it *detects* objects (mAP). 5. **Apply Model for Counting:** * Get a new folder of large, un-annotated images (e.g., `data/to_be_counted/`). * Run `predict_tiled.py`: `python -m robbenblick.predict_tiled --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --source "data/to_be_counted/" --output-dir "data/final_counts/" --save-visuals` * This creates `data/final_counts/detection_counts.csv`. 6. **Evaluate Counting Performance (MAE, RMSE):** * Now, compare the predicted counts (Step 5) with the ground truth counts (Step 2). Let's assume your "to_be_counted" folder *was* your `dataset_02`. `python -m robbenblick.evaluate_counts --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" --pred-csv "data/final_counts/detection_counts.csv"` * This gives you the final MAE, RMSE, and R² metrics for your **counting task**. ## Additional Notes This repository contains only the source code of the project. The training data and the fine-tuned model weights are not included or published. The repository is currently not being actively maintained. Future updates are not planned at this time. For transparency, please note that the underlying model used throughout this project is based on **YOLOv8 by Ultralytics**. ## License Copyright (c) 2025 **Birds on Mars**. This project is licensed under the **GNU Affero General Public License v3.0 (AGPL-3.0)**. This aligns with the license of the underlying **YOLOv8** model architecture used in this project. Please note: **Training data and fine-tuned model weights are not part of the licensed materials** and are not included in this repository. For full details, see the LICENSE file. ## Troubleshooting ### FiftyOne: images (partially) not visible Try using `--recreate` flag to force FiftyOne to reload the dataset: ```sh python robbenblick/run_fiftyone.py --dataset groundtruth --split val --recreate ``` ### FiftyOne: failed to bind port If you get: ``` fiftyone.core.service.ServiceListenTimeout: fiftyone.core.service.DatabaseService failed to bind to port ``` Try killing any lingering `fiftyone` or `mongod` processes: ```sh pkill -f fiftyone pkill -f mongod Then rerun your script. ``` # Collaborators The code for this project has been developed through a collaborative effort between [WWF Büro Ostsee](https://www.wwf.de/themen-projekte/projektregionen/ostsee) and [KI-Ideenwerkstatt](https://www.ki-ideenwerkstatt.de), technical implementation by [Birds on Mars](https://birdsonmars.com). <p></p> <a href="https://ki-ideenwerkstatt.de" target="_blank" rel="noopener noreferrer"> <img src="assets/kiiw.jpg" alt="KI Ideenwerkstatt" height="100"> </a> <p></p> Technical realization <br> <a href="https://birdsonmars.com" target="_blank" rel="noopener noreferrer"> <img src="assets/bom.jpg" alt="Birds On Mars" height="100"> </a> <p></p> An AI initiative by <br> <a href="https://www.bundesumweltministerium.de/" target="_blank" rel="noopener noreferrer"> <img src="assets/bmukn.svg" alt="Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit" height="100"> </a> <p></p> In the context of <br> <a href="https://civic-coding.de" target="_blank" rel="noopener noreferrer"> <img src="assets/civic.svg" alt="Civic Coding" height="100"> </a>
The pattern of plant nutrient uptake in a soil profile is the result of complex processes occurring at the cellular or sub-cellular levels but affecting the whole-plant behaviour in function of the plant environment that varies strongly in time and space. The plant nutrient acquisition depends on root architecture and growth, on soil properties and heterogeneity, and on the 3-D distribution of nutrients and water. Equally important is how these parameters interact, as for instance how the nutrient distribution and soil properties and heterogeneity impact root growth or how nutrient and water limitation affect assimilate allocation. Mathematical modelling using a spatial resolution that resolves the spatial structure of the root structure and the nutrient and water distribution is therefore needed to quantitatively account for these complex and interacting processes and to predict plant nutrient uptake behaviour under environmental constraints. The main goal of the project is to build a modelling platform able to describe 3-D flow and transport processes in the soil to individual roots of an entire root system (WP1). Model parameters will be derived from specific experiments performed at the plant scale in the research group (WP3) and stored in a specific data warehouse (WP2). The impact of different parameters, which describe root growth and nutrient uptake at the single root scale, on nutrient uptake at the soil profile scale, will be investigated based on scenario analyses (WP4). Data on water and nutrient uptake and root growth from plant and field scale experiments will be compared with model predictions to validate the model. Simulations with the 3-D root scale model will be used to validate hypotheses and parameterizations of larger scale 1-D models that do not describe processes at the scale of individual roots (WP5 and SP10).
Basierend auf der Grundlage zur Bemessung für Böschungs- und Sohlsicherungen an Binnenwasserstraßen (GBB, 2010) sollen Modellversuche und Berechnungen zur Porenwasserdruckentwicklung in (schluffigen) Sanden durchgeführt werden um ein mögliches Optimierungspotenzial zu bewerten. Zudem soll das Verflüssigungsverhalten dieser Sande betrachtet werden. Aufgabenstellung und Ziel Ufer von Bundeswasserstraßen unterliegen hydraulischen Einwirkungen. Schiffe z. B. erzeugen bei Vorbeifahrt am Ufer einen sogenannten Absunk, der im Boden Porenwasserüberdrücke und damit Porenströmungen erzeugt, die zur Verflüssigung einer oberflächennahen Schicht führen können. Bei konventionellen Deckwerken wird die lokale Standsicherheit der Böschungen durch das Aufbringen einer Flächenlast (Wasserbausteine) gewährleistet. Die Bemessung der Deckschicht erfolgt dabei anhand des BAW-Merkblatts „Grundlagen zur Bemessung von Böschungs- und Sohlsicherungen an Binnenwasserstraßen (GBB)“ (Bundesanstalt für Wasserbau 2010). Technisch-biologische Ufersicherungen (TBU) können dabei helfen, Wasserstraßen wieder naturnaher zu gestalten. Diese können aus einer Kombination von pflanzlicher und technischer Sicherung oder durch eine rein pflanzliche Sicherung hergestellt werden. Bei TBUs ohne technische Komponenten fehlt eine sichernde Auflast. Die Stabilität wird hier primär durch das Wurzelwerk der Pflanzen hergestellt. An bestehenden TBUs wurde beobachtet, dass besonders in den ersten Jahren nach dem Einbau Bodenerosion auftritt, obwohl die Fließgeschwindigkeiten gering sind (Fleischer und Soyeaux 2016). Möglicherweise wird der Erosionsprozess durch das Auftreten von Porenwasserüberdrücken bis hin zur Verflüssigung hervorgerufen bzw. begünstigt. In dieser Arbeit werden Versuche zur Überprüfung des Ansatzes für den Porenwasserüberdruck bei der Bemessung der Deckschichtdicke für schluffige Sande unter Auflast an der Wechseldurchströmungsanlage (WDA) durchgeführt. Zudem werden auch Versuche mit freier Oberfläche durchgeführt, um das Verhalten der entsprechenden Böden für TBUs besser einschätzen und mögliche Verflüssigungsprozesse erkennen zu können. Die Versuche werden dann nach dem BAW Merkblatt: „GBB“ (Bundesanstalt für Wasserbau 2010) sowohl mit analytischen als auch numerischen Methoden nachgerechnet, mit den Versuchsergebnissen verglichen und um eine Parameterstudie ergänzt. Hierbei steht die Überprüfung der Bemessungsgrundlagen und die Bewertung des Optimierungspotenzials der Deckwerksdicke im Vordergrund. Bedeutung für die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) Als Dienstleisterin der WSV entwickelt die BAW im Referat Erdbau- und Uferschutz die Bemessungsregeln für Deckwerke an Bundeswasserstraßen und untersucht insbesondere die Standsicherheit und Weiterentwicklung naturnaher Ufersicherungen, welche zunehmend an Bedeutung gewinnen. Durch eine mögliche Optimierung der Bemessung von Deckschichtdicken könnten Ufersicherungen noch wirtschaftlicher und ressourcenschonender geplant werden. Zudem gilt es, für die weitere Planung von Wasserstraßen den immer wichtiger werdenden Aspekt einer umweltverträglichen und ökologisch sinnvollen Alternative zu Schüttsteindeckwerken voran zu treiben. Um die bereits eingesetzten technisch-biologischen Ufersicherungen weiter etablieren zu können, ist ein vertieftes Prozessverständnis der Verflüssigungsprozesse in Bereichen ohne Deckschicht für verschiedene Bodentypen (z. B. nach dem BAW-Merkblatt MAR B2, B3 und B4) notwendig.
Berechnung und Messung von Schiffswellen in seitlich begrenztem Fahrwasser Wie weit reichen die schiffserzeugten Wellen und Strömungen des Primärwellensystems eines Schiffes? Neben der Beantwortung dieser Frage soll zusätzlich der validierte Bereich vom Nahfeld des Schiffs in Richtung Ufer vergrößert werden. Dazu werden bestehende Messverfahren zur Vermessung der Wasseroberfläche eingesetzt. Aufgabenstellung und Ziel An den Seehafenzufahrten liegen seitlich der Fahrrinne häufig sehr weitläufige und flache Gewässerbereiche oder angrenzende Strukturen wie Hafenbecken und Seitenarme. In diesen Bereichen beruht die Prognose von Ausbreitung und Wirkbereich schiffserzeugter Primärwellen derzeit auf vereinfachten Annahmen und theoretischen Überlegungen oder muss sehr aufwändig im gegenständlichen Modell mit einem hohen Personal- und Sachmitteleinsatz untersucht werden. Die Relevanz dieser Gewässerbereiche nimmt aufgrund ökologischer Aspekte oder verstärkter Betroffenheiten zu, sodass die Prognosesicherheit der schiffserzeugten Belastungen hier verbessert werden muss. Das bereits zur Berechnung von Schiffsdynamik und schiffserzeugten Belastungen eingesetzte CFD-Verfahren (numerische Strömungssimulation) wird für die projektpraktische Anwendung im Böschungs- und Uferbereich eingerichtet und anhand von Messdaten aus dem Labor und aus der Natur validiert. Anhand von systematischen CFD-Untersuchungen wird ermittelt: (i) unter welchen Bedingungen weit von der Fahrrinne entfernt liegende Böschungs- und Uferbereiche durch schiffsinduzierte Wellen und Strömungen belastet werden, (ii) unter welchen Bedingungen eine Belastung von Böschungen und Ufern entsteht, die sich nicht durch eine lineare Übertragung der Belastungen am Böschungsfuß der Fahrrinne herleiten lässt und (iii) wie sich die Primärwelle in angeschlossenen Gewässerbereichen, bspw. Hafenbecken und Seitenarmen, ausbreitet und quantitativ auswirkt. Bedeutung für die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) Um Fragestellungen in der Fachaufgabe Wechselwirkung Seeschiff/Seeschifffahrtsstraße effizient bearbeiten zu können, wurde die Methode der numerischen Strömungssimulation eingeführt. Die Verfügbarkeit eines numerischen Strömungsmodells zur Vorhersage fahrdynamischer Größen und Strömungsbedingungen im Flachwasser ist bei vielen Aufgaben der WSV erforderlich. Zusätzlich zu dem Fokus auf die Schiffsdynamik ist eine Aussage zu der schiffserzeugten Belastung notwendig. In diesem FuE-Projekt soll die Prognosefähigkeit des CFD-Verfahrens insbesondere in Ufer- und Seitenbereichen deutlich erhöht werden. Neben der Verfügbarkeit einer prognosefähigeren Methode werden außerdem anhand der Untersuchungen allgemeingültige Zusammenhänge ermittelt. Damit ist zukünftig für einfache Sachverhalte eine Ableitung der Ausbreitung und Wirkung von Schiffsprimärwellen in Seeschifffahrtsstraßen ohne aufwändige CFD-Simulation möglich. Untersuchungsmethoden Um die oben aufgeführten Ziele zu erreichen, wird das kommerziell verfügbare, bereits seit vielen Jahren in der BAW eingesetzte und für die unterschiedlichen Fragestellungen validierte CFD-Softwarepaket STARCCM+® genutzt (Bechthold und Kastens 2020, Kochanowski und Kastens 2022, Delefortrie et al. 2023). Im Bereich Naturmessungen soll durch Einsatz neuer Vermessungsmethoden, die in der BAW bereits vorhanden sind, eine Verbesserung von Wellen- und Strömungsdaten angestrebt werden, um flächenhafte Daten zum Schiffswellensystem zu erheben. Mit diesen neuen flächenhaften Daten und bereits vorhandenen punktuellen Daten aus dem physikalischen Modellversuch soll das CFD-Verfahren jenseits des Nahbereichs um das Schiff weiter validiert werden. Das validierte Verfahren wird dann für systematische Untersuchungen flacher, weitläufiger Bereiche und angeschlossener Gewässerteile genutzt.
| Origin | Count |
|---|---|
| Bund | 1744 |
| Land | 15 |
| Wissenschaft | 553 |
| Zivilgesellschaft | 13 |
| Type | Count |
|---|---|
| Daten und Messstellen | 2 |
| Ereignis | 1 |
| Förderprogramm | 1709 |
| Software | 1 |
| Text | 36 |
| unbekannt | 569 |
| License | Count |
|---|---|
| geschlossen | 39 |
| offen | 1764 |
| unbekannt | 515 |
| Language | Count |
|---|---|
| Deutsch | 1611 |
| Englisch | 856 |
| Resource type | Count |
|---|---|
| Archiv | 2 |
| Datei | 5 |
| Dokument | 21 |
| Keine | 1018 |
| Unbekannt | 2 |
| Webdienst | 1 |
| Webseite | 1284 |
| Topic | Count |
|---|---|
| Boden | 1059 |
| Lebewesen und Lebensräume | 1331 |
| Luft | 999 |
| Mensch und Umwelt | 2318 |
| Wasser | 913 |
| Weitere | 1727 |