Download-Geodienst zu den Ruheplätzen von Seehunden. Ein Ruheplatz ist eine berechnete Fläche, die auf Basis einzelner Liegeplätze von Seehunden bzw. Kegelrobben generiert wird. Dazu werden die Liegeplätze 1. pro Jahr räumlich zusammengefasst und 2 werden diese Berechnungen auch auf Basis von einzelnen Flügen durchgeführt. Ein Ruheplatz wird als Kreis mit einem Radius von 500m um einen Liegeplatz (mit mind. 2 Seehunden) herum definiert, wobei mehrere Liegeplätze so zu einer größeren Fläche aggregiert werden können. Der Abstand von 500m wurde gewählt, da Störungen, die mehr als 500m entfernt sind, keine oder kaum Auswirkungen auf ruhende Robben haben. Diese Flächen werden für Eingriffsplanungen benötigt, um die mit dem Eingriff verbundenen Störungen der Robben auf ein Mindestmaß zu reduzieren. Für Seehunde werden zur Berechnung der Ruheplätze pro Jahr Flüge vom 1.03-30.09 berücksichtigt. Der Dienst beinhaltet folgende Informationen und Layer: 1. Ruheplätze pro Jahr aggregiert: die Lage und Größe des Ruheplatzes und den Zeitraum der Erfassungen, die in die Berechnung eingeflossen sind (Einzel-Jahreslayer und Layer mit allen Daten aller Jahre). 2. Ruheplätze pro Flug: Hier können auch Informationen über die Anzahl der Individuen abgeleitet werden (Jahres-Layer und LAyer mit Daten aller Flüge aller Jahre).
Dienstbezogener Datenbestand zu den Ruheplätzen von Kegelrobben. Ein Ruheplatz ist eine berechnete Fläche, die auf Basis einzelner Liegeplätze von Seehunden bzw. Kegelrobben generiert wird. Dazu werden die Liegeplätze pro Jahr räumlich zusammengefasst. Ein Ruheplatz wird als Kreis mit einem Radius von 500m um einen Liegeplatz (mit mind. 1 Kegelrobbe) herum definiert, wobei mehrere Liegeplätze so zu einer größeren Fläche aggregiert werden können. Der Abstand von 500m wurde gewählt, da Störungen, die mehr als 500m entfernt sind, keine oder kaum Auswirkungen auf ruhende Robben haben. Diese Flächen werden für Eingriffsplanungen benötigt, um die mit dem Eingriff verbundenen Störungen der Robben auf ein Mindestmaß zu reduzieren. Für Kegelrobben werden zur Berechnung der Ruheplätze pro Jahr Flüge vom 1.03-28.2 berücksichtigt. Bereits vor Beginn des spezifischen Kegelrobben-Monitorings im Jahr 2005 (vgl. Sichtungen an Liegeplätzen) wurden Kegelrobben zusammen mit Seehunden ab 1989 erfasst. Anders als bei den Liegeplatz-Daten fließen hier auch Erfassungen ein, die außerhalb des Monitoringzeitraums der Kegelrobben, also während Seehund-Erfassungen aufgenommen wurden. Der Dienst beinhaltet folgende Informationen: die Lage und Größe des Ruheplatzes und den Zeitraum der Erfassungen, die in die Berechnung eingeflossen sind
# robbenblick A Computer Vision project for object detection and annotation management using YOLOv8, SAHI, and FiftyOne, with the primary aim of counting objects (Robben) in large aerial images. ## Overview This repository provides a complete MLOps pipeline for: * **Data Preparation:** Converting raw CVAT annotations (XML) and large images into a tiled, YOLO-compatible dataset. * **Automated Experiments:** Systematically training and tuning YOLOv8 models. * **Tiled Inference:** Running optimized inference (SAHI) on large, high-resolution images for object counting. * **Evaluation:** Assessing model performance for both detection (mAP) and counting (MAE, RMSE, R²). * **Visualization:** Analyzing datasets and model predictions interactively with FiftyOne. ## Pretrained Model Weights Pretrained model weights are available on Hugging Face: https://huggingface.co/ki-ideenwerkstatt-23/robbenblick/ ## Project Workflow The project is designed to follow a clear, sequential workflow: 1. **Prepare Data (`create_dataset.py`):** Organize your raw images and CVAT `annotations.xml` in `data/raw/` as shown below. ```text data/raw/ ├── dataset_01/ │ ├── annotations.xml │ └── images/ └── dataset_02/ ... ``` Run the script to generate a tiled, YOLO-formatted dataset in `data/processed/` and ground truth count CSVs. 2. **Tune Model (`run_experiments.py`):** Define a set of hyperparameters (e.g., models, freeze layers, augmentation) in `configs/base_iter_config.yaml`. Run the script to train a model for every combination and find the best performer. 3. **Validate Model (`yolo.py`):** Take the `run_id` of your best experiment and run validation on the hold-out `test` set to get **detection metrics (mAP)**. 4. **Infer & Count (`predict_tiled.py`):** Use the best `run_id` to run sliced inference on new, large images. This script generates final counts and visual outputs. 5. **Evaluate Counts (`evaluate_counts.py`):** Compare the `detection_counts.csv` from inference against the `ground_truth_counts.csv` to get **counting metrics (MAE, RMSE)**. 6. **Visualize (`run_fiftyone.py`):** Visually inspect your ground truth dataset or your model's predictions at any stage. ## Configuration This project uses two separate configuration files, managed by `robbenblick.utils.load_config`. * **`configs/base_config.yaml`** * **Purpose:** The single source of truth for **single runs**. * **Used By:** `create_dataset.py`, `predict_tiled.py`, `run_fiftyone.py`, and `yolo.py` (for validation/single-predict). * **Content:** Defines static parameters like data paths (`dataset_output_dir`), model (`model`), and inference settings (`confidence_thresh`). * **`configs/base_iter_config.yaml`** * **Purpose:** The configuration file for **experiments and tuning**. * **Used By:** `run_experiments.py`. * **Content:** Any parameter defined as a **YAML list** (e.g., `model: [yolov8n.pt, yolov8s.pt]`) will be iterated over. `run_experiments.py` will test every possible combination of all lists. ## Environment Setup 1. Clone the repository: ```sh git clone git@github.com:ki-iw/robbenblick.git cd robbenblick ``` 2. Create the Conda environment: ```sh conda env create --file environment.yml conda activate RobbenBlick ``` 3. (Optional) Install pre-commit hooks: ```sh pre-commit install ``` ## Core Scripts & Usage ### `create_dataset.py` * **Purpose:** Converts raw CVAT-annotated images and XML files into a YOLO-compatible dataset, including tiling and label conversion. * **How it works:** * Loads configuration from a config file. * Scans `data/raw/` for dataset subfolders. * Parses CVAT XML annotations and extracts polygons. * Tiles large images into smaller crops based on `imgsz` and `tile_overlap` from the config. * Converts polygon annotations to YOLO bounding box format for each tile. * Splits data into `train`, `val`, and `test` sets and writes them to `data/processed/dataset_yolo`. * Saves a `ground_truth_counts.csv` file in each raw dataset subfolder, providing a baseline for counting evaluation. * **Run:** ```sh # Do a 'dry run' to see statistics without writing files python -m robbenblick.create_dataset --dry-run --config configs/base_config.yaml # Create the dataset, holding out dataset #4 as the test set python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 4 ``` * **Key Arguments:** * `--config`: Path to the `base_config.yaml` file. * `--dry-run`: Run in statistics-only mode. * `--test-dir-index`: 1-based index of the dataset subfolder to use as a hold-out test set. * `--val-ratio`: Ratio of the remaining data to use for validation. ### `run_experiments.py` * **Purpose:** **This is the main training script.** It automates hyperparameter tuning by iterating over parameters defined in `base_iter_config.yaml`. * **How it works:** * Finds all parameters in the config file that are lists (e.g., `freeze: [None, 10]`). * Generates a "variant" for every possible combination of these parameters. * For each variant, it calls `yolo.py --mode train` as a subprocess with a unique `run_id`. * After all runs are complete, it reads the `results.csv` from each run directory, sorts them by `mAP50`, and prints a final ranking table. * **Run:** ```sh # Start the experiment run defined in the iteration config python -m robbenblick.run_experiments --config configs/base_iter_config.yaml # Run experiments and only show the top 5 results python -m robbenblick.run_experiments --config configs/base_iter_config.yaml --top-n 5 ``` ### `predict_tiled.py` * **Purpose:** **This is the main inference script.** It runs a trained YOLOv8 model on new, full-sized images using Sliced Aided Hyper Inference (SAHI). * **How it works:** * Loads a trained `best.pt` model specified by the `--run_id` argument. * Loads inference parameters (like `confidence_thresh`, `tile_overlap`) from the `base_config.yaml`. * Uses `get_sliced_prediction` from SAHI to perform tiled inference on each image. * Saves outputs, including visualized images (if `--save-visuals`), YOLO `.txt` labels (if `--save-yolo`), and a `detection_counts.csv` file. * **Run:** ```sh # Run inference on a folder of new images and save the visual results python -m robbenblick.predict_tiled \ --config configs/base_config.yaml \ --run_id "best_run_from_experiments" \ --source "data/new_images_to_count/" \ --output-dir "data/inference_results/" \ --save-visuals ``` ### `evaluate_counts.py` * **Purpose:** Evaluates the *counting* performance of a model by comparing its predicted counts against the ground truth counts. * **How it works:** * Loads the `ground_truth_counts.csv` generated by `create_dataset.py`. * Loads the `detection_counts.csv` generated by `predict_tiled.py`. * Merges them by `image_name`. * Calculates and prints key regression metrics (MAE, RMSE, R²) to assess the accuracy of the object counting. * **Run:** ```sh # Evaluate the counts from a specific run python -m robbenblick.evaluate_counts \ --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" \ --pred-csv "data/inference_results/detection_counts.csv" ``` ### `yolo.py` * **Purpose:** The core engine for training, validation, and standard prediction. This script is called by `run_experiments.py` for training. You can use it directly for validation. * **How it works:** * `--mode train`: Loads a base model (`yolov8s.pt`) and trains it on the dataset specified in the config. * `--mode validate`: Loads a *trained* model (`best.pt` from a run directory) and validates it against the `test` split defined in `dataset.yaml`. This provides **detection metrics (mAP)**. * `--mode predict`: Runs standard (non-tiled) YOLO prediction on a folder. * **Run:** ```sh # Validate the 'test' set performance of a completed run python -m robbenblick.yolo \ --config configs/base_config.yaml \ --mode validate \ --run_id "best_run_from_experiments" ``` ### `run_fiftyone.py` * **Purpose:** Visualizes datasets and predictions using FiftyOne. * **How it works:** * `--dataset groundtruth`: Loads the processed YOLO dataset (images and ground truth labels) from `data/processed/`. * `--dataset predictions`: Loads images, runs a specified model (`--run_id`) on them, and displays the model's predictions. * **Run:** ```sh # View the ground truth annotations for the 'val' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset groundtruth \ --split val \ --recreate # View the predictions from 'my_best_run' on the 'test' split python -m robbenblick.run_fiftyone \ --config configs/base_config.yaml \ --dataset predictions \ --split test \ --run_id "my_best_run" \ --recreate ``` ### `streamlit_app.py` * **Purpose:** Quick test runs with the trained model of your choice for counting the seals in the image(s) and visualization. * **How it works:** * Loads the selected YOLO model from `runs/detect/`. * Upload images, run model, then displays the counts and model's predictions as image visualization. * **Run:** ```sh # View the ground truth annotations for the 'val' split export PYTHONPATH=$PWD && streamlit run robbenblick/streamlit_app.py ``` ## Recommended Full Workflow 1. **Add Raw Data:** * Place your first set of images and annotations in `data/raw/dataset_01/images/` and `data/raw/dataset_01/annotations.xml`. * Place your second set (e.g., from a different location) in `data/raw/dataset_02/images/` and `data/raw/dataset_02/annotations.xml`. 2. **Create Dataset:** * Run `python -m robbenblick.create_dataset --dry-run` to see your dataset statistics. Note the indices of your datasets. * Let's say `dataset_02` is a good hold-out set. Run: `python -m robbenblick.create_dataset --config configs/base_config.yaml --test-dir-index 2` * This creates `data/raw/dataset_02/ground_truth_counts.csv` for later. 3. **Find Best Model:** * Edit `configs/base_iter_config.yaml`. Define your experiments. ```yaml # Example: Test two models and two freeze strategies model: ['yolov8s.pt', 'yolov8m.pt'] freeze: [None, 10] yolo_hyperparams: scale: [0.3, 0.5] ``` * Run the experiments: `python -m robbenblick.run_experiments`. * Note the `run_id` of the top-ranked model, e.g., `iter_run_model_yolov8m.pt_freeze_10_scale_0.3`. 4. **Validate on Test Set (Detection mAP):** * Check your best model's performance on the unseen test data: `python -m robbenblick.yolo --mode validate --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --config configs/base_config.yaml` * This tells you how well it *detects* objects (mAP). 5. **Apply Model for Counting:** * Get a new folder of large, un-annotated images (e.g., `data/to_be_counted/`). * Run `predict_tiled.py`: `python -m robbenblick.predict_tiled --run_id "iter_run_model_yolov8m.pt_freeze_10_scale_0.3" --source "data/to_be_counted/" --output-dir "data/final_counts/" --save-visuals` * This creates `data/final_counts/detection_counts.csv`. 6. **Evaluate Counting Performance (MAE, RMSE):** * Now, compare the predicted counts (Step 5) with the ground truth counts (Step 2). Let's assume your "to_be_counted" folder *was* your `dataset_02`. `python -m robbenblick.evaluate_counts --gt-csv "data/raw/dataset_02/ground_truth_counts.csv" --pred-csv "data/final_counts/detection_counts.csv"` * This gives you the final MAE, RMSE, and R² metrics for your **counting task**. ## Additional Notes This repository contains only the source code of the project. The training data and the fine-tuned model weights are not included or published. The repository is currently not being actively maintained. Future updates are not planned at this time. For transparency, please note that the underlying model used throughout this project is based on **YOLOv8 by Ultralytics**. ## License Copyright (c) 2025 **Birds on Mars**. This project is licensed under the **GNU Affero General Public License v3.0 (AGPL-3.0)**. This aligns with the license of the underlying **YOLOv8** model architecture used in this project. Please note: **Training data and fine-tuned model weights are not part of the licensed materials** and are not included in this repository. For full details, see the LICENSE file. ## Troubleshooting ### FiftyOne: images (partially) not visible Try using `--recreate` flag to force FiftyOne to reload the dataset: ```sh python robbenblick/run_fiftyone.py --dataset groundtruth --split val --recreate ``` ### FiftyOne: failed to bind port If you get: ``` fiftyone.core.service.ServiceListenTimeout: fiftyone.core.service.DatabaseService failed to bind to port ``` Try killing any lingering `fiftyone` or `mongod` processes: ```sh pkill -f fiftyone pkill -f mongod Then rerun your script. ``` # Collaborators The code for this project has been developed through a collaborative effort between [WWF Büro Ostsee](https://www.wwf.de/themen-projekte/projektregionen/ostsee) and [KI-Ideenwerkstatt](https://www.ki-ideenwerkstatt.de), technical implementation by [Birds on Mars](https://birdsonmars.com). <p></p> <a href="https://ki-ideenwerkstatt.de" target="_blank" rel="noopener noreferrer"> <img src="assets/kiiw.jpg" alt="KI Ideenwerkstatt" height="100"> </a> <p></p> Technical realization <br> <a href="https://birdsonmars.com" target="_blank" rel="noopener noreferrer"> <img src="assets/bom.jpg" alt="Birds On Mars" height="100"> </a> <p></p> An AI initiative by <br> <a href="https://www.bundesumweltministerium.de/" target="_blank" rel="noopener noreferrer"> <img src="assets/bmukn.svg" alt="Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit" height="100"> </a> <p></p> In the context of <br> <a href="https://civic-coding.de" target="_blank" rel="noopener noreferrer"> <img src="assets/civic.svg" alt="Civic Coding" height="100"> </a>
Dieser dienstbezogene Datenbestand stellt alle ab 1989 verfügbaren Seehund-Daten aus Zählflügen im Bereich des Nationalparks "Schleswig-Holsteinisches Wattenmeer" zur Verfügung. Hier handelt es sich um Daten aus flächendeckenden, flugzeuggestützten Erfassungen aus, für Seehunden relevanten Jahreszeiten, ab 1989: in der Regel werden pro Jahr zur Wurfzeit (Mai - Juli) drei und zur Haarwechselzeit (August - September) zwei Erfassungsflüge durchgeführt. Dieser Dienst liefert folgende Informationen, die zur Bestandsabschätzung nötig sind: Anzahlen von Seehunden pro Liegeplatz pro Flug und den Anteil an Jungtieren. Der hier beschriebene Datenbestand liefert alle Daten der Erfassungsflüge ab 1989. Durch einen Jahres-Filter können die Daten auf die einzelnen Erfassungsjahre eingeschränkt werden, pro Jahr werden dann alle fünf Erfassungen dargestellt. Auf Basis des Flugdatums können die Erfassungen auch einzeln dargestellt werden. Während des Monitorings wird allen gezählten Einzeltieren bzw. Gruppen eine punktgenaue Koordinate zugewiesen, die als Liegeplatz definiert ist. Wenn möglich wird bei der Zählung nach adulten und juvenilen Tieren unterschieden. Sichtungen außerhalb dieses Zeitraumes werden in diesem Datensatz nicht zur Verfügung gestellt (siehe dazu: Robben: Monitoring der Bestände von Seehunden und Kegelrobben im Schleswig-Holsteinischen Wattenmeer ab 1989.
Darstellungs-Geodienst zum Vorkommen von Seehunden an Liegeplätzen im Bereich des Nationalparks "Schleswig-Holsteinisches Wattenmeer". Hier handelt es sich um Daten aus flächendeckenden, flugzeuggestützten Erfassungen aus, für Seehunden relevanten Jahreszeiten, ab 1989: in der Regel werden pro Jahr zur Wurfzeit (Mai - Juli) drei und zur Haarwechselzeit (August - September) zwei Erfassungsflüge durchgeführt. Dieser Dienst liefert folgende Informationen, die zur Bestandsabschätzung nötig sind: Anzahlen von Seehunden pro Liegeplatz pro Flug und den Anteil an Jungtieren. Es sind folgende Layer / Tabellen in diesem Dienst enthalten: 1. Gesamttabelle mit allen Seehund-Monitoring-Flügen ab 1989 2. Tabellen gesplittet nach einzelnen Jahren (ab 2015). In einem Jahres-Layer sind die Daten aller fünf Erfassungen eines Jahres enthalten. 3. Gesamttabelle mit den Anteilen der Jungtiere (nur Daten aus den drei Flügen in der Wurfzeit - In Vorbereitung) Bei flächendeckenden, flugzeuggestützten Erfassungen wird allen gezählten Einzeltieren bzw. Gruppen eine punktgenaue Koordinate zugewiesen, die als Liegeplatz definiert ist. Wenn möglich wird bei der Zählung nach adulten und juvenilen Tieren unterschieden. Für Bestandsberechnungen können die Daten nach einzelnen Erfassungsflügen gefiltert werden. Auf Grundlage der Liegeplatz-Daten wurden zur Bewertung von Eingriffen auch die Ruheplätze der Seehunde berechnet und als Dienst bereitgestellt: (WFS) - Seehunde: Ruheplätze, Objekt-ID:bd9656630-a451-4c01-a228-d9fff62df5f8 Sichtungen außerhalb des oben genannten Zeitraumes werden in diesem Datensatz nicht zur Verfügung gestellt (siehe dazu "(WFS)-Robben: Monitoring der Bestände von Seehunden und Kegelrobben im Schleswig-Holsteinischen Wattenmeer ab 1989" (Object-ID: d847163b-b077-4195-be56-de7664201768).
Das stetig steigende globale Mikroplastik-Vorkommen bezieht auch das empfindliche Ökosystem der Arktis mit ein. Die AMAP-Arbeitsgruppe des Arktischen Rates zielt deshalb darauf ab, ein reguläres Monitoring zu etablieren, welches sowohl die Entwicklung der Mikroplastikbelastung erfasst als auch die Auswirkungen auf das Ökosystem überwacht. Für diesen Zweck ist es erforderlich grundlegende Informationen zu sammeln und ein standardisiertes Monitoring zu entwickeln, um durch eine längerfristige Datenerhebung Entwicklungen zu erfassen und negative Veränderungen mit effektiven Maßnahmen entgegenzuwirken. Monitoring an Tierpopulationen erfolgt derzeit an Seevögeln und Fischen. Marine Großsäuger und insbesondere Top-Prädatoren (die der indigenen Bevölkerung teilweise auch noch als Nahrungsgrundlage dienen) wurden bisher weniger stark berücksichtigt, sind jedoch auch für die AMAP-AG von Interesse und Bedeutung. Innerhalb des Projektes werden repräsentative Arten der Arktis untersucht: Wale, Robben, Eisbären und Otter. Die Probennahme geschieht in Kooperation mit arktischen Partnern und zielt darauf ab Daten zur Mikroplastikbelastung der Tiere zu generieren.
Das Forschungsvorhaben untersucht auf der einen Seite die Auswirkungen der Wassereinspritzung auf das Betriebsverhalten eines Radialverdichters. Die Wassereinspritzung in Axialverdichtern von Gasturbinen ist eine gängige Praxis, um die Leistungsfähigkeit der Turbine zu verbessern. Um dieses Potenzial auch in Radialverdichtern zu nutzen, sind weitere Forschungsarbeiten im Bereich der Flüssigkeitseinspritzung notwendig. Die Radialverdichter werden hauptsächlich in der Prozessindustrie eingesetzt. Ziel dieses Projektes ist es die Berechnung und Einflüsse der Wassereinspritzung auf das Betriebskennfeld eines Radialverdichters zu untersuchen. Im Projekt (FKZ: 03EE5035B) wurde ein Radialverdichter mit Wassereinspritzung aufgebaut und Kennfelder mit und ohne Wassereinspritzung vermessen. Unklar ist das Potenzial der Wassereinspritzung, welches durch den Ort der Verdunstung bestimmt wird, welches hier adressiert werden soll. Im zweiten Thema wird die Abdichtung der Wellenenden, die verhindert, dass das Prozessfluid aus der Maschine in die Atmosphäre entweicht. Die Forschung an berührungslosen Gleitringdichtungen mit Trockengasschmierung DGS (Dry Gas Seals), wird aufgrund des geringen und kontrollierbaren Leckagestroms, des berührungslosen Betriebs und der Eignung für die Hochdruckumgebung, als Dichtungslösung eingesetzt. Im Projekt (FKZ: 03EE5041H) wurden die Prognosemodelle zur Berechnung des Dichtspaltes entwickelt und in ein digitales Zwillingsmodell implementiert. Die gesamte Architektur des digitalen Zwillings basierend auf einer Open Source IoT-Plattform. Im neuen Projekt wird das Gesamtkonzept auf eine reale Maschine übertragen. Die messbaren und nicht messbaren Prozessgrößen der realen Anlage und ihre logischen Zusammenhänge werden mit Hilfe von maschinellem Lernen und physikbasierten Modellen analysiert. Die Ergebnisse werden zur Leistungsoptimierung von Radialverdichtern in der Prozessindustrie genutzt.
Die Resilienz natürlicher Populationen gegen Umweltveränderungen wird von der Menge schädlicher Mutationen in der Population, d.h. ihrer Mutationslast bestimmt. Deren Fitnesseffekt hängt vom Selektionsdruck und der Populationsgröße ab, welche beide in Raum und Zeit veränderlich sind. Auswirkungen dieser Dynamik auf die Mutationslast sind wenig erforscht, was unser Verständnis der Gefährdung von Arten durch Umweltveränderungen behindert. Drastische Reduzierungen der Populationsgröße führen zu Inzucht, was die Mutationslast stärker exponiert und selektiv wirksam macht. Dies verursacht eine Fitness-Reduktion betroffener Individuen, ermöglicht aber auch eine Entfernung schädlicher Mutationen durch Purging, was die Mutationslast langfristig verringern kann. Folglich hat Übernutzung in der Vergangenheit die Mutationslast vieler Arten beeinflusst, vor allem in der Antarktis, wo Robben- und Walfang große ökologische Auswirkungen hatten. In meinem Projekt plane ich durch Genomsequenzierung räumliche und zeitliche Dynamiken der Mutationslast in Antarktischen Pelzrobben zu erforschen. Dabei verfolge ich drei komplementäre Ziele. Erstens werde ich räumliche Dynamiken der Mutationslast durch den Vergleich von sechs Populationen mit unterschiedlicher effektiver Populationsgröße und Geschichte untersuchen. Erkenntnisse zur Mutationslast dieser Populationen liefern Aufschluss über deren Gefährdung durch Umweltveränderungen. Zweitens werde ich Langzeit-Dynamiken der Mutationslast durch eine Quantifizierung von Purging zu verschiedenen Zeitpunkten der Populationsgeschichte analysieren. Ein Vergleich von Regionen innerhalb des Genoms welche vor, während und nach dem durch Robbenjagd verursachten Flaschenhals von Inzucht betroffen waren, wird über das genetische Erbe dieses Eingriffes aufklären. Schließlich werde ich kurzfristige Dynamiken der Mutationslast untersuchen, indem ich den Umwelteinfluss auf die Mutationslast einer rückläufigen Population in Südgeorgien analysieren werde. Dort hat sich der Selektionsdruck auf die Robben durch den von Erwärmung getriebenen Rückgang des Antarktischen Krills erhöht. Eine einzigartige, vier Jahrzehnte umfassende Langzeitstudie erlaubt hier die Erforschung des Zusammenhangs der Mutationslast und dem Fitnessmerkmal „Rekrutierungs-Erfolg“. Dies kann zeigen, ob aktuelle Umweltveränderungen die Mutationslast durch Purging verringern, was für die Beständigkeit der Populationen relevant ist. Mein Projekt kombiniert hochauflösende genomische Verfahren mit einem herausragenden Untersuchungssystem und verspricht neue Erkenntnisse zur Beständigkeit eines antarktischen Prädatoren. Diese sind essentiell für das Verständnis der Resilienz des Ökosystems des Südpolarmeeres. Durch die Einführung moderner genomischer Methoden in ein polares Modellsystem werde ich zum SPP beitragen können, zudem werde ich mich durch Kollaborationen und das Ausrichten eines Workshops zu reproduzierbarem coding in die breitere SPP-Gemeinschaft integrieren.
Der Melvillesee ist ein Fjordsee, der sich in der letzten Eiszeit am Rande des hochdynamischen Laurentidischen Eisschildes (LIS) befand. Die obersten 10 m der insgesamt ca. 300-400 m Seesedimente haben die postglaziale Geschichte der letzten 10000 Jahre aufgezeichnet. In diesem dicken Sedimentpaket dürfte der See die Klimageschichte bis weit zurück vor das letzte Glazial gespeichert haben und würde sich daher als exzellentes Klimaarchiv anbieten. Um diesen Sachverhalt zu klären, wurde im Sommer 2019 eine Expedition mit dem FS Maria S. Merian (MSM84) unternommen. Während dieser Expedition wurden Sedimentkerne gezogen sowie ein dichtes Netz von hydroakustischen Messungen durchgeführt. Anhang der Sedimentkerne und der Sedimentecholot-Daten kann man fünf verschiedene Schichten im Untergrund des Sees erkennen: (I) post-glaziale Sedimente; (II) Sedimente aus der Zeit des Eisrückzuges; (III) Sedimente, die mit großer Wahrscheinlichkeit in einem subglazialen See unterhalb des aufschwimmenden LIS abgelagert wurden. Darunter finden sich (IV) wiederum schön geschichtete Sedimente, die aus einem früheren eisfreien Zeitraum stammen dürften, vermutlich MIS5, MIS4 oder die erste Hälfte des MIS3. Als unterste Schichte ist das Grundgestein (V) zu erkennen. Unsere Sedimentkerne enthalten Sedimente aus I und II sowie aus dem obersten Bereich von III. Im Rahmen dieses Projektes schlagen wir vor, die post-glazialen Sedimente sowie diejenige vom Rückzug des LIS genauer zu untersuchen, um daran Paläoklimaschwankungen sowie die Rückzugsgeschichte des LIS zu rekonstruieren. In einem zweiten Schritt möchten wir auch die Sedimente analysieren, die vom subglazialen See zu stammen, um diesen besser zu charakterisieren und um zu testen, ob auch diese Sedimente Klimaschwankungen aufgezeichnet haben. Um diese Fragen zu beantworten, werden wir die Sedimentkerne zuerst mit zerstörungsfreien Methoden wie CT-Scanning, Multisensor-Core-Logging und XRF-Scanning untersuchen. Danach werden ausgewählte Kernabschnitte beprobt. Mit Hilfe von Radiokarbondatierungen und paläomagnetischen Messungen werden wir ein Altersmodell erstellen können. Mit einer Kombination der zerstörungsfreien Messungen mit Einzelprobenmessungen (TIC, TOC, Korngröße, XRD, WD-XRF) werden wir die in den Kernen enthaltene paläoklimatologische Information entschlüsseln. Hierbei werden wir einen Schwerpunkt auf die Entwicklung von Proxies legen, die geeignet sind, die vergangenen Vorstöße und Rückzüge des LIS zu rekonstruieren. Falls wir zeigen können, dass die Sedimente des Melvillesees tatsächlich ein Archiv für Klimageschichte auch jenseits des Holozäns sind, dann empfiehlt sich der See als ein Hauptziel einer zukünftigen amphibischen Tiefbohrung von IODP und ICDP. Diese würde mit dem Ziel abgeteuft, die Dynamik des LIS zu rekonstruieren.
Wirbeltiere sind mit einer großen Zahl von Mikroorganismen assoziiert. Diese mikrobiellen Gemeinschaften tragen um Größenordnungen mehr Gene als ihre Wirte und erfüllen Funktionen, die im Genom des Wirts nicht kodiert sind. Der Magen-Darmtrakt zeichnet sich durch ein sehr diverses Mikrobiom aus. Beim Menschen wird eine verminderte mikrobielle Vielfalt im Darm mit vielen Krankheiten in Verbindung gebracht, darunter Autoimmunerkrankungen, Diabetes und Fettleibigkeit. Über die Beziehung zwischen Darmmikroben und Gesundheit in wild lebenden Wirbeltierpopulationen ist jedoch nur wenig bekannt, da dort eine höhere genetische Variation und eine ausgeprägte Umweltheterogenität die Auswirkungen des Darmmikrobioms auf den Wirt modulieren oder sogar überlagern können. Diese große Lücke in unserem Wissen über die Wechselwirkungen zwischen Wirt und Mikrobiom behindert unser Verständnis von Widerstandsfähigkeit und Anpassung von wild lebenden Tieren an den Klimawandel. In diesem Projekt untersuchen wir die antarktischen Pelzrobben und wollen verstehen wie sich Veränderungen im Darmmikrobiom der Tiere auf die Fitness von unterschiedlichen Wildpopulation auswirken. Als Steuergröße wird das verringerte Nahrungsangebot für einige Wildpopulationen genutzt, dass sich durch den Klimawandel in manchen Regionen der Antarktis ergeben hat. Entsprechend untersuchen wir zwei interagierende Umweltstressoren - Nahrungsbeschränkung und soziale Dichte. Das Projekt konzentriert sich auf das kritische Entwicklungszeitfenster zwischen der Geburt und der Ernährungsunabhängigkeit und wird die Auswirkungen wichtiger intrinsischer und extrinsischer Faktoren auf das Darmmikrobiom und sein Zusammenspiel mit mehreren fitnessrelevanten Phänotypen wie Wachstum, Überleben, Stresshormonspiegel, Immunfunktion und Genexpression aufklären. Darüber hinaus wird ein kürzlich entwickelter Einzelnukleotid-Polymorphismus-Array eine robuste Bewertung der modulierenden Auswirkungen des Wirtsgenotyps ermöglichen, einschließlich der vererbbaren genetischen Variation und der genetischen Qualität, ausgedrückt als Inzucht und immunogenetische Vielfalt. Wir stellen die Hypothese auf, dass eine geringere Nahrungsverfügbarkeit die mikrobielle Vielfalt im Darm verringert und die Prävalenz mukolytischer und proinflammatorischer Taxa erhöht, was sich negativ auf die Fitness des Wirts auswirkt. Diese Auswirkungen könnten bei Individuen mit schlechter genetischer Qualität besonders ausgeprägt sein, da diese weniger effektiv in der Lage sind, schädliche Mikroben zu bekämpfen, und dies auch unter stressigen Bedingungen mit hoher Dichte. Zusammenfassend lässt sich sagen, dass durch die Kombination von phänotypische Parametern der Individuen mit mikrobiellen Daten, erstmals mechanistische Einblicke in die Wirts-Mikroben-Interaktionen einer Wildtierart möglich werden, was Vorhersagen über langfristige Populationstrends und das Management des empfindlichen Ökosystems des Südlichen Ozeans ermöglicht.
| Origin | Count |
|---|---|
| Bund | 197 |
| Land | 86 |
| Schutzgebiete | 1 |
| Wissenschaft | 41 |
| Zivilgesellschaft | 1 |
| Type | Count |
|---|---|
| Daten und Messstellen | 40 |
| Ereignis | 14 |
| Förderprogramm | 67 |
| Gesetzestext | 2 |
| Repositorium | 1 |
| Software | 1 |
| Taxon | 2 |
| Text | 34 |
| Umweltprüfung | 1 |
| unbekannt | 94 |
| License | Count |
|---|---|
| geschlossen | 49 |
| offen | 205 |
| Language | Count |
|---|---|
| Deutsch | 182 |
| Englisch | 88 |
| Resource type | Count |
|---|---|
| Archiv | 62 |
| Bild | 2 |
| Datei | 45 |
| Dokument | 18 |
| Keine | 87 |
| Unbekannt | 2 |
| Webdienst | 18 |
| Webseite | 46 |
| Topic | Count |
|---|---|
| Boden | 98 |
| Lebewesen und Lebensräume | 254 |
| Luft | 98 |
| Mensch und Umwelt | 244 |
| Wasser | 130 |
| Weitere | 215 |