Leibniz Data Manager (LDM): Wie sich Forschungsdaten effektiv managen lassen
read this article in English
Wissenschaftliche Entdeckungen basieren auf gut strukturierten, leicht zugänglichen und wiederverwendbaren Forschungsdaten. Forschende stehen jedoch häufig vor Herausforderungen wie nicht miteinander verbundenen Datensätzen, inkonsistenten Metadaten und zeitaufwändiger Datenaufbereitung.
Der Leibniz Data Manager (LDM) bietet eine leistungsstarke, FAIR-konforme Plattform für das Forschungsdatenmanagement. Durch die Nutzung von Wissensgraphen (Knowledge Graphs, KGs) strukturiert und verknüpft der LDM Forschungsdaten, sodass sie auffindbar, zugänglich, interoperabel und wiederverwendbar (FAIR) sind. Zudem integriert er KI-gestützte Methoden zur Anreicherung von Metadaten und zur Wissenserschließung, wodurch der Wert von Forschungsdaten gesteigert und deren Nutzung erleichtert wird.
Warum sollten Forschende den LDM nutzen?
Angesichts des steigenden Bedarfs an maschinenlesbaren, interoperablen und strukturierten Forschungsdaten bietet der LDM eine leistungsstarke Lösung für Forschende, Datenmanager:innen und Institutionen. Ob es um die Exploration von Datensätzen, die Anreicherung von Metadaten oder die Verknüpfung von Wissen über verschiedene Disziplinen hinweg geht – der LDM macht das Forschungsdatenmanagement intelligenter und effizienter.
Was macht den LDM einzigartig?
LDM ermöglicht es Forschern, über rein statische Repositories hinauszugehen, und zwar durch:
- Strukturierung von Forschungsdaten mit Wissensgraphen: Im Gegensatz zu traditionellen Datenbanken stellen Wissensgraphen Daten und deren Bedeutungszusammenhänge als Knoten und Verbindungen dar. Dies ermöglicht intelligentere und flexiblere Such- und Explorationsmöglichkeiten.
- Integration der FAIR Data Principles: Der LDM gewährleistet, dass Datensätze standardisierte Metadatenmodelle nutzen, wodurch sie leichter auffindbar, verknüpfbar und interdisziplinär wiederverwendbar sind.
- Unterstützung von KI-gestützter Metadatenanreicherung
Mithilfe von Entity-Linking-Techniken verbindet der LDM Datensätze automatisch mit externen Wissensquellen wie Wikidata oder dem Open Research Knowledge Graph (ORKG). Dadurch verbessert sich die Vollständigkeit und Auffindbarkeit der Daten erheblich.
Hauptmerkmale des LDM
- FAIR-konformes Metadatenmanagement: Durch die Anwendung strukturierter Vokabulare wie DCAT und DataCite stellt der LDM sicher, dass Datensätze mit klar definierten Metadaten versehen sind.
- Federated Search Across Knowledge Graphs: Forschende können Datensätze über verschiedene Quellen wie ORKG und Wikidata hinweg durchsuchen und verknüpfen.
- Entity Linking & Metadatenanreicherung: Der LDM erkennt automatisch relevante Begriffe und Konzepte, wodurch Metadaten erweitert und Datensätze besser beschrieben werden.
- Vergleich und Visualisierung von Datensätzen: Unterschiede zwischen Datensätzen werden hervorgehoben, sodass Forschende Zusammenhänge zwischen verschiedenen Quellen analysieren können.
- Live Code Execution: Dank der Integration von Jupyter Notebooks können Daten direkt innerhalb der Plattform analysiert und verarbeitet werden.
- Open Source und skalierbare Bereitstellung: Der LDM ist als Open-Source-Lösung verfügbar und kann flexibel per Docker-Container implementiert werden.
- Anpassbare Instanzen: Forschungseinrichtungen und Projekte können den LDM individuell an ihre spezifischen Arbeitsabläufe und Anforderungen anpassen.
LDM ist öffentlich zugänglich unter Leibniz Data Manager
Das LDM-Team
Entwickler und Forscher: Mauricio Brunet, Enrique Iglesias, Dr. Ariam Rivas, Philipp D. Rohde, Dr. Ahmad Sakor, Samer Sakor
Projektverantwortliche: Dr. Angelina Kraft, Prof. Dr. Maria-Esther Vidal
LDM-Instanzen und Bereitstellung: Susanne Arndt, Mathias Begoin
Medien und Grafiken: Gabriela Ydler