Zum Inhalt springen

Bibliothek

Forschungsnahe Dienste: FDM

Bibliothek Titelbild 1920

Forschungsdatenmanagement (FDM) an der Fachhochschule Südwestfalen

Forschungsdaten bilden das Fundament Ihrer wissenschaftlichen Arbeit. Sie entstehen bei Messungen, Umfragen, Simulationen, Laboranalysen oder sonstigen Forschungsaktivitäten und umfassen sowohl digitale als auch analoge Daten. Dazu gehören Mess- und Sensordaten, Protokolle, Transkripte, Bild-, Ton- und Videodateien, Simulations- und Modellierungsdaten sowie Software, Skripte und begleitende Dokumentationen.

Ein systematisches Forschungsdatenmanagement (FDM) stellt sicher, dass erhobene Daten während des gesamten Projektverlaufs strukturiert, nachvollziehbar und reproduzierbar verarbeitet werden. Es gewährleistet die Integrität der Daten und fördert ihre Auffindbarkeit, Zugänglichkeit und Nachnutzbarkeit im Sinne der FAIR-Prinzipien. Auf diese Weise bleiben Forschungsdaten überprüfbar und verifikationsfähig für die gesamte Wissenschaftscommunity. Gleichzeitig unterstützt FDM die Förderfähigkeit von Projekten und unterstützt bei der Einhaltung rechtlicher und ethischer Vorgaben.

Bedeutung von FDM in der Wissenschaft

FDM ist seit über einem Jahrzehnt fest in der Agenda zentraler Akteure der Wissenschaft verankert. Bereits 2010 formulierte die Allianz der deutschen Wissenschaftsorganisationen Grundsätze zum Umgang mit Forschungsdaten, gefolgt von Leitlinien der Deutschen Forschungsgemeinschaft (DFG) und einer Empfehlung der Hochschulrektorenkonferenz im Jahr 2015. Auf europäischer Ebene setzten die EU-Guidelines on FAIR Data Management in Horizon 2020 (2016) wichtige Impulse, während die Helmholtz-Gemeinschaft im selben Jahr den strategischen Wert von Forschungsdaten in einem Positionspapier hervorhob.

Diese Stellungnahmen machen deutlich, dass FDM nicht nur innerhalb einzelner Fachbereiche, sondern disziplinübergreifend als Schlüsselfaktor für Transparenz, Nachhaltigkeit und Innovation anerkannt ist. Für Forschende ist FDM nicht nur ein organisatorisches Instrument, sondern erhöht die Nachnutzbarkeit, Reproduzierbarkeit und wissenschaftliche Reputation der eigenen Arbeit.

Eine historische Lektion verdeutlicht die Bedeutung: Vor über 50 Jahren verfolgten Millionen Menschen die erste Mondlandung. Was kaum jemand weiß: Die originalen Rohdaten der Apollo-11-Mission wurden aus Platzmangel überschrieben und sind für immer verloren. Diese Geschichte zeigt, wie entscheidend ein verantwortungsvoller Umgang mit Forschungsdaten ist.

Forschungsdaten-Lebenszyklus

Der Datenlebenszyklus im Forschungsdatenmanagement mit den Phasen Planung, Erhebung, Verarbeitung, Archivierung, Zugriff und Nachnutzung.

Der Forschungsdaten-Lebenszyklus beschreibt alle Schritte, die Forschungsdaten von der Planung bis zur Nachnutzung durchlaufen. Obwohl er oft als linearer Ablauf dargestellt wird, ist er in der Praxis dynamisch: Die Phasen greifen ineinander, wiederholen sich und verlaufen selten in fester Reihenfolge. Das lineare Modell dient daher lediglich als Leitfaden, wobei die FAIR-Prinzipien als zentrale Orientierung für eine erfolgreiche Nachnutzung dienen. Im Folgenden werden die einzelnen Phasen dargestellt.

Leitfaden zum Forschungsdaten-Lebenszyklus

Planung

Ein gut strukturiertes und durchdachtes Konzept zum Umgang mit Forschungsdaten dient als Grundlage für ein Forschungsprojekt. Bereits vor Projektbeginn sollten Überlegungen dazu angestellt werden, welche Daten qualitativ wie quantitativ generiert werden und wie diese gespeichert, dokumentiert und archiviert werden sollen.

Ein zentrales Instrument des FDM ist der Data Management Plan (DMP), der von verschiedenen Forschungsförderorganisationen bereits bei der Antragstellung eingefordert wird. Die Erstellung eines DMP kann durch spezialisierte Werkzeuge wie RDMO, DMPonline oder dem Data Stewardship Wizard unterstützt werden – letzterer ist ein Open-Source-Tool, das im Horizon Europe Programme Guide ausdrücklich empfohlen wird. Ein solcher Plan dokumentiert unter anderem:

  • die Verantwortlichkeiten für die Daten während und nach der Projektlaufzeit,
  • rechtliche Rahmenbedingungen wie Datenschutz oder Lizenzfragen,
  • die Kostenplanung für Speicherung und Aufbereitung der Daten.

Darüber hinaus empfiehlt es sich, bereits in der Planungsphase etablierte fachspezifische Standards für Erhebung, Speicherung, Verarbeitung und Archivierung zu berücksichtigen.

Erhebung

Die Phase der Erhebung umfasst die Generierung von Daten nach etablierten, standardisierten Methoden, wie sie in Ihrer Fachdisziplin üblich sind. Unterstützend können folgende Aspekte berücksichtigt werden:

  • Dokumentation der Personen, Zeitpunkte, Bedingungen und Vorgehensweisen bei der Datenerhebung
  • Versionierung durch den Einsatz etablierter Werkzeuge wie beispielsweise GIT oder elektronische Laborbücher
  • Konsistente Erfassung nicht-digitaler Daten zur Erleichterung späterer Analysen
  • Regelmäßige Datensicherung unter Nutzung klarer Dateinamen, stabiler Infrastruktur und Versionskontrolle
  • Qualitätssicherung durch Methoden der Datenvalidierung, Plausibilitätsprüfungen sowie der Umgang mit Fehlern oder fehlenden Werten.

Verarbeitung

Nach der Erhebung erfolgt die strukturierte Verarbeitung der Forschungsdaten, die auf geeigneten Speichermedien gesichert werden sollten, beispielsweise auf Netzlaufwerken oder von der Einrichtung bereitgestellten Cloud-Diensten. Für eine mittel- bis langfristige Speicherung sind USB-Sticks oder andere lokale Datenträger eher ungeeignet.

Eine klare und konsistente Ordnerstruktur erleichtert das schnelle Auffinden und die systematische Organisation der Daten. Üblich ist eine Gliederung in Unterordner für Rohdaten, verarbeitete Daten und Projektdokumentation. Ergänzend sollte ein einheitliches, aussagekräftiges Dateibenennungsschema verwendet werden, das idealerweise vor Projektbeginn festgelegt wird.

Für die Nachvollziehbarkeit und Nachnutzbarkeit durch andere Forschende ist die sorgfältige Dokumentation der Daten essenziell. Hierfür werden Metadaten sowie begleitende Dokumente wie README-Dateien eingesetzt. Metadaten lassen sich in verschiedene Kategorien einteilen:

  • Bibliografisch: Autor*innen, Titel, Projektinformationen
  • Inhaltlich: Messwerte, Umfrage- oder experimentelle Parameter
  • Administrativ: Zugriffsrechte, Embargoregelungen, Verantwortlichkeiten
  • Technisch: Dateigröße, Prüfsummen, Änderungsdatum

Für eine konsistente Beschreibung sollten etablierte Metadatenstandards wie Dublin Core oder DataCite genutzt werden; in vielen Fachdisziplinen existieren auch spezifische Standards. Eine ergänzende README-Datei kann kompakte, strukturierte Informationen zu den Daten, den verwendeten Standards, Versionierungen sowie relevanten Änderungen im Projektverlauf liefern.

Archivierung

Die Archivierung markiert die Lebensphase am Ende eines Projekts, in der Forschungsdaten dauerhaft gesichert werden, um eine spätere Nachnutzung zu ermöglichen. Nach den Empfehlungen der DFG sollten alle Daten, die für die Überprüfung von Forschungsergebnissen relevant sind, mindestens zehn Jahre aufbewahrt werden. Für eine Archivierung eignen sich offene Standards.

Im Hinblick auf den Speicherort wird die Nutzung individueller Datenträger nicht empfohlen, da sich technische Standards ändern und Daten dadurch unlesbar werden können. Stattdessen bieten institutionelle Archive oder Forschungsdatenrepositorien, die regelmäßige Backups durchführen und zum Teil eine automatische Anpassung an neue Formate ermöglichen, eine sichere und zukunftsfähige Lösung.

Zugriff

Die Phase des Zugriffs umfasst die Veröffentlichung von Forschungsdaten, die Transparenz und Nachvollziehbarkeit in der Wissenschaft sicherstellt. Vor einer Veröffentlichung muss geprüft werden, ob die Daten durch die Hochschule, Fördermittelgeber oder Miturheber*innen der Publikation rechtlich freigegeben werden müssen. Personenbezogene Daten sollten gegebenenfalls anonymisiert werden.

Für die Veröffentlichung eignen sich Repositorien, die eine strukturierte Speicherung ermöglichen. Fachspezifische Repositorien sind in der Regel auf die Besonderheiten des jeweiligen Fachgebiets zugeschnitten; das Register re3data unterstützt bei der Suche nach geeigneten Plattformen. Alternativ können institutionelle oder fachübergreifende Plattformen genutzt werden. Bei der Auswahl sollte auf die Erfüllung wesentlicher Qualitätsstandards geachtet werden, etwa: persistente Identifikatoren, Langzeitspeicherung, Schnittstellen zur Datenweitergabe und möglichst kostenfreie Nutzung.

Für eine rechtlich klare Nachnutzung empfiehlt sich die Vergabe offener Lizenzen wie Creative-Commons- oder MIT-Lizenzen. Persistente Identifikatoren (z. B. DOI) gewährleisten die dauerhafte Zitierfähigkeit der Daten, während eine ORCID-ID die eindeutige Zuordnung der veröffentlichten Forschungsdaten zu Ihrer Person unterstützt.

Nachnutzung

Die letzte Phase im Lebenszyklus von Forschungsdaten umfasst deren Nachnutzung und ist damit das Kernziel von FDM. Sie wird vor allem durch die Veröffentlichung in geeigneten Repositorien sowie die Vergabe klarer Nutzungsrechte über offene Lizenzen (z. B. CC-Lizenzen) ermöglicht. Auf diese Weise können Forschungsdaten nicht nur überprüft, sondern auch in neuen Kontexten weiterverwendet werden – ein wesentlicher Beitrag zu Transparenz, Effizienz und Innovation in der Wissenschaft.

Exkurs: Recherche nach Forschungsdaten

Für die eigenständige Suche nach Forschungsdaten eignet sich insbesondere die Suchmaschine BASE als Einstiegspunkt. Weitere hilfreiche Portale sind B2Find, OpenAIRE Explorer, DataCite Commons oder Dataset Search. Über re3data lässt sich gezielt nach fachspezifischen Repositorien suchen, während institutionelle oder fachübergreifende Plattformen wie Zenodo oder Dryad ebenfalls geeignete Anlaufstellen sind.

Bei der Nutzung gefundener Daten sollte stets geprüft werden, in welchem Umfang eine Nachnutzung erlaubt ist. Einige Datensätze sind frei zugänglich, andere nur eingeschränkt nutzbar oder unterliegen vollständigen Schutzrechten. Die Nutzung der Daten wird durch die Lizenzbedingungen geregelt; bei fehlender Lizenz ist die Zustimmung der Rechteinhaber*innen einzuholen.

Die korrekte Zitation von Forschungsdaten ist ein wesentlicher Bestandteil guter wissenschaftlicher Praxis: Sie würdigt die Autor*innen und schafft Transparenz.

Exkurs: FAIR-Prinzipien

Das Akronym FAIR steht für vier grundlegende Prinzipien, an denen sich ein nachhaltiger Umgang mit Forschungsdaten idealerweise orientieren sollte. Ihre Umsetzung kann wie folgt erfolgen:

  • Findable (auffindbar): Forschungsdaten werden durch aussagekräftige Metadaten beschrieben, die auf standardisierten Schemata basieren und in zentrale Suchmaschinen eingespeist werden.
  • Accessible (zugänglich): Jeder Datensatz erhält eine eindeutige Kennung, über die er dauerhaft erreichbar ist. Der Zugriff erfolgt über standardisierte Verfahren; bei beschränktem Zugang sollten klare Regelungen zu Authentifizierung und Berechtigungen bestehen.
  • Interoperable (interoperabel): Daten werden bevorzugt in standardisierten, offenen Formaten bereitgestellt; proprietäre Formate sollten vermieden oder Abweichungen klar dokumentiert werden.
  • Reusable (nachnutzbar): Daten werden unter Lizenzen veröffentlicht, die eine umfassende Nachnutzung durch andere Forschende ermöglichen, ergänzt durch die Bereitstellung relevanter Metadaten zur Interpretation und Wiederverwendung.

Mit der Checkliste Wie FAIR sind Deine Forschungsdaten? lassen sich Daten auf ihre FAIRness überprüfen. Weiterführende Informationen bietet die Initiative GO FAIR.

Informationsressourcen

Die hier aufgeführten Informationsressourcen und externen Dienste unterstützen Sie bei Fragen und Herausforderungen rund um das Thema Forschungsdatenmanagement.

forschungsdaten.info

forschungsdaten.info ist das zentrale Informationsportal zum Forschungsdatenmanagement im deutschsprachigen Raum. Das Portal wird kooperativ von zahlreichen Forschungseinrichtungen gepflegt. Es bietet einen Überblick über zentrale Themen des Forschungsdatenmanagements sowie Links zu weiterführenden Informationen. Das Portal eignet sich sehr gut als erste Anlaufstelle für grundlegende Informationen zum Thema.

forschungsdaten.info

Nationale Forschungsdateninfrastruktur (NFDI)

Die NFDI ist ein bundesweites Netzwerk mit dem Ziel, Forschungsdaten in Deutschland strategisch nutzbar und langfristig verfügbar zu machen. In Konsortien entwickeln Fachdisziplinen spezifische Dienste, Standards und Trainings; zusätzlich entstehen fachübergreifende Basisdienste. Forschende können diese Angebote nutzen und zugleich aktiv an der Weiterentwicklung von Standards und Services mitwirken.

Nationale Forschungsdateninfrastruktur (NFDI)

European Open Science Cloud (EOSC)

Die EOSC ist ein Großprojekt der Europäischen Kommission und zielt darauf ab, Forschungsdaten, Dienste und wissenschaftliche Publikationen leichter auffindbar und nutzbar zu machen. Außerdem bietet der EOSC EU Node Forschenden und Citizen Scientists einen einfachen Zugang zu Daten, Publikationen, Software und Services aus europäischen Forschungsnetzwerken und unterstützt so eine kollaborative, datengetriebene Open Science.

European Open Science Cloud (EOSC)