- Indico style
- Indico style - inline minutes
- Indico style - numbered
- Indico style - numbered + minutes
- Indico Weeks View
Die vierte SaxFDM-Tagung findet 2023 in der Universitätsbibliothek der TU Chemnitz statt. Unter dem Motto "Quo vadis FDM – vom Projekt zur Institution(alisierung)" werden am 19.10.2023 spannende Vorträge und Diskussionen angeboten. Daneben wird es eine Postersession und die Verleihung des SaxFDM-FAIRest-Data-Award geben.
Das Programm (Tagesordnung) und die Beiträge mit Abstracts finden Sie im Menü links verlinkt.
Die Übersicht des Programms findet ihr hier:
https://saxfdm.de/tagung_2023
Den Tagungsband mit allen Abstracts als PDF findet ihr hier:
https://saxfdm.de/wp-content/uploads/2023/10/Programm_SaxFDM-Tagung-19.10.2023-Chemnitz.pdf
Für Fragen sind wir per Mail erreichbar (siehe Mailadresse des Tagungsteams unter dem Menü links).
Die URL dieser Seite lautet: https://events.hifis.net/e/4-saxfdm-tagung
Die zugehörige Seite auf saxfdm.de lautet:
https://saxfdm.de/tagung_2023
Wir freuen uns über die Tagungsunterstützung durch folgende Partner:
DRESDEN-concept
Leipzig Science Network
interface systems GmbH
GRAU DATA GmBH
Diese Maßnahme wird mitfinanziert durch Steuermittel auf der Grundlage des von den Abgeordneten des Sächsischen Landtags beschlossenen Haushaltes.
Forschungsdatenmanagement (FDM) steckt an Hochschulen für angewandte Wissenschaften (HAW) noch in den Kinderschuhen. Innerhalb der Konsortien der Nationalen Forschungsdateninfrastruktur (NFDI) sind die HAWs unterrepräsentiert. Eine der wenigen Ausnahmen stellt die Hochschule Mainz als Co-Applicant im Konsortium NFDI4Objects dar [1]. Eine weitere Einbindung der HAWs in die FDM-Community erfolgt über die Landesinitiativen, allumfassend und ausreichend ist dies jedoch nicht. Das Bundesministerium für Bildung und Forschung (BMBF) hat diese Lücke erkannt und die „Richtlinie zur Förderung von Projekten zum Thema Nachnutzung und Management von Forschungsdaten an Fachhochschulen“ 2021 ausgeschrieben [2]. Gefördert werden 14 Projekte und 3 Studien, wobei letztgenannte bereits abgeschlossen sind [3]. Die ersten Ergebnisse der Studie „Entwicklung und Verbreitung von FDM an Fachhochschulen“ (EVER_FDM) [4] zeigen, dass im ersten Zuge Aufklärung und Sensibilisierung für das Thema FDM notwendig sind. Während die DFG-Leitlinien zur Sicherung der guten wissenschaftlichen Praxis [5] 79 % der Befragten bekannt sind, sind die FAIR-Prinzipien [6] nur 25,3 % der Befragten bekannt.
Eines der vom BMBF geförderten Projekte ist FDM@HAW.rlp [7], ein Verbundprojekt der sieben staatlichen Hochschulen in Rheinland-Pfalz sowie der Katholischen Hochschule Mainz. Ziel des Projektes ist es, innerhalb von drei Jahren ein institutionelles FDM durch den Aufbau von Kompetenzen, Dienstleistungen und technischer Infrastruktur aufzubauen. Dabei unterscheidet das Projektvorhaben drei Rollen: (i) FDM-Scout, (ii) FDM-Steward und (iii) zentrale Koordinierungsstelle. Die FDM-Scouts sind mit einer 50%-Stelle an den einzelnen Hochschulen verortet, sodass im Projekt insgesamt acht FDM-Scouts agieren. Ihnen obliegen die Bedarfsanalyse sowie der First-Level-Support an ihren jeweiligen Hochschulen. Die Scouts arbeiten in einer aufklärenden, sensibilisierenden und beratenden Funktion. Für fachspezifische FDM-Fragen stehen im Projekt landesweit vier FDM-Stewards mit 100%-Stellen den Forschenden für die individuelle Unterstützung zur Verfügung. Sie decken die Fachdisziplinen: (i) Informatik, (ii) Ingenieurwissenschaften, (iii) Geistes-, Sozial- und Wirtschaftswissenschaften und (iv) Lebens- und Naturwissenschaften ab. Ebenfalls sind Sie für die Konzeption und Durchführung von Schulungsangeboten sowie für die Vernetzung mit regionalen FDM-Stellen und der NFDI verantwortlich. Für die Steuerung der Aktivitäten, die Qualitätssicherung und das Projektcontrolling ist die zentrale Koordinierungsstelle zuständig. Eine detaillierte Rollenbeschreibung ist insbesondere für die FDM-Stewards schwierig, da es keine allgemeingültige Definition von Data Stewardship gibt [8]. Der Term und das Rollenverständnis ist Gegenstand aktueller Diskurse [9].
Die Verstetigungsperspektive sieht vor, dass die drei beschriebenen Rollen nach Projektende in der Rolle „FDM-Referent:in“ zusammengeführt werden. Diese Position soll an jeder der acht Hochschulen etabliert werden. Diese Zusammenführung stellt in mehrfacher Hinsicht eine Herausforderung dar. Einerseits gilt es die Aufgabenbeschreibung, den Verantwortungsbereich und das Rollenverständnis dieser Position zu klären. Andererseits muss vorab ein politisch-strategischer Entscheidungsprozess angestoßen werden, der die angestrebte Verstetigung realisiert. Bei diesem Prozess ist es unabdingbar, die im Projekt gewonnen Einsichten über die Aufgaben, Verantwortlichkeiten und Herausforderungen in die Ausgestaltung der Rolle der FDM-Referentin einfließen zu lassen. Die Präsentation stellt die ersten Einsichten dar und diskutiert diese.
Literatur
[1] Deutsches Archäologisches Institut: NFDI4Objects - Konsortium, https://www.nfdi4objects.net/index.php/ueber-uns/konsortium [Zugriff am: 16.06.2023].
[2] Bundesministerium für Bildung und Forschung: Richtlinie zur Förderung von Projekten zum Thema Nachnutzung und Management von Forschungsdaten an Fachhochschulen, 2021, https://www.bundesanzeiger.de/pub/publication/UNaAfbAWEPymQziOaUJ/content/UNaAfbAWEPymQziOaUJ/BAnz%20AT%2017.08.2021%20B9.pdf?inline.
[3] Bundesministerium für Bildung und Forschung: Forschungsdatenmanagement - Förderung von 14 Projekten gestartet, https://www.bildung-forschung.digital/digitalezukunft/de/wissen/Datenkompetenzen/forschungsdatenmanagement_fachhochschulen/forschungsdatenmanagement_fachhochschulen_node.html [Zugriff am: 16.06.2023].
[4] Werth, R.: Entwicklung und Verbreitung von FDM an Fachhochschulen (EVER_FDM).
[5] Deutsche Forschungsgemeinschaft: Leitlinien zur Sicherung guter wissenschaftlicher Praxis - Kodex (2019).
[6] Wilkinson, M.D.; Dumontier, M.; Aalbersberg, I.J.J. et al.: The FAIR Guiding Principles for scientific data management and stewardship. In: Scientific data, Vol. 3 (2016), p. 160018. https://doi.org/10.1038/sdata.2016.18.
[7] Hochschule Mainz: FDM@HAW.rlp – Nachhaltiger und qualitätsgesicherter Kompetenzaufbau zu FDM an HAW in Rheinland-Pfalz, 2023, https://www.fdmhawrlp.de/ [Zugriff am: 16.06.2023].
[8] Curdt, C.; Dierkes, J.; Helbig, K. et al.: Data Stewardship im Forschungsdatenmanagement - Rollen, Aufgabenprofile, Einsatzgebiete (2021). https://doi.org/10.17192/bfdm.2021.3.8347.
[9] Sächsische Landesbibliothek - Staats- und Universitätsbibliothek Dresden: Data Stewardship goes Germany, https://www.slub-dresden.de/besuchen/veranstaltungen/oeffentliche-veranstaltungen/data-stewardship-goes-germany [Zugriff am: 16.06.2023].
Die Sicher- und Bereitstellung von wissenschaftlichen Ergebnissen auf Basis von Open Science entsprechend der FAIR Prinzipien ist eines der obersten Ziele innerhalb der Helmholtz-Gemeinschaft. Für die Verstetigung, Nachvollziehbarkeit und Nachnutzbarkeit von Forschungsergebnissen in Form von Artikeln, Dokumentationen, Daten und Software spielt die Etablierung eines strukturierten Forschungsdatenmanagements eine zentrale Rolle. Die Bereitstellung entsprechender technischer Infrastrukturen und Tools sowie die Begleitung durch beratendes Personal sind wichtige Voraussetzungen hierfür. Um ein entsprechendes Forschungsdatenmanagement an den einzelnen Einrichtungen fest zu verankern, hat sich der Einsatz von Data Policies als Regelwerk und strukturierter Leitfaden erwiesen.
Eine gemeinsame Open Science Policy der Helmholtz-Gemeinschaft wurde 2022 verabschiedet (https://os.helmholtz.de/open-science-in-helmholtz/open-science-policy/). Sie wurde unter Mitwirkung aller Zentren, unter anderem durch Mitglieder des Helmholtz-weiten Arbeitskreises Open Science und des Helmholtz Open Science Office erarbeitet. Neben einer strategischen Positionierung enthält die Policy Leitlinien zu den Bereichen Open Access, Open Research Data und Open Software. Des Weiteren ist ein Monitoring über die Fortschritte zur Förderung von Open Science in der Policy verankert.
Zur Berücksichtigung der domain-spezifischen Anforderungen der einzelnen Helmholtz-Zentren (in Bezug auf die unterschiedlichen Forschungsfelder, aber auch Publikationswesen, Daten und Software) sind an die jeweiligen FDM-Infrastrukturen und –Prozesse angepasste Policies nötig.
Am Beispiel des Helmholtz-Zentrums Dresden Rossendorf (HZDR) sollen Notwendigkeit, Gestaltung und Inhalt einer zentrumsspezifischen Data Policy (https://rodare.hzdr.de/record/2270) sowie deren Einbettung und Nutzen für das Forschungsdatenmanagement und den Forschungszyklus gezeigt werden.
Hierbei möchten wir auf den Entstehungsprozess der Data Policy des HZDR eingehen und die Wechselwirkung zu anderen zentrumseigenen Richtlinien sowie der gemeinsamen Helmholtz Open Science Policy eingehen. Auch zeigen wir parallel dazu erarbeitete Richtlinien für Policies im Kontext des EU-Projekts ExPaNDS (European Open Science Cloud Photon and Neutron Data Services). Deren Input sowie die aus einer Evaluation der Helmholtz Metadata Collaboration gewonnenen Erkenntnisse stellen wir vor. Entsprechende Optimierungspotentiale und Ausbaustufen für unsere Policy und FDM-Strukturen möchten wir ebenso zeigen.
Die zunehmende Etablierung von institutionalisierten Strategien und Richtlinien zum Umgang mit Forschungsdaten an Hochschuleinrichtungen hat ihren Ursprung in der Zunahme der Digitalisierung in der Forschung. Damit einher geht auch eine Qualitätssicherung bezüglich der angrenzenden Rechtsgebiete, wie Grundrechte, Patentrecht, Urheberrecht, Arbeits-/Dienstrecht, aber auch Datenschutz und Vertragsrechte besonders in Bezug auf die Drittmittelförderung. Notwendig sind institutionelle FDM-Leitlinien und -Vorgaben insbesondere für Forschende, da diese damit neben Handlungssicherheit auch einen gewissen juristischen und normativen Rahmen für eine Gute wissenschaftliche Praxis erhalten.
Erarbeitet und umgesetzt werden diese Strategien und Richtlinien von ganz unterschiedlichen Akteuren, vor allem Forschungseinrichtungen, Forschungsförderern, Fachgesellschaften und NFDI-Konsortien sowie FDM-Arbeitsgruppen und -Landesinitiativen. Forschungsprojekte und -gruppen setzen diese Regelungen um und erweitern sie um spezifische Leitlinien und Strategien, die den projektspezifischen Bedarfen, der Heterogenität der generierten Forschungsdaten sowie den damit verknüpften Anforderungen an eine sachgerechte Verarbeitung, Speicherung, Archivierung und Zugänglichmachung gerecht werden. Hierbei ist es von großer Bedeutung, dass die Grundausstattung an den Forschungseinrichtungen (v.a. IT-Infrastrukturen, Weiterbildungs- und Qualifizierungsangebote, Beratung/Support und Leitlinien) dauerhaft, verlässlich und in ausreichendem Umfang zur Verfügung steht. Forschungseinrichtungen sind also in der besonderen Verantwortung, Forschenden die Umsetzung der Guten Wissenschaftlichen Praxis und damit den sachgerechten Umgang mit Forschungsdaten zu ermöglichen, Forschende bestmöglich zu unterstützen und die Qualitätssicherung der Wissenschaft zu gewährleisten. Während FDM-Strategien und -Leitlinien an Forschungs-einrichtungen also die fachübergreifende Umsetzung der Guten Wissenschaftlichen Praxis für alle Wissenschaftler:innen (und Studierenden) ermöglichen sollen und damit auch einen Handlungs-rahmen für deren Leitung vorgeben, haben sie in Forschungsverbundprojekten eher einen fach- und projektspezifischen Leitliniencharakter. Idealerweise ergänzen sich beide und ermöglichen ein ganzheitliches, qualitativ hochwertiges FDM. Der Impulsvortrag macht dieses Spannungsfeld auf, stellt Hürden sowohl aus institutioneller als auch projektspezifischer Sicht dar und zeigt Lösungen auf, diese zu überwinden und den Umgang mit Forschungsdaten zur Sicherung der Qualität und damit exzellenter, vertrauensvoller Wissenschaft zu ermöglichen. Es werden Erfahrungen und mögliche Lösungsansätze aus Sicht der institutionellen FDM-Beratung sowie zur Umsetzung des FDMs in DFG-geförderten Forschungsprojekten (SFBs, Graduiertenkollegs) präsentiert und miteinander in Beziehung gesetzt.
Forschungsdatenmanagement als Querschnittsaufgabe stellt Forschungseinrichtungen vor komplexe Anforderungen und bindet viele Ressourcen. Die damit einhergehenden Aufgaben, bspw. beim Aufbau und Betrieb geeigneter Infrastrukturen, Beratungen und Weiterbildungen, übersteigen häufig die Möglichkeiten einzelner Einrichtungen. Hinzu kommt ein spürbarer Mangel an geeigneten Fachkräften. Auf dem Podium wird diskutiert, wie mit diesen Herausforderungen umgegangen und welches Synergiepotential genutzt werden kann und welche Strukturen sich besser eignen, zentralisierte oder föderierte. Dabei soll es Raum sowohl für Erfolgsgeschichten geben als auch für Hürden und Gründe, die eine (einrichtungsübergreifende) Zusammenarbeit erschweren oder dieser entgegenstehen.
Podiumsdiskussion mit Dr. Wolf Zinke (NFDI Geschäftsstelle), PD Dr. Franziska Naether (KompetenzwerkD, Sächsische Akademie der Wissenschaften), Sebastian Frericks (Fokusprojekt OpARA4Saxony, Universität Leipzig), Dr. Michael Bussmann (CASUS - Center for Advanced Systems Understanding, HZDR);
Moderation: Dr. Ralph Müller-Pfefferkorn (SaxFDM-Sprecher, ZIH, Technische Universität Dresden)
Die Landesinitiative für Forschungsdatenmanagement in Baden-Württemberg bwFDM engagiert sich in fünf verschiedenen Bereichen: Sie vernetzt FDM-Akteur:innen in Baden-Württemberg sowie das baden-württembergische Projekt zum High Performance Computing (bwHPC-S5) hinsichtlich ihrer Querschnittsthemen miteinander, betreut die führende deutschsprachige Informationsplattform zum Forschungsdatenmanagement forschungsdaten.info, konzipiert einen FDM-Zertifikatskurs BW, richtet im zweijährigen Turnus die interdisziplinäre Konferenz E-Science-Tage aus und bietet Beratungen und Schulungen zum FDM für baden-württembergische Universitäten und Hochschulen an. Der Fokus der Landesinitiative liegt klar auf der Ebene des Wissenschaftsmanagements und der Wissenschaftskommunikation – auch über Baden-Württemberg hinaus, z. B. durch Vernetzungsaktivitäten mit den FDM-Bundeslandinitiativen oder der NFDI.
Die Landesinitiative bwFDM gehört zu den ältesten und etabliertesten FDM-Projekten auf Landesebene. Von bwFDM-Communities (2014-2015) bis bw2FDM (2019-2023) und nun bwFDM (2023-2027) schlossen sich relativ nahtlos neue Projektlaufzeiten an. Im Rahmen der aktuellen Laufzeit nimmt bwFDM ein breiteres Aufgabenspektrum mit über die Projektlaufzeit hinausgehender Relevanz und Tragweite in den Blick.
In der aktuellen Laufzeit werden fortgeführte Projektteile de facto verstetigt: Die redaktionelle Arbeit von forschungsdaten.info ist durch die Selbstverpflichtung der beteiligten Institutionen und ein sich stetig erweiterndes und diversifizierendes Redaktionsteam mit FDM-Expertise für die Zukunft gesichert. Die Aufnahme von Angeboten aus der Schweiz und Österreich sowie die zunehmende deutsch-englische Umsetzung tragen zur Erweiterung des Informationsangebots und Internationalisierung bei. Die kommenden E-Science-Tage werden hybrid ausgerichtet, um sich durch eine gesteigerte Attraktivität als eine zentrale deutsche FDM-Tagung weiter zu etablieren und so einen bundesweiten Wissens- und Erfahrungsaustausch zu ermöglichen.
Ein vorrangiges Ziel der Landesinitiative ist die Ausweitung der Vernetzung auf weitere Akteur:innen unter Einbeziehung aller Hochschularten. bwFDM startet mit dem Anspruch, alle FDM-Akteur:innen in Baden-Württemberg zu vertreten und zu unterstützen, z. B. durch die Einführung von bwFDM-AGs. Diese sollen eine transparente Zusammenarbeit, die Nutzung von Synergieeffekten und die Anbindung an die NFDI-Sektionen ermöglichen. Die bisherigen Arbeitsgruppen der Science Data Center (SDC-AGs) werden neu aufgestellt, um das inhaltliche Themenspektrum baden-württemberg-spezifisch und für alle FDM-Akteur:innen abzudecken. Die in den bisherigen SDC-AGs gesammelten Erfahrungen werden in die neuen bwFDM-AGs einfließen.
Zu den neuen Aufgaben zählen darüber hinaus die Konzeption und Durchführung eines auf baden-württembergische FDM-Interessierte zugeschnittenen Zertifikatskurses sowie die koordinierende Begleitung der konkreten Umsetzung der zukünftigen Forschungsdatenstrategie Baden-Württembergs mit verschiedenen Akteur:innen aus Politik, Wissenschaft und Infrastruktur. Damit wird die Relevanz der Landesinitiative als Koordinierungs- und Informationsstelle in der (baden-württembergischen) FDM-Landschaft unterstrichen und gefestigt.
Wie die Vorgängerprojekte legt auch die Landesinitiative großen Wert auf die Nachnutzbarkeit der erstellten Materialien und veröffentlicht diese im Sinne der Open-Science-Prinzipien: So werden beispielsweise die Schulungsmaterialien als OER zur Nachnutzung zur Verfügung gestellt. Auch innerhalb des Projekts wird auf ein gutes Wissensmanagement (Berichtswesen, Dokumentenablage und Kommunikationstools) gesetzt, um die in Projekten übliche Personalfluktuation durch eine kontinuierliche Weitergabe von Informationen und Arbeitsaufträgen auszugleichen.
Die Landesinitiative bwFDM wird gefördert vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg.
*manet (deutsch: bleibt)
Einer der Grundpfeiler von Open Science ist der offene Umgang mit Forschungsergebnissen. Das schließt Daten und Software ein, die innerhalb des Forschungsprozesses entstehen. Die Praxis, diese Forschungsdaten zu veröffentlichen (Open Data) ist noch nicht in allen Fachdisziplinen gleichermaßen verbreitet. Umso wichtiger ist es für Institutionen oder Förderer diese Open Data Praktiken zu monitoren und Entwicklungen zu verfolgen, aber auch die Compliance der Forschenden mit Richtlinien zum Umgang mit Forschungsdaten zu überprüfen oder zu incentivieren.
Die vorliegende Arbeit beschäftigt sich mit der Möglichkeit m.H. eines Text Mining Algorithmus Open Data Veröffentlichungen zu identifizieren, die mit wissenschaftlichen Textpublikationen einer Einrichtung verbunden sind. Dazu wurde der an der Charité Berlin entwickelte Algorithmus zur Klassifikation von Open Data und Code (ODDPub, Riedel et al., 2020) auf eine Stichprobe von 137 Publikationen der TU bzw. des Universitätsklinikums Dresden angewendet und mit den Klassifikationsergebnissen des DataSeer Natural Language Processing Modells (extrahiert aus dem kürzlich veröffentlichten PLOS Open Science Indicators Datensatz; PLOS, 2022) und einer manuellen Kodierung verglichen.
Der ODDPub Algorithmus identifizierte, ähnlich wie die manuelle Kodierung, Open Data in etwa 57 % der betrachteten Publikationen, das DataSeer Modell fast 20 % mehr. Die beiden automatisierten Klassifikationen stimmen zu einem großen Teil (ca. 80 %) überein und haben vergleichbare F1-Scores (ODDPub: 0,84; DataSeer: 0,83), eine Metrik zur Bewertung von Klassifikationsmodellen. Allerdings hat der ODDPub Algorithmus eine etwas höhere Precision als DataSeer bei gleichzeitig gutem Recall (ODDPub: Precision 0,83, Recall 0,86), während DataSeer durch einen hohen Recall, aber gleichzeitig etwas geringere Precision gekennzeichnet ist (DataSeer: Precision 0,72, Recall 0,99). Das heißt DataSeer findet zwar fast alle tatsächlichen Forschungsdatenveröffentlichungen, identifiziert dafür aber einige fälschlicherweise als Open Data, während ODDPub weniger fälschlicherweise klassifiziert, dafür aber einige tatsächlich Open Data enthaltende Publikationen verpasst. Abweichungen von der manuellen Kodierung fanden sich für beide Algorithmen u.a. für die Identifikation von Datennachnutzung oder fehlerhafter Verlinkungen. Als Open Code identifizierte ODDPub ca. 13 % der Publikationen, die manuelle Kodierung und der DataSeer Algorithmus zeigten das für fast die doppelte Menge. DataSeer identifizierte mehr von den manuell als Open Code kodierten Publikationen korrekt als ODDPub und erreichte höhere Werte in den anderen Bewertungsmetriken der Klassifikation.
Es konnte exemplarisch gezeigt werden, dass Verfahren wie ODDPub und DataSeer erfolgreich genutzt werden können um Textpublikationen einer Einrichtung automatisiert nach Hinweisen auf Open Data zu durchsuchen. Je nach Nutzungsszenario sollten die Verfahren aber gegeneinander abgewogen werden. DataSeer könnte vorteilhafter sein, wenn möglichst alle Hinweise auf Open Data (unabhängig von der Publikationspraxis) erfasst werden sollen. ODDPub identifiziert präziser die tatsächlich offenen Datenpublikationen, was etwa bei der Nutzung der Ergebnisse für eine Incentivierung innerhalb einer Einrichtung wichtiger sein könnte. Für die Identifikation von Open Code scheint der DataSeer Algorithmus momentan besser geeignet zu sein. Beide Vorgehensweisen sind in der Lage, bei der momentan heterogenen Publikationspraxis für Forschungsdaten, deutlich mehr Forschungsdatenveröffentlichungen aufzufinden als allein über Verknüpfungen von persistenten Identifikatoren und Metadaten-Aggregatoren zu erwarten ist. In Zukunft sollten aber zunehmend Qualitätskriterien, wie die standardisierte Beschreibung und Ablage von Forschungsdaten in Repositorien mit persistenten Identifikatoren eine größere Rolle spielen, so wie das in der Weiterentwicklung der Verfahren schon angedacht ist.
Public Library of Science. (2022). PLOS Open Science Indicators (Version 2) [Data set]. Figshare. https://doi.org/10.6084/m9.figshare.21687686.v2
Riedel, N., Kip, M., & Bobrov, E. (2020). ODDPub – a Text-Mining Algorithm to Detect Data Sharing in Biomedical Publications. Data Science Journal, 19(1), 42. https://doi.org/10.5334/dsj-2020-042
Ein elektronisches Laborbuch unterstützt bei der Dokumentation von Experimenten und der Organisation von Arbeitsabläufen insbesondere in Nasslaboren. Die strukturierte Erfassung und revisisionssichere Archivierung von Ergebnissen ist Voraussetzung für effektive Arbeit nach guter wissenschaftlicher Praxis. Die Einführung einer Software, die so eng mit der Durchführung täglicher Arbeiten verbunden ist, stellt besondere organisatorische Herausforderungen an IT-Personal, Leiter:innen und Mitarbeiter:innen.
Die Medizinische Fakultät der Universität Leipzig ist mit über 100 Professor:innen und 50 Instituten eine große Einrichtung mit vielfältigen Forschungsschwerpunkten. Im Vortrag wird über die mehrjährigen Erfahrungen mit der Einführung von elabFTW als gemeinsamer Plattform für ein elektronisches Laborbuch berichtet. Diese verlief in verschiedenen Einrichtungen mit verschiedenem Erfolg, so dass ein breites Spektrum an technischen, organisatorischen und menschlichen Einflüssen identifiziert werden kann, die die Implementierung und den effektiven Einsatz eines solchen FDM-Tools in der Praxis befördern oder erschweren.
Data Management Plans (DMPs) are crucial for a structured research data management and often a mandatory part of research proposals. The manual creation of DMPs can be very time-consuming, since many researchers have to start from scratch, are unsure about the required content and may run the risk of not meeting the funder requirements. By using tools, DMPs can be effectively developed and managed. There are a variety of tools to support the development of DMPs: from discipline-agnostic DMP tools, which can be used to generate a generic draft DMP, to discipline-specific DMP tools, which support the creation of a DMP in a specific research field, such as psychology, biodiversity, engineering, or the life sciences.
Our aim is to develop a quick and easy to use DMP service for members of Saxon research institutions, building on existing work. In order to evaluate 18 of the existing DMP tools, we defined 32 requirement parameters covering aspects with regard to basic functions, technical aspects and user-friendliness. To further prioritize, a weight factor between zero (not relevant) and three (high priority) was assigned to every requirement parameter. The DMP tools were rated according to a fixed rating scheme from zero (poor) to ten (excellent), and then multiplied with the weight factor.
The evaluated tools satisfied between three and 28 of the requirement parameters. 11 tools covered at least half of the parameters. The highest total evaluation scores were reached by Data Stewardship Wizard (733.5), DMPTool (645.5) and RDMO NFDI4Ing (579.5). Experience from RDM consultancy showed that researchers find pre-fabricated text passages very helpful, which are automatically generated by the DMP tool based on their input. Accordingly, the corresponding requirement parameters were of high importance to us. The only tools generating pre-fabricated text passages while also providing the tool's source code were Data Stewardship Wizard, DataPLAN from NFDI4plants and the DMP tool of the TU Dresden Service Center Research Data. Moreover, we considered the machine-actionability of the DMP as an important requirement, because it can facilitate data findability, reusability, automated evaluation and monitoring. A machine-actionable DMP is machine- and human-readable and aims to be interoperable, automated and standardized. Seven DMP tools fulfill the requirement of providing machine-actionable DMPs, while being open source.
Our results can support tool developers to identify potential improvements and hosting institutions to select a tool suited to their specific needs. In a next step, we will check the feasibility of adapting each of the three tools according to our needs and estimate the respective workload. The most suitable DMP tool will then be customized for our requirements.
KonsortSWD ist das Konsortium für die Sozial-, Verhaltens-, Bildungs- und Wirtschaftswissenschaften in der Nationalen Forschungsdateninfrastruktur (NFDI). KonsortSWD stellt Angebote rund um Forschungsdaten in den Sozial-, Verhaltens-, Bildungs- und Wirtschaftswissenschaften bereit.
Die Angebote von KonsortSWD für Forschende sind vielseitig und reichen von Themen wie dem Zugang zu Forschungsdaten bis hin zu verschiedenen Forschungsmanagementtools und -softwares, die die Arbeit von Forschenden in unseren Disziplinen unterstützen. Im Rahmen der KonsortSWD-Roadshow sollen diese verschiedenen Services den Tagungsteilnehmenden aus den sächsischen Hochschulen und Forschungseinrichtungen vorgestellt werden.
A dataset is considered complete if, in addition to the pure data (e.g. measured values), further information, such as origin and license for use, is also available. This requires not only the complete collection of data and metadata, but also assistance or instructions for collection and use, as well as an infrastructure for storage, publication and unique identification. Such a "value chain" is made up of various processes that should be handled by people in defined roles.
In this context, it is also necessary to provide a technical infrastructure which, on the one hand, generates a precise input mask for the user's specific case, but which, on the other hand, must direct general search queries in a targeted manner to the correct data records. And of course, this entire construct cannot be controlled without rules and documentation, and must be equipped with an adapted training offering and an intuitive user interface. The training offer is also aimed at people with roles or assigned tasks in the data management system to ensure that the roles are performed with the necessary quality by defining the necessary qualifications. A plausibility check, which takes into account the expected flexibility of the system, guarantees the consistency of the data records. In one of the highest levels of sophistication, the plausibility check is followed by a kind of self-healing mechanism that suggests a data set to the user according to the specifications or makes the user's re-intervention obsolete altogether.
In this contribution, the focus will be on the roles and on the interaction with the data management system. All necessary qualifications and tasks are assigned to the roles. The advantage of the subdivision into roles is that it remains open whether the additional tasks are covered by existing or new personnel or whether one person holds several roles. This means that the specific personnel approach can be adapted to the institution's own needs.
A clear global trend cutting across various domains highlights a profound transformation in research data management practices. This transformation seeks to enhance the evaluation of scholarly research outputs and underscores the imperative for publicly funded research to be openly disseminated and adhere to FAIR principles. Consequently, research institutions must establish a well-structured and robust research data management strategy to effectively implement high-level mission statements and commitments that foster responsible and transparent handling of research data. This contribution focuses on Research Data Management (RDM) strategies and policies, addressing pivotal questions about operative data management, institutional implementation, and the challenges encountered in the process. The RDM strategy of the IOER aims to drive sustainable transformation by leveraging open data, methods, tools, and monitoring and planning instruments. It aligns with the organisation's core strategies and involves collaborative efforts among diverse actors. The objectives of the RDM strategy encompass managing research data as a valuable asset, ensuring reproducibility, transparency, and data dissemination while promoting downstream reuse. To effectively implement the RDM strategy, the IOER adopts a top-down and bottom-up socio-technical approach that emphasises engagement, coordination, and networking among various actors. The development process adheres to the Research Infrastructure Self-Evaluation framework (RISE-DE), which assesses the current state and defines future achievements. The RDM strategy program is built upon three pillars: Strategy, Governance, and Stewardship, encompassing eight thematic areas and twenty-five topics. Each topic undergoes evaluation on a four-level scale, with defined achievements and deliverables for each level. By addressing these inquiries and showcasing the IOER's RDM strategy as an example, this contribution offers valuable insights into designing an effective research data strategy, ensuring a successful implementation within an institution, and navigating the challenges associated with RDM.
In der sich stetig entwickelnden Welt der Datentechnologien stellt sich die Aufrechterhaltung und Optimierung des Datenzugriffs und -managements als entscheidende Herausforderung dar. Die DBpedia Association (Historie, siehe Anhang oder https://tinyurl.com/5yfmtdek) mit Sitz in Leipzig stellt ein beispielhaftes Modell für die erfolgreiche Transformation und Verstetigung eines Datenprojekts dar. Ursprünglich als Masterarbeit gestartet, hat sich DBpedia zu einem global anerkannten Projekt entwickelt (8 Millionen Datenbankanfragen pro Tag, 600k Dateidownloads pro Jahr, 20 Milliarden Fakten), das maßgeblich von zahlreichen Forschungsinitiativen querfinanziert wurde. Das Poster fokussiert hierbei auch die Probleme der Verstetigung, besonders im Bezug auf sich im Fluss befindliche Forschungsnetzwerke, Ko-Kreation, Grass-Root-Movements und Open-Source / Open Data Communities.
Dieser Evolution folgend hat die DBpedia Association den "DBpedia Databus" (GitHub) entwickelt. Als moderne FDM-Software dient er dazu, die Daten von DBpedia sowie der erweiterten Community effektiv zu erfassen und zu verwalten. Im Kern dieses Systems steht die Idee des Linked Data, welches sicherstellt, dass Daten effizient, interoperabel und nach den FAIR-Prinzipien (findbar, zugänglich, interoperabel und wiederverwendbar) verwaltet werden (siehe Frey et al. 2021, FAIR Linked Data).
Im Kontext der SaxFDM-Tagung wird dieser Beitrag die transformative Reise der DBpedia Association vom Projektstatus zu einer festen (oder gefestigteren) Institution in der Datenwelt beleuchten. Wir präsentieren Erkenntnisse, Herausforderungen und Best Practices aus 15 Jahren Projektverstetigung. Dabei spielt der DBpedia Databus eine wichtige Rolle, als Antwort auf die wachsenden Anforderungen an das Forschungsdatenmanagement. Es wird demonstriert, wie essenziell eine koordinierte, transparente und dezentralisierte Dateninfrastruktur in der heutigen Forschung ist und wie innovative Lösungen wie der Databus dazu beitragen können, dieses Ideal zu verwirklichen und Daten-Kontributionen und -Erweiterungen der Community FAIR zu erfassen.
The FAIR (Findability, Accessibility, Interoperability, Reusability) concept of data management is of relevance for all current areas of research. Moreover, a statement about the handling of scientific data of is often required when applying at national and/or international funding agencies. For imaging data obtained from both light and electron microscopy, data management is associated with a number of challenges related to the size, complexity, dimensionality, visualization and quantitative analysis of the acquired data. Quite recently, we have started to use the Python-based and open-source image data management software, OMERO. This software package has been introduced by the Open Microscopy Environment developers of the University of Dundee. OMERO is an encouraging option to manage microscopy data. It is installed on a virtual machine and connected to a central data server to manage the storage of images in a multi-user environment. In addition to long-term data storage, it provides possibilities for saving important metadata in an efficient manner, thus avoiding multiple copies of data. It can also handle open source-based processing tools for image analysis, thus allowing effective image analysis workflows. The Core Facility Cellular Imaging (CFCI) at the Faculty of Medicine Carl Gustav Carus at TU Dresden is currently running a pilot project for testing the use and handling of the OMERO software. This is done together with interested users of the imaging facility and a research group. Currently, we are pushing forward this pilot study on a small scale without any data steward. However, we cooperate with the I3D:bio-Team (Information Infrastructure for BioImage Data) in learning all necessary skills and administrative issues. Over the last months, we faced some challenges in using this professional software for data management on a daily basis. Our experiences argue for giving data management issues into the hands of dedicated personnel not fully involved in research projects. As funding agencies will ask for higher and higher standards for implementing FAIR-data principles in the future, this will be a relevant topic for the whole research community. During the conference, we thus want to introduce a convenient solution, which could be applicable for many users within the DRESDEN-concept research alliance. Our poster will demonstrate how to establish and manage OMERO. Furthermore, we will report on technical, administrative and research-specific challenges by showing examples of our first user cases. Last but not least, we will also discuss the use of OMERO for teaching students within the scope of e-learning courses.
OpARA (Open Access Repository and Archive) startete 2018 als gemeinsames Forschungsdaten-Repositorium der TU Dresden und der TU Bergakademie Freiberg. Inzwischen wird es von zwei weiteren sächsischen Hochschulen genutzt. Damit steht den Wissenschaftlern dieser Einrichtungen ein sächsischer Dienst zur Verfügung, um Forschungsdaten gemäß der guten wissenschaftlichen Praxis für mindestens zehn Jahre sicher zu archivieren oder optional langfristig Dritten als Open-Access-Veröffentlichung zur Verfügung zu stellen.
Im Juli 2022 startete das SaxFDM-Fokusprojekt OpARA4Saxony. Im Rahmen dieses Projekts soll für alle interessierten sächsischen Hochschulen als auch die SLUB Dresden die technische Anbindung an OpARA durchgeführt werden. Dabei werden auch die jeweiligen Forschungsinformationssysteme sowie Bibliothekskataloge zum automatisierten Austausch von Projekt- und Publikationsdaten angebunden. Darüber hinaus sind technische Verbesserungen, wie z.B. eine Möglichkeit zur Übertragung und Einreichung größerer Datenmengen, ebenfalls in der Entwicklung.
Weitere Aufgaben im Projekt sind die Einführung eines Advisory-Boards aus Forschenden der nutzenden Einrichtungen zur Abstimmung der strategischen Entwicklung von OpARA, die Entwicklung eines langfristig tragfähigen Betriebs- und Finanzierungsmodells, als auch die offizielle Zertifizierung des Repositoriums durch das Core-Trust-Seal.
Das Fokusprojekt wird gemeinsam vom ZIH der TU Dresden und dem URZ der Universität Leipzig durchgeführt.
Die sächsische FDM-Landesinitiative SaxFDM ist eine seit 2019 bestehende Bottom-up-Initiative von derzeit 22 sächsischen Forschungseinrichtungen mit dem Ziel, die Vernetzung und Kooperation in Bezug auf das Forschungsdatenmanagement (FDM) im Freistaat voranzutreiben. Die Ziele, Handlungsfelder und die grundlegende Organisation wurden in einem Strategiepapier [1] definiert. SaxFDM wird von einem fünfköpfigen Sprecher:innenkreis aus Vertreter:innen verschiedener Einrichtungstypen geleitet und von einem wissenschaftlichen Beirat mit 13 Mitgliedern beraten. Das SaxFDM-Plenum trifft sich vierteljährlich. Diese Treffen sind offen für Interessierte aus allen sächsischen Forschungseinrichtungen. Zudem formierten sich verschiedene Arbeitskreise, die auf Basis ehrenamtlicher Arbeit ausgewählte Themenschwerpunkte (Wissenstransfer und Beratung, Gemeinsame Dienste und Tools, Öffentlichkeitsarbeit) bearbeiten und erste Angebote (z.B. das Veranstaltungsformat „Digital Kitchen“) entwickelt haben.
Mit der Förderung des Projekts „SaxFDM – Etablierung einer kooperativen Unterstützung für das Forschungsdatenmanagement im Freistaat Sachsen“, die seit Ende 2021 vom Sächsischen Staatsministerium für Wissenschaft, Kultur und Tourismus gewährt wird, ist es möglich, das Serviceangebot umfassend weiterzuentwickeln und auszubauen sowie Konzepte für nachhaltige und effektive Strukturen zu entwerfen. Um dies zu erreichen, ist ein dreiköpfiges Kompetenzteam als institutionsübergreifende Arbeitsgruppe seit März 2022 in der Landesinitiative aktiv.
[1] https://saxfdm.de/ueber-uns/strategiepaper-des-arbeitskreises-saxfdm/
Die Preisträger des SaxFDM FAIRest-Data-Award stellen ihre Datensätze und deren Verwendungsmöglichkeiten kurz vor.
Die Preisträger des SaxFDM FAIRest-Data-Award stellen ihre Datensätze und deren Verwendungsmöglichkeiten kurz vor.
Die Preisträger des SaxFDM FAIRest-Data-Award stellen ihre Datensätze und deren Verwendungsmöglichkeiten kurz vor.
Der Wert von datenbasierten wissenschaftlichen Analysen ist in Zeiten von Krisen besonders offensichtlich. Umso gravierender machen sich Defizite in der deutschen Datenlandschaft bemerkbar, wenn erforderliche Daten nicht zugänglich oder erst gar nicht vorhanden sind. Dies erschwert nicht nur eine evidenzbasierte Politikberatung, sondern birgt große Nachteile für den Wissenschaftsstandort Deutschland. Das nun geplante Forschungsdatengesetz soll daher Abhilfe schaffen. Bereits im Juni 2022 formulierte der Rat für Sozial- und Wirtschaftsdaten (RatSWD) in einem Positionspapier Eckpunkte für das geplante Forschungsdatengesetz. Darin fordert der RatSWD insbesondere einen diskriminierungsfreien Zugang zu Daten für die Wissenschaft sowie Vertraulichkeit von Forschungsdaten. Was jetzt für die Umsetzung des Gesetzes zentral ist, um eine ganzheitliche Verbesserung für die Wissenschaft zu erreichen, wird Prof. Dr. Monika Jungbauer-Gans in ihrem Vortrag kritisch beleuchten.
--
Der Rat für Sozial- und Wirtschaftsdaten (RatSWD) berät seit 2004 die Bundesregierung und die Regierungen der Länder in Fragen der Forschungsdateninfrastruktur für die empirischen Sozial-, Verhaltens- und Wirtschaftswissenschaften. Der RatSWD ist Teil des Konsortiums für die Sozial-, Verhaltens-, Bildungs- und Wirtschaftswissenschaften (KonsortSWD) in der Nationalen Forschungsdateninfrastruktur (NFDI).
Er versteht sich als institutionalisiertes Forum des Dialoges zwischen Wissenschaft und Datenproduzenten und erarbeitet Empfehlungen und Stellungnahmen. Dabei engagiert er sich für eine Infrastruktur, die der Wissenschaft einen breiten, flexiblen und sicheren Datenzugang ermöglicht. Diese Daten werden von staatlichen, wissenschaftsgetragenen und privatwirtschaftlichen Akteuren bereitgestellt. Derzeit hat der RatSWD 42 Forschungsdatenzentren (Stand: September 2023) akkreditiert und fördert deren Kooperation.