RDA Deutschland Tagung 2019 - Poster

erstellt von Kathrin Beck veröffentlicht 2019/02/07 20:26:00 GMT+1, zuletzt geändert: 2019-02-15T18:13:58+01:00
Abstracts der Poster
1. Research data management organiser

H. Enke, J. Klar, O. Michaelis, H. Neuroth, J. Straka, C. Kramer, K. Wedlich-Zachodin, F. Tristram, J. Ludwig


2. Using open science principles for open science advocacy

Julien Colomb

The eeFDM project that aims at developing components for an effective and efficient research data management (RDM) was funded by the BMBF in 2017. As for most RDM projects, a significant amount of energy is put into outreach and teaching initiatives. We planned the creation of promotional and informative videos in order to raise the awareness researchers on the most important aspects of RDM. To ensure the efficacy of the videos, we have been analysing RDM outreach activities. Using the principles of open science and data management, we started by writing a data management plan and developing a strategy to work in the open.
On the one hand, we have been using existing technologies (R - RStudio, rmarkdown, blogdown- Github, zenodo, netify, dpmtool, dat, googlesheets, email) to collectively gather and list material, strategies and best arguments used for RDM promotion and teaching. On the other hand, we have been presenting the data and its analysis on a website, available both on the web and on dat (https://rdmpromotion.rbind.io, dat:rdmpromotion.hasbase.io). While the technological part was relatively easy and fast to set-up, building an online community is a tough enterprise. We have been reaching out to existing communities or RDM specialists hoping they will contribute to and make use of our tool.
A preliminary analysis of the information gathered so far showed a discrepancy between the topics brought forward by data stewards and managers (data storage, safety, citation, and FAIRness) versus researchers (data preparation for analysis). We have therefore focused our efforts on showing the advantages of good RDM for data analysis and efficient research processes. The artistic framework of our videos is a mashup of clips that entered the public domain. The most recent version of the produced video will be screened during the oral presentation:  Better research in less time *

* slogan modified from Lowndes et al., DOI:10.1038/s41559-017-0160


3. Unified integration of heterogeneous neuroscience data in the Neuroinformatics Platform of the Human Brain Project

Lyuba Zehl, Sara Zarfarnia, Stefan Köhnen, Krister Andersson, Milica Markovic, Elodie Legouée, Camilla Hagen Blixhavn, Heidi Kleven, Oliver Schmid, Andrew Davison, Trygve B. Leergaard, Katrin Amunts, Jan G. Bjaalie, Timo Dickscheid

The Neuroinformatics Platform (NIP) of the Human Brain Project (HBP) provides a novel infrastructure for publicly sharing multimodal neuroscience data in accordance with the FAIR guiding principles [1]. Within this infrastructure, data are made findable, accessible, interoperable, and reusable by organizing relevant metadata into a hybrid semantic-object-graph database system, called Knowledge Graph (KG) [2]. Based on the unified information in the KG, heterogeneous neuroscience data can be mapped to common reference spaces allowing users not only to discover data in text-based queries, but also via interactive visual exploration through multilevel 3D atlas viewers [3,4]. In addition, the unified information in the KG facilitates reuse of data via HBP developed analysis toolkits.

In order to properly register data into the KG, the NIP curation team guides data producers through a 3-tier data integration process: Tier 1 ensures that data are accessible from a secure data storage, and domain-independent basic metadata (Minimum Information of Neuroscience Data Sets: MINDS) are properly integrated into the KG, allowing to find the data by textual search. Tier 2 supports and validates the assignment of anatomical location to the data (“spatial metadata”) via the KG, in order to organize data topographically in common brain reference spaces. As a result, data can be queried by their location in the brain, and discovered by visual exploration of brain models in 3D. Finally, tier 3 enriches the KG with standardized, in-depth metadata of specific data modalities, which is essential for experts to analyze and interpret the data.

This 3-tiered data integration process into the HBP databases and web services will allow scientists to easily share, discover, and reuse neuroscience data of diverse origin through a unified system.

[1] Wilkinson et al. (2016) Scientific Data, 3: 160018, doi: 10.1038/sdata.2016.18
[2] HBP Knowledge Graph search engine
[https://www.humanbrainproject.eu/en/explore-the-brain/search/]
[3] HBP
multilevel 3D brain atlas viewers [https://www.humanbrainproje
ct.eu/en/explore-the- brain/atlases/]
[4] Amunts et al. (2014) NeuroImage, 99: 525-532, doi:
10.1016/j.neuroimage.2014.06.010.


4. Semantic Linking of Research Data Publications: Contributing to the FAIRification of Metadata Records – A Proof of Concept

Marius Michaelis, Günther Neher, Tobias Höhnow, Bernd Ritschel

We present a proof of concept that follows the vision to make geoscientific research data easily findable. To achieve this, metadata records of research data publications are integrated by means of Linked Data principles and semantic technologies. In the course of this, not only the findability of the research data publications is improved, but also the interoperability of the associated metadata. By transforming metadata into the RDF format and integrating this data using semantic mappings, our proof of concept demonstrates what concrete steps can be taken to make research data publications FAIR, with a focus on findability and interoperability.


5. Archivierung und Publikation von Forschungsdaten mit RADAR

Kerstin Soltau, Matthias Razum (FIZ Karlsruhe - Leibniz-Institut für Informationsinfrastruktur)
Dorothea Strecker (Humboldt-Universität zu Berlin)

Archivierung und Publikation von Forschungsdaten. Mit RADAR können Vorgaben zur Vorhaltung bzw. Bereitstellung von Forschungsdaten erfüllt werden. Für archivierte Datenpakete werden Haltefristen vom Datengeber festgelegt (5, 10 oder 15 Jahre), publizierte Datenpakete werden von RADAR für mindestens 25 Jahre vorgehalten. RADAR ermöglicht die flexible Festlegung des Zugriffs auf Datenpakete. Archivierte Datenpakete sind nicht öffentlich einsehbar, Datengeber können aber einzelnen Nutzern Zugriff auf archivierte Datenpakete gewähren. Publizierte Datenpakete können öffentlich eingesehen und entsprechend der vom Datengeber festgelegten Lizenzbestimmungen nachgenutzt werden. Optional kann die Datenpublikation über eine Embargofrist verzögert werden. RADAR sorgt durch die Vergabe von DOIs und die automatische Indexierung von Metadaten für die optimale Sichtbarkeit von publizierten Forschungsergebnissen. Das RADAR Metadatenschema basiert auf bestehenden Standards und ist interoperabel. Darüber hinaus bietet RADAR eine Peer-Review-Funktion, mit deren Hilfe die Qualität von Forschungsdaten gesichert werden kann.
Die RADAR-Systemarchitektur ist modular aufgebaut und gliedert sich in drei Schichten, die über Programmierschnittstellen miteinander kommunizieren. Dieser offene Aufbau ermöglicht die Integration von RADAR in bestehende Systeme und Arbeitsprozesse und verhindert, gemeinsam mit der Datenablage in standardisierter BagIt-Struktur, einen "Vendor Lock-In". Einzelne RADAR-Komponenten können gegen bestehende ausgetauscht oder parallel betrieben werden. Beispielsweise kann das eigene Rechenzentrum in die Archivschicht integriert oder das Frontend an eigene Weboberflächen angepasst werden.
Das Rollen- und Rechtemanagement von RADAR erlaubt die delegierte Administration durch nutzende Einrichtungen. Es stellt sicher, dass nur berechtigte Nutzer Forschungsdaten hinterlegen, archivieren und publizieren können und ermöglicht so die Umsetzung von institutionseigenen Workflows zur Datenaufbereitung und -kuratierung. Sofern nutzende Einrichtungen an DFN-AAI teilnehmen, kann die Authentifizierung mit der institutionellen Nutzerkennung erfolgen.
RADAR-Dienstleistungen sowie die gesamte Infrastruktur unterliegen deutschem Recht. RADAR hat ein nachhaltiges Geschäftsmodell entwickelt und ist auf langfristigen Betrieb ausgelegt. Der Dienst wird von FIZ Karlsruhe - Leibniz-Institut für Informationsinfrastruktur betrieben und operiert nicht gewinnorientiert.
Mit der Nationalen Forschungsdateninfrastruktur (NFDI) entsteht ein übergreifendes Forschungsdatenmanagement für das deutsche Wissenschaftssystem. RADAR sieht sich als ein generischer Baustein für Konsortien innerhalb der NFDI, der neue Bedarfe über entsprechende Erweiterungen abdecken kann.
Disziplinspezifische Anforderungen können z. B. über die Implementierung fachspezifischer Metadatenschemata und kontrollierter Vokabulare abgedeckt werden. Auch die zukünftige Kooperation mit anderen Forschungsdatendiensten ist möglich, beispielsweise die Verknüpfung mit Datenmanagementplan-Werkzeugen oder die Anbindung disziplinspezifischer Repositorien an RADAR. Weiterhin steht RADAR alternativen Betriebsmodellen offen, z.B. der Einbindung von Rechenzentren von Institutionen oder Konsortien als Storage Layer oder dem Betrieb der RADAR-Software inklusive Datenspeicherung auf eigenen Infrastrukturen.

1 Kraft, A., Razum, M., Potthoff, J., Porzel, A., Engel, T., Lange, F., & van den Broek, K. (2016). Archivierung und Publikation von Forschungsdaten: Die Rolle von digitalen Repositorien am Beispiel des RADAR-Projekts. Bibliotheksdienst, 50(7). https://doi.org/10.1515/bd-2016-0077


6. Implementing FAIR Data Infrastructures

Peter Mutschke (GESIS - Leibniz-Institut für Sozialwissenschaften, Köln)
Guido Scherp (ZBW – Leibniz-Informationszentrum Wirtschaft, Kiel)
Klaus Tochtermann (ZBW – Leibniz-Informationszentrum Wirtschaft, Kiel)
Peter Wittenburg (Max Planck Institute for Psycholinguistics, Nijmegen)

Im Kontext von Open Science und insbesondere der European Open Science Cloud (EOSC) sind die FAIR Data Principles zu einer allgemein akzeptierten, konzeptionellen Grundlage für zukünftige Forschungsdateninfrastrukturen geworden. Die FAIR-Prinzipien beschreiben Kernmerkmale, die Daten(repräsentationen) erfüllen sollten, um die Auffindbarkeit, Wiederverwendung und Reproduzierbarkeit von Forschungsergebnissen zu verbessern. Sie repräsentieren jedoch weder einen bestimmten Standard noch schlagen sie konkrete Technologien oder Implementierungen vor. Daher ist es dringend erforderlich, Modelle für die Umsetzung der Prinzipien in die Praxis zu entwickeln.
Der Dagstuhl-Perspektiven-Workshop "Implementing FAIR Data Infrastructures" (19.-21. November 2018) hatte zum Ziel, InformatikerInnen und ExpertInnen für digitale Infrastrukturen aus verschiedenen wissenschaftlichen Domänen zusammenzubringen, um Herausforderungen, offene Fragen und technische Ansätze für die Umsetzung der FAIR-Prinzipien in Forschungsdateninfrastrukturen zu diskutieren. Der Workshop nahm die Empfehlungen der Expertengruppe der Europäischen Kommission für FAIR-Daten ("Turning FAIR into reality"1) als Ausgangspunkt und identifizierte Kernherausforderungen und mögliche Lösungen für jedes der vier Prinzipien aus Sicht der Informatik.
Das Poster thematisiert technische Aspekte zu Forschungsdateninfrastrukturen, die dringend adressiert werden müssten, um datenintensive Forschung im Sinne der FAIR-Prinzipien zu unterstützen, wie 1) das von RDA vorgeschlagene Digital Object-Konzept (als ein vielversprechender Weg zur Verbesserung der Interoperabilität), 2) Möglichkeiten zur Verbesserung der Vertrauenswürdigkeit von Repositorien und Registries (wie das ebenfalls von RDA vorgeschlagene CoreTrustSeal), 3) Methoden zur Verbesserung der Erstellung, Darstellung und Verknüpfung von und Suche in (umfangreichen) Metadaten, 4) effiziente und systematische Mechanismen für Schema- und Vokabularregistrierung, 5) die Automatisierung von Authentifizierung und Autorisierung zur Erleichterung des Zugangs zu Daten, 6) die verstärkte Automatisierung von datengenerierenden Workflows (zur Verbesserung der Reproduzierbarkeit) sowie 7) semantische Aspekte von Interoperabilität (wie vocabulary crosswalks).

1 https://doi.org/10.2777/1524


7.nationale Forschungsdaten Infrastruktur for CULTURE

Dr. Georg Schelbert, Daniel Röwenstrunk (Universität Marburg)

Ziel des Konsortiums ist der Aufbau einer dezentralen, fach- und forschungsnahen digitalen Forschungsinfrastruktur für Forschungsdaten aus dem Bereich der Kulturgüter. NFDI4Culture bietet Ressourcen, Dienste und Werkzeuge für die Erforschung von primär nicht-textuellen, materiellen wie immateriellen Kulturgütern an, deren materiale und mediale Dimensionen einen Eigenwert haben, der Gegenstand der Forschung ist und nicht vollständig in der digitalen Repräsentation aufgeht.
Der kulturellen, medialen und materialen Vielfalt der Gegenstände steht eine ausdifferenzierte institutionelle wie disziplinäre Forschungslandschaft gegenüber. Dies zeigt sich vor allem in einer umfassenden Breite der forschenden Fachdisziplinen und Forschungs- und Gedächtnisinstitutionen - von den Bibliotheken und Archiven über Museen und Denkmalpflege bis hin zu universitären und außeruniversitären Forschungseinrichtungen verschiedenster Trägerschaften von Bund, Ländern, Kommunen und zu privaten Trägern. Aufgabe einer Governance wird sein, diese unterschiedlichen Körperschaften bis hin zu den Einzelforscher*innen einzubinden.
So unterschiedlich die Forschungsfragen auch sind, so ähnlich aber sind in diesen Forschungskontexten die Lösungen für den Umgang mit Forschungsdaten. Die NFDI4Culture erkennt ihre Chance und Aufgabe darin, eine Forschungsdateninfrastruktur basierend auf den bereits entwickelten Lösungen anzubieten und neue zu entwickeln, die den gesamten Datenlebenszyklus unterstützen. Es werden Kompetenzzentren für Digitalisierung der Kulturgüter (Datenerzeugung) eingebunden, die Werkzeuge für die Datenaufbereitung und -analyse anbieten und Standards für die Modellierung der Daten entwickeln. Es werden Schnittstellen definiert für den offenen Austausch von Daten, und es werden Dienste für den Wissenstransfer eingebunden, die Forschungsdaten auf Dauer zur Verfügung stellen und Online-Publikationen anbieten. Die NFDI4Culture entwickelt innovative Lösungen für die Qualität und Spezifik dieser Forschungsdaten insbesondere im Hinblick auf die FAIR-Prinzipien.
Die NFDI4Culture unterstützt übergreifende Angebote für die gesamte Forschungsdateninfrastruktur in Deutschland (z.B. Single Sign-on, Storage für Forschende), sie findet generische Lösungen für ihren Bereich (z.B. Standards, Ontologien) und bietet Dienste und Werkzeuge für spezifische Anforderungen (z.B. 3D Digitalisierung, digitale Rekonstruktionen, Annotation von Musik) an. Die NFDI4Culture sichert die Qualität und Nachhaltigkeit der Angebote gemäß den Normen von Softwareentwicklung im Hinblick auf die Kriterien Wartbarkeit, Benutzbarkeit, Effizienz, Funktionalität, Übertragbarkeit und Zuverlässigkeit (ISO 9126).
Die NFDI4Culture sondiert die Bedarfe der Forschenden und versteht sich als technische, soziale und wissenschaftliche Plattform für die Nutzer*innen von Forschungsdaten zu materiellen und immateriellen Kulturgütern. Die Nutzer*innen sind prominent in die Entscheidungsgremien eingebunden. Da die Kulturgüter einer sehr komplexen Rechtssituationen unterliegen, wird es eine zentrale Aufgabe der NFDI4Culture sein, technische wie juristische Lösungen für ein Rechtemanagement zu entwickeln.


8. PsychArchives: A Trustworthy Repository for Psychology

Erich Weichselgartner & Roland Ramthun

PsychArchives is a discipline‐specific repository which has policies and standards in place that meet the needs of the psychology community. It is a one stop shop for various kinds of scientific materials (including primary data) relevant to research in psychology. The certification is pending, and it meets the core requirements of Science Europe for a trustworthy repository and thus is compatible with the FAIR Data Priciples. The four core requirements are:
1. Provision of Persistent and Unique Identifiers (PIDs). Both, generic handles (CNRI) and DOIs (Data Cite) are supported.
2. Metadata. All digital objects in the archive are required to have a minimum set of
metadata (Dublin Core). In order to maximize re‐usability of the materials, users can provide up to 40 metadata fields. In addition, supplementary materials can be uploaded. Metadata quality is assured by formal control procedures run by PsychArchives staff.
3. Data access and usage licenses. All materials are licensed under a Creative Commons license.
4. Preservation. Persistence of data and metadata is assured by a publicly funded institution which has been continuously operating for 47 years. CoreTrustSeal certification for the data segment of PsychArchives is planned for the near future. Core Trust Seal was developed partly through collaborative work done in the Data Seal of Approval (DSA) and World Data System of the International Science Council (WDS) Core Trustworthy Data Repositories Requirements Working Group of the Research Data Alliance.


9. Geo.Data Clearing House – a strategic project for a common research data management within the Geo.X network

Manja Luzi-Helbing, Roland Bertelmann, Hildegard Gödde, Kirsten Elger, Damian Ulbricht, Lutz Hecht, and Lisa Rheinheimer

The Geo.X Research Network for Geosciences is a partnership of nine university and non-university institutions in Berlin and Potsdam bundling the geoscientific expertise in the metropolitan area. Geo.X focusses on research at the intersection of geosciences with other disciplines, where univer-sities and extramural research institutions commit themselves to close cooperation in the areas of research, education, sharing joint infrastructure, internationalization, and knowledge transfer. The network spans the entire range of geoscientific disciplines across all spatial and temporal dimensions and capitalizes on the synergies and specific competences of its partnering institutions.
In the recent years, the Geo.X community has repeatedly expressed the need to develop a common concept for the management of research data including the possibilities for the joint use of research infrastructure. Dealing with Big Data is also a key for the Geo.X Young Academy. To address these needs, Geo.X will establish a Geo.Data Clearing House for the Geo.X community within the next two years. The Clearing House will be built on three pillars:
1. The core element will be a discovery portal which provides information on geoscientific research data and the corresponding scientific infrastructure of the partner institutions.
2. We will develop joint strategies and guidelines for research data management and services for the DOI-referenced publication of data within Geo.X.
3. Furthermore, we will shape the strategic discussion and development of proposals for research data management in coordination with the network on a national and international level.
Setting-up the Geo.Data Clearing House will occur in three steps:
1. Identification of the data management strategies and specific needs of the Geo.X partner institu-tions
2. Set-up of a discovery portal for the Geo.X laboratory infrastructure: Starting with the development of an Geo.X lab portal will promote the discussion within the Geo.X community on the following topics: How can we support (1) quality assurance, (2) joint training of students and young scien-tists, and (3) further development through exchange of experience and (4) mutual support in the operation of the infrastructure. Last but not least, we will coordinate the discussion on how to make research data sustainably usable according to the FAIR data principles.
3. We will use the experience with the laboratory portal being a nucleus to expand it to become the full discovery portal for the Geo.Data Clearing House. The portal will include descriptions of data and research infrastructure with specific links to data sets, websites and contact persons of all partner institutions. This next step will realize a common strategy for research data management and research data publication according to FAIR data principles for the Geo.X community.
In the planned national consortium NFDI for Earth system science (NFDI4Earth), Geo.X will act as a common interest group by providing a platform for all partners to give their institution a voice in the further development of NFDI4Earth. In this way, Geo.X will serve as a regional hub for geoscientific research data.


10. NFDI4Collections - Ein Konsortium für objektbasierte Forschungsdaten

Frederik Berger, Museum für Naturkunde Berlin; Falko Glöckler, Museum für Naturkunde Berlin

(NFDI4Collections) hat zum Ziel objektbasierte Forschungsdaten zu harmonisieren, zu validieren, zu sichern und nachhaltig verfügbar zu halten. Damit sollen perspektivisch auch kleinere Einrichtungen, die integraler Bestandteil der Forschungsinformationsinfrastruktur sind, in der deutschen Forschungslandschaft sprechfähig werden. In einer initialen Runde potentieller Partner wurden die folgenden sieben Themenfelder von disziplinübergreifender Relevanz als zentrale Herausforderungen für ein Konsortium NFDI4Collections identifiziert.
Digitale Katalogisierung. Um die digitale Dokumentation an Museen voranzutreiben bedarf es skalierbarer Mechanismen, die es erlauben analoge Informationen in strukturierte maschinenlesbare Daten zu überführen sowie einer Digitalisierung der Prozesse, die die Sammlungserweiterung begleiten. Fachübergreifende Katalogisierungsrichtlinien auf einer hohen Ebene (Mindestdatensatz) sollen die Bereitstellung von Metadaten nach den FAIR-Prinzipien erleichtern. Transdisziplinäre Austauschformate müssen weiterentwickelt werden, um die Interoperabilität und Aggregation von Objekt-Metadaten sicherstellen. Für die internationale Forschung wird die Etablierung fachübergreifender, multilingualer Normvokabulare eine wichtige Grundlage darstellen.
Richtlinien für das Forschungsdatenmanagement. Das notwendige Expertenwissen, um qualitativ hochwertige Metadaten zu den Objekten bereitzustellen, ist nur in den seltensten Fällen vollumfänglich an den Einrichtungen vorhanden. Ein besonderes Desiderat besteht daher in der Rückführung von Forschungsergebnissen in die Sammlungen. Gerade in intensiv beforschten Sammlungen reichen die Ressourcen nicht aus, um die internationale Forschung systematisch zu verfolgen, (digitale) Belegexemplare einzufordern und auszuwerten. Hierfür ist die Entwicklung neuer und der Ausbau existierender computergestützter Prozesse notwendig, um dieses objektbasierte Wissen nachhaltig in die Sammlungen zurückzuführen.
Qualitätssicherung. Objektbasierte Forschung basiert häufig auf Forschungsergebnissen anderer Disziplinen. Somit kommt den sammlungsbewahrenden Einrichtungen eine entscheidende Rolle in der Sicherung der Datenqualität zu, was in einer sich ständig beschleunigenden Forschungslandschaft eine immer größere Herausforderung darstellt. Auch ein erfolgreiches Forschungsdatenmanagement und die umfängliche Rückführung von Forschungsergebnissen in die Sammlungen wird Lücken lassen. Es bedarf daher Mechanismen und Strukturen, die es den Einrichtungen erlauben, bewusst und offensiv mit dieser Unsicherheit umzugehen und die Unschärfe in den Datenbanken mit abzubilden.
Langzeitverfügbarkeit von digitalen Museumskatalogen. Die Sammlungsdatenbanken, die den Ausgangspunkt für die sammlungsbasierte Forschung darstellen und somit Forschungsdaten per se bereitstellen, unterliegen dem steten technologischen Wandel, müssen gepflegt und migriert werden. Diese technische Pflege führt oft zu Informationsverlusten, die nur durch erheblichen bei der Dateneingabe wieder ausgeglichen werden können. Es bedarf daher einer weiteren Standardisierung dieser Datenbanken (s.o.) sowie der Etablierung von Strategien zur Langzeitarchivierung.
Richtlinien zum Umgang mit Nutzungsrechten. Objekte sind zum Teil mit komplexen Rechten behaftet, wie z.B. Urheber-, Eigentums- und Datenschutzrechten. Zudem ist die Klärung von Nutzungsrechten, wie bei Objekten ungeklärter Provenienz, Gegenstand aktueller Forschung. Auch ethische Überlegen spielen in den gesellschaftlich exponierten Einrichtungen eine wichtige Rolle, die Forschung hemmen können. Dies wirkt sich unmittelbar auf die Datenhaltung und –bereitstellung aus. Ein erfolgreiches Konsortium kann diese spezifischen Interessen nicht nur in der Forschungsgemeinschaft unter dem Dach der NFDI vertreten, sondern auch im politischen System aktiv bei der Gestaltung der rechtlichen Rahmenbedingungen mitwirken.
Standardbildung für Medien. Es gehört zu den Kernaufgaben von Museen, Bildmedien für die Forschung bereitzustellen und digitale Mediensammlungen aufzubauen. Gerade im Hinblick auf die Langzeitarchivierung kann ein starkes Konsortium der mediengenerierenden Einrichtungen die Standardisierung in diesem Bereich extrem befördern. Die zurzeit größten Herausforderungen bestehen im Bereich der 3D-Visualisierung, wo weiterhin proprietäre Formate die Regel darstellen und potente Austauschformate fehlen.
Ausbildung Daten- und Sammlungsmanagement. Im Zuge der Digitalisierung verlieren die Unterschiede zwischen Sammlungs-, Daten- und Medienmanagement zunehmend an Bedeutung. Physische Sammlungen werden Teil von digitalen Sammlungen, neue Sammlungen entstehen auf Basis digitaler Medien oder rein datengetrieben. Um diese Veränderungen zu tragen und zu gestalten, müssen auch die Ausbildungsgänge entsprechend angepasst werden. Museen sind zunehmend auf Fachleute angewiesen, die sowohl im Umgang mit physischen Objekten als im Umgang mit Daten geschult sind. Vor allem müssen diese Personen auch als Multiplikatoren in die Fachgemeinschaften hinein dienen, um dort Standards im Umgang mit Forschungsdaten zu etablieren.


11. RISE-DE - Planning the RD-Journey using DCC's RISE

Nadin Weiß, Boris Jacob & Niklas K. Hartmann, Universität Potsdam

The poster describes our journey in translating and adapting DCC‘s How-to Guide “Using RISE, the Research Infrastructure Self Evaluation Framework”. It tells the story of our participative and collaborative approach to enable RDM service planning in educational institutions in German-speaking countries resulting in the framework RISE-DE. The poster is visually based on a map of Potsdam from 1786, provided by the Staatsbibliothek zu Berlin - Preußischer Kulturbesitz.


12. Scenario Data on the OpenEnergyPlatform (OEP) - A web-platform to improve transparency and reproducibility of energy system analyses

Ludwig Hülk

The research project SzenarienDB aims at developing and improving features to represent energy system scenarios in the OpenEnergyPlatform (OEP). Addressed modules are the creation of an open energy ontology, improvement of the fact sheet, development of a structure for scenario data and many more. The OEP helps to increase transparency, reproducibility and quality in energy system research. Each developed module focusses on a specific aspect of the process from raw data to result data. The OEP aims at giving support to energy system modelers to provide a proper documentation of data, code and assumptions used for a publication. It also provides the possibility to directly connect a model to the database to import and export data using an API.