Datentresor für die Forschung

08.01.2013  — Online-Redaktion Verlag Dashöfer.  Quelle: Karlsruher Institut für Technologie.

Informationen aus anderen Epochen haben auf Stein und Papier Jahrhunderte überstanden. Moderne Festplatten, DVDs und Magnetbänder sind flüchtiger und schon nach wenigen Jahren nicht mehr verlässlich. Und gerade hier lagern die Daten, die moderne Forschungsprojekte unter Einsatz vieler Millionen Euro gesammelt haben. In der Anfang des Jahres gegründeten „Allianz zur Forschungsdatenhaltung“ entwickeln Informatiker des KIT mit Kollegen aus Köln und Göttingen Strategien, um mit diesem Dilemma umzugehen.

„Heutzutage werden in Forschungsprojekten sehr große Mengen digitaler Informationen erzeugt, aus denen wichtige Erkenntnisse für Wissenschaft und Wirtschaft abgeleitet werden“, erklärt Rainer Stotzka, vom Institut für Prozessdatenverarbeitung und Elektronik am Karlsruher Institut für Technologie (KIT). Damit die Daten nach Projektende auch kommenden Forschergenerationen zur Verfügung stehen, bedarf es Strategien und Werkzeuge, um Daten über Jahrzehnte sicher und auffindbar zu verwahren. Dazu starten das KIT, die Universität zu Köln und die Göttinger Gesellschaft für wissenschaftliche Datenverarbeitung eine Kooperation.

Elemente dieser Strategien sind gemeinsame Standards zur langfristigen Datensicherung, zur Erstellung beschreibender Metadaten und die Datenspeicherung an verteilten Standorten. Im Gegensatz zu wertvollen Büchern, die möglichst wenig im Umlauf sein sollen, um Abnutzung zu vermeiden, bietet es sich bei digitalen Daten an, diese möglichst regelmäßig zu kopieren und zu verteilen, um gegen den wahrscheinlichen Ausfall des Speichermediums gewappnet zu sein. „Hier bedarf es noch Forschungs- und Entwicklungsarbeit, um die Werkzeuge fit für einen verlässlichen Betrieb über viele Jahrzehnte und viele Generationen zu machen“, so Stotzka. Um interdisziplinäre Strategien zu entwickeln, werden in der Allianz sowohl Daten aus der Astroteilchenphysik, als auch aus der Klimaforschung und der Literaturgeschichte betrachtet.

„Durch Experimente, Beobachtungen und Simulationen werden immer größere Datenmengen produziert“, bestätigt Achim Streit, Direktor am Steinbuch Centre for Computing des KIT. Spitzenforschung wie die Entdeckung des Higgs-Teilchens, umfangreiche genetische und pharmakologische Studien in den Lebenswissenschaften oder Messreihen in der Materialforschung sind ohne effiziente Datenverarbeitung gar nicht mehr denkbar. Deshalb bündelt das KIT unter dem Dach „Large Scale Data Management and Analysis“ (LSDMA) seine Kompetenzen im Umgang mit großen Datenmengen, etwa durch effektive Erfassung, Speicherung, Verteilung, Analyse, Visualisierung und Archivierung. „Die neu gegründete Allianz zur Forschungsdatenhaltung ist hier ein Baustein, die Forschungsergebnisse nachhaltig für die Zukunft zu sichern“, ergänzt Streit.

Mehr Informationen zur Forschung von Dr. Rainer Stotzka: http://www.ipe.kit.edu/98.php

Mehr Informationen zu LSDMA: http://www.scc.kit.edu/forschung/lsdf.php

Newsletter:

dasBibliotheks­wissen

Aktuelle News und Informationen zum Bibliothekswesen und zum Bibliotheksmanagement

Aktuelle Ausgabe Jetzt abonnieren
nach oben