Follower

Freitag, 4. Januar 2019

Forschungsinfrastrukturen: Ein Flussbett für die Datenströme / Petra Gehring. In: FAZ 19.12.2018

Initiativen zur Gestaltung des digitalen Wandels gibt es derzeit viele. Nicht alle bieten wegweisende Antworten. Für die Wissenschaft neuartig und mit einer gewissen Spannung erwartet hat die Gemeinsame Wissenschaftskonferenz von Bund und Ländern (GWK) am 16. November ein Vorhaben beschlossen, das Mut beweist und Zukunft eröffnet. Die Sache trägt das opake Kürzel NFDI. Ausgeschrieben klingt es kaum weniger sperrig: Nationale Forschungsdateninfrastruktur.
Worum soll es gehen? Um die Bereitstellung von Forschungsdaten für die Wissenschaft. Und zwar erstens: in bundesweit vernetzter und international anschlussfähiger, dabei aber fach- und domänengerecht erschlossener Form. Zweitens sollen auch die vorgelagerten Fragen zu optimaler Handhabung der Daten geklärt werden. Damit handelt es sich um eine Aufgabe, die weit über das bloße Speichern und Verknüpfen von Forschungsdaten hinausgeht. Was kompliziert klingt, ist auch kompliziert, wird aber umso dringender gebraucht. Denn digitale Wissenschaft ist Bewegtes in Bewegtem. Weder gibt es „die“ Daten unabhängig von Software und Geräten, die sie prozessieren, noch kann man die Fülle der Probleme, die in digitalen Forschungsprozessen stecken, einfach einer Bibliothek oder einem Rechenzentrum zuschieben. Digitalität ist vielmehr methodenrelevant. Datenqualität, IT-Entscheidungen und Forschungsergebnisse, die ihrerseits wiederum Daten sind, hängen unmittelbar zusammen. Daher ist Infrastruktur auch nicht „nur“ Infrastruktur. Forschungsdatenmanagement muss Fachwissen vielmehr mit archivarischer und IT-Expertise zusammenbringen. Je mehr Digitalität, desto wichtiger ist bei der Infrastruktur die Mitsprache der Forscher selbst.
Dass Big Data (die schiere Menge) nicht die größte Herausforderung des Forschungsdatenmanagements ist, treibt längst eine wachsende Zahl von Fachgemeinschaften um. Ob in der Biomedizin, der Wirtschafts- und Finanzwissenschaft, der Kernphysik, der Ingenieurwissenschaft oder der Altertumsforschung: Nachhaltigkeit und Methodenstrenge sind angesichts der enormen Heterogenität der Daten kaum zu leisten. Die fehlende Durchgängigkeit der Datennutzung, also die Verinselung der verwendeten, oft prekären und nur projektförmigen Dienste, verschärft das Problem. Unklare Qualitätsmerkmale, etwa nicht standardisierte „Metadaten“, und rasch wechselnde fachliche Anforderungen kommen hinzu. Gut koordinierte Lösungen werden deshalb dringend gebraucht. Sie sind deutlich schwerer zu organisieren als der bloße Hardware-Kauf. ... [mehr] https://www.faz.net/aktuell/feuilleton/hoch-schule/forschungsinfrastrukturen-ein-flussbett-fuer-die-datenstroeme-15946883.html

Keine Kommentare: