Initiativen
zur Gestaltung des digitalen Wandels gibt es derzeit viele. Nicht alle
bieten wegweisende Antworten. Für die Wissenschaft neuartig und mit
einer gewissen Spannung erwartet hat die Gemeinsame
Wissenschaftskonferenz von Bund und Ländern (GWK) am 16. November ein
Vorhaben beschlossen, das Mut beweist und Zukunft eröffnet. Die Sache
trägt das opake Kürzel NFDI. Ausgeschrieben klingt es kaum weniger
sperrig: Nationale Forschungsdateninfrastruktur.
Worum soll es gehen? Um die
Bereitstellung von Forschungsdaten für die Wissenschaft. Und zwar
erstens: in bundesweit vernetzter und international anschlussfähiger,
dabei aber fach- und domänengerecht erschlossener Form. Zweitens sollen
auch die vorgelagerten Fragen zu optimaler Handhabung der Daten geklärt
werden. Damit handelt es sich um eine Aufgabe, die weit über das bloße
Speichern und Verknüpfen von Forschungsdaten hinausgeht. Was kompliziert klingt, ist auch
kompliziert, wird aber umso dringender gebraucht. Denn digitale
Wissenschaft ist Bewegtes in Bewegtem. Weder gibt es „die“ Daten
unabhängig von Software und Geräten, die sie prozessieren, noch kann man
die Fülle der Probleme, die in digitalen Forschungsprozessen stecken,
einfach einer Bibliothek oder einem Rechenzentrum zuschieben.
Digitalität ist vielmehr methodenrelevant. Datenqualität,
IT-Entscheidungen und Forschungsergebnisse, die ihrerseits wiederum
Daten sind, hängen unmittelbar zusammen. Daher ist Infrastruktur auch
nicht „nur“ Infrastruktur. Forschungsdatenmanagement muss Fachwissen
vielmehr mit archivarischer und IT-Expertise zusammenbringen. Je mehr
Digitalität, desto wichtiger ist bei der Infrastruktur die Mitsprache
der Forscher selbst.
Dass Big Data
(die schiere Menge) nicht die größte Herausforderung des
Forschungsdatenmanagements ist, treibt längst eine wachsende Zahl von
Fachgemeinschaften um. Ob in der Biomedizin, der Wirtschafts- und
Finanzwissenschaft, der Kernphysik, der Ingenieurwissenschaft oder der
Altertumsforschung: Nachhaltigkeit und Methodenstrenge sind angesichts
der enormen Heterogenität der Daten kaum zu leisten. Die fehlende
Durchgängigkeit der Datennutzung, also die Verinselung der verwendeten,
oft prekären und nur projektförmigen Dienste, verschärft das Problem.
Unklare Qualitätsmerkmale, etwa nicht standardisierte „Metadaten“, und
rasch wechselnde fachliche Anforderungen kommen hinzu. Gut koordinierte
Lösungen werden deshalb dringend gebraucht. Sie sind deutlich schwerer
zu organisieren als der bloße Hardware-Kauf. ... [mehr] https://www.faz.net/aktuell/feuilleton/hoch-schule/forschungsinfrastrukturen-ein-flussbett-fuer-die-datenstroeme-15946883.html
Keine Kommentare:
Kommentar veröffentlichen