Follower

Donnerstag, 11. Juli 2019

Helmholtz investiert in innovative Information & Data Science Forschungsprojekte

Nach einer erfolgreichen ersten Ausschreibungsrunde im Jahr 2017, in der bereits 17 Millionen Euro an Fördergeldern vergeben wurden, werden nun weitere Projekte des Helmholtz-Inkubators Information & Data Science gefördert. Sie erhalten insgesamt eine Finanzierung von knapp 20 Millionen Euro für einen Zeitraum von drei Jahren. Vier strategisch relevante und wissenschaftlich exzellente Forschungsprojekte wurden direkt ausgewählt, ein weiterer vielversprechender Forschungsansatz ist noch in Revision, drei weitere Vorhaben erhalten eine Anschubfinanzierung. Ein internationales Panel von renommierten Expertinnen und Experten unterstützte die Durchführung eines Peer-Review-Verfahrens zur Auswahl dieser zukunftsweisenden Forschungsprojekte.
Die vier direkt ausgewählten Forschungsprojekte sind:

Artificial Intelligence for Cold Regions (AI-CORE)
Der Klimawandel beeinflusst in besonderem Maße die polaren und Permafrost-Regionen durch steigende Temperaturen. Schmelzen von Eisschilden und Auftauen von Permafrost sind unmittelbare Folgen, die unter anderem zu einem Anstieg des Meeresspiegels führen. Diese Entwicklungen stellen gesellschaftliche Herausforderungen dar, die es zu quantifizieren und zu verstehen gilt. Mit dem Projekt „Künstliche Intelligenz für kalte Regionen“ (AI-CORE) wird ein gemeinschaftlicher Ansatz verfolgt, um Methoden der Künstlichen Intelligenz (KI) für die Kryosphärenforschung zu erschließen. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) wird diese gemeinsam mit dem Alfred Wegener Institut (AWI) und der TU Dresden entwickeln und im Rahmen einer Plattform für die Helmholtz-Gemeinschaft zur Verfügung stellen.


Uncertainty Quantification – From Data to Reliable Knowledge (UQ)
Wie wird sich das Klima entwickeln, wie sicher ist unsere Energieversorgung, und welche Chancen bietet die molekulare Medizin? Schnell wachsende Datenmengen eröffnen grundlegend neue Möglichkeiten, aktuelle Fragen aus Gesellschaft, Wissenschaft und Wirtschaft zu beantworten; Daten, Erkenntnisse und Vorhersagen sind jedoch unausweichlich mit Unsicherheit verbunden. Ziel des Projekts Uncertainty Quantification ist es, diese durch Methoden der Wahrscheinlichkeitstheorie zu begreifen und in Forschung und Kommunikation einzubeziehen. Das Projekt vernetzt angewandte Forschende aus den vier Forschungsbereichen Erde & Umwelt, Energie, Gesundheit und Information untereinander sowie mit Helmholtz-Datenwissenschaftlern und externen Hochschulpartnern aus Mathematik und Ökonometrie.


Pilot Lab Exascale Earth System Modelling (PL-EESM)
Das Pilotlab Exascale Earth System Modelling erforscht spezifische Konzepte für Erdsystemmodelle auf Exascale-Supercomputern. Sogenannte Extremereignisse – etwa durch den Klimawandel ausgelöste Orkane, Dürreperioden oder Starkregen – können zu drastischen Veränderungen in Gesellschaft und Umwelt führen. Aktuelle Klimamodelle sind jedoch gerade bei der Simulation solcher Ereignisse noch nicht präzise genug und müssen viel feiner aufgelöst werden. Die Rechenleistung aktueller Supercomputer lässt sich jedoch nicht einfach steigern – unter anderem würde dies viel zu viel Energie erfordern. Daher sind grundlegend neue Konzepte der Modellierung nötig. Im PL-EESM erarbeiten Wissenschaftlerinnen und Wissenschaftler sowie Informatikerinnen und Informatiker gemeinsam die benötigte Software und neue Hardware-Konzepte.


Ptychography 4.0
Ptychographie ist eine rechnerische Methode, die korrelierte Messungen ausnutzt, um ein Objekt auf Basis von Beugungsbildern zu rekonstruieren. Die Nutzung dieser ‚virtuellen Linse‘ erlaubt es, mikroskopische Bildgebung über die Grenzen klassischer Optik hinaus zu treiben. Die Methode hat jüngst enorm an Interesse hinzugewonnen. Dies beruht auf der Verfügbarkeit eines iterativen Algorithmus‘ zur Lösung des Rekonstruktionsproblems und ausreichend Rechenkapazität, um mit großen Datenmengen und hohem Rechenaufwand umgehen zu können. Das Projekt greift die Herausforderung auf, Ptychographie zum Routineeinsatz mit verschiedenen Strahlungsquellen (Röntgenstrahlung, Elektronen, XUV Licht) zu bringen. Dazu wird optische Expertise mit Datenwissenschaften kombiniert. Ptychography 4.0 trennt die Datenerhebung und -prozessierung, so dass Ressourcen dort genutzt werden, wo sie in geeignetster Weise vorhanden sind.


via https://idw-online.de/de/news719088

Keine Kommentare: