Nachhaltige Datenpfade. Digitale Infrastrukturen in der Wissenschaft (05.–07.11.2024) – Ein Bericht
Was braucht es für nachhaltige Dateninfrastrukturen?
Vom 05. bis 07. November 2024 fand der Mapping-Workshop »Nachhaltige Datenpfade. Digitale Infrastrukturen in der Wissenschaft« statt. Das Teilprojekt A02 »Virtuelle Informationsinfrastrukturen« hat sich mit Akteuren aus der Universität – allesamt Gestalter_innen neuer, digitaler Infrastrukturen – zusammengesetzt, um mit ihnen die Möglichkeiten und Grenzen einer nachhaltigen universitären Dateninfrastruktur zu erörtern. Dies ist ein Bericht zu diesem Workshop.
17. Dezember 2024
Was braucht es für nachhaltige Dateninfrastrukturen? Eine nachhaltige universitäre Dateninfrastruktur? Im Teilprojekt A02 untersuchen wir die Akteure, die unsere lokale Infrastruktur gestalten und nutzen, um die Hauptakteure und ihre Hauptanliegen zu identifizieren und um herauszufinden, wie man eine nachhaltige Infrastruktur aufbauen kann. Was muss getan werden, um anders über universitäre Dateninfrastrukturen und deren Materialverbrauch nachzudenken? Das neu gebaute RUB-Rechenzentrum ist ein Schlüsselbeispiel für unsere Forschung, aber es geht auch darüber hinaus: Forschungsdatenmanagement, den Betrieb von Rechenzentren undHochleistungsrechnern, Energiemanagement, Beschaffung und natürlich die Wissenschaften, die in einem globalen System namens Wissenschaft und Hochschulbildung nach Wissen streben.
Die Veranstaltung: Diskussion übernachhaltige Datenpfade
Nach zwei Jahren ethnographischer Forschung und rund 50 Interviews haben wir unsere Gesprächspartner_innen und weitere Akteure aus unseren Forschungsbereichen eingeladen, um erste Ergebnisse zu diskutieren. Wir verwenden Methoden aus den Sozialwissenschaften, die eine enge Interaktion mit der Gesellschaft suchen und ihre Ergebnisse über die Grenzen der Wissenschaft hinaus qualifizieren und testen. Wir nannten unseren Aufbau »Mapping-Workshop«: ein Gruppendiskussions-Setup, in dem wir Interviewdaten und unsere Analyse präsentierten und die Teilnehmer_innen mit provokanten Ideen konfrontierten. Wir klebten bunte Ausdrucke an eine Glaswand und erstellten so eine »Karte« dieser verschiedenen Perspektiven, wie in Abbildung 1 zu sehen (gelb = Interviewschnipsel, rot = Analysen, blau = Provokationen). Ein großer Raum mit einer Glastrennwand half uns, eine produktive Atmosphäre zu schaffen. Die lebhaften Diskussionen unter den verschiedenen Teilnehmer_innen bereicherten das Mapping und ergänzten sie. Darüber hinaus lieferten Graphic Recording Künstlerinnen inspirierende Darstellungen, die weiteren Diskussionsstoff boten. An den Nachmittagen berieten wir uns mit Expert_innen vom Tantlab, Kopenhagen, um die Karte zu interpretieren und Ansätze für eine analytische Auseinandersetzung zu entwickeln. Der Workshop war somit ein hervorragendes Instrument zur Bewertung unserer Analyse, zur Prüfung von Hypothesen und zur Gewinnung zusätzlicher Informationen, die durch vorherige Interviews und Datenanalysen nicht zu Tage gefördert werden konnten.
Zunächst haben wir untersucht, wie wissenschaftliche Daten mit Fragen der ökologischen Nachhaltigkeit zusammenhängen. Dies umfasst die Bereiche Hard- und Software, Strom, Finanzierung, Lieferanten und Beschaffung sowie Wissenschaft, Infrastrukturbetrieb, Verwaltung und Regulierung. Zweitens fragten wir, was die Schaffung nachhaltiger Infrastrukturen behindert und wie die Nachhaltigkeit von Infrastrukturen verbessert werden kann. Diese Fragen erfordern besonderes Wissen, Kompetenzen und Verständnis, z.B. in Bezug auf Kreativität, Vereinbarungen, Vorschriften, Überwachung, Wartung, Reparatur, Ersatz und Workarounds. Da die empirischen Daten auf vielfältige Verbindungen zwischen den verschiedenen Akteuren hindeuten, müssen die Veränderungen so organisiert werden, dass sie zusammenwirken.
Ergebnisse des Workshops
Nach der Vorstellung ausgewählter erster Ergebnisse waren die Workshop-Teilnehmer_innen bemüht, ihr Wissen einzubringen und unsere Forschungsergebnisse zu vertiefen. Unsere Gesprächspartner_innen nutzten die Gelegenheit, sich interdisziplinär, fakultätsübergreifend und teilweise auch kritisch mit Kolleg_innen aus anderen Fachbereichen auszutauschen. Dies ermöglichte detaillierte Einblicke in die Funktionsweise einer universitären Dateninfrastruktur und in die (insbesondere strukturellen) Faktoren, die Praktiken ökologisch nachhaltig bzw. nicht nachhaltig machen. Einige Punkte sind erwähnenswert.
Zu den wichtigsten Problemen, die wir während der Veranstaltung festgestellt haben, gehören unter anderem:
Mangelnde Koordination und organisatorische Reibungskräfte in der Universität. Wir können zunächst zwischen technischer und administrativer/wissenschaftlicher Expertise unterscheiden, die jemand während des Workshops treffend als „vor“ und „hinter“ der Steckdose bezeichnete. Hier wurde festgestellt, dass die Verbindungen zwischen den jeweiligen Bereichen manchmal schwach sind oder dass es Übersetzungsprobleme gibt. Außerdem wurde intensiv darüber diskutiert, ob eine Zentralisierung oder Dezentralisierung der IT eine Alternative darstellt. Obwohl die Universität ein großes Interesse an Nachhaltigkeit hat, um Ineffizienzen zu bekämpfen, ist dies nicht unbedingt ein Hauptziel in allen Bereichen. Ein Beispiel dafür ist die Tatsache, dass Wissenschaftler_innen der verschiedenen Fachbereiche ihre Computerinfrastruktur nicht teilen. Außerdem haben wir Unterschiede in der Repräsentation festgestellt: den Gegensatz zwischen technisch-organisatorischen Fragen (Domäne der Kanzlerin) und wissenschaftlichen Fragen (Domäne des Rektorats). Diese Aufteilung ist einzigartig für die Hochschulen als Organisationen. Zentralisierung als Lösung ist jedoch umstritten, weil andere darauf hinweisen, dass die in den Fachbereichen oder Fakultäten angesiedelte Expertise für präzise Anpassungen unerlässlich ist. Im Hinblick auf die Nachhaltigkeit können Unstimmigkeiten und fehlende Koordination zu fehlenden Entscheidungen und damit zu fehlenden Maßnahmen führen, um effizienter zu sein oder Nachhaltigkeitskriterien in den Mittelpunkt zu stellen, usw.
Wissenschaftlicher Wettbewerb, Prestige und Ideale des New Public Management. Die moderne Wissenschaft wird zunehmend vom Wettbewerb um Fördermittel und Prestige bestimmt, was sowohl organisatorisches als auch individuelles Prestige bedeuten kann. In unseren Forschungsinterviews betonten einige Wissenschaftler_innen, dass mehr Rechenleistung zu einer detaillierteren, solideren Forschung führt und letztlich mehr Fördergelder einbringt. Die Universität bewertet auch die Lehrstühle nach ihrer Leistung, und die Organisation selbst steht im Wettbewerb, indem sie beispielsweise Exzellenzprogramme und internationale Rankings berücksichtigt. Obwohl die Universität ein großes Interesse an Nachhaltigkeit hat, führt dies wiederum dazu, dass der Ausbau von Rechenkapazitäten Vorrang vor Fragen der Nachhaltigkeit hat. Die strukturelle Ungleichheit kann auf lange Sicht auch zu Problemen führen, wenn die Werte der Nachhaltigkeit und des Wettbewerbs aufeinanderprallen würden. Bislang werden keine konkreten Daten, z.B. zum Energieverbrauch pro Raum in jedem Gebäude, gesammelt und analysiert (was sich laut Beschluss in naher Zukunft ändern wird). Dies ist jedoch mehr als eine reine Wissensfrage. Es ist eine politische Frage. Die Teilnehmer_innen des Workshops erinnerten uns daran, dass das Wissen um den unterschiedlichen Energieverbrauch harte Entscheidungen erfordern würde. Zum Beispiel verbrauchen Lehrstühle sicherlich unterschiedlich viel Energie. Sollte der Energieverbrauch jedoch durch einen allgemeinen Standardwert begrenzt werden oder durch den Beitrag, den ein Lehrstuhl in einem bestimmten Bereich leistet, durch seinen Ruf – und was ist überhaupt ein Ruf?
Delegation von ökologischen Fragen. Nachhaltigkeit im Sinne eines geringeren Ressourcenverbrauchs wurde meist als Frage der Energieeinsparung im eigenen Haus formuliert; wie oben angedeutet, auch zur Kostensenkung. In den globalen Diskussionen über IT-Infrastrukturen und Computer spielen die globalen Wertschöpfungsketten von Rohstoffen eine entscheidende Rolle, d.h. etwa die Materialien und Prozesse, aus denen ein Chip für einen Hochleistungs-Cluster besteht. Die Universität steuert diesen Prozess durch Beschaffungsregeln, und die Verantwortung für Entscheidungen über nachhaltigere Technologien liegt fast ausschließlich bei den Lieferanten (und deren Zulieferern). Bestehende Verträge diktieren die Technologieauswahl; bei größeren Beschaffungen wählen die Unternehmen, die Lösungen anbieten, die Technologie der Universität aus. Die Universität hat keinen Einfluss auf die Diskussionen, so wurde es betont, und rechtlich gesehen ist Nachhaltigkeit im Vergleich zu Preis und Leistung ein »schwacher« Wert.
Neue Trends und Hypes in der Datenverarbeitung. Die Teilnehmer_innen des Workshops stellten fest, dass KI einen Unterschied macht. Die Bedürfnisse verlagern sich, und das Hochleistungsrechnen zieht neue Nutzer_innen an, denen es an einer umfassenden Ausbildung in Bezug auf Softwarecode und dessen Abhängigkeiten fehlt. Außerdem argumentierten einige, dass neue Nutzer_innen nicht in der Lage sind, die vielfältigen materiellen Folgen ihrer Investition, d.h. den Ressourcen- und Energiebedarf, zu berücksichtigen. Ausgehend von den Diskussionen über Hochleistungscluster und Lehrstühle mit prestigeträchtigen Projekten wurde jedoch ebenso argumentiert, dass vor allem die von den gut ausgebildeten Wissenschaftler_innen eingerichtete IT-Infrastruktur die Nachfrage nach compute, also Hochleistungsrechner, antreibt. Hier geht es also auch um neue KI-Möglichkeiten und um neue Simulations- oder Rechenanforderungen für Projekte. Ähnlich wie bei der Energiefrage geht es darum, Dinge sichtbar zu machen und die Auswirkungen eines potenziellen gleichen Zugangs zu diskutieren.
Trennung zwischen Wissenschaft und Datenverarbeitung. Ein besonderer Schwerpunkt lag auf den unterschiedlichen Kompetenzen von Dateninfrastrukturbetreiber_innen und Wissenschaftler_innen. Auf der Grundlage ihrer wissenschaftlichen Erkenntnisse und ihres Verständnisses des Forschungsgegenstandes schreiben Wissenschaftler_innen häufig Software, um Simulationen, Berechnungen usw. durchzuführen. Obwohl ihre Kernkompetenz nicht das Programmieren ist – oft wird dies nicht einmal im Studium gelehrt – haben sie meist keine Schwierigkeiten damit, das wissenschaftliche Problem in computerlesbaren Code zu übersetzen. Es mag nicht der eleganteste Code sein, aber er reicht aus, um die Forschungsfrage zu lösen. Auch wenn sie nur wenig Einblick in das wissenschaftliche Thema haben, sind die Betreiber_innen von Infrastrukturen, wie z.B. die Betreiber von Hochleistungsrechnern, oft geschickter im Programmieren. Ihnen fällt auf, dass der Code von Wissenschaftlern viel mehr Zeilen hat als nötig (siehe auch den vorherigen Bullet Point); dass ein_e erfahrene_r Programmierer_in die gleiche Software mit wesentlich weniger Befehlen schreiben könnte. Weniger Zeilen bedeuten auch weniger Rechenzeit und damit weniger Stromverbrauch. Das Infrastrukturpersonal hat jedoch nicht die Ressourcen, um jeden Code zu überprüfen. Daher führt ein HPC-Cluster den Code oft so aus, wie er eingereicht wurde, trotz potenzieller weiterer Effizienzgewinne. Die klare Trennung zwischen wissenschaftlichem und technischem Personal führt dazu, dass das Schreiben kürzerer Codes und energiesparender Software selten ist.
Freiheit der Wissenschaft. Verschiedene Akteure wiesen darauf hin, dass die Wahl der Computerhardware für die wissenschaftliche Forschung durch die Freiheit der Wissenschaft geschützt ist. Die wissenschaftliche Methode schließt die Computerhardware ein (siehe Abb. 2). Für die Beschaffung bedeutet dies etwa, dass es schwierig ist, wissenschaftlichem Personal vorzuschlagen – geschweige denn anzuweisen –, einen anderen – z.B. energiesparenderen – Computer, Server oder HPC-Cluster anzuschaffen, als ausgewählt, oder sogar einen zu verwenden, der bereits an der Universität vorhanden ist.
Nachhaltiges Forschungsdaten Management. Nachhaltigkeit wurde als grundlegende Anforderung an das Forschungsdatenmanagement (Research Data Management) formuliert, wobei Open-Source-Lösungen und eine professionellere Programmierung als Schlüsselkriterien genannt wurden. Im Mittelpunkt der Diskussion standen die FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable), die einen Gedankenaustausch darüber auslösten, wie Forschungsdaten effektiv verwaltet werden können. Im Zusammenhang mit projektbasierter wissenschaftlicher Forschung wurde die Bedeutung der Organisation von Metadaten nach standardisierten Verfahren hervorgehoben. Die Teilnehmer_innen betonten, dass jeder Schritt, der zur Verwaltung von Forschungsdaten unternommen wird, zu ökologisch nachhaltigen wissenschaftlichen Praktiken beiträgt. Es wurde jedoch auch festgestellt, dass die FAIR-Grundsätze zwar Leitlinien für die Verwaltung von Daten bieten, aber unbeabsichtigt die Produktion und Speicherung von immer größeren Datenmengen fördern. Dies wirft kritische Fragen zur nachhaltigen Forschungsdatenpraxis auf. Ein zentraler Diskussionspunkt war das Spannungsverhältnis zwischen effizientem Datenmanagement und der Förderung nachhaltiger Datenpraktiken. Ein_e Teilnehmer_in stellte den Begriff der Fairness bei FAIR-Daten in Frage und fragte: fair für wen? Dies löste eine Diskussion über Dateneigentum, den Umgang mit sensiblen Informationen wie medizinischen Daten und die Grenzen des Zugangs aus. Es wurde deutlich, dass die Zugangsbeschränkungen kritisch geprüft werden müssen, auch wenn die Zugänglichkeit und Wiederverwendbarkeit von Daten für bestimmte Interessengruppen gegeben ist.
Dies ist nicht das Ende unserer Forschung. Die digitale Infrastruktur der Hochschulen entwickelt sich ständig weiter, und so auch die Infrastruktur der RUB. Stay tuned, oder nehmenS ie Kontakt auf, denn wir sind gespannt, wie die Dinge laufen und wie sich aktuelle Reformen auswirken.
Kontakt
Sonderforschungsbereich 1567 Virtuelle Lebenswelten – Projekt A02 Virtuelle Informationsinfrastrukturen