Dienstag, 10. Dezember 2024

Indiana Jones und die vergangene Zukunft

Auf einem längeren Flug hatte ich neulich die Gelegenheit, Harrison Ford in Indiana Jones und das Rad des Schicksals anzusehen. Alle Elemente, welche die Indiana Jones-Filme ausmachen, waren mit dabei: die Action, die Musik, der Humor. Es war vieles so, wie ich es aus den 1980ern kannte und liebte. Man fühlte sich als Zuschauer in diese Zeit zurückversetzt und fühlte sich wohl. Und genau das ist das Problem. 

Indiana Jones ist ein Rollenmodell für alle (männlichen) Wissenschaftler. Wer würde nicht gerne, statt im Labor zu stehen oder mit SPSS die Umfrage auszuwerten, mit Hut und Peitsche nach alten Artefakten jagen? Wir können es so gut nachfühlen, wenn Indy vom Dekan seines College auf hohe Reisekosten oder zu geringe Erfüllung seiner Lehrverpflichtung hingewiesen wird. Indy ist ein Teil der heroischen Vergangenheit, des was-wäre-wenn unseres eigenen wissenschaftlichen Heldentums. Aber Heldentum ist vergänglich, und die Helden werden älter. Im Film wird Harrison Ford durch KI-basierte Nachbearbeitung optisch verjüngt -- in der realen Welt funktioniert das leider nicht. 

Womit wir bei der Problematik wären, dass wir CIOs gerne aus unserem Erfahrungsreichtum bei der Bewältigung des Jahr 2000-Problems oder sogar dem Übergang von CICS auf PC-Netzwerke schöpfen. Das waren noch Zeiten, als wir die Schlangen des Fortran-Codes mit der Peitsche bekämpften! Aber diese Lösungsansätze helfen uns nicht mehr für die heutige Hochschul-IT. Am Wissen und den vermeintlichen Fähigkeiten von früher festzuhalten, wird uns nicht helfen. Die Gefahr besteht aber, dass wir alten CIOs das trotzdem glauben und unsere  Denkweise und Entscheidungen in dieser Zeit festsitzen. Und es wäre auch falsch, auf die alten Professorinnen und Professoren (in den Senaten und Hochschulräten) zu hören, die heute noch den gleichen Service aus Indy's Zeiten erwarten, den sie seit 20 Jahren gewohnt sind.

Der heutige CIO muss mit komplexen Abhängigkeiten zwischen On-premise und Cloud-Diensten jonglieren. Viele Probleme lassen sich nicht durch Neustart des Servers beheben, sondern benötigen Projektmanagement, Wissen über Enterprise-Architekturen, Abstimmung in den Gremien der IT-Governance. Wenn wir diese Notwendigkeiten ignorieren, kommen wir nicht weiter. Unsere Rechenzentren müssen dieses Wissen entwickeln. Technologien, die unsere Hochschule nicht von anderen differenzieren, müssen wir outsourcen. Nur so kommen wir in die Zukunft.

Wir beenden diesen Post heute einmal mit einem Tucholsky-Zitat: "Lass dir von keinem Fachmann imponieren, der dir erzählt: Lieber Freund, das mache ich schon 20 Jahre so! Man kann eine Sache auch 20 Jahre lang falsch machen" (Kurt Tucholsky, 1890 - 1935).



Donnerstag, 14. November 2024

Cloud und die Auflösung des Ortes

Wenn wir an Universitäten denken, denken wir häufig an Orte: den Campus mit seinen Rasenflächen, die Bibliothek, die Mensa, die Hörsäle. Um Literaturquellen zu beschaffen, gehen wir in die Bücherei. Um Wissen aufzunehmen, gehen wir in den Hörsaal. Um unsere Mitstudierenden zu treffen, verabreden wir uns im Cafe auf dem Campus. Die Universitäten selbst sind mit Orten verknüpft: sie sind benannt nach ihren Orten, die Universität Oxford, Cambridge, München, Paris. Selbst wenn es mehrere Universitäten in einer Stadt gibt, geben wir den Ortsbezug nicht auf. Es gibt 13 staatliche Universitäten in Paris; sie tragen den Namen der Stadt und sind ansonsten durchnummeriert. Die bekannteste ist Paris I (mit dem Beinamen Sorbonne) Können Sie aus dieser Bezeichnung ablesen, durch welchen Forschungsschwerpunkt sie hat? Aber sie können ganz sicher ablesen, in welchem Teil der Welt sie sich befindet.

Eine der wesentlichen Eigenschaften des Konzepts Cloud Computing ist es, den Ortsbezug der Diensterbringung vollkommen in den Hintergrund zu stellen. In welchem Rechenzentrum der Welt genau der über AWS beschaffte Speicher allokiert ist, ist Ergebnis eines technischen Algorithmus, nicht einer bewussten Entscheidung, weder des Diensterbringers noch des Dienstnutzers. Wo die Rechenleistung genau abgerufen wird (und damit auch die energetische Leistung anfällt) ebenso. In der grundlegenden Idee des Konzeptes führt es dazu, dass mit mathematischer Genauigkeit die Nutzung der Cloud-Ressourcen optimiert werden kann. Dies ist ein großer Fortschritt gegenüber einzelnen, örtlich gebundenen Rechenzentren, deren Aufwand für Technik und Personal sowie ökonomische Fixkosten auch dann anfallen, wenn sie nicht vollständig ausgelastet sind.

Cloud-Ressourcen in der wissenschaftlichen IT von Universitäten einzusetzen, ist daher ökonomisch positiv. Aber es nagt an der Ortsgebundenheit, die wir Universitäten ansonsten zuschreiben. Und wir haben auch im Digitalen einiges getan, um diese Ortsgebundenheit aufrecht zu erhalten. Zuallererst definieren wir häufig ein geschlossenes Campusnetzwerk, welches nach außen durch eine Firewall geschützt ist und in dem User mit eigenes erstellten Identitäten und Kennung der Universität auf interne Dienste zugreifen können. Ohne eine solche eigene Kennung erhalten Sie keinen Zugang zu den Lehrsystemen, können keine Bibliotheksdatenbanken durchsuchen und keine Zeugnisse ausdrucken. Falls Sie sich doch einmal geographisch außerhalb des Campus aufhalten sollten? Dann bekommen Sie einen VPN-Zugang, ein Virtual Private Network. Damit können Sie sich von außen in die Universitätsnetze einwählen und so vorspiegeln, als wären Sie geographisch auf dem Campus. Wenn Sie auf diese Weise auf dem Campus sind, erhalten Sie z.B. Zugriff auf die Literaturdatenbanken der Wissenschaftsverlage. Diese diskriminieren den Zugriff durch Geofencing -- sie lassen nur solche Benutzer zu, deren maschinelle Identitäten (IP-Adressen) dem räumlichen zuordenbaren Universitätsnetzwerk entsprechen.

In der Realität des Umgangs mit wissenschaftlichen Daten und Lehrmaterial hat dieser Ortsbezug bereits an Bedeutung eingebüßt, und wird es auch weiter tun. Der Ort, an dem Forschung betrieben oder Lehre durchgeführt wird, befindet sich in einer wissenschaftlichen oder edukativen Wolke. ArXiv als weltweit größte Quelle von Texten, PLos-One als Zeitschrift oder Youtube als Quelle vieler Lehrfilme lassen sich längst nicht mehr einer Universität, noch nicht einmal einer globalen Region zuordnen. Wissenschaft und Lehre finden dort statt, wo Wissen kombiniert und weitergegeben wird. Dafür braucht es keinen konkreten geographischen Ort. Lehrmaterial ist in der Cloud gespeichert, auf verteilten Servern irgendwo in der Welt, auf denen die benötigte, konkrete Instanz von Moodle oder Canvas läuft. Open Science führt als Konzept dazu, dass ohnehin keine Wände mehr rund um Forschungsdaten aufzubauen sind. Lehrende leben auf anderen Kontinenten als die Universität, für die sie ihre aktuellen Vorlesungen anbieten. Studierende, die zunehmend zerrissen werden zwischen den Anforderungen eines Vollzeitstudiums und den ökonomischen Realitäten ihres Alltags, die mindestens einen Nebenjob erfordern, und den sozialen Realitäten, die in einer alternden Gesellschaft die Bürde der Pflege von Angehörigen bei ihnen abladen, sind dankbar für jede Möglichkeit, die zeitliche und örtliche Festlegung einer Universitätsvorlesung digital zu flexibilisieren.

Das ist alles nicht positiv für die Universität als sozialen Raum, als Ort der Begegnung zwischen Menschen, Studierenden, Lehrenden. Es gibt kein Cafe im Cloud Computing, in dem Sie sich verabreden könnten. Es ist weder passend für intensive Gespräche zwischen Lehrenden und Studierenden, noch für die identitätsstiftende Arbeit in naturwissenschaftlichen Laboren, mit der man mühsam die Ergebnisse seiner Doktorarbeit erwirbt. Aber so zu tun, als hätte der Ort der Universität immer noch die gleiche Bedeutung wie Mitte des letzten Jahrhunderts, ist eine Abwehrhaltung, die gegen Windmühlen kämpft.

Dienstag, 19. März 2024

Können wir 1000 GPUs pro Hochschule dauerhaft finanzieren?

Es ist immer wieder erstaunlich, wie viel Hollywood in einer Rede eines Vorstandsvorsitzenden eines US-Tech-Unternehmens zu finden ist. Gestern abend zeigte Jensen Huang von NVIDIA auf seiner Entwicklerkonferenz einen langen Trailerfilm, in dem Galaxien, Operationen und Wirbelstürme zu sehen waren. Anschließend gab es 90min harte Technologie, aber auf die Anwendungen aus Astrophysik, Medizin und Geowissenschaften kam er immer wieder zurück. Wenn man die Welt zu einem besseren Ort machen möchte, ist das kein schlechter Ausgangspunkt. 

Diesbezüglich würden mir die Astrophysiker:innen, Mediziner:innen und Geowissenschaftler:innen meiner eigenen, kleinen Universität sicherlich zustimmen. Im nächsten Satz würden sie aber Forderungen stellen: um in der Forschung wettbewerbsfähig zu bleiben, brauchen wir auch GPUs. Am liebsten ganze Cluster. Großgeräteanträge bei der DFG wäre doch eine Möglichkeit?

Ich sehe die Notwendigkeit, um wissenschaftlich am Ball zu bleiben. Ich sehe auch die Problematik der dauerhaften Finanzierung einer solchen Investition. Die Bundesförderung übernimmt bei der Erstanschaffung die Hälfte, die andere Hälfte muss die Uni aus ihren Mitteln bestreiten. Das wird nicht wenig sein, und Investitionen drum herum, in die Infrastruktur und Klimatisierung des Rechenzentrums, kommen noch dazu. Nach 4-5 Jahren (wenn es überhaupt so lange dauert), muss vermutlich die ganze Hardware erneuert und durch GPUs der neuesten Generation ersetzt werden. 

Ist das von allen Universitäten leistbar? Vermutlich nicht. Große Universitäten und solche mit einer guten Zusatzfinanzierung aus Overheads, z.B. Technische Universitäten, werden sich damit leichter tun als kleinere Hochschulen.

Der Ausweg liegt in der wissenschaftlichen Kooperation und der Zentralisierung der KI-Infrastruktur auf wenige Rechenzentren, vermutlich nur eines oder zwei pro Bundesland. Hier braucht es einen fairen Zugriff auf die Rechenleistung, Schulung und Support für alle Anwender in allen beteiligten Hochschulen, eine Einigung auf steuerliche Regelungen, und bezüglich einer lastorientierten Kostenbeteiligung der Endnutzer. 

Das einzelne Rechenzentrum der einzelnen Universität ist aus der Nummer leider raus.

Freitag, 26. Januar 2024

Zugang zu Generativer KI für deutsche Universitäten

Eine aktuelle Frage, die mir als CIO gestellt wird, ist ob und wie Forschende, Lehrende, Studierende und die Verwaltung Zugang zu generativen KI-Anwendungen erhalten können. Dabei geht es nicht um die Nutzung von KI innerhalb der Hochschule (wie hier für Studium und Lehre beschrieben), sondern schlicht um eine ungefilterte Möglichkeit, Texte, Daten und Grafiken mit Hilfe von KI zu erstellen oder zu verbessern. Vor allem für Forschende ist es interessant, das Schreiben von wissenschaftlichen Texten, von Programmiercode oder Datenauswertungen zu beschleunigen. Und die versprochenen Produktionsgewinne von KI für Verwaltungen könnten gerade in Hochschulen viel bewirken.

Was kann die Hochschule unternehmen? Eine direkte Möglichkeit wäre, allen Hochschulangehörigen einen persönlichen ChatGPT Plus Tarif für 20 USD pro Monat zur Verfügung zu stellen. Derzeit (Januar 2024) werden von OpenAI aber keine Campuslizenzen für Universitäten angeboten und eine rasche Berechnung ergibt für 1000 Verwaltungsmitarbeitende Kosten von 240.000 EUR p.a. und für 10.000 Studierende 2.4 Mio EUR p.a. Das übersteigt sicherlich das Budget fast jeder Hochschule.

Welche Alternativen gibt es? Das Abrechnungsverfahren von OpenAI funktioniert so, dass "pay per use" nach der Menge an Abfragen (bzw. Token) abgerechnet wird. Eine monatliche Flat-fee als Abonnement lohnt sich also nur, wenn man mehr Abfragen/Token absendet, als im Monatsbeitrag inkludiert ist. Das wird für die meisten Universitätsangehörigen nicht zutreffen. Einige Universitäten haben daher einen einzigen Pro-Account aufgebaut, über den alle Anfragen/Token aus der Hochschule gebündelt versendet werden. Die entstehenden Kosten können entweder zentral über die Hochschule gezahlt oder den Sendenden in Rechnung gestellt werden, sofern möglich. Beispiele sind HAWK, das z.B. in Hildesheim oder Ingolstadt eingesetzt wird, oder die Anbindung über Moodle und Azure wie bei der RWTH Aachen.

Wenn es nicht OpenAI sein muss: falls die Hochschule ohnehin schon Microsoft 365 im Einsatz hat, kann über Copilot for M365 auf Generative KI zugegriffen werden. Bei der häufigsten Campus-Lizenzvariante A3 ist der Zugriff über das Web bereits in den Lizenzkosten beinhaltet. Copilot Pro für die teurere Variante A5 kostet 20 USD pro Monat Aufpreis - erst dann gibt es Copilot für Word, Teams und Powerpoint. Google Bard ist derzeit in Deutschland noch nicht erhältlich. Meta Llama2 verfolgt einen anderen Ansatz; das Modell kann für Forschungszwecke heruntergeladen werden.

Was fällt auf? Alles ausländische Anbieter, d.h. es greifen AI Act, Digital Services Act, und DSGVO. für Urheberrecht und Datenschutz. Bei den einfachsten Lizenzen werden eingeschickte Daten, also z.B. auch Texte über neueste Forschung, vom KI-Server weiterverarbeitet. Ihr Inhalt ist ab dann für alle Nutzer weltweit zugänglich und beeinflusst alle Antworten der KI. Erst ab Enterprise Lizenzen gibt es Schutzverträge, welche eine Weiterverarbeitung regeln. Insofern muss dringend davon abgeraten werden, Forschenden und Mitarbeitenden in der Verwaltung personenbezogene Lizenzen zu beschaffen. Innerhalb eines Jahres weiß der KI-Server ansonsten mehr über die neueste Forschung in der Hochschule als deren Leitung...