Verbesserter Zugriff auf das Video aus dem Hörsaal
18.03.2025Künstliche Intelligenz kann Aufzeichnungen von Vorlesungen mit zahlreichen zusätzlichen Optionen versehen. Das Rechenzentrum schlägt dabei mit Blick auf den Datenschutz einen eigenen Weg ein.

1.089 Vorlesungsaufzeichnungen mit insgesamt 95.433 Minuten Videomaterial via „Lecture“ sowie 72.345 Uploads von Lehr- und Lernvideos mit einer Gesamtlaufzeit von mehr als 1,2 Millionen Minuten – also fast zwei Jahren und fünf Monaten: Diese Zahlen meldet das Rechenzentrum der Universität Würzburg für das Jahr 2024. Keine Frage: Lehrvideos sind aus dem Studienalltag nicht mehr wegzudenken.
„Lehrvideos sind zu einer unverzichtbaren Ressource geworden, um flexibles und ortsunabhängiges Lernen zu ermöglichen“, bestätigt dementsprechend Matthias Funken, Leiter des Uni-Rechenzentrums und Chief Information Officer der JMU. Damit potenzielle Nutzerinnen und Nutzer mit dieser gewaltigen Menge an Material bestmöglich arbeiten können, setzt auch das Rechenzentrum zunehmend auf den Einsatz künstlicher Intelligenz.
Das Problem dabei: „Wenn wir Werkzeuge wie ChatGPT, Microsoft Copilot oder DeepSeek verwenden, ist der Datenschutz nicht ausreichend gewährleistet, da zumeist eine Verarbeitung auch personenbezogener oder vertraulicher Daten in der Cloud erfolgt“, erklärt Funken.
Keine Daten in der Cloud
Aus diesem Grund verzichtet das Rechenzentrum beim geplanten Einsatz von KI im Videoportal Lecture auf die Cloud und setzt auf eine lokal betriebene Infrastruktur. Ziel ist es, die Digitalisierung im E-Learning-Bereich voranzutreiben. Die Herausforderung liegt dabei in der hohen Anzahl von Lehr- und Lernvideos und der zunehmenden Notwendigkeit, die vielfältigen Kundenwünsche in Bezug auf die Zugänglichkeit der Inhalte abzudecken.
„Um den Zugang zu den Videos weiter zu verbessern, werden wir in den kommenden Monaten Funktionen wie Durchsuchbarkeit von Vorlesungsfolien, Speech-to-Text, Übersetzung von Untertiteln und automatische Kapitelunterteilung implementieren“, beschreibt Funken die Vorgehensweise. Diese Funktionen sollen Lehrvideos interaktiver machen und einen personalisierten Zugriff ermöglichen. Bis Herbst 2025 sollen die meisten Funktionen online gehen.
Die Inklusion voranbringen
Auch das Thema „Inklusion“ haben die Verantwortlichen dabei im Auge: Wenn KI aufgezeichnete Vorlesungen transkribiert und übersetzt, profitieren auch Studierende mit Hörbeeinträchtigungen oder nicht-deutscher Muttersprache.
Die geplanten KI-gestützten Funktionen basieren auf OpenCast und erfordern erhebliche zusätzliche Rechenressourcen, um die Echtzeitverarbeitung von Inhalten zu gewährleisten. Um diesen erhöhten Rechenbedarf abzudecken, wird das Rechenzentrum einen speziellen Server in Betrieb nehmen, der über das WueDive-Projekt finanziert wird.
Neben der verbesserten Lehrqualität fördert das Projekt die Nachhaltigkeit und Skalierbarkeit, da diese Funktionen langfristig die Lehre optimieren und dabei kontinuierlich an neue Anforderungen angepasst werden können.