Unermüdlich im Einsatz –IT-Support mit KI
Teilnehmende Einrichtungen des DFN-Vereins können mithilfe der OCRE-Rahmenverträge für kommerzielle Cloud-Dienste unkompliziert Sprachmodelle für verschiedene Anwendungsfälle über die Plattform Azure OpenAI nutzen. Das Team der Abteilung Service & Kommunikation des IT Centers der RWTH Aachen University hat dieses Angebot verwendet, um zwei KI-gestützte Chatbot-Prototypen zu entwickeln. Diese setzen Sprachmodelle und Retrieval Augmented Generation ein, um den IT-Support zu unterstützen.
22. Oktober 2025
Für rund 55 300 Studierende und Mitarbeitende sowie externe Partner der RWTH Aachen University ist das IT-ServiceDesk (IT-SD) der Abteilung „Service & Kommunikation“ (SeKo) die zentrale Anlaufstelle, was das breit gefächerte Serviceangebot des hochschuleigenen IT Centers angeht. Dieses umfasst unter anderem unterschiedliche Bereiche wie Identity Management, WLAN, VPN, Forschungsdatenmanagement, E-Mail sowie viele weitere Services. Seit über 15 Jahren bietet das IT-SD breite Unterstützung per Telefon, E-Mail, Ticketportal und persönlichem Vor-Ort-Support an. 2015 wurde ein Support-Chat etabliert, der eine direkte Onlinekommunikation zwischen Nutzenden und Mitarbeitenden ermöglicht.

SeKoGPT: Der KI-gestützte Chatbot unterstützt das IT-ServiceDesk der RWTH Aachen rund um die Uhr bei der Beantwortung von Anfragen.
Im Dauereinsatz – die Anforderungen nehmen zu
Im vergangenen Jahr kam der Supportchat in rund 5 000 Fällen zum Einsatz. Allein im Jahr 2024 bearbeitete das IT-ServiceDesk circa 65 000 Anfragen. Diese hohe Zahl resultierte aus dem Anstieg der Anzahl der Studierenden von 32 240 im Wintersemester 2010/11 auf 44 892 im Wintersemester 2024/25. Zusätzlich stieg das Angebot an IT-Services, insbesondere während der Coronapandemie, stark an. Zudem führte die erheblich wachsende Anzahl internationaler Studierender zu mehr Anfragen in englischer Sprache. Insgesamt entspricht das durchschnittlich über 250 teils komplexen Anfragen pro Arbeitstag – eine enorme Herausforderung für das Team des IT-SD.
Außerhalb der regulären Öffnungszeiten sind die Mitarbeitenden des IT-ServiceDesks nicht erreichbar. Das führt dazu, dass Anfragen, die am Wochenende gestellt werden, erst am Montag beantwortet werden. Darüber hinaus gibt es Stoßzeiten, in denen das IT-SD mit einem weit höheren Anfrageaufkommen konfrontiert ist. Diese Fälle treten nicht nur nach den Wochenenden, sondern auch zu Semesterbeginn oder bei Störungen von Services auf. Dabei kann es aufgrund des erhöhten Volumens für die Nutzenden zu längeren Wartezeiten kommen. Angesichts dieser Belastungen stellt sich die Frage: Wie kann das IT-SD auf der einen Seite den Bedürfnissen und Anforderungen der Nutzenden noch besser gerecht werden und gleichzeitig die Mitarbeitenden entlasten? Der Ansatz: ein KI-gestützter Chatbot mit Zugriff auf die interne Dokumentation des IT-ServiceDesks sowie die externe Supportdokumentation des IT Centers. Damit war die Idee zu SeKoGPT geboren.
Eine Idee und zwei Prototypen
Im August 2023 begannen die Tests einer über Microsoft Azure bereitgestellten OpenAI-Instanz. Diese konnte innerhalb der Rahmenverträge für kommerzielle Cloud-Dienste im Projekt Open Clouds for Research Environments (OCRE) über den DFN-Verein bezogen werden.
Ziel war es zunächst herauszufinden, ob der Support durch den Einsatz von KI unterstützt werden kann. Letztendlich fiel die Wahl auf Microsoft Azure, da dort alle benötigten Komponenten wie LLM, Speicher und Suchdienst schnell und unkompliziert bereitgestellt werden. Dies ersparte den aufwendigen und teuren Aufbau einer eigenen Infrastruktur. Mit Unterstützung des Projekts KI:connect.nrw startete das ehrgeizige Projekt.
Im Dezember 2023 wurde ein erster Prototyp entwickelt, der neben der Funktionalität der bereitgestellten LLM zusätzlich auf Exporte der Wissensdatenbank des IT-ServiceDesk mittels Retrieval Augmented Generation (RAG) zugreifen kann, um Anfragen zu den Services des IT Centers zu beantworten. Die Erfahrungen aus dieser Phase führten 2024 zu der Fragestellung, wie Azure OpenAI in das IT-SD integriert werden kann.
Ab Februar 2024 konnten zwei Prototypen unter dem Namen SeKoGPT getestet werden:
- SeKoGPT für Mitarbeitende sowie
- SeKoGPT für Nutzende des IT Centers
KICONNECT.NRW
Seit der Einführung von ChatGPT ist der Bedarf an leistungsstarken, insbesondere generativen KI-Lösungen stark gestiegen. Hochschulen stehen dabei vor zusätzlichen Herausforderungen, etwa in Bezug auf Datenschutz und Beschaffung. Das Projekt KI:connect.nrw unterstützt die Hochschulen in Nordrhein-Westfalen bei der Bereitstellung und Nutzung generativer KI-Modelle, indem es einen zentralen, skalierbaren und kosteneffizienten Zugang zu KI-Diensten ermöglicht. Weitere Informationen und Ergebnisse finden Sie auf der Projektwebsite unter: https://kiconnect.pages.rwth-aachen.de/pages/
Da ihm zusätzliche Inhalte aus der internen Wissensdatenbank zur Verfügung stehen, können Handlungsempfehlungen und Kurzanleitungen für Nutzende „on the fly“ erstellt werden. Auch das Zusammenfassen komplexer Supportanfragen und Formulierungshilfen für multilinguale Anfragen ist möglich. Dadurch können Effizienz, Konsistenz und Qualität des Supports erheblich gesteigert und die Mitarbeitenden entlastet werden. Die Instanz für Nutzende steht allen Personen zur Verfügung, die Fragen zu den Services des IT Centers haben oder Hilfestellung benötigen.
Damit bietet SeKoGPT eine Alternative zum bestehenden SupportChat, da er auch außerhalb der regulären Öffnungszeiten im Einsatz ist.
Die Beantwortung von häufig wiederkehrenden Standardfragen und Informationen können automatisiert werden. Sollte SeKoGPT einmal an seine Grenzen kommen, können Nutzende über das Frontend ein Ticket für die weitere Bearbeitung erstellen, das den gesamten vorherigen Chatverlauf beinhaltet. Alternativ haben sie künftig die Möglichkeit, sich von SeKoGPT aus an den bereits etablierten Chat-Support weiterleiten zu lassen. Der offizielle Start von SeKoGPT ist für die erste Jahreshälfte 2025 geplant. Ein neuer Name für den Chatbot soll diesen Meilenstein krönen.
Aktuell und faktenbasiert mit Retrieval Augmented Generation (RAG)
Im Laufe der Jahre haben das IT Center und das IT-SD eine umfangreiche externe und interne Wissensdatenbank zu sämtlichen Diensten entwickelt. Um dem KI-Chatbot dieses spezifische Wissen bereitzustellen, wird die KI-Technik „Retrieval Augmented Generation“ eingesetzt, die Informationsabruf (Retrieval) mit Textgenerierung (Generation) kombiniert. Diese erlaubt es, eigene Wissensdatenbanken und/oder Dokumente als Informationsquellen bei der Beantwortung von Anfragen durch den KI-Chatbot zu nutzen. Verschiedene Exporte der Wissensdatenbank des IT-SD dienen als Grundlage für beide Prototypen. Im Falle der Instanz für Nutzende wird auf die umfangreiche externe Wissensdatenbank zurückgegriffen, bei der Ins tanz für Mitarbeitende kommt noch die detaillierte interne hinzu. Über die API-Schnittstelle von Azure OpenAI wurden
die verwendeten KI-Instanzen so konfiguriert, dass sie ausschließlich auf die genannten Datenbanken zugreifen. Dies sorgt zum einen für eine hohe Konsistenz bei der Beantwortung, zum anderen stellt es sicher, dass ähnliche oder gleichlautende Dienste anderer Anbieter von Informationen im Internet nicht mit den Services des IT Centers verwechselt werden.
RAG: SO WIRD KÜNSTLICHE INTELLIGENZ NOCH TREFFSICHERER
Retrieval Augmented Generation (RAG) ist ein Verfahren, bei dem ein Sprachmodell nicht nur auf sein internes, vortrainiertes Wissen zurückgreift, sondern zusätzlich in Echtzeit relevante externe Informationen aus einer definierten Wissensbasis abruft:
- Zunächst wird ein „Retrieval“-Schritt durchgeführt, bei dem das System gezielt nach Dokumenten oder Daten sucht, die inhaltlich zur gestellten Frage passen.
- Diese abgerufenen Informationen werden anschließend dem Sprachmodell als Kontext bereitgestellt.
- Auf Basis dieser zusätzlichen Daten generiert das Modell daraufhin eine Antwort, die sowohl die intern gespeicherten Informationen als auch die aktuellen, externen Fakten berücksichtigt.
Der Hauptvorteil von RAG liegt darin, dass das Modell so stets auf aktuelle und spezifische Informationen zugreifen kann – das ist insbesondere dann eine Hilfe, wenn das vortrainierte Wissen des Modells bereits veraltet oder unvollständig ist.
Ein eingebautes Feedback-
system sichert die Qualitäts-
kontrolle
Um Rückmeldungen darüber zu bekommen, wie verständlich und zielführend die Antworten des KI-Chatbots jeweils sind, wurde ein einfaches Feedback-System implementiert, das auf „Daumen hoch“ und „Daumen runter“ basiert. So haben sowohl Mitarbeitende als auch Nutzende jederzeit die Möglichkeit, die Antworten des KI-Chatbots zu bewerten. Im Backend wird das eingegangene Feedback anonymisiert und in chronologischer Reihenfolge dargestellt. Anschließend können die Administrierenden diese Bewertung analysieren und die Dokumentation entsprechend anpassen. Bei einem negativen Feedback wird erstens geprüft, ob die Antwort des Systems fehlerhaft ist, zweitens, ob sie zu knapp oder übermäßig ausführlich ausfiel und drittens, ob die KI Begriffe durcheinandergebracht hat. Das Feedback-System dient so der kontinuierlichen Weiterentwicklung und Qualitätssicherung der Wissensdatenbank sowie von SeKoGPT selbst.
Als zentrale Komponente von SeKoGPT wurde es so implementiert, dass das Geben eines Feedbacks so einfach wie möglich und außerdem universell verständlich ist. Dadurch wird der Anreiz, eine Meinung abzugeben, zusätzlich erhöht.
Integration in die bisherige Infrastruktur
Selbst die beste Dokumentation kann Lücken haben und eine KI schon mal „auf dem falschen Dampfer“ sein. Aus diesen Gründen ist es geplant, den KI-Chat in Zukunft tiefer in die bestehende OmniChannel-Anlage zu integrieren. Damit haben Nutzende die Möglichkeit, sich entweder direkt mit einem Support-Mitarbeitenden telefonisch verbinden zu lassen oder per Chat in Kontakt zu treten – zusätzlich zur Ticketerstellung über das Frontend des Chatbots.
Text: Sarah Grzemski, Ingo Hengstebeck, Marcel Nohl (RWTH Aachen)