Seit Beginn des Hypes um generative KI stehen Unternehmen vor der Frage, wie und wo diese Technologie sinnvoll eingesetzt werden kann. Pionierprojekte wie dmGPT von dm haben bereits einen Einblick in die Möglichkeiten gegeben. Unklar bleibt jedoch, welche Anwendungsfälle sich tatsächlich eignen, wie sie effektiv umgesetzt werden können und wie die Mitarbeiterinnen und Mitarbeiter dazu befähigt werden können. Dieser Artikel gibt einen klaren Überblick über bestehende KI-Systeme und die damit verbundenen Risiken. Der Fokus liegt dabei auf Enterprise GenAI Lösungen. Unter Use Cases finden sich weitere interessante Anwendungsfälle.
Seit Beginn des Hypes um generative KI stehen Unternehmen vor der Frage, wie und wo diese Technologie sinnvoll eingesetzt werden kann. Pionierprojekte wie dmGPT von dm haben bereits einen Einblick in die Möglichkeiten gegeben. Unklar bleibt jedoch, welche Anwendungsfälle sich tatsächlich eignen, wie sie effektiv umgesetzt werden können und wie die Mitarbeiterinnen und Mitarbeiter dazu befähigt werden können. Dieser Artikel gibt einen klaren Überblick über bestehende KI-Systeme und die damit verbundenen Risiken. Der Fokus liegt dabei auf Enterprise GenAI Lösungen. Unter Use Cases finden sich weitere interessante Anwendungsfälle.
Diese Kategorie umfasst Softwarelösungen von Drittanbietern, die ohne tiefe Integration in interne Systeme genutzt werden. Ein Beispiel ist ChatGPT Plus. Solche Tools sind ideal für spezifische Funktionen und einzelne Nutzer, bieten einen relativ günstigen Einstieg und geringen Wartungsaufwand, haben aber nur begrenzte Anpassungsmöglichkeiten.
Hierbei handelt es sich um speziell entwickelte Anwendungen, die ausschließlich intern von Mitarbeitern genutzt werden, wie z.B. ein Experten-Chat-System. Diese Anwendungen ermöglichen die vollständige Kontrolle über interne Daten, eine effektive Benutzerverwaltung und sind vollständig in bestehende Systeme integrierbar. Darüber hinaus bieten sie umfangreiche Anpassungsmöglichkeiten.
Diese Anwendungen richten sich an externe Nutzer und spielen eine wichtige Rolle bei der Kundeninteraktion, wie z. B. eine Selbsthilfe-App. Sie tragen zum Markenimage bei, verbessern die Nutzererfahrung, bieten Mehrwertdienste für Kunden und müssen hohen Standards in Bereichen wie Datenschutz (DSGVO) und Zuverlässigkeit genügen.
Der Einsatz generativer KI-Modelle in Unternehmen bringt vier Risikofaktoren mit sich, die sorgfältig bewertet werden müssen, um sicherzustellen, dass der Einsatz dieser Technologien effektiv und konform ist.
Der unsachgemäße Umgang mit Daten, insbesondere in kundenorientierten Anwendungen, kann zur unbeabsichtigten Offenlegung sensibler oder proprietärer Informationen führen. Dies unterstreicht die Notwendigkeit einer strikten Datenbereinigung und klarer Nutzungsbedingungen.
Angreifer können LLMs mit ressourcenintensiven Anfragen überlasten, was zu einer Verschlechterung der Servicequalität oder zu erhöhten Betriebskosten führen kann. Besonders betroffen sind selbstgehostete LLMs, die aufgrund der notwendigen Infrastruktur besonders anfällig sind.
Die Nutzung von LLMs Dritter, die nach Verbrauch abrechnen, kann ohne entsprechende Überwachung und Validierung zu unerwartet hohen Kosten führen. Angriffe, die das Nutzungsvolumen künstlich in die Höhe treiben, können ebenfalls zu finanziellen Verlusten führen.
Eine zu große Abhängigkeit von den Ausgaben der LLMs kann zu Fehlentscheidungen und rechtlichen Problemen führen, insbesondere wenn die Modelle falsche oder irreführende Informationen generieren, ein Phänomen, das als "Halluzination" bekannt ist.
Retrieval-Augmented Generation (RAG) ist eine Technik, welche die Genauigkeit von generativen KI-Modellen durch die Integration externer Informationsquellen verbessert. RAG verbindet KI-Modellgenerierungsprozesse, insbesondere Large Language Models (LLMs), mit externen Datenbanken oder Ressourcen, um relevante Fakten zu aktuellen oder spezifischen Themen abzurufen.
Diese Methode reduziert das Risiko falscher oder irrelevanter Antworten ("Halluzinationen”). Durch das Hinzufügen von überprüfbaren Datenquellen können die Modelle genauere und zuverlässigere Informationen liefern, was die Verlässlichkeit erhöht und die Nutzererfahrung verbessert.
Um Mitarbeiterinnen und Mitarbeiter effektiv für den Einsatz generativer KI wie Retrieval-Augmented Generation (RAG) zu befähigen, sollten folgende Maßnahmen umgesetzt werden:
Gezielte Schulungen zu den spezifischen Risiken von GenAI sind unerlässlich. Diese sollten praktische Beispiele beinhalten, um den richtigen Umgang mit den Technologien zu vermitteln, insbesondere um das Risiko von Fehlinformationen zu minimieren.
Richtlinien sollten den Mitarbeitern erlauben, experimentell mit GenAI zu arbeiten. Es ist wichtig, dass das Management diese Bemühungen unterstützt und die Bedeutung von Innovation für die technologische Entwicklung und Wettbewerbsfähigkeit anerkennt.
Regelmäßige Workshops und Webinare, in denen Erfahrungen und Herausforderungen ausgetauscht werden, sind entscheidend. Diese Formate unterstützen nicht nur den Wissensaustausch, sondern auch die kollektive Problemlösung und Innovationskraft im Unternehmen.
Diese Ansätze stellen sicher, dass die Teams gut vorbereitet sind, um die Herausforderungen und Chancen von GenAI effektiv zu nutzen. Die Befähigung der Teams wird mit Blick auf den ab 2026 geltenden EU AI Act noch relevanter, der unter anderem in Artikel 4 vorschreibt, dass Mitarbeitende, die mit KI-Systemen in Kontakt kommen, entsprechend geschult werden müssen.