RAG: Der beste erste Schritt für Ihre KI Transformation

Jan Gutkuhn
Jan Gutkuhn
Director Web3 & Partner
Length
6 min read
Date
13 January 2025

Von den über 300 Millionen Unternehmen weltweit nutzen rund 67 % LLMs, um mit menschlicher Sprache zu arbeiten und Inhalte zu erstellen

Allerdings planen weniger als ein Viertel der Unternehmen, die LLMs verwenden, die Einführung kommerzieller Modelle.

Zu den Hindernissen, die Unternehmen davon abhalten, die enormen Fähigkeiten von LLMs in großem Maßstab zu nutzen, gehört die Qualität der LLM-Antworten – insbesondere in Bezug auf Spezifität, Relevanz und Genauigkeit.

Indem diese grundlegenden Herausforderungen mit LLMs überwunden werden, eröffnet Retrieval-Augmented Generation (RAG) die Möglichkeit für mehr KI-gesteuerte Innovationen in der Zukunft und einen größeren täglichen Nutzen in Ihrem Unternehmen.

Auf diese Weise hat sich RAG als risikoarme, wirkungsvolle Implementierung herausgestellt, die Sie bei Ihrer KI-Transformation mit LLMs auf Unternehmensebene nach vorne bringt.

Wie das Ganze funktioniert

LLMs sind großartig, weil sie vorab trainiert sind, aber das Wissen, mit dem sie trainiert wurden, ist verallgemeinert.

Angenommen, Sie möchten mit einem LLM ein Skript für eine bevorstehende Präsentation über die Ergebnisse einer Marketingkampagne erstellen. ChatGPT wird Ihnen dabei keine große Hilfe sein, denn in der Wissensdatenbank fehlen grundlegende Informationen zur Kampagne und andere nützliche Kontextinformationen, wie die Identität und das Geschäftsmodell Ihrer Marke.

Um das gewünschte Ergebnis zu erzielen, müssen Sie in der Lage sein, Informationen Ihrer Marke zu integrieren, die außerhalb der Wissensdatenbank liegen, mit der das LLM ursprünglich trainiert wurde – und genau hier kommt RAG ins Spiel.

A diagram displaying the RAG process. From a user's initial query, the retrieval mechanism identifies and pulls relevant information from an additional database to ground the LLM's response based on this information.

Im Wesentlichen passt RAG das LLM an eine spezifischere Anwendung an, indem es seine Antworten auf einer zusätzlichen Wissensbasis aus beispielsweise Handbüchern, Berichten, Artikeln und anderen ausgewählten externen Quellen aufbaut, die nicht Teil des ursprünglichen Schulungsprogramms des LLM sind.

Nach entsprechender Aufforderung kann das LLM relevante Informationen aus der zusätzlichen Wissensbasis abrufen, um eine qualitativ hochwertigere Antwort zu generieren, die auf diesem neuen Wissen basiert.

RAG in Aktion

RAG ist zu einer beliebten Methode für die Integration von KI in eine breite Palette von Anwendungen in verschiedenen Branchen geworden – und das aus gutem Grund.

Die Möglichkeit, selektiv zu sein, welche Quellen in das zusätzliche Wissen des LLM aufgenommen werden, hilft Ihnen, die folgenden wichtigen Bedenken hinsichtlich der Qualität der Antworten des Modells auszuräumen.

Spezifität

Mit RAG können Sie die neuesten Produkthandbücher oder Anleitungen zur Fehlerbehebung in Ihr LLM integrieren, sodass seine Antworten klare, direkte Anweisungen in einer Sprache liefern, die einzigartig oder proprietär für Ihre Marke ist.

Der Anstieg von KI-gesteuerten Chatbots für den Kundensupport ist ein Paradebeispiel für diese Fähigkeit. Durch die Implementierung von RAG können Chatbots auf bestimmte Modellnamen, Teile und häufig auftretende Probleme zurückgreifen, um Kund:innen effektiv zu unterstützen.

Relevanz

Durch die Einbindung aktueller Artikel oder Berichte in Ihr LLM wird sichergestellt, dass seine Antworten auf den relevantesten Informationen zu einem Thema basieren.

Wenn Sie ein LLM hauptsächlich zur Inhaltserstellung innerhalb Ihrer Marke verwenden, ist es äußerst wertvoll, die Relevanz der Antworten des Modells zu verbessern. Die Einbindung von Quellen aus einem begrenzten Datumsbereich – sei es die letzten fünf Monate oder fünf Jahre – trägt dazu bei, sicherzustellen, dass die Inhalte Ihrer Marke aktuell und wertvoll sind.

Genauigkeit

Vielleicht am wichtigsten ist, dass RAG es Ihnen auch ermöglicht, die Genauigkeit der Antworten Ihres LLM zu verbessern, indem das Modell auf authentifizierten, von Expert:innen überprüften Forschungsarbeiten oder Studien basiert.

Für Anwendungsfälle im Gesundheitswesen ist die Genauigkeit und Zuverlässigkeit der LLM-Antworten ein kritisches Thema. Bei DEPT® haben wir RAG verwendet, um diese Barriere zu überwinden, als wir CaryHealth dabei halfen, eine hochpräzise KI-Referenz-App zu entwickeln, die ausschließlich auf verifizierten Quellen basiert.

Erste Schritte

Um mit dem Aufbau Ihrer eigenen RAG-Implementierung zu beginnen, benötigen Sie drei Wesentliche Dinge.

Die Vorbereitung dieser wird je nach Komplexität Ihrer Daten und dem aktuellen Stand Ihrer Architektur mehrere Monate dauern. Die gute Nachricht ist jedoch, dass dies der zeitaufwändigste Teil des Prozesses ist. Sobald Ihre Ziele und Daten gut vorbereitet sind, dauert die eigentliche Implementierung von RAG und das Testen des Systems nur ein oder zwei Wochen.

Noch besser: Diese grundlegenden Elemente sind nicht nur entscheidende Schritte für RAG, sondern lassen sich auf praktisch jeden anderen Aspekt der KI-Transformation Ihres Unternehmens übertragen.

Eine Reihe klar definierter Ziele

Bei RAG gilt: Je spezifischer Sie angeben können, was Sie erreichen möchten, desto besser. Ob es um die Verbesserung des Kundensupports, die Erstellung personalisierter Inhalte oder die Verbesserung datengesteuerter Entscheidungsfindung geht – wenn Sie wissen, wann und wie Sie letztendlich mit dem System interagieren, erhalten Sie die Orientierung, die Sie für die Dauer des Implementierungsprozesses benötigen.

Das richtige LLM

Es mag offensichtlich erscheinen, aber Sie müssen das LLM auswählen, das für Ihren Anwendungsfall am besten geeignet ist und das in ein Abfragesystem integriert werden kann. Sie können ein Open-Source-LLM wie Mistral oder Llama oder eine kommerziell erhältliche Option wie ChatGPT auswählen. 

Einige wichtige Faktoren, die Sie bei Ihrer Entscheidung berücksichtigen sollten, sind Skalierbarkeit, Integrationsfähigkeiten, Kosten und (natürlich) Ihre zuvor klar definierten Ziele.

Eine Data Engineering Grundlage

Die beste Herangehensweise an RAG besteht darin, es als eine Data Engineering Übung zu betrachten. Angesichts des aktuellen Stands der KI, da sich die meisten Organisationen in den frühen Phasen ihrer KI-Transformation befinden, besteht das größte Hindernis für die Verwendung von RAG darin, Ihre Daten so zu organisieren und zu strukturieren, dass sie mit einem LLM kompatibel sind.

Mit einer Grundlage im Data Engineering besteht der Großteil Ihrer RAG-Implementierungsarbeit darin, eine Quelle für eine zusätzliche Wissensbasis zu erstellen, die in Ihrer Organisation vorgelagert ist und mit einem Live-Datensatz gefüllt wird, der kontinuierlich aktualisiert wird.

Abhängig von Ihren Zielen möchten Sie möglicherweise auch die Erstellung mehrerer Datenquellen für die Verwendung in mehreren Wissensbasen in Betracht ziehen. Separate Wissensdatenbanken für Produktinformationen und Markenrichtlinien können Ihnen beispielsweise dabei helfen, neue Anwendungsmöglichkeiten für Ihr RAG-fähiges LLM freizuschalten.

Die Chance für Innovationen

Mit der kontinuierlichen Verbesserung der KI verbessert sich auch RAG. Im Oktober 2024 führten Forscher der Cornell University die kontextbezogene Dokumenteinbettung ein – eine neue Technik, die es dem System ermöglicht, qualitativ hochwertigere Informationen für den Abruf zu identifizieren.

Eine kontinuierliche Entwicklung wie diese zeigt, dass RAG der erste Schritt Ihres Unternehmens ist, um mehr aus LLMs herauszuholen und Ihre allgemeine KI-Kompetenz zu verbessern – und es wird immer besser.

Auch wenn es nicht unbedingt mit geringem Aufwand verbunden ist, trägt jede Arbeitsstunde, die Sie investieren, dazu bei, Ihre allgemeine KI-Transformation voranzutreiben und neue Innovationsmöglichkeiten zu erschließen.

AI TRANSFORMATION

DEPT® TRENDS 2025

Wir bei DEPT® sind vom positiven Potenzial der KI überzeugt, Unternehmen zum Besseren zu verändern. Laden Sie sich unseren Trends 2025 Report ‘The future belongs to the impatient’ herunter, in dem wir Einblicke, Vorhersagen und umsetzbare Insights für den Umgang mit KI im kommenden Jahr erkunden.

JETZT REPORT HERUNTERLADEN