KIKIneAhnung
Zurück zu Tutorials

Level 4 — Experte

Experte

Du willst nicht nur KI nutzen – du willst eigene KI-Systeme bauen. In diesem Level geht es um RAG, MCP-Server, eigene Wissensdatenbanken und fortgeschrittenes Prompt Engineering. Willkommen in der Werkstatt.

Was ist RAG (Retrieval Augmented Generation)?

Stell dir vor, du fragst eine KI etwas über dein Unternehmen – und sie erfindet die Antwort, weil sie deine internen Dokumente nicht kennt. Genau dieses Problem löst RAG(Retrieval Augmented Generation, zu Deutsch: „abrufgestützte Generierung“).

Das Prinzip ist elegant: Bevor die KI antwortet, durchsucht sie zuerst deineDaten – Dokumente, FAQs, Produktbeschreibungen, interne Wikis – und nutzt die relevanten Stellen als Kontext für ihre Antwort.

Warum ist das so wichtig?

  • Keine Halluzinationen über deine Inhalte: Die KI antwortet nur basierend auf echten Dokumenten
  • Immer aktuell: Neue Dokumente werden automatisch einbezogen, ohne die KI neu zu trainieren
  • Nachvollziehbar: Du kannst sehen, welche Quellen die KI für ihre Antwort verwendet hat
  • Kosteneffizient: Kein teures Fine-Tuning nötig – nur deine Daten bereitstellen

In der Praxis funktioniert RAG in drei Schritten: Deine Dokumente werden in kleine Abschnitte zerlegt und als mathematische Vektoren gespeichert (sogenannte Embeddings). Bei einer Frage wird diese ebenfalls in einen Vektor umgewandelt und die ähnlichsten Dokument-Abschnitte gefunden. Diese Abschnitte werden dann zusammen mit der Frage an die KI geschickt.

Eigene Wissensdatenbanken bauen

Der Schlüssel zu einem guten RAG-System ist die Wissensdatenbank. Hier speicherst du alles, was die KI wissen soll: Firmen-Dokumente, Produktkataloge, FAQs, Handbücher, Meeting-Notizen oder Kundenfeedback.

Dafür brauchst du eine Vektor-Datenbank – eine spezielle Datenbank, die nicht nach exakten Wörtern sucht, sondern nach Bedeutung. Das Konzept dahinter heißt Embeddings: Jeder Text wird in einen mathematischen Vektor (eine Liste von Zahlen) umgewandelt, der seine Bedeutung repräsentiert. Ähnliche Texte haben ähnliche Vektoren.

Supabase Vector (pgvector)

Wenn du bereits Supabase nutzt: pgvector ist eine PostgreSQL-Erweiterung, die Vektor-Suche direkt in deiner bestehenden Datenbank ermöglicht. Ideal für den Einstieg – kein zusätzlicher Dienst nötig.

Pinecone

Ein spezialisierter Cloud-Dienst für Vektor-Suche. Skaliert gut, hat ein großzügiges kostenloses Kontingent und ist in Minuten eingerichtet. Gut für Projekte, die schnell wachsen sollen.

LanceDB

Eine lokale, Open-Source-Lösung. Läuft direkt auf deinem Rechner oder Server, keine Cloud nötig. Perfekt für datenschutzsensible Anwendungen oder Prototypen.

Du willst nicht alles selbst bauen?

Fertige RAG-basierte Chatbot-Lösungen wie SerahrChat bieten KI-Chatbots als Managed Service — mit eigener Wissensdatenbank, DSGVO-orientiert und ohne technisches Setup. Ideal für KMUs, die einen FAQ-Bot auf ihrer Website einbinden möchten.

Der typische Workflow: Dokumente hochladen, in Abschnitte teilen (Chunking), Embeddings erzeugen (z.B. mit OpenAIs Embedding-Modellen oder Voyage AI) und in der Vektor-Datenbank speichern. Bei einer Anfrage werden die relevantesten Abschnitte abgerufen und der KI als Kontext mitgegeben.

MCP (Model Context Protocol) verstehen

MCP(Model Context Protocol) ist ein offener Standard, der von Anthropic entwickelt wurde und definiert, wie KI-Modelle mit externen Tools und Datenquellen kommunizieren. Stell dir MCP als „USB für KI“ vor: Ein einheitlicher Anschluss, über den die KI auf beliebige Werkzeuge zugreifen kann.

Vor MCP musste jedes Tool seine eigene Integration bauen. Mit MCP gibt es einen Standard – einmal implementiert, funktioniert es mit allen kompatiblen KI-Systemen. Seit 2025 hat sich MCP als der maßgebliche Standard durchgesetzt, und immer mehr Tools und Plattformen unterstützen ihn.

Was kann eine KI mit MCP?

  • Dateien lesen und schreiben: Die KI greift auf dein lokales Dateisystem zu
  • Datenbanken abfragen: SQL-Abfragen direkt aus dem Chat heraus
  • Browser steuern: Websites öffnen, Formulare ausfüllen, Screenshots machen
  • APIs aufrufen: E-Mails senden, Kalender verwalten, Tickets erstellen
  • Code ausführen: Python-Skripte, Shell-Befehle, Tests starten

Das Besondere: Die KI entscheidet selbst, welches Tool sie wann einsetzt. Du sagst „Erstelle einen Bericht über unsere letzten Verkaufszahlen“, und die KI weiß, dass sie zuerst die Datenbank abfragen, dann die Zahlen analysieren und schließlich einen formatierten Bericht erstellen muss.

MCP-Server einrichten

Ein MCP-Server ist ein kleines Programm, das zwischen der KI und einem externen Dienst vermittelt. Er stellt „Tools“ bereit, die die KI nutzen kann. Die Einrichtung ist einfacher als du denkst:

1

Lokale MCP-Server

Laufen direkt auf deinem Rechner. Ideal für persönliche Projekte: Dateisystem-Zugriff, lokale Datenbanken, Git-Integration. Installation meist per npm oder pip – ein Befehl reicht.

2

Cloud-MCP-Server

Laufen auf einem Server und sind über das Internet erreichbar. Nützlich für Team-Setups oder wenn die KI auf Cloud-Dienste wie Stripe, Supabase oder GitHub zugreifen soll.

3

Marketplace & Community

Es gibt bereits hunderte fertige MCP-Server für gängige Tools: Slack, Notion, Google Drive, PostgreSQL, Jira und viele mehr. Oft reicht es, einen bestehenden Server zu installieren und zu konfigurieren.

Am häufigsten wird MCP mit Claude (Desktop-App oder Claude Code) eingesetzt. In der Konfigurationsdatei listest du einfach deine MCP-Server auf, und Claude kann deren Tools automatisch nutzen. Die Konfiguration ist eine simple JSON-Datei.

Prompt Engineering für Experten

Du kennst die Basics des Promptings aus den vorherigen Levels. Jetzt geht es um Techniken, die professionelle Ergebnisse liefern – reproduzierbar und konsistent.

Chain-of-Thought (Denkkette)

Fordere die KI auf, Schritt für Schritt zu denken: „Erkläre deinen Denkprozess, bevor du antwortest.“ Das verbessert die Qualität bei komplexen Aufgaben erheblich, weil die KI sich selbst korrigieren kann.

Few-Shot Learning (Lernen durch Beispiele)

Gib der KI 2–3 Beispiele für das gewünschte Format. „Hier sind Beispiele, wie ich es haben möchte: [Beispiel 1] [Beispiel 2]. Jetzt erstelle eines für: [dein Thema].“ Die KI erkennt das Muster und reproduziert es.

Structured Output (Strukturierte Ausgabe)

Verlange Ausgaben in einem bestimmten Format: JSON, Markdown-Tabellen, CSV. „Antworte ausschließlich als JSON mit den Feldern: title, summary, tags.“ Das macht Ergebnisse maschinell verarbeitbar.

System-Prompts für konsistente Ergebnisse

Bei API-Nutzung kannst du einen System-Prompt setzen, der das grundlegende Verhalten der KI definiert: Rolle, Tonfall, Einschränkungen, Ausgabeformat. Das ist der Schlüssel zu professionellen, reproduzierbaren Ergebnissen.

Tipp: Kombiniere diese Techniken. Ein System-Prompt mit Rollendefiniton plus Few-Shot-Beispiele plus strukturierte Ausgabe ergibt konsistente, hochwertige Ergebnisse – jedes Mal.

Fine-Tuning vs. RAG vs. Prompting

Wann welchen Ansatz wählen? Diese Frage ist entscheidend, und die Antwort hängt von deinem konkreten Anwendungsfall ab. Hier ein Überblick:

KriteriumPromptingRAGFine-Tuning
KostenNiedrigMittelHoch
EinrichtungszeitMinutenStunden–TageTage–Wochen
Eigene DatenIm PromptExterne DatenbankIm Modell
AktualitätImmer aktuellAktuell (bei Aktualisierung)Veraltet nach Training
Bester EinsatzAllgemeine Aufgaben, PrototypenFirmen-Wissen, Support, DokumentationSpezialisierter Stil, Domänenexpertise

Faustregeln: Starte immer mit Prompting. Wenn die Kontextlänge nicht reicht oder du große Dokumentenmengen hast: RAG. Fine-Tuning nur, wenn du einen sehr spezifischen Stil oder Fachsprache brauchst und die anderen Ansätze nicht ausreichen.

Sicherheit und Datenschutz bei eigenen KI-Systemen

Wenn du eigene KI-Systeme baust, trägst du Verantwortung für die Daten, die du verarbeitest. Besonders in Deutschland und der EU gelten strenge Regeln – und das ist gut so.

Self-Hosted vs. Cloud

Self-Hosted: Du betreibst alles auf eigenen Servern. Volle Kontrolle über die Daten, aber höherer Aufwand für Wartung und Sicherheit.
Cloud: Dienste wie OpenAI oder Anthropic verarbeiten deine Daten auf ihren Servern. Einfacher, aber du musst die Datenschutzrichtlinien genau prüfen.

Data Residency (Datenspeicherort)

Wo werden die Daten gespeichert? Für viele Unternehmen ist es Pflicht, dass Daten innerhalb der EU bleiben. Supabase bietet z.B. Server in Frankfurt, und einige KI-Anbieter haben europäische Rechenzentren.

DSGVO-Konformität

Wenn dein KI-System personenbezogene Daten verarbeitet, brauchst du: eine Datenschutzerklärung, Auftragsverarbeitungsverträge (AVV) mit allen Dienstleistern, technische und organisatorische Maßnahmen (TOMs) und ggf. eine Datenschutzfolgenabschätzung (DSFA).

Wichtig: Sende niemals sensible Daten (Passwörter, Kreditkartennummern, Gesundheitsdaten) an KI-APIs, ohne vorher zu prüfen, ob der Anbieter diese Daten für Training verwendet. Die meisten Anbieter tun das bei API-Nutzung nicht – aber prüfe es.

Das Feld entwickelt sich rasant

RAG, MCP und die hier beschriebenen Technologien entwickeln sich schnell weiter. Was heute Best Practice ist, kann morgen durch bessere Ansätze ergänzt werden. Bleib am Ball, experimentiere mit verschiedenen Tools und scheue dich nicht, etablierte Lösungen zu hinterfragen. Die KI-Welt belohnt Neugier.