KI-Glossar

LLM (Large Language Model)

Large Language Models sind die Grundlage moderner KI-Anwendungen. GPT-4, Claude, Llama und Gemini verstehen und generieren Text auf menschlichem Niveau - von E-Mails bis Code, von Analyse bis Zusammenfassung.

Large Language Models (LLMs) sind KI-Modelle, die auf riesigen Textmengen trainiert wurden und dadurch Sprache verstehen, generieren und transformieren koennen. Sie sind die Grundlage fuer praktisch alle modernen KI-Anwendungen im Unternehmenskontext.

Die wichtigsten Modelle im Ueberblick

GPT-4 / GPT-4o (OpenAI): Das bekannteste LLM. Stark bei allgemeinen Aufgaben, Code-Generierung und Reasoning. Verfuegbar ueber OpenAI API oder Azure OpenAI (EU-Rechenzentren).

Claude (Anthropic): Besonders gut bei langen Dokumenten (bis 200k Tokens Kontext), sorgfaeltigem Reasoning und nuancierter Textarbeit. Stark im Enterprise-Bereich.

Llama (Meta): Open-Source-Modell, das lokal oder auf eigener Infrastruktur betrieben werden kann. Ideal wenn Datensouveraenitaet entscheidend ist.

Mistral / Mixtral: Europaeisches Open-Source-Modell mit starker Performance bei kompakter Groesse. Gutes Verhaeltnis von Leistung zu Kosten.

Gemini (Google): Multimodal (Text, Bild, Video). Stark integriert in Google Cloud und Workspace.

Was LLMs im Unternehmen leisten

Textgenerierung: E-Mails, Berichte, Produktbeschreibungen, Dokumentation - in Sekunden statt Stunden.

Textverstaendnis: Klassifikation von Tickets, Sentiment-Analyse von Kundenfeedback, Extraktion von Informationen aus Vertraegen.

Zusammenfassungen: Meeting-Protokolle, lange Dokumente oder E-Mail-Threads auf das Wesentliche reduzieren.

Code-Generierung: SQL-Queries, Skripte, API-Integrationen - mit Kontext zum bestehenden Codebase.

Uebersetzung und Lokalisierung: Nicht nur zwischen Sprachen, sondern auch zwischen Formaten (z.B. Fliesstext zu Tabelle).

Wichtige technische Konzepte

Context Window: Die maximale Textmenge, die ein LLM gleichzeitig verarbeiten kann. GPT-4o bietet 128k Tokens, Claude bis zu 200k. Je groesser das Fenster, desto mehr Kontext kann mitgegeben werden.

Tokens: LLMs "denken" in Tokens, nicht in Woertern. Ein deutsches Wort entspricht im Schnitt 1,5-2 Tokens. Die Token-Anzahl bestimmt die Kosten.

Temperature: Steuert die Kreativitaet. Niedrig (0.0-0.3) fuer faktische Aufgaben, hoeher (0.7-1.0) fuer kreative Texte.

Halluzination: LLMs koennen ueberzeugende Falschaussagen generieren. Deshalb ist RAG fuer faktenbasierte Anwendungen so wichtig - das Modell arbeitet mit echten Quellen statt mit "ausgedachtem" Wissen.

Grenzen von LLMs

LLMs sind keine Datenbanken. Ihr Wissen endet am Trainingsdatum. Sie koennen nicht rechnen, keine Echtzeit-Daten abrufen und keine Aktionen in externen Systemen ausfuehren - es sei denn, sie werden mit Tools und APIs verbunden (siehe Agentic AI).

Fuer Unternehmensanwendungen bedeutet das: LLMs allein reichen selten aus. Die Kombination mit RAG, Tool-Integration und strukturiertem Prompt Engineering macht den Unterschied.

Typische Anwendungen

TextgenerierungDokumentenanalyseKundenserviceCode-Generierung

LLM fuer Ihr Unternehmen?

Lassen Sie uns besprechen, wie LLM in Ihrem konkreten Kontext Mehrwert liefern kann.

Erstberatung buchen