KI-Glossar
LLM (Large Language Model)
Large Language Models sind die Grundlage moderner KI-Anwendungen. GPT-4, Claude, Llama und Gemini verstehen und generieren Text auf menschlichem Niveau - von E-Mails bis Code, von Analyse bis Zusammenfassung.
Large Language Models (LLMs) sind KI-Modelle, die auf riesigen Textmengen trainiert wurden und dadurch Sprache verstehen, generieren und transformieren koennen. Sie sind die Grundlage fuer praktisch alle modernen KI-Anwendungen im Unternehmenskontext.
Die wichtigsten Modelle im Ueberblick
GPT-4 / GPT-4o (OpenAI): Das bekannteste LLM. Stark bei allgemeinen Aufgaben, Code-Generierung und Reasoning. Verfuegbar ueber OpenAI API oder Azure OpenAI (EU-Rechenzentren).
Claude (Anthropic): Besonders gut bei langen Dokumenten (bis 200k Tokens Kontext), sorgfaeltigem Reasoning und nuancierter Textarbeit. Stark im Enterprise-Bereich.
Llama (Meta): Open-Source-Modell, das lokal oder auf eigener Infrastruktur betrieben werden kann. Ideal wenn Datensouveraenitaet entscheidend ist.
Mistral / Mixtral: Europaeisches Open-Source-Modell mit starker Performance bei kompakter Groesse. Gutes Verhaeltnis von Leistung zu Kosten.
Gemini (Google): Multimodal (Text, Bild, Video). Stark integriert in Google Cloud und Workspace.
Was LLMs im Unternehmen leisten
Textgenerierung: E-Mails, Berichte, Produktbeschreibungen, Dokumentation - in Sekunden statt Stunden.
Textverstaendnis: Klassifikation von Tickets, Sentiment-Analyse von Kundenfeedback, Extraktion von Informationen aus Vertraegen.
Zusammenfassungen: Meeting-Protokolle, lange Dokumente oder E-Mail-Threads auf das Wesentliche reduzieren.
Code-Generierung: SQL-Queries, Skripte, API-Integrationen - mit Kontext zum bestehenden Codebase.
Uebersetzung und Lokalisierung: Nicht nur zwischen Sprachen, sondern auch zwischen Formaten (z.B. Fliesstext zu Tabelle).
Wichtige technische Konzepte
Context Window: Die maximale Textmenge, die ein LLM gleichzeitig verarbeiten kann. GPT-4o bietet 128k Tokens, Claude bis zu 200k. Je groesser das Fenster, desto mehr Kontext kann mitgegeben werden.
Tokens: LLMs "denken" in Tokens, nicht in Woertern. Ein deutsches Wort entspricht im Schnitt 1,5-2 Tokens. Die Token-Anzahl bestimmt die Kosten.
Temperature: Steuert die Kreativitaet. Niedrig (0.0-0.3) fuer faktische Aufgaben, hoeher (0.7-1.0) fuer kreative Texte.
Halluzination: LLMs koennen ueberzeugende Falschaussagen generieren. Deshalb ist RAG fuer faktenbasierte Anwendungen so wichtig - das Modell arbeitet mit echten Quellen statt mit "ausgedachtem" Wissen.
Grenzen von LLMs
LLMs sind keine Datenbanken. Ihr Wissen endet am Trainingsdatum. Sie koennen nicht rechnen, keine Echtzeit-Daten abrufen und keine Aktionen in externen Systemen ausfuehren - es sei denn, sie werden mit Tools und APIs verbunden (siehe Agentic AI).
Fuer Unternehmensanwendungen bedeutet das: LLMs allein reichen selten aus. Die Kombination mit RAG, Tool-Integration und strukturiertem Prompt Engineering macht den Unterschied.
Typische Anwendungen
Verwandte Begriffe
LLM fuer Ihr Unternehmen?
Lassen Sie uns besprechen, wie LLM in Ihrem konkreten Kontext Mehrwert liefern kann.
Erstberatung buchen