Skip to main content
server.camp Docs
Wechsel zwischen Dunkel/Hell/Auto Modus Wechsel zwischen Dunkel/Hell/Auto Modus Wechsel zwischen Dunkel/Hell/Auto Modus Zurück zur Startseite

KI-Features & LLM-Integration

KI-Features nutzen

Mit der Version 7 bringt Zammad eine ganze Reihe an KI- Features, darunter automatische Ticket-Zusammenfassungen, KI-assistierte Antworten, automatisch generierte Titel für Tickets uvm. In unserem Blog Post zu dem Thema, sowie in den Release Notes gibt es mehr Details dazu.

Um die KI-Features verwenden zu können, muss Zammad mit einem Large Language Model (LLM) verknüpft werden. Hier gibt es verschiedene Optionen. Zum einen stehen neben Zammad AI (ein von den Entwicklern von Zammad betriebener Service) die bekannten kommerziellen Provider wie OpenAI (ChatGPT), Anthropic (Claude), Azure AI und Mistral (EU-basiert) zur Auswahl. Darüberhinaus können aber auch jeder OpenAI API-kompatible Provider, sowie Ollama – und damit beliebige self-hosted Modelle – angebunden werden.

Benötigt wird typischerweise lediglich ein Token bzw. API Key und unter Umständen eine API URL. Zur Verwendung von ChatGPT, Gemini & Co. verweisen wir auf die Dokumentation der jeweiligen Anbieter zur Ausstellung der Tokens.

Anbindung eines eigenen LLM (OpenAI API)

Die Anbindung eines “self-hosted” LLM ist unkompliziert. Die einzige Voraussetzung ist, dass dessen API öffentlich (jedoch durch Authentifizierung geschützt) über das Internet zugänglich ist. In Zammad kann das LLM dann unter Einstellungen -> AI -> Provider hinterlegt werden. Hier müssen lediglich die API URL, das Token, sowie das zu verwendende Modell eingetragen werden. Die KI-Features stehen dann ohne weitere Einrichtung zur Verfügung.

Zammad AI Provider Einstellungen

Hinweis
An dieser Stelle sei aber darauf hingewiesen, dass der Betrieb eines LLM sehr ressourcen- und damit kostenintensiv ist. Insbesondere werden GPUs mit typischerweise >= 24 GB VRAM benötigt. Kleinere LLM-Modelle erfordern weniger Ressourcen, liefern jedoch oftmals auch schlechtere Ergebnisse.

Bei Fragen oder für Tipps und Ratschläge zum Betrieb bzw. der Anbindung eigener LLMs wende dich gerne an support@server.camp!

Verwendung von server.camp LLMs

Alternativ zu einem selbst betriebenen LLM oder den kommerziellen Services von OpenAI, Anthropic & Co. kann während des Bestellprozesses bei uns auch direkt ein LLM mitgebucht werden, das anschließend bereits automatisch vorkonfiguriert ist.

LLM Auswahl bei server.camp

Aktuell bieten wir eine Auswahl aus drei verschiedenen open-source Modellen, darunter:

Wir evaluieren aktuell alle drei Modelle und sind hier für Feedback dankbar!

Alle verfügbaren Modelle werden beim französischen Cloud-Provider Scaleway auf DSGVO-konforme Weise in einem Rechenzentrum in Paris betrieben.

Beta Phase
Die Verwendung eines von server.camp vorkonfigurierten LLMs befindet sich aktuell (seit 10. März 2026) in der kostenlosen Testphase und steht in den Tarifen Business und Corporate zur Verfügung. Voraussichtlich wird das Angebot jedoch nicht dauerhaft kostenlos sein, sondern nach der Evaluationsphase als Add-on zu einem bei uns betriebenen Zammad hinzugebucht werden können. Als Nutzer:in erhältst du rechtzeitig eine entsprechende Benachrichtigung.