Die Geschichte hinter dem Modell
Apertus ist das Resultat der Swiss AI Initiative — einer Kooperation zwischen ETH Zürich, EPFL und dem Schweizer Nationalen Supercomputing-Zentrum CSCS in Lugano. Das Training fand auf dem ALPS-Supercomputer statt, einer der grössten europäischen Compute-Infrastrukturen, mit über 4'000 NVIDIA-GH200-GPUs. Stromversorgung: überwiegend CO2-neutral. Kühlung: nachhaltige Seewasser-Kühlung aus dem Luganer See. Das war von Anfang an mehr als ein Modell — es war ein Statement, dass die Schweiz LLM-Souveränität ernst nimmt. Veröffentlicht im September 2025 in 70B- und 8B-Variante, Update 2509 verfügbar, weiteres Update geplant für Q3/Q4 2026.
Was Apertus von US-Modellen unterscheidet
Drei zentrale Unterschiede zu OpenAI / Anthropic / Google. (1) Vollständig open: Gewichte, Trainings-Daten-Spezifikation und Trainings-Code sind öffentlich. Es gibt keine versteckten Datenquellen. (2) Voll konforme Trainings-Daten: nur Material, das urheberrechtlich, ethisch und rechtlich klar ist — kein scrape-and-pray, kein massiges Web-Crawling, kein opaques Lizenz-Setup. (3) Schweizer Provenienz: trainiert auf Schweizer Hardware, mit Schweizer Strom, von Schweizer Institutionen. Für Branchen, in denen 'wo lebt das Modell und wer hat Zugriff' eine zentrale Frage ist (Banken, Versicherer, Anwaltskanzleien, Gesundheitswesen), ist das entscheidend.
Technische Eckdaten
70B-Parameter-Variante (Apertus-70B-2509) und 8B-Variante (Apertus-8B-2509). Kontextfenster: 128k Tokens (Stand Update 2509). Trainings-Daten: über 15 Trillionen Tokens, davon ca. 40 % mehrsprachig (insbesondere stark in DE, FR, IT, RM — die vier Schweizer Landessprachen). Über 1'000 Sprachen abgedeckt. Tool-Use-Fähigkeit grundsätzlich vorhanden, aber Ecosystem deutlich kleiner als bei OpenAI / Anthropic. Latenz: bei Swisscom-Hosting vergleichbar mit GPT-4-Tier, beim Selbst-Hosting auf vernünftiger Hardware (4× A100 80GB) ca. 30–80 Tokens/Sekunde.
Verfügbarkeit für KMU
Für Schweizer KMU gibt es vier Wege, Apertus zu nutzen. (1) Swisscom Apertus Service — die einfachste Variante, API-kompatibel, Schweizer Hosting, Schweizer Vertrag. (2) AWS SageMaker AI in der Region eu-central-2 (Zürich) — für KMU, die ohnehin auf AWS sind. (3) Public AI Network — kostenlose / niedrig-kostige Inference für nicht-kommerzielle und KMU-Pilotprojekte. (4) Selbst-Hosting auf eigener Hardware — für Banken, Versicherer oder Anwaltskanzleien mit on-premise-Anforderungen. Hier ist die Hürde Hardware-Investition (typisch 60'000–120'000 CHF für eine geeignete Inference-Box).
Wann Apertus die richtige Wahl ist
Apertus ist die erste Wahl bei: (1) Treuhand- und Anwaltsmandanten-Daten — Mandatsgeheimnis und BGFA setzen Schweizer Verarbeitung voraus oder machen sie zumindest sehr attraktiv. (2) FINMA-regulierten Daten (Versicherung, Bank) — viele Aufsichtsbereiche schreiben Schweizer oder EU-Verarbeitung vor. (3) Gesundheitsdaten — besonders schützenswert nach revDSG Art. 5 lit. c. (4) Daten, die nach 5 Jahren wieder geprüft werden — Modell-Provenienz und Trainings-Daten sind dokumentierbar. (5) Politisch sensitiven Anwendungen, bei denen US-Cloud-Act-Risiken thematisiert werden.
Wo Apertus an Grenzen kommt
Ehrliche Limitierungen Stand Mai 2026: (1) Reasoning-Tiefe bei mehrschrittigen logischen Aufgaben liegt noch hinter Claude Opus 4.7. (2) Tool-Use-Ecosystem ist klein — viele LangChain-/LangGraph-Patterns brauchen Adaptation. (3) Voice-Realtime gibt es nicht — wer Echtzeit-Telefonie will, muss zu OpenAI gpt-realtime-2 greifen. (4) Coding-Assistenz ist passabel, aber nicht auf Opus-Niveau für komplexe Refactorings. (5) Multimodal (Bild, Video) ist eingeschränkt. Für viele Schweizer KMU-Anwendungen reicht Apertus völlig, für andere ist es ein Baustein in einer Multi-Modell-Architektur.
Praktische TYTOS-Erfahrungen mit Apertus
Wir setzen Apertus 70B produktiv bei zwei Treuhand-Mandaten ein (Belegerfassung und Lohnbuchhaltungs-Q&A), bei einem Versicherungs-Mandanten als DSG-Strict-Klassifikator vor dem Eskalations-Knoten, und bei einer Anwaltskanzlei als Vorlagen-Generator für Schweizer Standard-Verträge. Beobachtungen: bei klar abgegrenzten Aufgaben mit gut formuliertem System-Prompt ist die Qualität für KMU-Verhältnisse sehr gut. Bei sehr offenen Aufgaben ohne klaren Rahmen fällt Apertus deutlich hinter Claude zurück. Die Antwort ist nicht 'welches Modell ist besser' — sondern 'welcher Rahmen passt zu welchem Modell'.
Was kostet ein Apertus-Setup?
Drei Kostenebenen. (1) Swisscom-API ohne eigenes Hosting: vergleichbar mit GPT-4 ($3–10 / 1M Token), Setup-Aufwand: gering. (2) AWS SageMaker mit dediziertem Endpoint: ca. 800–1'500 CHF/Monat für eine permanente Inference-Instanz, plus Datentransfer. (3) Selbst-Hosting on-premise: Hardware-Initial 60'000–120'000 CHF, dann nur Strom und Wartung — sinnvoll bei sehr hohem Volumen oder absoluten Daten-Souveränitäts-Anforderungen. TYTOS unterstützt alle drei Wege; wir empfehlen pro Use-Case den passenden — meist Swisscom oder AWS, nur in Sonderfällen Selbst-Hosting.
