Direkt zum Inhalt
/wissen/was-ist-apertus-70b● answer-first · schema.org
Definition

Was ist Apertus 70B? Das Schweizer Open-Source-LLM

Was ist Apertus 70B und wie können Schweizer KMU es produktiv einsetzen?

Kurze Antwort

Apertus 70B ist das gemeinsam von ETH Zürich, EPFL und CSCS entwickelte Schweizer Open-Source-Sprachmodell, trainiert auf dem ALPS-Supercomputer in Lugano. Es ist vollständig offen (Gewichte, Trainingscode, Daten), mehrsprachig (1'000+ Sprachen), DSG- und EU-AI-Act-konform durch Wahl der Trainingsdaten. Verfügbar über Swisscom, Hugging Face, Public AI und AWS SageMaker. Für Schweizer KMU die erste Wahl, wenn Datensouveränität und regulatorische Strenge im Vordergrund stehen.

Zuletzt aktualisiert: · 1'680 Wörter

01

Die Geschichte hinter dem Modell

Apertus ist das Resultat der Swiss AI Initiative — einer Kooperation zwischen ETH Zürich, EPFL und dem Schweizer Nationalen Supercomputing-Zentrum CSCS in Lugano. Das Training fand auf dem ALPS-Supercomputer statt, einer der grössten europäischen Compute-Infrastrukturen, mit über 4'000 NVIDIA-GH200-GPUs. Stromversorgung: überwiegend CO2-neutral. Kühlung: nachhaltige Seewasser-Kühlung aus dem Luganer See. Das war von Anfang an mehr als ein Modell — es war ein Statement, dass die Schweiz LLM-Souveränität ernst nimmt. Veröffentlicht im September 2025 in 70B- und 8B-Variante, Update 2509 verfügbar, weiteres Update geplant für Q3/Q4 2026.

02

Was Apertus von US-Modellen unterscheidet

Drei zentrale Unterschiede zu OpenAI / Anthropic / Google. (1) Vollständig open: Gewichte, Trainings-Daten-Spezifikation und Trainings-Code sind öffentlich. Es gibt keine versteckten Datenquellen. (2) Voll konforme Trainings-Daten: nur Material, das urheberrechtlich, ethisch und rechtlich klar ist — kein scrape-and-pray, kein massiges Web-Crawling, kein opaques Lizenz-Setup. (3) Schweizer Provenienz: trainiert auf Schweizer Hardware, mit Schweizer Strom, von Schweizer Institutionen. Für Branchen, in denen 'wo lebt das Modell und wer hat Zugriff' eine zentrale Frage ist (Banken, Versicherer, Anwaltskanzleien, Gesundheitswesen), ist das entscheidend.

03

Technische Eckdaten

70B-Parameter-Variante (Apertus-70B-2509) und 8B-Variante (Apertus-8B-2509). Kontextfenster: 128k Tokens (Stand Update 2509). Trainings-Daten: über 15 Trillionen Tokens, davon ca. 40 % mehrsprachig (insbesondere stark in DE, FR, IT, RM — die vier Schweizer Landessprachen). Über 1'000 Sprachen abgedeckt. Tool-Use-Fähigkeit grundsätzlich vorhanden, aber Ecosystem deutlich kleiner als bei OpenAI / Anthropic. Latenz: bei Swisscom-Hosting vergleichbar mit GPT-4-Tier, beim Selbst-Hosting auf vernünftiger Hardware (4× A100 80GB) ca. 30–80 Tokens/Sekunde.

04

Verfügbarkeit für KMU

Für Schweizer KMU gibt es vier Wege, Apertus zu nutzen. (1) Swisscom Apertus Service — die einfachste Variante, API-kompatibel, Schweizer Hosting, Schweizer Vertrag. (2) AWS SageMaker AI in der Region eu-central-2 (Zürich) — für KMU, die ohnehin auf AWS sind. (3) Public AI Network — kostenlose / niedrig-kostige Inference für nicht-kommerzielle und KMU-Pilotprojekte. (4) Selbst-Hosting auf eigener Hardware — für Banken, Versicherer oder Anwaltskanzleien mit on-premise-Anforderungen. Hier ist die Hürde Hardware-Investition (typisch 60'000–120'000 CHF für eine geeignete Inference-Box).

05

Wann Apertus die richtige Wahl ist

Apertus ist die erste Wahl bei: (1) Treuhand- und Anwaltsmandanten-Daten — Mandatsgeheimnis und BGFA setzen Schweizer Verarbeitung voraus oder machen sie zumindest sehr attraktiv. (2) FINMA-regulierten Daten (Versicherung, Bank) — viele Aufsichtsbereiche schreiben Schweizer oder EU-Verarbeitung vor. (3) Gesundheitsdaten — besonders schützenswert nach revDSG Art. 5 lit. c. (4) Daten, die nach 5 Jahren wieder geprüft werden — Modell-Provenienz und Trainings-Daten sind dokumentierbar. (5) Politisch sensitiven Anwendungen, bei denen US-Cloud-Act-Risiken thematisiert werden.

06

Wo Apertus an Grenzen kommt

Ehrliche Limitierungen Stand Mai 2026: (1) Reasoning-Tiefe bei mehrschrittigen logischen Aufgaben liegt noch hinter Claude Opus 4.7. (2) Tool-Use-Ecosystem ist klein — viele LangChain-/LangGraph-Patterns brauchen Adaptation. (3) Voice-Realtime gibt es nicht — wer Echtzeit-Telefonie will, muss zu OpenAI gpt-realtime-2 greifen. (4) Coding-Assistenz ist passabel, aber nicht auf Opus-Niveau für komplexe Refactorings. (5) Multimodal (Bild, Video) ist eingeschränkt. Für viele Schweizer KMU-Anwendungen reicht Apertus völlig, für andere ist es ein Baustein in einer Multi-Modell-Architektur.

07

Praktische TYTOS-Erfahrungen mit Apertus

Wir setzen Apertus 70B produktiv bei zwei Treuhand-Mandaten ein (Belegerfassung und Lohnbuchhaltungs-Q&A), bei einem Versicherungs-Mandanten als DSG-Strict-Klassifikator vor dem Eskalations-Knoten, und bei einer Anwaltskanzlei als Vorlagen-Generator für Schweizer Standard-Verträge. Beobachtungen: bei klar abgegrenzten Aufgaben mit gut formuliertem System-Prompt ist die Qualität für KMU-Verhältnisse sehr gut. Bei sehr offenen Aufgaben ohne klaren Rahmen fällt Apertus deutlich hinter Claude zurück. Die Antwort ist nicht 'welches Modell ist besser' — sondern 'welcher Rahmen passt zu welchem Modell'.

08

Was kostet ein Apertus-Setup?

Drei Kostenebenen. (1) Swisscom-API ohne eigenes Hosting: vergleichbar mit GPT-4 ($3–10 / 1M Token), Setup-Aufwand: gering. (2) AWS SageMaker mit dediziertem Endpoint: ca. 800–1'500 CHF/Monat für eine permanente Inference-Instanz, plus Datentransfer. (3) Selbst-Hosting on-premise: Hardware-Initial 60'000–120'000 CHF, dann nur Strom und Wartung — sinnvoll bei sehr hohem Volumen oder absoluten Daten-Souveränitäts-Anforderungen. TYTOS unterstützt alle drei Wege; wir empfehlen pro Use-Case den passenden — meist Swisscom oder AWS, nur in Sonderfällen Selbst-Hosting.

Über den Autor · E-E-A-T

Tim Gashi

Founder & CEO, TYTOS GmbH

Kriens, Schweiz

LinkedIn →

Tim Gashi gründet und führt TYTOS GmbH (CHE-351.360.864), die Schweizer AI-Boutique mit Sitz in Kriens. Seit 2022 baut er produktive AI-Systeme für Schweizer KMU in Treuhand, Immobilien, Versicherung, Legal und Logistik. TYTOS arbeitet als kleines, schlagkräftiges Team mit dem Anspruch, in 14–28 Tagen Produktion zu liefern statt Strategie-Folien.

  • AI-Strategie
  • KI-Agenten
  • Prozessautomatisierung
  • Voice AI
  • DSG-konforme AI
  • Multi-Modell-Architekturen
  • Schweizer KMU
Bereit, Ihr Betriebssystem zu bauen?

Ein Agentproduktiv in 21 Tagen.

Beschreib uns dein Projekt in ein paar Sätzen. Innerhalb von 24 Stunden hältst du eine funktionierende AI-Demo in den Händen — und siehst, was heute möglich ist. Kostenlos. Unverbindlich.

Demo in 24 Stunden anfordernOder anrufen: +41 76 442 72 77
Antwortzeit
< 24 h werktags
Sprachen
DE · EN
Antworter
Tim persönlich
Call
Google Meet · 30 min
DSG · revDSG
Pipeline offen