Direkt zum Inhalt
/leistungen/ki-agenten● kompetenz aktiv
Leistung · 02 / 06

KI-Agenten

Digitale Arbeitskräfte mit klar definierter Rolle.

Kennzahlen
Time-to-Production
14–28 Tage
Zeitersparnis
60–85%je nach Prozess
Audit-Trail
vollständig
Stack
  • OpenAI API (GPT-5)
  • Anthropic Claude Opus 4.7
  • Apertus 70B via Swisscom
  • LangChain / selbst geschrieben
  • Vercel / CH-Server
  • Postgres
  • Observability
Ausgangslage

Warum jetzt und nicht später.

Ein KI-Agent ist keine ChatGPT-Lizenz. Er ist eine digitale Rolle mit klar definierten Aufgaben, Zugriffsrechten, Eskalationsregeln und messbarem Output. Die meisten gekauften Agent-Plattformen geben Ihnen nur die Schale — den Kontext, die Prompts, die Integrationen und den Wartungsprozess bauen trotzdem Sie.

Unser Vorgehen

Schritte bis zum produktiven Betrieb

  1. Schritt 01

    Rollenscoping: Was genau soll der Agent tun, welche Entscheidungen darf er autonom treffen?

  2. Schritt 02

    Integration in Ihre Systeme (CRM, ERP, Mail, Kalender, Datenbanken) mit DSG-konformen Datenpfaden.

  3. Schritt 03

    Rahmenwerk mit Human-in-the-Loop bei Unsicherheit — definierter Eskalationspfad, nicht auf Zuruf.

  4. Schritt 04

    Audit-Trail auf Entscheidungs-Ebene: jede Aktion, jede Modell-Antwort, jede Eskalation protokolliert.

  5. Schritt 05

    Iterative Verbesserung über Feedback-Loops — der Agent wird pro Woche präziser, nicht pro Jahr.

Was Sie konkret erhalten

Deliverables

  • Agent-Definition (Rolle, Rechte, Eskalations-Regeln, Fail-Strategie)
  • Produktiv deployed mit Monitoring und Kostenlimit
  • Admin-Dashboard für Ihre Operatoren (Stop/Pause, Log-Review, Konfig)
  • Wöchentliches Agenten-Review während der ersten 3 Monate
  • Dokumentation im Unternehmens-Wiki-Stil, nicht als Kunden-Handbuch
Technologie

Stack & Tools

Wir arbeiten mit bewährten Open-Source-Tools und gängigen AI-Providern. Kein proprietäres Framework, kein Lock-in — wenn Sie den Code später selbst weiterentwickeln, ist das kein Problem, sondern geplant.

  • OpenAI API (GPT-5)
  • Anthropic Claude Opus 4.7
  • Apertus 70B via Swisscom
  • LangChain / selbst geschrieben
  • Vercel / CH-Server
  • Postgres
  • Observability
Compliance

DSG- und revDSG-konform per Default. Auf Wunsch Apertus-Modell und 100% Schweizer Infrastruktur. Auftragsbearbeitungs­verzeichnis auf Anfrage erhältlich.

Häufige Fragen

Entscheidungs-Fragen

  • Kann ein Agent auch offline / on-premise laufen?

    Ja, für regulierte Umgebungen. Mit kleineren Open-Source-Modellen (Mistral, Llama, Apertus 8B) auf Ihrer Infrastruktur. Kompromiss: geringere Fähigkeiten bei komplexem Reasoning als OpenAI/Anthropic.

  • Was, wenn wir den Agent später abschalten wollen?

    Ein Knopf. Alle Daten bleiben, der Agent-Prozess pausiert. Logs bleiben für Audit-Zwecke erhalten, die Verarbeitung stoppt sofort.

  • Wie wird Human-in-the-Loop konkret umgesetzt?

    Bei wesentlichen Entscheidungen mit Rechtswirkung greift HITL automatisch ein: der Agent macht einen Vorschlag, ein Mensch bestätigt. Confidence-Schwelle wird pro Use-Case kalibriert (typisch 0.85–0.92). Eskalations-UI ist auf maximale Effizienz getrimmt — ein Klick bei klaren Fällen, ausführliche Prüfung bei Unsicherheit.

  • Was ist der typische ROI eines AI-Agents?

    Bei klar abgegrenzten KMU-Use-Cases liegt der ROI typisch in Monat 3–6. Ein Belegerfassungs-Agent ersetzt z.B. 1–2 FTE-Äquivalent Routinearbeit, Investment 8'000–30'000 CHF initial plus 200–1'500 CHF/Monat laufend. Bei einer Treuhandfirma rechnet sich das oft schon im ersten Quartal.

  • Welche Branchen-spezifischen Risiken gibt es?

    Treuhand: Mandatsgeheimnis und Schweizer Hosting. Versicherung: FINMA-Outsourcing-Pflichten. Legal: BGFA-Mandatsgeheimnis (oft on-premise nötig). Immobilien: Diskriminierungs-Risiko bei Mietanfragen-Filtern. Wir bauen die Architektur immer mit den branchen-spezifischen Risiken im Blick — nicht als Add-on, sondern als Fundament.

  • Was sind die häufigsten Fehler beim Agent-Bau?

    Top-5: (1) Zu breiter Scope am Anfang — wir empfehlen einen scharf abgegrenzten Use-Case. (2) Fehlende Eskalations-Logik — Agent muss wissen, wann er aufhört. (3) Kein Audit-Trail — ohne Log ist Compliance-Audit nicht möglich. (4) Auto-Aktionen ohne Confidence-Threshold — führt zu Vertrauens-Verlust beim Team. (5) Modell-Wechsel ohne A/B-Test — kann Verhaltens-Drift verursachen.

Bereit, Ihr Betriebssystem zu bauen?

Ein Agentproduktiv in 21 Tagen.

Beschreib uns dein Projekt in ein paar Sätzen. Innerhalb von 24 Stunden hältst du eine funktionierende AI-Demo in den Händen — und siehst, was heute möglich ist. Kostenlos. Unverbindlich.

Demo in 24 Stunden anfordernOder anrufen: +41 76 442 72 77
Antwortzeit
< 24 h werktags
Sprachen
DE · EN
Antworter
Tim persönlich
Call
Google Meet · 30 min
DSG · revDSG
Pipeline offen