~/kapio.eu

Wie kapio sein Tagesgeschäft an Claude andockt

kapio hat sich das eigene Tagesgeschäft an Claude angebunden — über einen selbstgebauten MCP-Server. Mehrere n8n- und Pipedrive-Instanzen, dazu Google Drive, Harvest, Todoist und Google Ads. Drei Dutzend Werkzeuge in einer Schnittstelle. Tagesgeschäft auf Steroiden.

„Zeig mir Deal 1247 in Pipedrive mit den Notizen.” Claude liest den Deal, ich überfliege die Notizen. „Erstell auf der Basis ein Angebot in Harvest, leg das PDF im Drive im Kunden-Ordner ab.” Claude wechselt das Werkzeug, baut das Angebot in Harvest, schiebt das PDF in den richtigen Drive-Ordner. Was sonst zwischen drei Systemen hin- und herspringt, ist eine Konversation.

„Welche Workflows hängen seit gestern Nacht in der Industrie-Kunden-Instanz?” Claude liest die Execution-Logs in n8n, ich sehe die fünf Treffer — ohne VPN, ohne Tab-Wechsel.

Was das für andere heißt

Was wir uns gebaut haben, ist nicht kapio-spezifisch. Die Architektur ist ein Standardmuster: ein Server, der die Werkzeuge eines Mittelständlers — sein ERP, sein CRM, seine Datenablage — über das Model Context Protocol an einen KI-Client anbindet. Der öffentliche Marktplatz hat MCP-Server für Slack, Gmail, Notion. Was er nicht hat: einen Server, der die Auftragsdaten in eurem Microsoft-Dynamics-System schreibt. Genau das bauen wir.

Was darunter läuft

Zwei selbstgebaute MCP-Server — kapio-mcp und harvest-mcp — laufen als Cloud-Run-Services in europe-west1. Vanilla Node.js, MCP-Protokoll-Version 2025-06-18. Authentifizierung pro Client über Bearer-Token, sodass mehrere Mandanten denselben Server nutzen können, ohne Sichtbarkeit auf fremde Daten. Ein Switch-Tool wechselt n8n- und Pipedrive-Instanz pro Session, die LLM-Seite muss davon nichts wissen. delete_workflow zeigt ohne explizites confirm=true nur eine Vorschau, copy_workflow entfernt Credentials beim Kopieren auf eine andere Instanz.

Wer sensible Daten hat: Die Architektur lässt sich self-hosted im Konto des Kunden ausrollen, LLM-Calls über Amazon Bedrock oder Azure OpenAI — dann verlassen Inputs und Outputs das Cloud-Konto nicht.

$ Was kapio geliefert hat

  1. Custom MCP-Server

    Eigener MCP-Server, der Claude, ChatGPT oder Gemini an interne Werkzeuge eines Mittelständlers anbindet — CRM, ERP, Datenablage, Buchhaltung.

  2. Self-hosted LLM-Architektur

    KI-Architektur, in der MCP-Server und LLM-Calls innerhalb der Cloud-Boundary des Kunden bleiben — etwa über Amazon Bedrock oder Azure OpenAI.

$ stack

$ kontakt:

kapio ist ein Technologie-Studio aus Hamburg. Wir bauen Systeme, die laufen — und benutzt werden. Aus dem Besten in CRM, ERP, KI, Automation und Datenbanken. Eine Architektur, kein Tool-Salat. Cloud oder selbst gehostet, anschlussfähig an das, was bei euch schon im Einsatz ist.

Pipedrive Authorized Partner n8n Claude Seit 2021