In den letzten Monaten haben wir ein ambitioniertes Ziel verfolgt: Wir wollen Github Copilot ersetzen – mit unserer eigenen, internen KI-Infrastruktur. Nicht, weil Copilot schlecht wäre. Im Gegenteil: Die Autovervollständigung in VS Code ist ein echter Produktivitätsbooster. Aber sie kostet monatlich Geld – und das läppert sich. Außerdem ist uns wichtig, die Kontrolle über unsere Modelle, Daten und Erweiterungen zu behalten.

In den letzten Monaten haben wir ein ambitioniertes Ziel verfolgt: Wir wollen Github Copilot ersetzen – mit unserer eigenen, internen KI-Infrastruktur. Nicht, weil Copilot schlecht wäre. Im Gegenteil: Die Autovervollständigung in VS Code ist ein echter Produktivitätsbooster. Aber sie kostet monatlich Geld – und das läppert sich. Außerdem ist uns wichtig, die Kontrolle über unsere Modelle, Daten und Erweiterungen zu behalten.
Also: Warum mieten, wenn man selbst betreiben kann?
Der erste Meilenstein ist klar: Wir wollen eine interne KI, die das kann, was Copilot heute bietet. Das bedeutet:
Die Grundidee: Unsere eigene AI-Completion ersetzt den Cloud-Copilot – mit lokalem Zugriff, privaten Repositories und ohne laufende Lizenzkosten. Diese KI wird speziell auf unsere Codebasis und Arbeitsweise trainiert, um wirklich relevante Vorschläge zu liefern.
Parallel dazu entwickeln wir ein generatives Modell. Dieses Modell soll vielseitiger sein als nur Code verstehen. Es soll:
Kurz: Dieses Model wird das Rückgrat für unsere generativen KI-Prozesse.
Langfristig wollen wir zusätzlich ein Reasoning-Modell integrieren – also ein KI-System, das wirklich nachdenken kann. Das Modell soll komplexe Abhängigkeiten verstehen, Entscheidungen begründen und Vorschläge priorisieren.
Aktuell fehlen uns für gute performance noch die nötigen Ressourcen. Unser Server ist leistungsstark (mehr dazu gleich), aber das Reasoning-Modell ist ein echter Speicher- und Rechenfresser. Darum priorisieren wir zunächst flüssige Performance für den Copilot-Ersatz und das generative Modell. Das Reasoning-Modell läuft zwar im Hintergrund schon testweise – aber mit bewusst akzeptierten Performance-Einbußen.
Unser Server ist das Herzstück des Projekts. Er beherbergt aktuell:
Damit schaffen wir eine modulare, erweiterbare Umgebung, in der neue KI-Komponenten einfach ergänzt werden können.
Ein weiteres Ziel ist, Automatisierungen für Reviews und Aufgabenlösungen zu entwickeln. Diese sollen vorprüfen, bevor menschliche Reviewer übernehmen – etwa bei Code-Reviews, Datenset-Checks oder Dokumentationsaufgaben. So schaffen wir eine hybride Work-Pipeline aus Mensch und Maschine, bei der die KI die Vorarbeit leistet.
Wir bauen keine KI, um „cool" zu sein. Wir bauen sie, weil sie unsere Arbeit wirklich erleichtern wird – effizienter, sicherer und nachhaltiger. Mit unserer eigenen Infrastruktur können wir schneller experimentieren, unabhängiger arbeiten und gezielt die Funktionen ausbauen, die für uns wirklich zählen. Außerdem müssen wir uns keine Sorgen mehr um den Datenschutz machen, da KI-Firmen zunehmen mehr Dinge machen die so wenig mit EU-Richtlinien übereinstimmen das ihre Produkte in der EU nicht veröffentlicht werden dürfen.
Das ist unser Weg: Von Copilot zur eigenen, vielseitigen KI-Plattform – mit OpenWebUI und VSCode als kreativem Zentrum und n8n und JupyterLab zum KI-Training für eine Zukunft, die wir selbst gestalten. Bleibt dran – es wird spannend!