Erfolgreich Software entwickeln im Zeitalter von KI

Warum der Wandel unvermeidlich ist

Die Softwareentwicklung erlebt eine revolutionäre Transformation durch den Einsatz von künstlicher Intelligenz. Dieser Artikel zeigt, wie KI die Effizienz und Qualität im Entwicklungsprozess steigert und die Zufriedenheit der Softwareengineers erhöht. Unternehmen, die sich nicht anpassen, riskieren, den Anschluss zu verlieren. Bei XITASO haben wir frühzeitig begonnen, uns intensiv mit KI-gestützter Softwareentwicklung zu beschäftigen. In diesem Artikel teilen wir unsere Erfahrungen mit dem eingesetzten Tech-Stack und berichten, wie unsere Kolleg*innen, unsere Projekte und unsere Kunden davon profitieren.

1. Einleitung

Die Softwareentwicklung steht vor der größten Transformation seit der Einführung der objektorientierten Programmierung. Künstliche Intelligenz verändert nicht nur, wie wir Code schreiben, sondern revolutioniert den gesamten Entwicklungsprozess – von der Erhebung der Requirements bis zum Deployment.

Was vor zwei Jahren noch Science-Fiction war, ist heute Realität: KI-Assistenten generieren Code, erstellen Dokumentation, schreiben Tests und analysieren Architekturentscheidungen. Entwicklerteams, die diese Technologien bereits einsetzen, berichten von signifikanten Effizienzsteigerungen. Für Entscheider*innen und Teamleiter*innen ist die Frage längst nicht mehr, ob KI in der Softwareentwicklung Einzug hält, sondern wann und wie sie den Wandel gestalten. Die Konkurrenz schläft nicht – und Teams, die heute noch ohne KI-Unterstützung arbeiten, riskieren, den Anschluss zu verlieren.

In diesem Artikel zeigen wir auf, warum wir KI in der Softwareentwicklung einsetzen, welche verschiedenen Lösungen es gibt und wie sich das auf unsere Entwicklungsteams auswirkt.

2. Wettbewerbsfähigkeit erhalten – Die strategische Notwendigkeit

In der heutigen Softwarebranche entscheiden oft Wochen oder sogar Tage über den Erfolg eines Projekts. Während traditionelle Entwicklungsteams noch mühsam Boilerplate-Code schreiben, Unit-Tests manuell erstellen und Stunden mit der Formulierung von Architekturdokumentation verbringen, setzen KI-gestützte Teams bereits auf teilautomatisierte Lösungen.

Teams, die diese Vorteile ignorieren, riskieren mehr als nur einen Effizienzrückstand. Sie verlieren den Anschluss an eine Branche, die sich rasant wandelt. Ob jedes im aktuellen Hype genannte Versprechen der KI-Hersteller wirklich eintreffen wird, darf bezweifelt werden. Fakt ist aber, dass KI die IT-Branche bereits sehr stark verändert und in den nächsten Jahren noch stärker verändern wird, wer sich jetzt nicht mit diesen Veränderungen auseinandersetzt, wird in Zukunft ein Problem haben.

3. Die konkreten Vorteile im Detail

Effizienzsteigerung und Zeitersparnis

Die Zahlen sprechen eine klare Sprache: Studien zeigen – und wir können bestätigen, dass Entwicklungsteams durch den Einsatz von KI-Tools durchschnittlich 20% ihrer Arbeitszeit einsparen können. Diese Effizienzsteigerung manifestiert sich in konkreten Bereichen: Das Schreiben von Tests, die Erstellung von Deployment-Scripten und die Analyse von Fehlermeldungen werden drastisch beschleunigt. Besonders bei repetitiven Aufgaben, die früher Stunden in Anspruch nahmen, liefert KI heute in Minuten verwertbare Ergebnisse.

Ein weiterer bedeutender Vorteil: KI fungiert als permanenter Mentor beim Erlernen neuer Technologien. Statt stundenlang Dokumentationen zu durchforsten oder Kolleg*innen zu fragen, können Entwickler*innen der KI konkrete Fragen stellen und erhalten sofort Code-Beispiele, die auf ihr aktuelles Projekt zugeschnitten sind. Fehlermeldungen werden nicht mehr mühsam recherchiert, sondern direkt erklärt – inklusive der zugrundeliegenden Konzepte.

Qualitätsgewinn durch Konsistenz

Besonders wertvoll ist die Fähigkeit der KI, bereits in frühen Phasen Probleme zu identifizieren. Inkonsistenzen, fehlende Edge Cases oder potenzielle Null-Pointer-Exceptions werden erkannt, bevor ein Mensch den Code reviewt. Dies beschleunigt nicht nur Feedback-Schleifen, sondern führt auch zu robusteren Lösungen. Ein oft unterschätzter Vorteil von KI-generiertem Code ist seine inhärente Konsistenz. Während handgeschriebener Code je nach Entwickler*in, Tagesform und Zeitdruck variiert, produziert KI – bei korrekter Instruktion – gleichförmigen Code, der projektspezifischen Coding-Guidelines entspricht. Diese Instruktionen kann (und sollte man) bei gängigen Tools z. B. in Form von Markdown-Dateien konfigurieren, dadurch wird sichergestellt, dass das Tool bei jedem Prompt die gewünschten Instruktionen bekommt.

Diese Konsistenz setzt sich in der Architektur fort. KI-Modelle kennen etablierte Dokumentationsstandards wie Arc42 und wichtige Normen wie ISO/IEC 9126 für Software-Qualität. Beim Ausformulieren von Architecture-Decision-Records (ADRs) oder beim Brainstorming von Architekturentscheidungen bringen sie dieses Wissen strukturiert ein.

Allerdings ist Vorsicht geboten: KI-generierter Code ist nur so gut wie die Instruktion, die er erhält. Ohne die Expertise von Software-Expert*innen wird die KI suboptimal angeleitet und im zweiten Schritt unzureichend qualitätsgesichert. Auf diese Weise entsteht das Gegenteil von Qualität, nämlich technische Schuld.

Zufriedenheit der Mitarbeitenden steigern

„Ich möchte nie wieder ohne KI entwickeln“ – dieses Zitat eines erfahrenen Entwicklers bringt die Stimmung in KI-gestützten Teams auf den Punkt. Die Begeisterung ist besonders dort spürbar, wo KI kleine, fokussierte Aufgaben übernimmt: das Generieren einzelner Code-Fragmente, das Erstellen von Unit-Tests oder das Formulieren von Dokumentation.

Der Schlüssel liegt in der richtigen Dosierung. Wird zu viel Code auf einmal generiert, der nur zu 80% korrekt ist, entsteht Frustration – niemand debuggt gerne fremden Code. Entwickler*innen müssen daher eine klare Struktur mit Grenzen, in denen sich die KI bewegen darf, vorgeben. Innerhalb dieser Grenzen schreibt die KI selbstständig Code.  So werden gezielt kleine Bausteine erstellt, die schnell verstanden und angepasst werden können. Das Erstellen dieser kleinen Bausteine geht in der Regel schneller als rein manuelles Coding. So macht die Arbeit deutlich mehr Spaß, da man permanent Fortschritte sieht.

Die freigewordene Zeit nutzen Entwickler*innen für das, was sie am meisten schätzen: kreative Problemlösung und strategische Überlegungen. Statt sich mit dem Ausformulieren von Boilerplate-Code aufzuhalten, können sie sich dem „großen Ganzen“ widmen – der Frage, ob die Software in die richtige Richtung geht.

Für Unternehmen wird dies zu einem entscheidenden Wettbewerbsvorteil bei der Gewinnung von Mitarbeitenden. Entwickler*innen erwarten heute, mit state-of-the-art Werkzeugen arbeiten zu können. Unternehmen, die KI-Tools bereitstellen und einen unkomplizierten Freigabeprozess für neue Technologien haben, positionieren sich als attraktive Arbeitgeber in einem umkämpften Markt.

4. KI-Einsatz mit Verantwortung

Der Weg zur souveränen KI-gestützten Softwareentwicklung

Mit der zunehmenden Abhängigkeit von KI-Tools wächst auch die Notwendigkeit, Kontrolle über die eigenen Daten und die eingesetzte Technologie zu behalten. Nicht jedes Unternehmen kann oder will seine sensibelsten Daten – den eigenen Sourcecode – an externe, oft intransparente Cloud-Dienste senden.

Glücklicherweise existiert ein breites Spektrum an Lösungen, das jedem Unternehmen den passenden Grad an Kontrolle ermöglicht:

  • Fertige Produkte als Service (Product-as-a-Service): Tools wie GitHub Copilot sind der einfachste Einstieg. Man kauft ein fertiges Produkt, das schnell eingerichtet ist und nahtlos funktioniert. Der Preis dafür ist jedoch eine Blackbox: Man hat keine Kontrolle darüber, was mit dem Code geschieht, wie die Modelle trainiert wurden oder wo die Daten verarbeitet werden. Durch Enterprise-Abonnements lassen sich diese Einschränkungen teilweise reduzieren. So bietet GitHub CoPilot Business beispielsweise eine Klausel zu rechtlichem Beistand bezüglich vermeintlicher Urheberrechtsansprüche sowie gesonderte Data-Privacy-Zusicherungen.
  • Hybride Lösungen (LLMaaS + lokaler Tool-Stack): Ein Mittelweg kombiniert „LLM-as-a-Service“ (LLMaaS) mit lokalen Werkzeugen. Man nutzt über einen API-Key die Modelle eines großen Anbieters, kann aber durch gezielte Konfiguration (z.B. Nutzung von Azure OpenAI in der EU mit deaktiviertem Human Reviewing) mehr Kontrolle über den Datenfluss gewinnen. Die eigentliche Anwendung und Integration finden lokal statt, allerdings fließen die Daten (über eine verschlüsselte Verbindung) über das Internet zum LLM-Provider.
  • Vollständig autarke On-Premise-Lösungen: Die Königsdisziplin für maximale Kontrolle und Datensouveränität. Bei diesem Ansatz wird der gesamte KI-Stack – vom Sprachmodell bis zum Inferenz-Server – auf der eigenen Infrastruktur betrieben. Kein Bit an Daten verlässt das Unternehmensnetzwerk, was ideal für Branchen mit höchsten Sicherheits- und Compliance-Anforderungen ist, aber auch höhere Einstiegs- und Wartungskosten beinhaltet. Zudem ist man hier bei der Größe der verwendeten Modelle limitiert.

Um unsere Kunden mit besonders sensiblen Anforderungen bzgl. Schutz des geistigen Eigentums und Kontrolle über ihre Entwicklungsprozesse ideal unterstützen zu können, haben wir einen vollständig autarken On-Premise-Stack etabliert. Im Folgenden zeigen wir, wie eine solche Lösung in der Praxis aussieht und welche Tools wir erfolgreich einsetzen.

5. Unser Tech-Stack für eine souveräne KI-Entwicklungsumgebung

Ein leistungsfähiger und vollständig kontrollierter KI-Stack besteht aus drei zentralen Komponenten, die reibungslos zusammenarbeiten: den Sprachmodellen, dem Inferenz-Server und den Entwickler-Tools.

Sprachmodelle – Die Basis für Wissen und Kreativität

Sprachmodelle sind die zentrale Komponente des Systems und liefern Wissen, Logik sowie kreative Impulse. Anstatt uns an einen einzelnen Anbieter zu binden, wählen wir die besten verfügbaren Open-Source-Modelle aus, gruppiert nach Größenordnung und Einsatzgebiet:

  • Mistral Devstral (klein, Agentic, SWE-spezifisch): Ein hochspezialisiertes Modell, das von Grund auf für Software-Engineering-Aufgaben entwickelt wurde. Durch das spezifische Training für „Agentic“ Use Cases, d.h. der Incentivierung von Tool-Aufrufen und Zerlegung und anschließende Bearbeitung gegebener Aufgabenstellungen in Teilaufgaben, eignet sich das Modell besonders für die (teil-)autonome Erledigung komplexer Codingaufgaben.
  • Google DeepMind Gemma 3 (klein, Multimodal, Multi-Purpose): Die neueste Generation der offenen Modelle von Google. Gemma 3 überzeugt durch eine starke Allround-Performance und ist dank verschiedener Modellgrößen flexibel auf unterschiedlicher Hardware einsetzbar. Die Fähigkeit, multimodale Eingaben zu verarbeiten, ermöglicht flexiblere Einsatzszenarien, wie beispielsweise das Prompting mittels Architektur- oder Designskizzen.
  • Alibaba Qwen3-Coder (groß, Agentic, SWE-spezifisch): Dieses Modell hat sich in Benchmarks wie SWE-Bench als sehr leistungsfähig für die autonome Bearbeitung von Software-Engineering-Aufgaben, welche auch das Verstehen ganzer Codebasen benötigen, erwiesen. Es unterstützt sehr große Kontextfenster, was für das Arbeiten an komplexen Projekten ein entscheidender Vorteil ist.

Dies ist nur eine kleine Auswahl der öffentlich verfügbaren Modelle, welche unserer Erfahrung nach einen guten Tradeoff zwischen Modellgröße – und damit verbundenen, teilweise enormen Hardwareanforderungen – und Performance erzielen.

Inferenz-Server – Effiziente Verarbeitung und schnelle Reaktionsfähigkeit

Ein Set von Modellgewichten allein ist nicht handlungsfähig. Es ist nötig, diese Gewichte zur Inferenz bereitzustellen, um Anfragen durch das Neuronale Netz zu schicken und die gewünschten Ausgaben zu erhalten. Dafür ist eine hochperformante Lösung erforderlich, welche Anfragen bündelt um die GPU-Auslastung und damit den Datendurchsatz maximiert, und gleichzeitig eine niedrige Latenz beibehält. Diese Aufgabe übernimmt bei uns der Inferenz-Server vLLM.

vLLM ist ein Open-Source-Projekt, das die Anfragen an das Sprachmodell bündelt und die Antworten blitzschnell weiterleitet. Die wichtigsten Vorteile für uns sind:

  • Hohe Reaktionsgeschwindigkeit: Durch Techniken wie Continuous Batching kann vLLM die Anfragen mehrerer User gleichzeitig und ressourcenschonend verarbeiten. Das sorgt für eine flüssige und prompte Interaktion.
  • Standardisierte Schnittstelle (API): vLLM stellt die Modelle über eine OpenAI-kompatible API bereit. Diese standardisierte Schnittstelle vereinfacht die Anbindung an diverse Werkzeuge und die Integration in existierende Toolchains.
  • Flexibilität: Das optionale Zuschalten von LoRA-Adaptern ermöglicht die Verwendung von auf die jeweilige Aufgabe, Codebase oder Domäne finegetunte Modellgewichten „on-the-fly“.

Als zukunftsweisende Alternative für large-scale Inferenz beobachten wir zudem AIBrix, eine ursprünglich von ByteDance entwickelte, skalierbare GenAI-Infrastruktur, die vLLM im Kern als Inferenz Engine verwendet, und diese um eine Orchestrierung auf Systemebene erweitert. Durch die Umsetzung in Kubernetes ist die Plattform cloud-native für Skalierbarkeit, Robustheit und effizienten Ressourceneinsatz beim Betreiben mehrerer Sprachmodelle, verteilt auf mehreren GPUs in diversen Kubernetes Pods.

Entwickler-Tools – Direkte Integration in der IDE

Die Entwickler-Tools setzen die Funktionen der Sprachmodelle und des Inferenz-Servers in die Praxis um – meist direkt in der Entwicklungsumgebung. Dank der standardisierten Schnittstelle lassen sich verschiedene Erweiterungen problemlos nutzen:

  • Für Visual Studio Code: Die Erweiterung Continue ist hier unser Favorit. Sie lässt sich einfach so konfigurieren, dass sie statt der OpenAI-Server unsere lokale vLLM-Instanz als Backend nutzt. Entwickler*innen profitieren von Code-Autovervollständigung, Chat-Assistenten und Agent Tools – alles direkt in die IDE integriert. Des Weiteren existieren zahlreiche Agentic Tools, siehe im übernächsten Punkt.
  • Für JetBrains IDEs (IntelliJ, PyCharm & Co.): Hier gibt es mit ProxyAI eine Open-Source-Erweiterung, die als Brücke zwischen der IDE und verschiedenen KI-Providern dient. Auch sie ermöglicht die Anbindung beliebiger Sprachmodelle via eines OpenAI-kompatiblen Endpunkts. Damit stehen alle gewohnten KI-Funktionen sicher im eigenen Netzwerk zur Verfügung.
  • SWE Agents (in der Kommandozeile (CLI)): Open-Source-Tools wie Roo Code, Cline, Aider oder Qwen-Agent ermöglichen den Einsatz (teil-)autonomer Softwarentwicklungsagenten, zum Teil ohne Integration in die Entwicklungsumbegung. Dies erleichtert den Einsatz in Projekten mit weniger AI-nativen Toolstacks, beispielsweise wenn aus Kompatibilitätsgründen ältere IDEs eingesetzt werden müssen. Durch die Ermächtigung von Sprachmodellen zum Einsatz diverser Tools, wie dem Zugriff auf das Filesystem, Git-Versionskontrolle, sowie weiterer firmeneigener / projetztspezifischer Tools via MCP (Model Context Protocol) können kleinere Teilaufgaben so zum Teil bereits autonom durchgeführt werden.

Durch diesen Aufbau haben wir eine KI-gestützte Entwicklungsumgebung geschaffen, die sowohl leistungsstark als auch vollständig unter unserer Kontrolle ist. Wir profitieren von den enormen Vorteilen moderner KI, ohne Kompromisse bei Sicherheit, Datenschutz oder geistigem Eigentum eingehen zu müssen.

6. KI-Einsatz im gesamten Software-Entwicklungsprozess

Software-Engineering ist mehr als nur Coding. So ist es nur konsequent, den KI-Einsatz für den gesamten Entwicklungsprozess zu betrachten, um das ganze Potential zu realisieren.

Spezialisierte KIs überprüfen Anforderungs-Dokumente automatisch auf Vollständigkeit und Widerspruchsfreiheit , formulieren User Stories aus groben Ideen und identifizieren proaktiv fehlende Anforderungen. Im Projektmanagement entstehen mit KI konsistente Dokumentationen, Risiken werden systematisch analysiert, und KI-optimierte Texte professionalisieren die Kommunikation mit Stakeholdern.

Code-Reviews durchlaufen zunächst eine KI-Prüfung, bevor wertvolle Entwicklerzeit investiert wird. Die KI schreibt Deployment-Scripte, analysiert Logdateien automatisch und bei Produktionsproblemen liefert die KI sofort Hypothesen über mögliche Fehlerquellen. Moderne Schnittstellen wie das Model-Context-Protocol ermöglichen es sogar, Ticket-Systeme und Betriebssystemtools direkt in den KI-Kontext einzubinden.

Der KI-Einsatz ist noch nicht in allen Teilschritten des Entwicklungsprozesses gleichermaßen ausgereift, aber die Fortschritte sind vielversprechend und die Integration entwickelt sich rasant. Bei XITASO haben wir beispielsweise bereits einen ersten Copiloten im Einsatz, der den Product Owner bei der Anforderungsanalyse als Sparrings-Partner im Interview-Stil unterstützt und entweder selbstständig aus Brainstorming-Notizen oder Meeting-Mitschriften User-Stories erstellt oder den Product Owner bei der Validierung und Vervollständigung seiner Anforderungen unterstützt.

Fazit: Software-Expertise wird noch wichtiger

In der heutigen Ära der Digitalisierung und Automatisierung stellt sich die Frage, wie sich der Einsatz von KI in der Softwareentwicklung auf die Rolle der menschlichen Expert*innen auswirkt. Unser Unternehmen ist überzeugt, dass die Integration von KI-Systemen eine transformative Kraft darstellt, welche die Effektivität unserer Entwicklungs-Teams signifikant steigert. Indem repetitive und zeitintensive Aufgaben an KI delegiert werden, können unsere Entwickler*innen ihre Energien darauf lenken, komplexe Herausforderungen mit einer Kreativität und Expertise zu bewältigen, die Maschinen allein nicht erbringen können.

Während KI als Verstärker der Effektivität fungiert, ist das menschliche Element entscheidend für die Qualitätssicherung und die Anpassung an spezifische, nicht-funktionale Anforderungen (NFRs). Erfahrene Expert*innen sind notwendig, um die von KI produzierten Vorschläge kritisch zu hinterfragen und sie so zu modifizieren, dass sie den hohen Qualitätsmaßstäben unseres Unternehmens entsprechen. Erst durch diesen menschlichen Eingriff entsteht Software, die nicht nur innovativ, sondern auch robust, wartbar und sicher ist. Diese Kombination von automatisierter Umsetzungskompetenz und menschlicher Bewertung sichert die Entwicklung von zuverlässig funktionierender Software, die komplexe Problemszenarien adressiert.

Unsere Zukunftsvision sind hybride Teams aus Menschen und KI-Agenten. Der KI können dabei Aufgaben zugewiesen werden, genau wie einem menschlichen Teammitglied. Beispielsweise kann eine KI auf diese Weise die Aufgabe bekommen, Dokumentation zu schreiben oder Tests der Benutzeroberfläche durchzuführen. Der Agent stellt dann genau wie ein Mensch Fragen, um die Aufgabe besser zu verstehen und hilft so bei der Verfeinerung der gemeinsamen Sicht des Teams auf die zu bauende Software. Andere KI-Agenten werden im Hintergrund automatisch wirken, z.B. um die Code-Qualität zu verbessern oder Architekturentscheidungen aus Meetings zu dokumentieren.

In unserer agilen Entwicklungsumgebung ist Effektivität der Schlüssel, und genau hier spielt die „Symbiose“ zwischen Mensch und Maschine eine entscheidende Rolle. Indem Menschen mit hoher Problemlösungskompetenz die von der KI bereitgestellten Werkzeuge verwenden, sichern wir nicht nur die Qualität unserer Software, sondern auch die Zukunftsfähigkeit unserer Lösungen in einer sich ständig weiterentwickelnden Technologielandschaft. Daher bleiben erfahrene Software-Expert*innen, trotz fortschreitender Automatisierung, nicht nur ein unverzichtbarer Bestandteil unserer Entwicklungsstrategien, sie werden umso wichtiger.

Autoren

Simon Müller

Alexander Rampp

Lassen Sie uns darüber sprechen.