Bei uns wartet Dein Platz schon auf Dich!
Bei uns wartet Dein Platz schon auf Dich!
Sicherheitsschwachstellen in Software stellen ein erhebliches Risiko für Unternehmen und Organisationen dar. Angesichts der ständig zunehmenden Zahl und Komplexität von Cyberangriffen benötigen Sicherheitsexpert*innen effektivere Methoden, um Schwachstellen in Software zu finden und zu beheben. Ein vielversprechender Ansatz ist der Einsatz generativer KI-Modelle zur Unterstützung der Sicherheitsanalyse von Quellcode.
In dieser Abschlussarbeit wird der Einsatz von Large Language Models (LLMs) zur Analyse von Sicherheitslücken in Software untersucht. Die Arbeit beinhaltet einen Überblick über bestehende Ansätze, die generative KI-Modelle zur Analyse von Quellcode einsetzen. Hauptziel ist es, eine Lösung zu entwickeln, die generative KI-Modelle zur Identifizierung von Sicherheitsschwachstellen in Software einsetzt. Aufgrund der kurzen Entwicklungszyklen neuer KI-Modelle und des schnellen Wissensverfalls beim Prompt Engineering betrachtest Du dabei insbesondere den Einsatz von Werkzeugen durch LLMs und die Integration von generativer KI in existierende Prozesse. Deinen Ansatz evaluierst Du anhand von Szenarien, die auf Schwachstellen, die in realer Open-Source-Software auftreten, basieren.
Informiere Dich mehr über uns und Deine Bewerbung.
Bitte schicke uns Deine Unterlagen im PDF-Format per E-Mail an work@xitaso.com.
Deine Ansprechpartnerin
Daniela Auger-Huggenberger
Tel. +49 821 885882-24
daniela.auger-huggenberger@xitaso.com