Falko Werner über Verantwortung, Intuition & Realität
Tribe Talks #1: Künstliche Intelligenz in DevOps & Software
Ob in DevOps, Softwareengineering oder Cyber Security, KI verändert die Spielregeln. In unserem letzten Beitrag haben wir beleuchtet, was IT-Teams jetzt über den Einsatz von KI wissen müssen. Aber wie sieht das eigentlich im echten Arbeitsalltag aus? Für unsere erste Ausgabe von Tribe Talks, Optimyze’s neuer Interviewreihe mit mutigen, meinungsstarken Stimmen aus der Tech-Welt, haben wir Falko Werner eingeladen. Falko ist Mitgründer von Vempio, DevOps-Coach und KI-Trainer. Er spricht mit uns über Verantwortung in automatisierten Systemen, menschliche Intuition in der Tech-Welt und warum Engineers ihre Angst vor KI besser in Neugier verwandeln sollten.
Antonia Bader: Bitte stell dich unseren Leser:innen vor. Wer bist du und welche Rolle hast du aktuell?
Falko Werner: Alles klar, mein Name ist Falko. Ich bin Mitgründer von Vempio, einem Unternehmen, das sich darauf spezialisiert hat, Organisationen im Bereich agiler Transformationen, DevOps und künstlicher Intelligenz zu schulen und zu beraten. Ich bin zertifizierter SAFe-Trainer, zertifizierter LeSS-Practitioner, Kanban Management Professional und von TÜV Rheinland als KI-Trainer zertifiziert. Zusammen mit meinem Kollegen bei Vempio hosten wir den Podcast ” DevOps – auf die Ohren 👂 und ins Hirn 🧠“, in dem wir über mehr als nur technische Themen sprechen. Wir teilen unsere Erfahrungen mit Gästen oder auch allein in Episoden, die Organisationen helfen können, technischer, ethischer und empathischer zu arbeiten.
Antonia Bader: Kannst du uns durch deinen beruflichen Werdegang führen, wo hast du angefangen? Was hat dich dazu inspiriert, dich mit KI zu beschäftigen? Und wie haben diese vielfältigen Erfahrungen deinen heutigen Weg beeinflusst?
Falko Werner: Ganz am Anfang meines Berufslebens habe ich als Zeitungsjunge gearbeitet, ich war gern draußen. Aber meine wirkliche Berufserfahrung entwickelte sich in Richtung IT. Ich habe Ingenieurinformatik studiert, also sowohl den Informatikteil als auch die Anwendung in Bereichen wie Ingenieurwesen und Produktion. In dieser Zeit habe ich meine Masterarbeit zu einem Thema im Bereich KI im Kontext des Katastrophenmanagements geschrieben, Anfang der 2000er Jahre. In unserer Region gab es damals ernste Probleme mit Hochwasser, und es wurde versucht, KI-Technologien zu nutzen, um verschiedene Datenquellen zu normalisieren und zusammenzuführen, um bessere Entscheidungen treffen zu können.
Die damaligen KI-Methoden unterscheiden sich natürlich stark von denen heute. In der Zwischenzeit wurde mir klar, wie wichtig es ist zu verstehen, wie Menschen zusammenarbeiten, inspiriert durch den Notfallmanagement-Fall, aber auch durch meine Arbeit in verschiedenen Organisationen. 2022, als GenAI für Organisationen an Bedeutung gewann, habe ich den KI-Bereich wieder aufgegriffen und begonnen, Menschen nicht nur technisch, sondern auch hinsichtlich KI-Use-Cases zu schulen. Das reicht von Entwickler:innen über den Betrieb bis hin zum Management. Menschen und Technologie treffen sich immer irgendwann, und es ist entscheidend, menschliches Verständnis mit technischen Arbeitsweisen zu verbinden.
Antonia Bader: Ist das deine erste Erfahrung in einer Lehr- oder Coachingposition?
Falko Werner: Direkt nach dem Studium war ich wissenschaftlicher Mitarbeiter am Lehrstuhl für Materialflüsse und Logistik an der Uni Magdeburg, wo ich meinen Master gemacht habe. Ich habe damals sogar begonnen, an einer Doktorarbeit zu arbeiten und habe Lehrveranstaltungen auf Universitätsebene unterstützt. Nach einiger Zeit in IT- und Entwicklungsprojekten habe ich Organisationen geschult: wie man besser entwickelt, wie man gut in agilen Teams arbeitet und wie man Technik und Mensch zusammenbringt.
Dieser Weg führte mich dann wieder zum Thema Schulung zurück, insbesondere im Bereich KI und IT. Es gab eine Phase, in der die DevOps-Community viele neue Tools und Technologien hervorgebracht hat, und ähnlich ist es jetzt auch mit KI. Da gibt es definitiv ein Muster.
Antonia Bader: Kommen wir zu den Hauptthemen. Ich möchte mit Verantwortung anfangen. Wie beeinflusst KI deiner Erfahrung nach die Verantwortungsverteilung in DevOps? Wer ist verantwortlich, wenn ein autonomes System versagt?
Falko Werner: Der, der entschieden hat, dass es eingesetzt wird! Im Kern der aktuellen Transformation kann Verantwortung nicht bei Tools oder Systemen liegen. Sie bleibt beim Menschen, der diese Systeme implementiert hat. Wir sollten nicht in die Falle tappen, ein Blackbox-System zu beschuldigen. Letztlich entscheiden Menschen darüber, wie diese Systeme trainiert, deployed und überwacht werden.
Nur weil etwas automatisiert ist, heißt das nicht, dass es natürlich ist oder dass menschliches Urteilsvermögen überflüssig wäre
– Falko Werner
Praktisch betrachtet muss Verantwortung auf verschiedenen Ebenen definiert werden, um im Arbeitsalltag umsetzbar zu sein: Verantwortung für die Datenlage, für das Systemverhalten und für die Governance. Ich sage oft: Nur weil etwas automatisiert ist, heißt das nicht, dass es natürlich ist oder dass menschliches Urteilsvermögen überflüssig wäre. Hinter jeder Entscheidung steht ein Mensch.
Antonia Bader: Und diese Ebenen, entscheidet da eine Person über alle? Oder sind diese auf mehrere aufgeteilt?
Falko Werner: Das hängt von der Größe der Organisation ab. In größeren Unternehmen spiegelt sich das oft in den Strukturen wider, von Entwicklungsteams über Systemarchitekten bis zur Unternehmensarchitektur. Wenn man sich Frameworks wie SAFe anschaut, entscheiden auf Teamebene die Entwickler:innen über ihre Domains und den Umgang mit Daten. Auf der nächsten Ebene sind dann System- oder Lösungsarchitekt:innen zuständig. Und auf Unternehmensebene eben Enterprise-Architekt:innen.
In einem Zehn-Personen-Startup kann das alles bei einer Person liegen. In einem Unternehmen mit 1.000 Mitarbeitenden ist es aufgeteilt. Deshalb sind gemeinsame Dokumentation, Verständnis und Zusammenarbeit so wichtig. Meine Standardantwort: Es kommt darauf an.
Antonia Bader: Wird sich diese Verantwortung in Zukunft verschieben? Oder bleibt sie immer bei den Personen, die die Systeme einsetzen?
Falko Werner: Ich sehe da schon eine Verschiebung. Die Systeme werden autonomer und damit gehen auch Entscheidungen auf technologische Komponenten über. Auch in meiner Arbeit übernehme ich mittlerweile weniger manuell. Das sehe ich in Organisationen ebenfalls.
Aber es ist wichtig, dass diejenigen, die früher die Entscheidungen getroffen haben, nun die Regeln und Rahmenbedingungen für die Systeme definieren. Zum Beispiel: Guidelines für die Code-Erstellung, Namenskonventionen etc. Diese können als Input für KI-Systeme dienen. Entscheidungen sind dann zwar automatisiert, aber auf Basis menschlich definierter Strukturen.
Antonia Bader: Welche Rolle spielt menschliche Intuition in einer automatisierten Welt?
Falko Werner: Intuition ist im Grunde gesammelte Erfahrung. Sie entsteht im Zusammenspiel von Mensch und Technik, in sogenannten soziotechnischen Systemen. Genau dort wird Intuition aufgebaut. KI-Systeme haben keinen Zugang zu dieser sozialen, menschlichen Ebene. Menschliche Erfahrung umfasst Emotionen, Wahrnehmung, Zusammenarbeit. Das kann KI nicht nachvollziehen. Vor allem mit Gesetzen wie dem EU-AI-Act ist das auch bewusst begrenzt. Diese Teile der menschlichen Erfahrung bleiben KI verwehrt – und das ist auch gut so. KI kann technische Daten in einem Maß verarbeiten, das Menschen überfordert. Aber Intuition ist kondensiertes Erfahrungswissen aus sozialem Handeln. Und das bleibt wichtig.
Antonia Bader: Wie gestalten wir die Zusammenarbeit zwischen Engineer und KI so, dass menschliche Aufsicht Sinn behält?
Falko Werner: Kommt auf den Zeithorizont an. Langfristig werden wir die Notwendigkeit und Möglichkeit menschlicher Kontrolle reduzieren. Kurz- und mittelfristig ist das noch nicht der Fall. KI kann in manchen Bereichen besser sein als Menschen, aber nur in klar abgegrenzten Kontexten.
Aktuell braucht es Menschen, um Kontext zu schaffen: Prompts, Eingaben, Interpretation. Sobald KI mehr Kontext verarbeiten kann als Menschen, reden wir über AGI oder sogar über die sogenannte “Singularity”. Manche sagen, das passiert um 2050 oder früher. Wenn das eintritt, werden wir diese Systeme wohl nicht mehr kontrollieren können. Sie wären zu schnell, zu intelligent. Sicherheitsmechanismen würden zu langsam greifen. Was das genau bedeutet, weiß niemand. Bis dahin sollten wir Systeme so trainieren, dass sie menschliche Bedürfnisse erkennen und respektieren. Und in der Zwischenzeit das Beste aus beiden Welten verbinden: menschliche Empathie und KI-Leistung.
Antonia Bader: Würdest du sagen, dass das Trainieren von KI auf menschliche Bedürfnisse zur Kernaufgabe von Engineers wird, jetzt und in Zukunft?
Falko Werner: Zuerst einmal: Viele Engineers stehen noch am Anfang, wenn es darum geht, wirklich flüssig mit KI-Technologien zu arbeiten. Das gilt besonders für Junior-Entwickler:innen, aber auch für andere Erfahrungsstufen. Ich sehe aktuell viele, die KI-Tools punktuell ausprobieren, aber sie noch nicht als integrierten Bestandteil in ihren End-to-End-Prozessen verwenden.
Engineers müssen mit dem Fortschritt der KI-Schritt halten und ihre Arbeitsweise laufend anpassen.
– Falko Werner
Viele arbeiten noch daran zu verstehen, welche Tools für sie geeignet sind, wie man sie in tägliche Abläufe integriert z.B. in Continuous Delivery Pipelines, in Entwicklungsprozesse. Es ist noch viel Grundlagenarbeit zu leisten. Natürlich gibt es einige, die hier vorangehen, aber die Mehrheit hat das Potenzial von KI noch nicht ausgeschöpft. Dazu kommt: Man muss auch die Grenzen der Technologie verstehen und beobachten, wie sie sich weiterentwickelt. Engineers müssen mit dem Fortschritt der KI-Schritt halten und ihre Arbeitsweise laufend anpassen.
In echten DevOps-Umgebungen geht es sogar noch weiter. Unternehmen können sich nicht allein auf externe KI-Anbieter verlassen. Sie müssen eigene Inhouse-Plattformen aufbauen, das nennt man Plattform Engineering, um ihre eigenen KI-Fähigkeiten zu hosten. Dazu gehört nicht nur die Nutzung, sondern auch das Training von KI-Modellen auf internen Datenquellen. Und hier kommt eine weitere wichtige Dimension hinzu: das Erkennen und Minimieren von Verzerrungen (Bias) in den Trainingsdaten. All das (Integration, Training, Bewusstsein für Verzerrungen) wird die nächsten fünf Jahre in vielen Organisationen prägen. Es gibt viel zu tun, bis KI wirklich in Geschäftsprozesse eingebettet ist und nicht nur als Tool daneben steht.
Antonia Bader: Du hast erwähnt, dass viele Engineers noch keine KI-Tools nutzen. Liegt das deiner Meinung nach an fehlendem Wissen oder an Widerstand?
Falko Werner: Meiner Erfahrung nach liegt das selten am Widerstand einzelner. Es ist eher ein systemisches Thema, gerade in großen Organisationen. Je größer die Firma, desto langsamer ist oft die technologische Adaption. Oft sind Tools und Prozesse so verfestigt, dass KI-Einführung schwierig wird. Organisationen müssen ihre Entwickler:innen schulen und zwar nicht nur in der Nutzung von Tools, sondern auch im Verstehen der Auswirkungen. Und genau da hakt es bei vielen.
Ich arbeite mit mehreren Trainingsanbietern zusammen, die Großunternehmen betreuen. Ich habe viele Trainingskonzepte für unterschiedliche Abteilungen entwickelt, zu KI-Prozessen, Use Cases, theoretischen Grundlagen. Die Nachfrage ist aber bisher eher verhalten. Die meisten Organisationen beginnen mit einer sehr begrenzten Sichtweise darauf, welche KI-Tools intern erlaubt sind. Spannend ist: Diejenigen, die KI proaktiv lernen, tun das oft aus eigener Motivation. Sie werden nicht von ihren Unternehmen unterstützt, manchmal bewegen sie sich sogar außerhalb bestehender Richtlinien, einfach, weil es noch keine gibt. Es gibt also einige Vorreiter:innen, aber die Organisationen als Ganzes hinken hinterher. Der nächste notwendige Schritt ist: KI nicht nur auf Tool-Ebene zu integrieren, sondern in die zentralen Geschäftsprozesse wie Entwicklung, Betrieb, HR, Legal. Dort passiert die eigentliche Transformation.
Antonia Bader: Du hast Bias und Limitationen erwähnt. Wie gehst du im DevOps-Alltag mit diesen Risiken um?
Falko Werner: Bias ist Teil menschlicher wie maschineller Kognition. Neuronale Netze, ob im Gehirn oder in der KI, sind anfällig für Verzerrungen. Dazu kommt: KI wird mit realen Daten trainiert, und die sind naturgemäß fehlerhaft. Die einzige Lösung ist, die Ausgaben von KI-Systemen zu verstehen und sie mit den Trainingsdaten in Beziehung zu setzen. Entscheidungsprozesse müssen transparent und nachvollziehbar sein. Man muss KI-Systeme als lebendige Systeme betrachten, die sich weiterentwickeln. Bias-Reduktion ist kein Haken, den man einmal setzt. Es ist ein iterativer Prozess, der dauerhaft Teil der Entwicklung sein muss.
Antonia Bader: Gab es schon ethische Dilemmata in deiner Arbeit mit KI-gesteuerter Automatisierung?
Falko Werner: Ja, definitiv. Oft geht es darum, für wen man eigentlich entwickelt. Wenn man ein Produkt entwickelt, kennt man die Zielgruppe, den Mehrwert. Aber im Prozess kommen viele Akteure ins Spiel: Entwickler:innen, Business-Analyst:innen, Product Owner. Je größer die Organisation, desto mehr Schichten liegen zwischen Entwicklung und Endnutzenden. Da entsteht ein Dilemma: Optimiert man die internen Abläufe oder den Nutzen für die Endnutzer:innen? Manchmal ist es besser, eine niedrigere Produktivität in Kauf zu nehmen, um ein wertvolleres Produkt zu liefern, auch wenn das für Entwickler:innen und Product Owner anstrengender ist. Ich habe das in mehreren Organisationen erlebt.
Antonia Bader: Gab es einen Moment, in dem dich KI, positiv oder negativ, in einem Live-System überrascht hat?
Falko Werner: Ja, zum Beispiel während meiner Masterarbeit zur Notfallplanung. Ich entwickelte eine Datenintegration, aber das Inferenzsystem brachte nicht die erwarteten Ergebnisse. Ich musste die Ontologie deutlich erweitern, das war eher frustrierend. Andererseits haben mich aktuelle GenAI-Tools sehr positiv überrascht, ChatGPT, Gemini, u. a. Bei Marktanalysen oder Kundenbedürfnissen genügen oft ein paar gut strukturierte Prompts und ich bekomme beeindruckende Ergebnisse. Selbst bei wenig Input ist die Qualität der Ausgaben hoch. Auch für Präsentationen, Webinare oder Bilder gibt es spezialisierte Tools. Dinge, die früher eine Woche gedauert haben, erledige ich heute in Minuten. Die Ergebnisse sind nicht perfekt, aber sehr gut. Und der Bedarf an komplexem Prompting sinkt stetig. Das ist enorm leistungsstark.
Antonia Bader: Zum Abschluss: Was rätst du DevOps-Engineers, die Angst haben, von KI ersetzt zu werden?
Falko Werner: Lern und versteh. Nicht nur die KI selbst, sondern auch die Systeme, in denen sie eingesetzt wird. Versteh deine Nutzer:innen. Versteh den geschäftlichen Bedarf. So kannst du KI sinnvoll einsetzen und Prozesse verbessern. Wenn du das kannst, bist du langfristig gut aufgestellt. Das ist nicht der einfache Weg, darum gehen ihn viele nicht. Aber er ist wertvoll. Versteh also beide Seiten: den Menschen, der das System nutzt und das System selbst.
Antonia Bader: Das ist ein guter Rat für alle, die Angst vor Jobverlust haben.
Falko Werner: Ich höre oft: „Ich habe Angst, durch KI ersetzt zu werden.“ Aber ich sage immer: “Wenn du Angst haben möchtest, dann nicht von KI ersetzt zu werden. Sondern eher, von jemandem, der:die besser mit KI umgehen kann als du.”
Wenn du Angst haben möchtest, dann nicht von KI ersetzt zu werden. Sondern eher, von jemandem, der:die besser mit KI umgehen kann als du.
– Falko Werner
Zwischen Bias, Verantwortung und Prompt Engineering, Falko zeigt, dass KI nicht das Ende menschlicher Entscheidungsfähigkeit bedeutet, sondern ihre Weiterentwicklung. Wer heute in Tech arbeitet, muss lernen, wie Systeme denken und wann man ihnen widersprechen sollte.
Diese Website verwendet Cookies, um Ihnen das bestmögliche Nutzungserlebnis zu bieten. Durch die weitere Nutzung der Website stimmen Sie der Verwendung von Cookies zu.