programmier.bar – der Podcast für App- und Webentwicklung

News 20/26: Mythos // Junie // AI-Week

programmier.bar Season 7 Episode 39

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 41:01

Wie hat dir die Folge gefallen?
Gut 👍
Schlecht 👎
(Keine Anmeldung erforderlich)


Aufruf: Wir suchen Dozent:innen oder Uni-Angehörige, die mit uns über die Zukunft der Informatikausbildung in Zeiten von KI sprechen möchten. Wenn ihr jemanden kennt oder selbst dazugehört, schreibt uns eine E-Mail an podcast@programmier.bar!

Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video.

Möchtet ihr auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar

Nachdem die ersten Fachleute das neue Mythos Model von Anthropic testen konnten, zeigt sich ein differenziertes Bild: Mythos glänzt zwar beim Finden komplexer Exploit-Ketten, doch im direkten Benchmark mit GPT-5.5 scheint das Rennen knapper zu sein als gedacht. Besonders beeindruckend ist der Einblick der Firefox-Engineers, die beschreiben, wie sie Mythos in ein eigenes Harness integriert haben. 

Wer gerne am Bleeding Edge der Entwicklung unterwegs ist, sollte sich Junie CLI von JetBrains anschauen. Jan hat sich mit dem Team unterhalten und erfahren, dass neue Agent-Features dort oft zuerst landen, bevor sie den Weg in die grafische Oberfläche der IDEs finden. Das CLI dient als Testumgebung für neue Skills und bietet eine direktere Interaktion mit dem Coding-Agenten.

Außerdem geben wir euch einen exklusiven Einblick in die vierte AI-Week bei Lotum. Wir haben das Tagesgeschäft pausiert, um uns voll auf KI-Tools zu konzentrieren. Dennis erklärt, warum und wie wir eine solche AI-Week abhalten und was sich für unsere Teams daraus ergibt.

Zum Abschluss haben wir noch einen Tipp für Geschichtsinteressierte: Die neue CultRepo-Dokumentation über Spring und Java beleuchtet die Geschichte und Menschen hinter dem Framework, das unsere heutige Entwicklungswelt maßgeblich geprägt hat.


Schreibt uns!
Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar

Folgt uns!
Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen.

Bluesky
Instagram
LinkedIn
Meetup
YouTube

SPEAKER_00

Hallo und herzlich willkommen zu einer neuen News-Ausgabe der Programmierbar. Heute in Kalenderwoche 20 2026 und heute in einer sehr, fast hätte ich kleinen gesagt, aber in einer sehr effizienten Besetzung, vielleicht heute im Studio. Für euch hier vorm Mikro wie immer einmal der Jan und mir gegenüber im virtuellen Studio sitzt der. Dennis Becker, hallo. Moin Moin Dennis, ja, Dave.

SPEAKER_01

Wann hast du eigentlich aufgehört, deinen Nachnamen zu nennen? Das fühlt man sich immer so komisch. Du hast das einfach ohne Absprache bist du wieder auf deinen Vornamen gesprungen.

SPEAKER_00

Ich hab, also ich hab das, glaube ich, zweimal gemacht, das kam mir komisch vor und dann dachte ich, ich mach das nicht. Ihr habt alle so kurze Namen. Bei euch klingt das halt, weißt du, wenn eine Garelt Mock oder das klingt halt so prägnant, aber wenn du halt zwei Vornamen und zwei Nachnamen hast, hast du der halbe Podcast rum, bis ich fertig bin. Okay. Sehr gut. Das ist irgendwie, ja, weiß nicht. Also, na gut. Wenn da draußen die Leute wissen wollen, wie ich heiße, sie können mich gerne fragen. Sie können es gerne auf der Webseite nachlesen. Oder wenn sie finden, ich sollte das jedes Mal sagen, können Sie mir gerne böse E-Mails schreiben und vielleicht passen wir das dann noch an. Aber wenn du schon das Spotlight so auf mich gerichtet hast, weißt du, warum das heute eine besondere Folge für mich ist?

SPEAKER_01

Nein.

SPEAKER_00

Es ist die x-Folge für dich. Nah dran, ich gebe dir so eine Chance. Du hast Jahresjubiläum. Das nein. Es ist so, dass ich quasi die Hälfte der Programmierbarfolgen jetzt miterlebt habe. Also miterlebt ist es in deiner Zeit entstanden oder du warst. Also ich war ja natürlich nicht in der Hälfte der Folgen dabei. Das wäre, glaube ich, ein bisschen krass noch. Aber zumindest habe ich die Hälfte der Programmierbarfolgen miterlebt und den Prozess dahinter begleitet und so. Und das hat mich so ein bisschen überrascht. Ich habe das neulich irgendwas anderem nachgeguckt, weil die Programmierbar ist ja schon ein paar Jährchen älter. Und dass wir es quasi geschafft haben, aber in den letzten zweieinhalb, bald drei Jahren quasi die Hälfte der Folgen aus den gesamten acht Jahren und ein paar zerquetschten irgendwie zu produzieren, das war ich schon cool. Ja. Anyway, wir wollen ja eigentlich nicht hier über mich reden, sondern reden wir über dich, Dennis. Weil ich bin ja nicht da am 21., aber du bist da und am 21. Mai passiert was in Bad Nauheim? Das beste Meetup aller Zeiten. So wie jedes Mal eigentlich.

SPEAKER_01

Wie jedes Mal hat wieder. Lädt wieder ein. Ja, kommt gerne vorbei zum World Accessibility Day, den wir auch in der Programmierbar ein Thema widmen. Und zwar wird Rolden uns etwas erzählen. Jetzt erwischen wir uns natürlich um Kaltfuß, dass ich den genauen Titel nicht auf dem Schirm habe, aber den kannst du bestimmt jetzt nachreichen.

SPEAKER_00

Titel ist, glaube ich, auch an der Stelle zweitrangig. Es geht um Accessibility, es geht darum, wie man das selber anwendet, es geht darum, dass es in bestehenden Anwendungen auch nicht immer so ein Problem ist. Und so wie er mir den Talk gepitcht hat, wird es, glaube ich, auch einfach super lustig. Also ich glaube, manchmal haben die Leute so ein bisschen Sorge vor so einem vielleicht etwas trockenen Thema, aber er hat da ein echt cooles Format gefunden und ich. Es tut mir leid, dass ich da bin, aber ich bin gespannt, was ihr erzählt.

SPEAKER_01

Ja, ob es dann so. Nein, ich will nicht zu viel teasern. Okay, ja, lassen wir es, aber ich habe nämlich auch mit ihm kurz gesprochen. Ja, nächsten Donnerstag, wie immer, Getränke und Essen for free. Und kommt gerne vorbei, wenn ihr im Rhein-Main-Gebiet sitzt. Wunderbar.

SPEAKER_00

Und damit stützen wir uns direkt in die Themen, die wir gar nicht aufgeführt haben, weil wir direkt an Namen aufgehängt haben.

SPEAKER_01

Sorry.

SPEAKER_00

Aber wir wollen heute einmal sprechen über Entropic und Mythos, was es da seit dem letzten Update so gab. Und wir sprechen ein bisschen über AI und Development allgemein, aber da verraten wir vielleicht noch nicht so viel dazu. Ich habe mich ein bisschen eingelesen. Ihr hattet ja in den letzten oder vorletzten, vorletzten Eindruck, das müsste es glaube ich schon gewesen sein, auch über Mythos gesprochen. Und da war es, glaube ich, noch relativ neu und diese Ankündigung, so, naja, wir halten das für so ein sehr potentes Modell und wir quasi machen es erstmal einer sehr kleinen Gruppe von Firmenentwicklerinnen, wie auch immer, zugänglich, weil das halt auch in den falschen Händen viel Schaden anrichten kann. So, und seitdem haben natürlich ein paar von diesen Leuten, die das Privileg hatten, damit arbeiten zu können zu dürfen, so ihre Erfahrungen geteilt und ihre Einschätzungen und das ist, glaube ich, das viel Interessantere, weil ihr habt ja auch in der Folge so ein bisschen darüber diskutiert, wie viel Marketing und Hype das halt am Ende so ist, dieses Vorgehen, das nur so ein paar Leute zu geben und so weiter, oder wie berechtigt das am Ende dann war. Und vielleicht, was sich gezeigt hat, ist, also es ist schon deutlich, deutlich besser als das, was so vorher da war. Das ist, glaube ich, so schon der Tenor von all den Blogbeiträgen und Essays, die ich darüber gefunden habe. Alle Leute, die das probiert haben, gesagt, ja, es ist schon cooler, weil es a weniger falsch-positive Treffer liefert und weil es B quasi schafft, längere Exploits zu finden. Also Exploits zu finden, die quasi nur funktionieren, weil du mehrere hintereinander hängst und nicht einfach nur, weil du jetzt eine Stelle im Code identifiziert hast, wo ein Overflow-Error drin ist oder ein Escape hier oder sowas da, sondern halt schafft, okay, zu sagen, okay, wenn du diese fünf Sachen hintereinander hängst, dann weiß ich nicht, hast du auf einmal Root Access oder sowas. Was allerdings auch rausgekommen ist, nachdem ja mittlerweile auch GPT-5.5 veröffentlicht wurde, ist, dass die Leute, die das so ein bisschen gebenchmarkt haben, gesagt haben, naja, auch GPT-5.5 ist ähnlich gut darin, diese Art von Exploits zu finden und diese Art von falsch-positiven Treffern eben auszuschließen. Und das lässt halt am Ende auch so ein bisschen an dieser ganzen Marketing-Nummer von Entropic zweifeln, weil der ganze Hype um Mythos vielleicht gar nicht darin begründet ist, dass es als Modell jetzt so bahnbrechend anders ist, sondern dass einfach der allgemeine Model-Fortschritt, der halt eben auch in GPT-5-5 ist, ne, mit länger unsupervised laufen zu lassen, irgendwie akkurater mit dem Kontextfenster umzugehen und sowas alles, dass das halt einfach maßgeblich dazu beiträgt, auch eben in diesem Security-Bereich besser zu sein. Von daher schauen wir mal. Es gab einen Beitrag von so einem britischen Security-Institut, die tatsächlich Mythos und GPT-55 gegeneinander gebenchmarkt haben und da quasi zu einem, ja, ich sag mal, zu einem Unentschieden gekommen sind. Das eine war in manchen Sachen besser als andere in anderen, aber es war jetzt keiner irgendwie bahnbrechend weiter als der andere. Das verlinken wir auch mal hier in den Shownotes, kann man sich mal anschauen. Und es gab einen sehr interessanten Artikel von Firefox-Engineer, der so ein bisschen beschrieben hat, wie sie das denn genutzt haben und zum einen mal gesagt hat, na gut, das hat uns geholfen, mega viele irgendwie Security-Lücken zu schließen und auch gar nicht so dieses Problem gehabt von, ja, wir hatten da glaube ich vor einem Jahr oder so mal drüber gesprochen, dieser ganze AI-Slot-Pull-Requests, die so über Open Source-Projekte irgendwie herfallen, weil Leute halt glauben, irgendwie einen Pull-Request aufmachen zu müssen für irgendwas, was ihr Model ihnen gesagt hat, was da jetzt passieren muss, sondern auch da die falsch-positiven Treffer halt deutlich, deutlich reduzierter waren, sodass insgesamt die Nutzung von dem Model halt skalierbarer war. Also es hilft ihnen ja nichts, wenn sie jetzt mit Mythos irgendwie 500 Pull-Requests bekommen, die Hälfte davon wegschmeißen müssen, weil sie nichts taugen und so weiter. Das war schon ganz cool. Und was er aber auch beschrieben hat, war so, dass das Harness, was sie halt drumherum aufgesetzt haben und ehrlicherweise auch schon vorher aufgesetzt hatten. Und das ist, glaube ich, das Entscheidende, weil die Leute irgendwie da draußen immer nur so denken, ah, Mythos irgendwie als Modell und ich setze das irgendwie auf meinem Projekt an und auf einmal finde ich da super viele Schwachstellen oder kann super viele Schwachstellen gleich schließen, weil sie die Patches mitliefern. Und er beschreibt im Prinzip in dem Blogpost, den wir auch nochmal verlinken, so, wie sieht dieser CICD-Prozess bei denen eigentlich aus. Wie nutzen sie tatsächlich mehrere unterschiedliche Modelle, um das eine zu nutzen, um die Schwachstellen zu finden, das andere, um die Schwachstelle und den Fix eben validieren zu lassen dafür. Und wenn die Validierung fehlt schlägt, dann verwerfen sie das wieder, wie machen sie die Einschätzung und die Priorisierung, die Triage von diesen ganzen Pull-Requests, die da rausfallen. Und wie haben sie dieses neue Requirement eben umgesetzt, dass Mythos nicht nur eine Schwachstelle liefern muss, sondern auch gleichzeitig den Proof of Concept dafür mitliefern muss. Also zu jeder Schwachstelle, die es findet, muss es quasi einen funktionierenden Exploit mitliefern. Ansonsten sagen sie halt, es ist halt so ein theoretischer Fix, der bestimmt irgendwie einen Wert hat, aber für sie halt nicht Priorität hat. Und das fand ich eigentlich ganz cool. Sie haben so ein bisschen beschrieben, wie sie dieses Harness drumherum halt eigentlich schon aufgesetzt hatten, weil sie das genommen haben, um auch mit GPT-4 schon zu experimentieren und sowas. Und das jetzt eben der Teil, das Zahnrad in dieser ganzen Maschine war, was sie ihnen erlaubt hat, Mrs. halt wirklich effizient einzusetzen. Und das fand ich ein cooles Beispiel, um zu sagen, das Model ist wichtig und das liefert eine wichtige Capability, aber du musst dir halt für dein Projekt schon so sehr gezielt Gedanken darum machen, was ist halt dein Harness, was verlangst du davon, wo legst du so das Benchmark an, wie funktionieren deine Guardrails, weil nur dann kannst du halt wirklich viel damit machen. Und er meinte halt auch, jetzt haben sie halt ein Setup, was so gut funktioniert, dass sie halt im Prinzip in der Lage sind, jedes andere Modell da drauf zu werfen und sie machen das auch regelmäßig und dann halt eben zu verstehen, okay, liefert jetzt, weiß nicht, ne, in Zukunft ein GPT-5, 6 bessere Ergebnisse als ein Mythos und dann können sie es halt relativ einfach austauschen, aber am Ende ist für sie halt das Harness mit das Entscheidende, damit die ganze Sache funktionieren kann. Das fand ich irgendwie ganz cool.

SPEAKER_01

Ja. Aber ich meine am Ende ja trotzdem beeindruckend, ich glaube, das hast du, diesen Graphen hast du eben nicht erwähnt, oder? In dieser Anzahl von Dingen, die so Fix haben.

SPEAKER_00

Also sie haben so ein bisschen aufgezeigt, wie viele Fixes und Lücken finden sie so damit. Und das waren so in den vergangenen Monaten vorher, weiß nicht, so 20, 30 pro Monat irgendwie. Und jetzt ist es halt damit irgendwie auf über 400 explodiert, von denen sie ungefähr 300, glaube ich, diesen Mythos-Setup irgendwie zuschreiben, was sie wohl gefunden haben. Ja, also wie gesagt, es scheint ja zu funktionieren.

SPEAKER_01

Ja, aber da wundert mich, also so ein bisschen passt das halt nicht so hundertprozentig für mich zusammen. Also diese kritischen oder was heißt kritischen Stimmen, aber die sagen, ja, ist vielleicht gar nicht so doll oder keine Ahnung was und ist Codex 5.5 nicht irgendwie ähnlich. Und dann hast du aber dann einfach im Ergebnis ein sehr populäres Produkt, was dann Mythos-Zugriff hat und halt einfach ein X-faches an Security-Issues und Bugs irgendwie löst und schließt.

SPEAKER_00

Also ich weiß nicht, ob sich das gegenseitig ausschließen muss. Vielleicht könnten sie dasselbe Ergebnis auch mit GPT-5.5 irgendwie liefern. Ich glaube, für sie entscheidend war tatsächlich, dass sie ein Harness haben und einen skalierbaren Prozess. Und vielleicht haben sie Mythos zum Anstoß genommen, das halt mal alles so aufzusetzen und ordentlicher zu machen. Ich glaube nicht, dass du, wenn du dir diesen Chart anguckst, von 20 auf 100 hochgehend, weiß ich nicht, wenn wir jetzt einfach nur Mythos an unsere Spiele dran lassen würden, ja, per se würde das nicht so viel finden. Du brauchst schon das Setup so drumherum, was dir hilft, so das zu finden, das zu validieren, das zu kategorisieren, das ist schon auch wichtig.

SPEAKER_01

In der Menge und in der Effizienz dann auf jeden Fall, ja. Aber ich glaube schon, dass da noch gewisse, dass da ein bisschen mehr Power drin ist als in den anderen Modellen, die wir bis jetzt auf dem Markt frei verfügbar haben.

SPEAKER_00

Ja, und also an der Stelle, ohne da jetzt wieder ganz tief reinzugehen, sei auch nochmal an diesen Vergleich von diesem britischen Security-Institut verwiesen, der halt auch so ein bisschen beschrieben haben, was mussten sie halt mit Mythos und was mussten sie mit GPT-5.5 machen, um sie halt so dahin zu kriegen. Und da ist schon mit 5.5 musst du ein bisschen mehr noch tun, weil es halt nicht so feintuned ist. Aber es gab ja auch, oh, das weißt du wahrscheinlich besser als ich, es gab zumindest von GPT-5.4 ja auch mal so ein Security-Feintuned-Variante. Ich weiß gar nicht, ob es die von 5.5 auch gibt, aber vielleicht wäre das dann der passendere Vergleich am Ende des Tages zu sagen, so ein ähnliches Security fein getuntes Modell.

SPEAKER_01

Soweit ich weiß, ist Methodis ja gar nicht auf den Security-Bereich gefeintuned oder irgendwie darauf gemacht. Es ist eher, es ist allgemein capable und dadurch kann es auch die Security-Lücken lösen. Also ich glaube gar nicht, dass es so diesen Fokus hat. Es ist eher so, es ist sehr capable und da ist das, wo wir das Problem sehen, dass es so capable ist, ist der Bereich Security und deswegen machen wir Marketing drumherum.

SPEAKER_00

Ja. Was natürlich auch nirgendwo erwähnt wird, weil das wahrscheinlich auch einfach nicht Teil der Diskussion ist, was diese ganzen Firmen mit Entropic irgendwie haben, oder zumindest nicht Teil der öffentlichen Diskussion ist, was kostet das halt am Ende des Tages? Also, um das so in Relation zu setzen, wie viel mehr musst du ausgeben, um dieses Mehr an Leistungen zu bekommen? Und ist das wirklich eine lineare Skalierung oder ist es halt exponentiell und deshalb vielleicht auch gar nicht rentabel im Einsatz, außer halt Security, wo du im Prinzip keinen Preis dran machen kannst.

SPEAKER_01

Ja, und andererseits kannst du sagen, ist das irgendwie alternativlos für die großen Anbieter, sich da zu wappmen.

SPEAKER_00

Das meine ich ja, genau, weil Security halt keinen Preis hat. Du musst halt um jeden Preis in Anführungszeichen verhindern, dass du quasi Opfer von so einem Exploit wirst und dann ist es in Anführungszeichen egal, dass Mythos in der Anwendung irgendwie zehnmal so viel kostet, als vielleicht jetzt ein Cloud oder sowas, weil du halt nur dann diese Ergebnisse irgendwie bekommen kannst. In Anführungszeichen, weil man vielleicht noch schauen muss, wie das sich mit GPT verhält oder so. Aber ja, das ist vielleicht einfach Teil des Modells da.

SPEAKER_01

Ja, und ich kenne jetzt tatsächlich überhaupt gar nicht so die Finanzierung hinter Projekten wie Firefox oder anderen Browsern, aber irgendwie kann ich mir nicht vorstellen, dass so ein Kostenfaktor, selbst wenn es ein X-Faches wäre und wenn das 100.000 kostet oder von mir aus auf 500.000, dass das irgendwie ein relevanter Faktor ist am Ende.

SPEAKER_00

Ja. Oder vielleicht geben sie sogar das für Open Source-Projekte günstiger umsonst, wie auch immer, raus. Who knows? Wenn ihr wisst, wie Entropic Geld mit Mythos verdient oder ob sie damit Geld verdienen, lasst es uns gerne wissen. Ich glaube nicht. Cool. Ich habe ja schon am Anfang gesagt, das ist eine sehr AI-lastige Folge. Und bevor ich den Dennis erzählen lasse, was wir gerade so mit AI machen, habe ich noch ein anderes kleines Thema, was da vielleicht reinpasst. Wir haben ja vor kurzem auch zumindest die Folge darüber aufgenommen, wie ich auf der Google Cloud Next war. Und haben da so ein bisschen drüber gesprochen, die kommt ja auch bald raus. Ein kleines Titrit, was wir in der Folge nicht so erwähnt haben, aber was ich trotzdem interessant fand, war, ich habe länger mit den Jetbrains, Jungs und Mädels, gequatscht. Ich glaube, es waren nur Jungs. Und haben über Juni gesprochen. Juny ist ja so deren Coding-Agent und hat jetzt auch so ein CLI-Tool bekommen, wie Cloud Code und Codex und Gemini CLI und hast alles nicht gesehen. Und was sich da ganz interessant fand, was mir nicht so bewusst war, ist, dass alles, was JetBrains aktuell gerade so an AI-Agent Capabilities baut, findet sich ja in vielen von ihren Produkten. Also egal ob das jetzt in der IDE ist, in diesen Webservices, die sie gerade aufbauen, da ist ja viel recyceltes Zeug drin quasi, und deswegen macht es ja auch Sinn für sie, dass sie das so bauen, weil sie es an so vielen Stellen verwenden können. Aber sie entwickeln, testen und valuieren das alles in dem Juni CLI-Tool. Das heißt, wenn ihr wirklich mal so Bleeding Edge AI-Agents quasi von JetBrains testen wollt, macht das am allermeisten Sinn, Juni CLI zu benutzen. Ich will gar nicht sagen, dass Juni CLI besser ist als die anderen, aber jetzt nur im JetBrain-Space gesprochen, ist man quasi an der Stelle noch am weitesten vorne mit dabei, weil sie sagen, naja, es ist halt am einfachsten da reinzukriegen. Du brauchst nicht viel UI drumherum, du brauchst nicht viel Server-Client-Kommunikation, und deshalb testen sie das im Prinzip alles da. Und am meisten davon natürlich da in dem Juni Early Access Preview. Also wenn ihr euch das nochmal anschauen wollt, ich habe das bei mir jetzt auch nochmal installiert und das macht schon einen Unterschied nochmal zu dem AI-Agent, den man jetzt so in den anderen JetBrains-IDs vielleicht auch findet. War mir nicht so bewusst, fand ich super interessant, fand ich auch super interessant, wie wir so ein bisschen über die Entwicklungsarbeit da gesprochen haben, vielleicht an der an der anderen Stelle da nochmal mehr zu. Aber wenn ihr euch auch gerade wieder ein bisschen mehr mit Coding-Agents beschäftigt und vielleicht da gerade rum evaluiert und probiert, schaut euch das vielleicht nochmal an.

SPEAKER_01

Zumindest wenn ihr so nostalgisch seid wie Jan und nicht ablassen wollt von dem euren Altlasten rund um Jetbrains.

SPEAKER_00

Aber Moment, du bist doch so ein Konduktor-Mensch, oder? Du machst das doch alles mittlerweile da drin. Und ist das hart, hängt es hart an Claude Code oder kannst du da jedes CLI-Dingsbums mit benutzen?

SPEAKER_01

Du kannst nicht jedes CLI-Dingsbums mitbenutzen, du kannst aktuell Codex und Claude nutzen.

SPEAKER_00

Weil er die APIs von denen direkt benutzt oder benutzt er schon das CLI-Tool im Hintergrund irgendwie, um das alles auszuführen?

SPEAKER_01

Nee, ich glaube eher, weil er die Subscription nutzt. Ah, okay.

SPEAKER_00

Weil sonst hätte ich gedacht, wäre ja so dieses ganze Multitasking, was du mit Conductor irgendwie machst, wäre ja auch irgendwie cool, das mit mehreren unterschiedlichen Agents vielleicht mal so zu versuchen, weißt du? Und dann so ein bisschen ein Vergleichsgefühl dafür zu bekommen. Das ist ja das, wo ich ehrlicherweise immer so ein bisschen drüber stolper, egal ob ich jetzt mal Juni oder Gemini oder was anderes halt wieder benutzt. Man hat ja nicht so den eins zu eins parallelen Vergleich zwischen diesen zwei Tools. Man benutzt für die eine Aufgabe das und für die andere Aufgabe das und dann weiß man aber nie, lag es an der Aufgabe oder lag es an dem Agent oder also ich meine, ich habe schon häufiger mal den gleichen Prompt und das gleiche Ding, das an unterschiedliche Clies oder was auch immer geschmissen und geguckt, was mir da besser gefällt.

SPEAKER_01

Aber ist natürlich auch trotzdem nicht so richtig vergleichbar, weil du dann wieder sagen kannst, ja, Modell XY braucht ein bisschen andere Prompts und Inputs und detaillierter und weniger detailliert. Und trotzdem entspricht dir dann vielleicht mehr deiner Arbeitsweise oder deiner Art, wie du redest, kommunizierst, was auch immer. Kann ja auch einfach dann sein, dass das ein Match ist, der besser passt.

SPEAKER_00

Ja, da haben wir auch drüber gesprochen, als wir mir da so ein bisschen Juni nochmal schmackhaft machen wollten, weil ich auch, es entsteht so ein gewisser, also ja eigentlich kein Vendorlogin, weil du bist ja in keinster Weise daran gezwungen, aber man lernt ja so ein bisschen auch schon dieses Prompten. Und ich habe jetzt auch so das Gefühl, wenn ich mit Claude rede, fühlt es sich am Anführungszeichen natürlichsten an. Aber ich habe keine Ahnung, ob es daran liegt, weil Claude mich so gut versteht oder weil ich es so gut gelernt habe, quasi mit Claude zu reden. Schwieriger Punkt. Aber speaking of reden, du hast ganz viel mit deinem Agent geredet, und zwar im wahrsten Sinne des Wortes geredet. Wie kam es dazu und worüber hast du mit ihm geredet?

SPEAKER_01

Ich rede die ganze Zeit mit meinen Agents. Ich bin mir gerade unsicher, auf was du hinaus willst. Willst du darüber hinaus, dass wir reden jetzt mittlerweile und Whisper Flow nutzen oder möchtest du darüber hinaus, was wir gerade bei Lotum machen? Oder beides?

SPEAKER_00

Beides. Ich dachte, das wäre ein guter Opener für beides.

SPEAKER_01

Ja, wir haben uns heute überlegt, weil wir gerade mittendrin stecken bei Lotum, nämlich in unserer vierten AI-Week, dass wir einfach mal kurz darüber ein bisschen plaudern, um euch abzuholen oder mitzunehmen, wie das bei uns, wie wir das bei uns handeln, wie wir versuchen, AI weiter in unseren Alltag zu integrieren und da möglichst mit den neuesten Trends mithalten zu können. Und einer dieser Trends, die uns im Moment ein bisschen einholt und auch natürlich ein bisschen Gewöhnung und irgendwie Umgang braucht, wie das mit vielen der neuen Arbeitsweisen so ist, ist Whisper Flow als Tool, was einfach eine simpel ausgedrückt eine Diktier-App ist, die aber halt einfach in der Qualität so ist, dass sie dich versteht. Und Punkt. Also es gibt eigentlich nicht viel, was man darüber noch sagen muss. So einfach alles, was du reinsprichst, kommt so da raus. Es gibt noch zusätzlich dann, dass es automatisch verfeinert werden kann, dass es automatisch sich merkt, in welchem Programm du welche Art von Sprech hast und dann entsprechend noch das so ein bisschen polischt, was du dann da reingesprochen hast, dass das eigentlich auch noch zusätzlich hübsch aussieht. Der Promise ist so ein bisschen, du kannst auch einfach deine Gedanken teilen, du kannst sagen, ach nee, das meinte ich gerade nicht so und dann ersetzt er das so ein bisschen an der Stelle, er kann dann Listen formatieren und so Dinge. Genau. Also von daher das vielleicht erstmals grundsätzliche Empfehlung, kann man wahrscheinlich schon sagen. Es gibt einige hier im Unternehmen, die es sehr hart pushen und so sagen, hey, das ist ein wahnsinniger Effizienzgewinn für sie gewesen.

SPEAKER_00

Ich glaube, Fabi hat das auch schon dreimal in unterschiedlichsten Konstellationen als Pick of the Day in so eine Deep Live-Folge hier reingeschmuggelt. Ja.

SPEAKER_01

Aber ja, also da sind es wirklich Leute, die da hart drauf schwören. Und es bringt natürlich die Challenge mit sich, also es ist halt ein bisschen weird, in sein MacBook reinzulabern so. Es ist nicht gesund zu flüstern über lange Zeiträume. Das heißt, es ist auch besser, seine normale Sprache zu nutzen. Ist es so? Und ja, das war hier auch irgendeine interne Diskussion mit einer Logopädin, die das gesagt hat. Das wusste ich ja nicht. Und ja, von daher ist so ein bisschen die Frage, also man will sich dann irgendwie auch nicht immer in ein Einzelbüro setzen, dann ist das Konzept der Büro- und Zusammenkommenarbeit irgendwie wieder so ein bisschen. Dahin, es fühlt sich erstmal halt weird an, wenn man auch seine Gedanken und sein vielleicht, ja, wie dumm prompte ich dieses Ding jetzt eigentlich gerade. Und es kriegen ja jetzt KollegenInnen mit, die das hören. Das ist so eine gewisse Hemmschwelle, die man vielleicht am Anfang hat. Von daher, ich nutze es auch selbst noch nicht in allen Situationen, aber auf jeden Fall, ja, es kann schon helfen. Was eine der, also neben der Geschwindigkeit der Texteingabe ist für viele das Große so, du kannst halt einfach labern und dieser Mehr Kontext ist halt der, den du in deinem Kopf hast und der ist halt einfach da. Und wenn du es sonst in Text verfasst, dann reduzierst du es auf jeden Fall schon und nimmst irgendwie Dinge raus, die du eigentlich noch in deinem Kopf mit dazu hattest. Und das führt einfach dazu, dass mehr Kontext und mehr deiner Gedanken bei den Agents landen. Genau. Das als kurzen Ausflug zu Whisper Flow, was jetzt durch eine, also ich glaube, wir haben jetzt in dem Team irgendwie 20, 25 Leute, also sind wahrscheinlich schon so die Hälfte der Firma innerhalb weniger Wochen da aufgesprungen auf diesen Zug. Ja, und apropos Aufspringen, wir haben jetzt schon das vierte Mal eine sogenannte AI-Week bei Lotum, wo wir uns einfach komplett das Projekt und Tagesgeschäft pausieren und jeder die Freiheit hat, die ganze Woche lang an AI-Themen zu arbeiten. Und jetzt ist natürlich die Frage, okay, was bedeutet das? Was sind die AI-Themen? Und es gibt sehr wenige Vorgaben, die wir dort machen und wir hatten sehr, sehr unterschiedliche AI-Weeks in der Vergangenheit. Also die haben alle so ein bisschen den Fokus gehabt. Ich glaube, die erste war vor, ich weiß ja nicht, wann die war, ob die vor zwei Jahren vielleicht zuerst war oder so. Die erste war so lange her.

SPEAKER_00

Bevor ich dabei war. Also die muss schon tatsächlich drei Jahre her sein.

SPEAKER_01

Da war es halt so, okay, man hatte die ersten Ideen, es war alles ganz spannend und man hat das irgendwie ausprobiert und ist an ganz vielen Dingen noch irgendwie gescheitert. Die dritte ist gar nicht so lange her, die sind ein paar Monate her. Da war dann so sehr beeindruckend, okay, es geht jetzt richtig viel und vor allen Dingen in allen möglichen Bereichen. Das heißt, wir hatten vorher so der Dev-Bereich hatte eine Cloud-Lizenz und danach hatten wir irgendwie dann 100% hatte hier irgendwie dann Claud am Start und hat sich eigene Tools und Scripts geschrieben. Und das hat halt einfach, also beeindruckend zu sehen für mich, wie viel das nochmal gepusht hat, so einfach im ganzen Unternehmen, obwohl wir vorher schon das Gefühl hatten, wir sind jetzt nicht ganz weit hinten dran und wir sind schon einigermaßen up to date. Aber diese Freiräume einfach nochmal zu haben, sich mit allen möglichen Leuten auszutauschen, zu wissen, die anderen haben gerade auch nichts anderes im Sinn und Kopf, außer dieses Thema ist super hilfreich. Und da sind viele, viele kleine Tools, viele Apps entstanden, teilweise natürlich irgendwie so als Mittel zum Zweck, dass man irgendwie was hat, um mal was auszuprobieren. Und dadurch haben sich natürlich auch ganz neue ganz neue Patterns etabliert. Ich glaube, haben wir hier im Podcast auch noch nie so groß thematisiert. Wir sind in einem Projekt, was wir gerade machen, ein Spiel, was wir neu entwickeln, also kein Bestandsgame. Da sind wir jetzt einen sehr radikalen Weg gegangen vor drei Monaten. Denn in der letzten AI Week hat der Game Lead Lars dort einen Prototypen wie nennt man das jetzt? Ist das noch Agentic Engineering? Nee, das ist dann Vibecoding eher.

SPEAKER_00

Also für ihn ist es ja Vibecoding, weil er hat sich ja gar nicht damit beschäftigt, eigentlich sehr gut.

SPEAKER_01

Genau, also gewipecodet. Und da war so ein bisschen erschreckend, wie schnell das auf einer Qualität war, die sehr ähnlich dem eigentlichen Projekt, was in Unity entwickelt wurde, irgendwie ähnelte, in dann Webtechnik.

SPEAKER_00

Zumindest nach außen hin so.

SPEAKER_01

Für den User. Ja, genau. Ja, intern war es eine Riesen, also es war praktisch eine Datei, irgendwie 3000 Code-Zeilen, so ordentlich kaputt. Aber es hat natürlich trotzdem Diskussionen irgendwie bei uns ausgelöst, okay, wenn das in dieser Zeit geht und wir wollen irgendwelche ersten Sachen testen und irgendwelche Features testen oder sowas, ist das nicht eine Qualität, die ausreicht, um das machen zu können. Und dann gab es viele Gespräche darüber und Abwägungen und am Ende haben wir gesagt, lass uns mal diesen sehr radikalen Weg gehen. Er ist jetzt nicht ganz so radikal, dass wir sagen, okay, wir gucken gar nicht in den Code, aber man muss schon sagen, es ist so, dass uns die Code-Qualität in Anführungsstrichen egal ist. Und Anführungsstrichen bedeutet halt, solange irgendwie das Ding noch mit Agents bedienbar ist. Das heißt, was schon passiert ist, dass dann die Devs, die an dem Projekt dran sind, versucht haben, diesen Prototyp ein bisschen modularer zu machen und einfach so ein bisschen aufzuräumen, zu gucken, dass es eben nutzbar ist. Und am Ende jetzt die Aufgabe haben, okay, wir sorgen dafür, dass durch Tests, durch Guardrails, durch Dinge, die einfach in dem Projekt gegeben sind, wir die Möglichkeit haben, dass jeder an den Dingen rumprompten kann, der in diesem Projektteam ist. Und das ist dann nicht nur der Game Lead, das ist dann, das sind die DesignerInnen, das ist aber auch Content und Sound und natürlich die Dev selbst. Das heißt, alle Gewerke, die wir so vorher dann einzeln hatten, sind jetzt an der echten Codebase und prompten Agents, die dort Änderungen machen. Und bis jetzt fühlt sich das super gut an. Natürlich ähnliche Herausforderungen wie alles in AI. Also das heißt, so ein bisschen Mental Overload und Gefahr, da ein bisschen zu viel zu machen. Ist auf jeden Fall gegeben. Ja, also das war jetzt nochmal ein Exkurs sozusagen in eins der Projekte, um ein konkretes Beispiel sozusagen, okay, das ist entsprungen aus der letzten AI Week. Und ja, da stecken wir jetzt gerade wieder mittendrin. Jan und ich, wir sind beide an einem Prototypen eines Spiels, tatsächlich auch, so zu gucken, okay, das ist AI First gedacht, also was ginge vorher oder was geht vorher nicht, was ist jetzt nur möglich dadurch, dass wir sowas wie Real-Time APIs haben, mit denen man interagieren kann. Und nächste Woche haben wir dann das Recap dazu. Das heißt, da wird man ein bisschen sehen, was überall passiert ist und mit sich halt auch spüren, ja, was das so für ein nächster Schub war. Was diesmal weniger war, in der letzten fand ich auch sehr spannend. In der letzten waren viele so Diskussionen, Diskussionsthemen, die auch angebracht wurden, wo wir über so ein bisschen ethische Seiten von AI, wie wollen wir das irgendwie als Unternehmen, wie wohl fühlen wir uns damit, mit welchen Anbietern, was ist das so ein bisschen? Natürlich auch Ängste, die mit verknüpft sind, was bedeutet das für unsere Rollen, auch über die Rollen gesprochen, was ist das, was bedeutet das für unsere Stellenausschreibung, was bedeutet das für die Profile, die wir haben, also all das, was sich im Moment halt so krass ändert, das irgendwie so ein bisschen zu bündeln und gemeinsam zu erforschen.

SPEAKER_00

Ja, ich glaube, da spielt aber auch rein, dass du selber gesagt hast, die letzte i Week war vor drei oder vier Monaten oder sowas. Und da hat sich ja prinzipiell an dem, was wir da in diesen ganzen Diskussionsrunden angesprochen haben, nicht so viel geändert. Also alles, was man damals an ethischen Bedenken oder Hoffnungen haben konnte, hat man heute, glaube ich, immer noch. Alle Fragen, die sich in Bezug auf Recruiting stellen, sind quasi noch dieselben. In den letzten drei Monaten, ne, nicht, dass viel passiert ist, aber ich glaube, es ist halt viel auf technischer Front passiert und auf, ich sag mal, prinzipieller Front sozusagen hat sich ja jetzt nicht so viel getan, so, ja. Und vielleicht ist es ja auch einfach ein gutes Zeichen, dass wir viel von den Sachen adressiert haben und jetzt nicht so der Need da war, die direkt nochmal rauszuholen, ja, und nochmal irgendwie über Hiring Impact oder sowas zu sprechen. Und es gab ja schon, also ein paar kleinere Diskussionsrunden gab es. Ich war in der mit Benni und Sven und Jens und so, wo wir so ein bisschen über, was sind denn eigentlich AI-First-Spiele-Titel, wie kann das aussehen und gibt es das überhaupt und so, halt so ein bisschen mehr auf Produktebene vielleicht so darüber diskutiert haben. Aber ja, diese Grundsatzdiskussion hatten wir, glaube ich, dieses Mal wenig. Und ich finde das auch okay so.

SPEAKER_01

Okay, ja. Nee, absolut. Aber genau. Und so hat halt jede AI Week, die wir bis jetzt hatten, irgendwie so ihren eigenen Touch, ging irgendwo in eine bestimmte Richtung, hat an verschiedenen Stellen irgendwie Dinge bewirkt. Aber bis jetzt war es immer sehr, sehr, sehr, also es hat den ganzen Unternehmen ordentlichen Schub nochmal verpasst, obwohl wir im Alltag uns schon sehr viel Zeit und Raum geben und nehmen für AI und die Weiterentwicklung. Das ist halt irgendwo, ja, genau.

SPEAKER_00

Wir haben ja vor einiger Zeit schon eine Folge gemacht zu Hackathons und Game Jams und so, was wir ja schon viel früher vor der AI Week gemacht haben. Also die berühmte Folge mit dem Hackfleisch-Cover. Was würdest du denn sagen, ist denn jetzt der Unterschied für dich zu einem Game Jam vielleicht, oder eine Hackathon-Woche, die wir ja schon X-fach gemacht haben vorher, zu der AI Week? Weil jetzt so unser Spieleprototyp zum Beispiel, den hätten wir auch in einem Game Jam bauen können.

SPEAKER_01

Das ist richtig, ja. Und das ist ja auch explizit, was wir so diesmal im Framing auch gesagt haben, dass das auch völlig in Ordnung ist. Also wenn jetzt Spielideen oder andere Dinge, die halt vorher in einem Game Jam stattgefunden haben, dass die jetzt auch in der AI Week stattfinden. Und klar, da vielleicht nochmal mehr explorieren, was ist so an der Grenze des Machbaren, was ist der Unterschied, den AI dort auch macht, dass man da ein bisschen mehr den Fokus drauf legt. Aber ja, deswegen ist es explizit halt so offen gestaltet, dass das grundsätzlich passieren kann. Ich glaube, insgesamt ist es halt, und das wird sich auch ändern. Also ich meine, tendenziell, ich weiß nicht, vielleicht ist der Gedanke ja, dass man halt, also irgendwie eher so immer dann in dem Modus irgendwann ist, aktuell sind das alles noch Neuerungen und man muss die Leute abholen und es gibt immer was Neues zu entdecken. Hoffentlich sind wir ja dann irgendwann so weit, dass es einfach auch der Alltag ist, in dem wir uns irgendwie bewegen und man dann vielleicht wieder ein anderes, ein anderes Format finden muss. Aber so gesehen würde ich sagen, es hat einen größeren Impact auf den Alltag aktuell. Also während der Game Jam vielleicht ein bisschen isolierter war und vielleicht auch mal ein Spiel draus gekommen ist, was wir dann weiterentwickelt haben und irgendwie versucht haben, zu einem Produkt zu machen. Es ist bei der iWeek eher so ein bisschen, dass es tiefer in die Prozesse und in die Gedanken und die in die Zusammenarbeit so eingreift, die wir danach haben und ja, im besten Fall so den Alltag von allen ein bisschen erleichtert, verbessert haben, wie auch immer. Das sehe ich so als Hauptunterschied. Und vor allen Dingen aber auch gedanklich zeigt und das ist etwas, wenn man über den ganzen Transformationsprozess irgendwie nachdenken und guckt, wie kann man sich da als Unternehmen irgendwie weiterentwickeln und das irgendwie attraktiv und spannend gestalten für die Mitarbeitenden. Das, was wir immer wieder beobachtet haben, wenn du ein konkretes Beispiel aus deiner Bubble hast, das du zeigen kannst, wo ein Use Case ist, der funktioniert hat, der ist tausendmal mehr wert als irgendein shiny Marketing-Video von einem neuen AI-Tool. Und das treibt so die Adoption am meisten. Also einfach irgendwie Use Cases, reale Dinge, die hier passieren, die in unserem Kontext sind, die einen echten Impact haben, so, das ist das, was dann auf die anderen abfärbt und wo sie sagen, ach krass, wenn das funktioniert, hat bei uns, na gut, dann wird das und das auch funktionieren. Ja, und das kommt natürlich stark dadurch, dass jetzt jeder teilt, was er macht, was die Möglichkeiten waren, wo die Grenzen sind, und das sehr, dieses sehr Theoretische, was man halt in Blogbeiträgen und so weiter sich lesen kann, sehr in die Praxis holt. Wie sieht es denn bei uns aus? Was sind denn unsere Limitierungen, was sind denn unsere Grenzen von dem, was aktuell möglich ist.

SPEAKER_00

Ich würde das unterschreiben und gleichzeitig noch so ein bisschen relativieren, weil ich glaube schon, das, was du gesagt hast, ist richtig, aber ich glaube, man kann das auch kleiner machen. Also wahrscheinlich oder es gibt bei uns auch genug Beispiele, wo derselbe Effekt auch eintritt, wenn jemand das einfach nur mit einem persönlichen Thema irgendwie hat. Also ein Beispiel wäre jetzt unser Office-Management-Team hat irgendwie eine App gebaut, um die Maintenance und Care für unsere Pflanzen zu automatisieren. Das war so ein sehr kleiner, sehr isolierter Use Case, aber es hat halt für sie super gut funktioniert und das war ein Erfolgserlebnis und deswegen kümmern sie sich jetzt auch mit Hilfe von AI um größere Probleme, wenn wir jetzt da unsere Buchungsplattform irgendwie gerade da selber bauen. Und das ist ja schon ein Step Change dann so. Aber wir sehen auch bei manch anderen, die sich, weiß ich nicht, also zu Hause halt irgendwie mit einem Thema beschäftigen und da halt sowas gelöst haben oder ein Erfolgserlebnis hatten. Und es halt auch schon reicht, in Anführungszeichen, um so einen Katalysator zu sein, um dann halt das mitzubringen in die Firma, ins Team und dann zu sagen, guck mal, ich habe hier das gemacht und das reicht auch schon. Also man muss gar nicht, glaube ich, immer nur, und ich glaube, den Anspruch haben wir auch, zumindest in der AI-Week nicht, nicht immer nur die großen Probleme von der Firma lösen. Ich glaube, es reicht einfach, wenn du irgendeine Art von Erfolgserlebnis so hast. Also ich weiß nicht, du kannst gefühlt dich jede Woche mit Benni an den Tisch setzen bei uns beim Mittagessen und er erzählt ja, was er zu Hause gerade wieder mit irgendeinem AI-Projekt gemacht hat oder mit Richard oder so, ja. Und das ist, glaube ich, mindestens genauso wichtig. Und deshalb finde ich es auch immer gut, wenn wir halt sagen, experimentiert halt damit und das muss jetzt nicht am aktuellen Produkt hängen, es muss auch nicht unbedingt das nächste Spiel irgendwie rauskommen, aber es muss halt für euch irgendwie was sein, was funktioniert so. Und selbst wenn es manchmal nicht funktioniert, kann man ja auch was draus lernen. Aber am Ende ist, glaube ich, so das Entscheidende, dass man so ein Erlebnis irgendwie geschaffen hat.

SPEAKER_01

Ja, also genau, wenn ihr irgendwie auch da nochmal spezifischere Fragen habt oder das bei euch machen wollt, aber irgendwelche Hürden habt oder so, könnt ihr euch gerne melden, wenn wir da irgendwo mit Erfahrungsberichten unterstützen können. Und erreicht euch das.

SPEAKER_00

Dann kommt zu euch und veranstaltet AIWeeks on demand.

SPEAKER_01

Auch so für ein, zwei Unternehmen könnt ihr das mal machen.

unknown

Ja.

SPEAKER_00

Schon, da kann man schon profitieren. Ja.

SPEAKER_01

Das stimmt. Fantastisch. Zurück zum Projekt. Eigentlich darf sowas nämlich nicht passieren. Das ist vielleicht auch noch an der Stelle. Diese Podcast-Aufnahme hier ist eigentlich komplett gegen das Konzept, das wir haben. Deswegen immerhin gut, dass wir heute viel über i geredet haben, weil sonst soll man sich nämlich alles aus dem Kalender streichen und dass wir hier gerade sitzen und nicht an unserem AI-Week-Projekt arbeiten, ist eigentlich schon fatal.

SPEAKER_00

Ich meine, wir sind auch nur zwei von den sonst üblichen fünf. Also ich meine, die anderen so, Dave akut raus, Garet erstmal raus, Fabi, Fragezeichen, was er gerade tut. Also, ja, schaut. Ich habe zum Abschluss noch zwei ganz kleine Punkte. Der eine ist mir gestern Abend aufgefallen und zwar gibt es eine neue Dokumentation von unseren Freunden bei Cult Repo, die sich da immer um die Themen kümmern, wo Dennis jetzt sagt, das interessiert doch heute gar keinen mehr, wie immer so ein Framework irgendwie entstanden ist. Das muss man gar nicht mehr wissen. Das reicht, wenn deine AI das weiß, wie man das benutzt.

SPEAKER_01

Ja, erzähl es mal weiter. Dann relativiere ich das nochmal.

SPEAKER_00

Okay. Auf alle Fälle, es geht in der aktuellen Doku um Spring und Java. Sie sprechen mit Rod Johnson und Jürgen Höller, die da so die Köpfe hinter Spring sind und ich finde das ein sehr cooles Beispiel, weil viele von den Frameworks, die wir aktuell nutzen, wenn man an LaraWell denkt und auch viel, was gerade in der Node.js-Welt passiert, die haben halt so ihre Wurzeln in Spring. Da sind irgendwie viele Konzepte das erste Mal richtig gedacht worden. Inversion of Control, Dependency Injection, Model View Controller, bla bla bla. Von daher, wenn man sich einfach dafür interessiert, warum manche Framework-Entscheidungen so getroffen worden sind, wie sie getroffen worden sind, was der Hintergrund war, warum das notwendig war, sehr coole Doku, kann ich nur empfehlen. Und bevor ich meinen zweiten Punkt mache, darf Dennis jetzt noch was dazu sagen. Mein erster Impuls war auch direkt so innerlich so.

SPEAKER_01

Danke. Aber ich meine, es ist ja, wie du schon sagst, eine Dokumentation über, wie was entstanden ist. Das finde ich, hat noch eine Relevanz und ist interessant, wie so Dinge entstanden sind. Und ja, die gibt es vielleicht zu einem Framework nicht mehr in fünf Jahren, sondern dann eben halt, wieso hat sich Claude so entwickelt, wie es sich entwickelt hat oder so. Das wird sich anpassen, aber ja, die Relevanz oder interessant kann ich es mir trotzdem vorstellen, auch wenn du heute dich nicht mehr von Spring inspirieren lässt, um ein neues Framework zu bauen. Und auch die Leute gibt es ja noch zu Recht.

SPEAKER_00

Ja, genau. Das dazu würde ich auch so unterschreiben. Und mein zweiter Punkt ist eigentlich mehr so ein Aufruf. Wir haben, ich weiß gar nicht, mit wem hier beim Mittagessen vor ein paar Wochen so gequatscht und haben so ein bisschen darüber gesprochen oder beim Meetup, wie eigentlich so akademische Ausbildungen von Informatikerinnen gerade aussieht in Zeiten von AI und haben da so ein bisschen philosophiert, was es denn da braucht und was da funktioniert und was da vielleicht nicht funktionieren könnte und ne, also wie finden auch junge Menschen irgendwie einen Weg jetzt in diesen Arbeitsmarkt rein, wo sie vielleicht als, überspitzt gesagt, als Junior Dev nicht gebraucht werden, weil jedes LM ähnlich gut schon funktioniert, ob man das an sich jetzt Zeit oder nicht sei mal dahingestellt, aber das ist ja so die große Sorge. Und da würde ich unglaublich gerne mal mit jemandem darüber reden, der vielleicht an der Uni arbeitet und da irgendwie für Kurse verantwortlich ist, da Dozent ist, whatever. Wenn ihr da jemanden kennt, der da entweder sehr engagiert ist und vielleicht gerne darüber reden will oder selber so jemand seid, dann schickt uns doch gerne mal eine E-Mail an podcast.programmier.bar, weil ich glaube, das wäre ein super spannendes Gespräch und auch super wertvoll für viele Leute da draußen. Das nur als kleiner Aufruf. Und damit sind wir schon fertig für heute. So, entspannte 40 Minuten zu zweit, wie immer. Dennis und ist nicht besonders schnell. Und jetzt kümmern wir uns ganz schnell wieder um unser iWeek Projekt und wünschen euch eine schöne Restwoche, schönen Feiertag und wir hören uns nächste Woche wieder. Bis, Dennis! Macht's gut! Vielen Dank, ciao.