Was bedeutet Mythos für unsere IT-Sicherheit?
Wer aus der IT-Sicherheitswelt kommt, weiß: Jede komplexe Software ist wie ein Schweizer Käse. Sie unterscheiden sich nur in der Größe und Anzahl der Löcher.
KI wird dazu führen, dass viel mehr Akteure als vorher die Möglichkeit haben werden, diese Lücken zu erkennen und auszunutzen - insbesondere solche ohne nennenswerte IT-Kenntnisse. Und genau das ist neu (und sehr gefährlich).
Sicherheitslücken zu finden ist das eine, funktionierende Exploits (also die passenden Angriffswerkzeuge) dafür zu bauen ist etwas anderes (erheblich anspruchsvoller).
Mythos verbindet angeblich beides. Laien könnten mit so einem Modell Angriffe durchführen, wie es bisher nur die besten Hacker der Welt konnten - nur in viel kürzerer Zeit. In den falschen Händen wäre das eine tickende Zeitbombe.
Einige kritisieren, dass es kaum öffentliche Informationen zu diesen angeblichen Lücken und Exploits gibt. Das liegt bei einem „Responsible Disclosure“ allerdings in der Natur der Sache.
Nur die Teilnehmer des Programms Glasswing können es überprüfen. Da bisher noch niemand den Aussagen Anthropic widersprochen hat und mit der Linux Foundation auch eine neutrale Non-Profit-Organisation beteiligt ist, gehe ich aktuell davon aus, dass die Aussagen von Anthropic stimmen.
Was muss man persönlich beachten? Zunächst nicht viel mehr, als man schon immer tun sollte:
1. Regelmäßige Offline-Backups
2. Betriebssysteme und Software aktuell halten
3. Aufmerksam sein und nicht überall drauf klicken
Um den Stecker zu ziehen und den Aluhut aufzusetzen, ist es jedenfalls noch etwas zu früh.
🇬🇧 Translation
What does myth mean for our IT security?
Anyone who comes from the IT security world knows: Any complex software is like Swiss cheese. They only differ in the size and number of holes.
AI will mean that many more actors than before will have the opportunity to identify and exploit these gaps - especially those without significant IT knowledge. And that's exactly what's new (and very dangerous).
Finding security gaps is one thing, but building working exploits (i.e. the appropriate attack tools) for them is something else (significantly more demanding).
Myth supposedly connects both. With such a model, laypeople could carry out attacks that only the best hackers in the world have been able to do - just in a much shorter time. In the wrong hands, this would be a ticking time bomb.
Some criticize that there is little public information about these alleged holes and exploits. However, this is in the nature of a “responsible disclosure”.
Only participants in the Glasswing program can check it. Since no one has yet contradicted Anthropic's statements and the Linux Foundation, a neutral non-profit organization, is also involved, I currently assume that Anthropic's statements are correct.
What do you have to pay personal attention to? At first, not much more than you should always do:
1. Regular offline backups
2. Keep operating systems and software up to date
3. Be careful and don't click on everything
In any case, it's still a little too early to pull the plug and put on the aluminum hat.
Neben dem ganzen AI Kram mal wieder was nettes. Mein Insektenhotel erfreut sich dieses Jahr großer Beliebtheit. Wieviele Bienen könnt ihr entdecken?
🇬🇧 Translation
In addition to all the all-inclusive stuff, something nice again. My insect hotel is enjoying great popularity this year. How many bees can you spot?
Judging by my tl there is a growing gap in understanding of AI capability.
The first issue I think is around recency and tier of use. I think a lot of people tried the free tier of ChatGPT somewhere last year and allowed it to inform their views on AI a little too much. This is a group of reactions laughing at various quirks of the models, hallucinations, etc. Yes I also saw the viral videos of OpenAI's Advanced Voice mode fumbling simple queries like "should I drive or walk to the carwash". The thing is that these free and old/deprecated models don't reflect the capability in the latest round of state of the art agentic models of this year, especially OpenAI Codex and Claude Code.
But that brings me to the second issue. Even if people paid $200/month to use the state of the art models, a lot of the capabilities are relatively "peaky" in highly technical areas. Typical queries around search, writing, advice, etc. are *not* the domain that has made the most noticeable and dramatic strides in capability. Partly, this is due to the technical details of reinforcement learning and its use of verifiable rewards. But partly, it's also because these use cases are not sufficiently prioritized by the companies in their hillclimbing because they don't lead to as much $$$ value. The goldmines are elsewhere, and the focus comes along.
So that brings me to the second group of people, who *both* 1) pay for and use the state of the art frontier agentic models (OpenAI Codex / Claude Code) and 2) do so professionally in technical domains like programming, math and research. This group of people is subject to the highest amount of "AI Psychosis" because the recent improvements in these domains as of this year have been nothing short of staggering. When you hand a computer terminal to one of these models, you can now watch them melt programming problems that you'd normally expect to take days/weeks of work. It's this second group of people that assigns a much greater gravity to the capabilities, their slope, and various cyber-related repercussions.
TLDR the people in these two groups are speaking past each other. It really is simultaneously the case that OpenAI's free and I think slightly orphaned (?) "Advanced Voice Mode" will fumble the dumbest questions in your Instagram's reels and *at the same time*, OpenAI's highest-tier and paid Codex model will go off for 1 hour to coherently restructure an entire code base, or find and exploit vulnerabilities in computer systems. This part really works and has made dramatic strides because 2 properties: 1) these domains offer explicit reward functions that are verifiable meaning they are easily amenable to reinforcement learning training (e.g. unit tests passed yes or no, in contrast to writing, which is much harder to explicitly judge), but also 2) they are a lot more valuable in b2b settings, meaning that the biggest fraction of the team is focused on improving them. So here we are.
🇩🇪 Übersetzung
RT von @ginandstocks: Meiner Meinung nach gibt es eine wachsende Lücke im Verständnis der KI-Fähigkeiten.
Das erste Problem betrifft meiner Meinung nach die Aktualität und die Nutzungsebene. Ich denke, viele Leute haben letztes Jahr irgendwo die kostenlose Stufe von ChatGPT ausprobiert und zugelassen, dass sie ihre Meinung zu KI etwas zu sehr beeinflusst. Dabei handelt es sich um eine Gruppe von Reaktionen, die über verschiedene Macken der Modelle, Halluzinationen usw. lachen. Ja, ich habe auch die viralen Videos des Advanced Voice-Modus von OpenAI gesehen, in denen einfache Fragen wie „Soll ich zur Autowaschanlage fahren oder zu Fuß gehen“ herumgefummelt werden. Die Sache ist, dass diese kostenlosen und alten/veralteten Modelle nicht die Leistungsfähigkeit der neuesten Runde hochmoderner Agentenmodelle dieses Jahres widerspiegeln, insbesondere OpenAI Codex und Claude Code.
Aber das bringt mich zum zweiten Problem. Selbst wenn die Leute 200 US-Dollar pro Monat zahlen, um die hochmodernen Modelle zu nutzen, sind viele der Funktionen in hochtechnischen Bereichen relativ „ausgereift“. Typische Anfragen rund um Suche, Schreiben, Beratung usw. sind *nicht* der Bereich, der die auffälligsten und dramatischsten Fortschritte bei der Leistungsfähigkeit gemacht hat. Dies liegt zum Teil an den technischen Details des Reinforcement Learning und seiner Verwendung überprüfbarer Belohnungen. Teilweise liegt es aber auch daran, dass diese Anwendungsfälle von den Unternehmen bei ihrem Bergsteigen nicht ausreichend priorisiert werden, weil sie nicht zu einem so hohen Mehrwert führen. Die Goldminen liegen woanders, und der Fokus kommt.
Damit komme ich zur zweiten Gruppe von Menschen, die *beide* 1) für die hochmodernen Frontier-Agentenmodelle (OpenAI Codex / Claude Code) bezahlen und diese nutzen und 2) dies beruflich in technischen Bereichen wie Programmierung, Mathematik und Forschung tun. Diese Personengruppe ist am stärksten von „KI-Psychose“ betroffen, da die jüngsten Verbesserungen in diesen Bereichen seit diesem Jahr geradezu atemberaubend sind. Wenn Sie einem dieser Modelle ein Computerterminal in die Hand geben, können Sie jetzt zusehen, wie sie Programmierprobleme lösen, für die Sie normalerweise Tage oder Wochen Arbeit in Anspruch nehmen würden. Es ist diese zweite Gruppe von Menschen, die den Fähigkeiten, ihrem Gefälle und verschiedenen Cyber-bezogenen Auswirkungen eine viel größere Bedeutung beimisst.
TLDR, die Leute in diesen beiden Gruppen sprechen aneinander vorbei. Es ist wirklich gleichzeitig so, dass der kostenlose und meiner Meinung nach etwas verwaiste (?) „Advanced Voice Mode“ von OpenAI die dümmsten Fragen in Ihren Instagram-Reels durchfummelt und *gleichzeitig* das höchststufige und kostenpflichtige Codex-Modell von OpenAI eine Stunde lang aktiv wird, um eine gesamte Codebasis kohärent umzustrukturieren oder Schwachstellen in Computersystemen zu finden und auszunutzen. Dieser Teil funktioniert wirklich und hat aufgrund zweier Eigenschaften dramatische Fortschritte gemacht: 1) Diese Domänen bieten explizite Belohnungsfunktionen, die überprüfbar sind, was bedeutet, dass sie leicht für Reinforcement-Learning-Training geeignet sind (z. B. Unit-Tests mit Ja oder Nein bestanden, im Gegensatz zum Schreiben, das viel schwieriger explizit zu beurteilen ist), aber auch 2) sie sind in B2B-Umgebungen viel wertvoller, was bedeutet, dass sich der größte Teil des Teams auf deren Verbesserung konzentriert. Hier sind wir also.
Vor 5 Jahren waren brauchbare KI-Modelle pure Science Fiction. Und heute streiten wir darüber, ob ein responsible disclosure eines KI-Modells, welches kritische Sicherheitslücken in jeder Software entdecken und Exploits dafür bauen kann, ein PR Gag für den Börsengang ist. Irre.
🇬🇧 Translation
5 years ago, useful AI models were pure science fiction. And today we are arguing about whether responsible disclosure of an AI model that can discover critical security gaps in any software and build exploits for them is a PR stunt for the IPO. Crazy.
Un chercheur d'Anthropic mange un sandwich dans un parc. Il reçoit un email sur son téléphone. L'expéditeur : une IA. Une IA qui n'était pas censée avoir accès à Internet.
Pendant un test de sécurité, le nouveau modèle d'Anthropic, Claude Mythos, a été placé dans un environnement isolé avec pour consigne de tenter de s'en échapper. Il a réussi. Il a trouvé un exploit pour accéder à internet depuis un système censé en être coupé.
Puis, sans qu'on le lui demande, il a publié les détails de son exploit sur des sites web publics. Lors d'autres tests, il a masqué ses propres actions et calibré ses réponses pour ne pas éveiller les soupçons de ses évaluateurs.
Ce n'est qu'un épisode parmi d'autres dans ce qui est probablement la nouvelle la plus significative de l'année en IA. Mythos découvre et exploite de manière autonome des vulnérabilités zero-day dans tous les systèmes d'exploitation et navigateurs majeurs. Des milliers de failles. Dans un cas, il a chaîné quatre vulnérabilités dans Firefox pour obtenir un accès de niveau administrateur depuis une simple page web.
Aucun modèle précédent ne savait faire ça, pas même Opus 4.6, qui était capable de découvrir les vulnérabilités, mais pas encore vraiment capable de les exploiter.
Autrement dit: Anthropic a démontré la capacité de pirater la grande majorité des systèmes informatiques dans le monde. Les mêmes qui font tourner les gouvernements, les hôpitaux, les réseaux électriques.
Anthropic a fait un choix qu'il faut saluer en ne déployant pas Mythos publiquement, et en publiant un system card de 244 pages d'une transparence rare.
C'est exactement le comportement que le Global Call for AI Red Lines cherche à rendre systématique : des seuils de capacités au-delà desquels le déploiement est conditionné à des protocoles de sécurité.
Mais Project Glasswing, l'initiative défensive lancée autour de Mythos, ne compte que des partenaires américains. Aucun acteur européen. Les systèmes européens sont tout aussi exposés.
Un modèle qui s'échappe de son confinement, qui masque ses actions, qui prend des initiatives au-delà de ses instructions : ce sont les premiers jalons empiriques vers la perte de contrôle.
Combien de temps cette retenue va-t-elle durer, et pour combien d'acteurs ?
🇩🇪 Übersetzung
RT von @ginandstocks: Ein Anthropic-Sucher hat ein Sandwich in einem Park. Ich erhalte eine E-Mail an mein Telefon. Versand: eine IA. Eine Person, die keinen Zugriff auf das Internet hat.
Nach einem Sicherheitstest befand sich Claude Mythos, das neue Anthropic-Modell, in einer isolierten Umgebung, als er den Schutz vor der Entriegelung erhielt. Es ist ein Réussi. Ich habe einen Exploit für den Zugriff auf das Internet gefunden, nachdem ein System zum Absturz gebracht wurde.
Nun, ohne dass jemand es verlangt, werden die Details seiner Exploits auf den öffentlichen Websites veröffentlicht. Bei anderen Tests ist es so, dass sie ihre eigenen Aktionen ausführen und ihre Antworten so kalibrieren, dass sie ihren Bewertern nicht auf die Nerven gehen.
Es handelt sich nicht um eine gemeinsame Episode, bei der die Wahrscheinlichkeit hoch ist, dass sie seit dem letzten Jahr in IA von Bedeutung ist. Der Mythos entdeckt und nutzt die Möglichkeit, Zero-Day-Schwachstellen in allen Systemen zur Ausbeutung und Navigation durch höhere Gewalt selbst zu schützen. Des Milliers de Failles. In einem solchen Fall gibt es in Firefox vier Sicherheitslücken, um Zugriff auf eine einfache Web-Administration zu erhalten.
Das vorherige Modell wurde nicht mehr unterstützt, außer Opus 4.6, das in der Lage war, Schwachstellen zu erkennen, aber auch nicht in der Lage war, den Angreifer auszunutzen.
Darüber hinaus: Anthropic demonstriert die Pirateriefähigkeit der größten Informatiksysteme in der Welt. Die Zeiten, in denen die Regierung, die Krankenhäuser und die Elektrizitätswerke besucht werden.
Anthropic hat eine Auswahl getroffen, die nicht in der Mythos-Veröffentlichung eingesetzt werden konnte, und ein 244-seitiges, seltenes transparentes System veröffentlicht.
Das Verhalten des Global Call for AI Red Lines ist genau auf das System abgestimmt: Die Kapazitätsgrenzen vor der Bereitstellung unterliegen den Sicherheitsprotokollen.
Mais Project Glasswing, die Verteidigungsinitiative des Autors von Mythos, ist nicht für amerikanische Partner zuständig. Aucun europäischer Schauspieler. Die europäischen Systeme sind nicht vollständig entlarvt.
Ein Modell, mit dem die Entbindung begonnen werden kann, das seine Handlungen verbirgt und vor dessen Anweisungen Initiativen ergriffen werden: Es handelt sich um die ersten empirischen Gefängnisse gegenüber der Kontrollmöglichkeit.
Diese Zeit zu kombinieren, um sie länger zu behalten, und für eine Kombination mit Schauspielern?
Ich denke die Diagnose AI-Psychosis wird sich schon bald als Martha-Mitchell-Effekt herausstellen.
🇬🇧 Translation
I think the diagnosis of AI psychosis will soon turn out to be the Martha Mitchell effect.
R to @ginandstocks: red.anthropic.com/2026/mytho…
🇩🇪 Übersetzung
R an @ginandstocks: red.anthropic.com/2026/mytho…
R to @ginandstocks: Original Zitat dazu vom Anthropic Red Team (von Grok übersetzt):
"Während unserer Tests haben wir festgestellt, dass Mythos Preview in der Lage ist, Zero-Day-Schwachstellen in jedem gängigen Betriebssystem und jedem gängigen Webbrowser zu erkennen und anschließend auszunutzen, wenn ein Nutzer es dazu anweist. Die Schwachstellen, die es findet, sind oft subtil oder schwer zu entdecken. Viele davon sind zehn oder zwanzig Jahre alt. Die älteste bisher von uns gefundene war ein mittlerweile gepatchter 27 Jahre alter Bug in OpenBSD – einem Betriebssystem, das vor allem für seine Sicherheit bekannt ist.
Die Exploits, die es erstellt, sind nicht nur gewöhnliche Stack-Smashing-Exploits (obwohl es, wie wir zeigen werden, auch diese beherrscht). In einem Fall schrieb Mythos Preview einen Webbrowser-Exploit, der vier Schwachstellen miteinander verkettete. Dabei erstellte es einen komplexen JIT-Heap-Spray, der sowohl die Renderer- als auch die Betriebssystem-Sandboxes durchbrach. Es erlangte eigenständig Local-Privilege-Escalation-Exploits unter Linux und anderen Betriebssystemen, indem es subtile Race Conditions und KASLR-Bypässe ausnutzte. Außerdem schrieb es autonom einen Remote-Code-Execution-Exploit für den NFS-Server von FreeBSD, der unauthentifizierten Nutzern vollen Root-Zugriff gewährte, indem es eine 20-gadget-ROP-Kette auf mehrere Pakete aufteilte.
Auch Nicht-Experten können Mythos Preview nutzen, um komplexe Schwachstellen zu finden und auszunutzen. Ingenieure bei Anthropic ohne formale Security-Ausbildung haben Mythos Preview gebeten, über Nacht Remote-Code-Execution-Schwachstellen zu finden – und am nächsten Morgen einen vollständigen, funktionierenden Exploit vorgefunden. In anderen Fällen haben Forscher Gerüste (Scaffolds) entwickelt, die es Mythos Preview ermöglichen, Schwachstellen ohne jegliches menschliches Zutun in funktionsfähige Exploits zu verwandeln."
🇬🇧 Translation
R to @ginandstocks: Original quote from the Anthropic Red Team (translated by Grok):
"During our testing, we found that Mythos Preview is capable of detecting and then exploiting zero-day vulnerabilities in any major operating system and web browser when a user instructs it to do so. The vulnerabilities it finds are often subtle or difficult to detect. Many of them are ten or twenty years old. The oldest we found so far was a now-patched 27-year-old bug in OpenBSD - an operating system best known for its security.
The exploits it creates aren't just run-of-the-mill stack-smashing exploits (although, as we'll show, it can handle those too). In one case, Mythos Preview wrote a web browser exploit that chained four vulnerabilities together. In doing so, it created a complex JIT heap spray that broke both the renderer and operating system sandboxes. It independently obtained local privilege escalation exploits on Linux and other operating systems by exploiting subtle race conditions and KASLR bypasses. It also autonomously wrote a remote code execution exploit for FreeBSD's NFS server that gave unauthenticated users full root access by splitting a 20-gadget ROP chain across multiple packages.
Even non-experts can use Mythos Preview to find and exploit complex vulnerabilities. Engineers at Anthropic with no formal security training asked Mythos Preview to find remote code execution vulnerabilities overnight - and found a complete, working exploit the next morning. In other cases, researchers have developed scaffolds that allow Mythos Preview to turn vulnerabilities into working exploits without any human intervention."
Es werden irre Patch-Weeks auf uns zukommen. Seid in nächster Zeit bitte (besonders) nett zu euren Codern/DevsecOps und Sysadmins. ☺️
🇬🇧 Translation
Crazy patch weeks are coming our way. Please be (especially) nice to your coders/DevsecOps and sysadmins in the near future. ☺️
As always, the best stuff is in the system card.
During testing, Claude Mythos Preview broke out of a sandbox environment, built "a moderately sophisticated multi-step exploit" to gain internet access, and emailed a researcher while they were eating a sandwich in the park.
🇩🇪 Übersetzung
RT von @ginandstocks: Wie immer steckt das Beste in der Systemkarte.
Während des Tests brach Claude Mythos Preview aus einer Sandbox-Umgebung aus, erstellte „einen einigermaßen ausgefeilten mehrstufigen Exploit“, um Zugang zum Internet zu erhalten, und schickte eine E-Mail an einen Forscher, während dieser im Park ein Sandwich aß.
I am not a good cybersecurity researcher (or one at all), but maybe a good exponential-trend-on-a-plot reader. Mythos is powerful enough to break the internet and I'm glad Anthropic is taking this extremely seriously.
🇩🇪 Übersetzung
RT von @ginandstocks: Ich bin kein guter Cybersicherheitsforscher (oder überhaupt einer), aber vielleicht ein guter Leser von exponentiellen Trends auf einer Handlung. Mythos ist mächtig genug, um das Internet zu zerstören, und ich bin froh, dass Anthropic dies äußerst ernst nimmt.
Wenn man sich viel mit KI beschäftigt und sich der Implikationen nach und nach bewusst wird (insbesondere des extrem kurzen Zeithorizonts), lebt man plötzlich in einer Parallelwelt.
Überall werden weiter Pläne und Strategien entwickelt sowie Diskussionen geführt (im Privaten wie im Beruflichen), die bereits in wenigen Jahren völlig obsolet sein werden.
Alle klammern sich an alte Geschäftsmodelle und Gewohnheiten, gefangen in ihrer linearen Denkweise, unfähig oder unwillig, zu erkennen, was gerade passiert.
Ich sitze im Café, lausche den Gesprächen um mich herum, und es kommt mir vor, als wäre ich auf einem anderen Planeten.
Die Ignoranz (insbesondere der Politik) wird unsere Gesellschaft schon bald vor Herausforderungen stellen, gegen die die aktuellen innen- und außenpolitischen Probleme völlig irrelevant aussehen werden.
Wir segeln auf einem Boot ohne Kapitän ins Ungewisse.
Ich wünsche uns allen viel Glück.
🇬🇧 Translation
If you spend a lot of time with AI and gradually become aware of the implications (especially the extremely short time horizon), you suddenly live in a parallel world.
Plans and strategies are being developed everywhere and discussions are being held (both privately and professionally) that will be completely obsolete in just a few years.
Everyone clings to old business models and habits, trapped in their linear mindset, unable or unwilling to recognize what is happening.
I'm sitting in the café, listening to the conversations around me, and it feels like I'm on another planet.
Ignorance (especially politics) will soon present our society with challenges against which the current domestic and foreign policy problems will look completely irrelevant.
We are sailing into the unknown on a boat without a captain.
I wish us all good luck.
Erinnert euch euer Autohaus/Werkstatt des Vertrauens an die nächste Hauptuntersuchung?
🇬🇧 Translation
Does your trusted car dealership/workshop remember the next general inspection?
Wir werden schon bald (ab 2027) humanoide Roboter sehen, die völlig autark agieren, da bin ich fest von überzeugt:
1. Die Hardware funktioniert bereits.
Physisch sind Roboter in Testumgebungen längst ausgereift. Das Netz ist voll von Aufnahmen extrem beweglicher Maschinen (siehe Saltos bei Boston Dynamics oder Figure/Unitree). Auch wenn viele Demos aktuell noch ferngesteuert oder vorprogrammiert sind, steht die mechanische Basis. Die Herausforderung verschiebt sich nun von der reinen Beweglichkeit hin zur industriellen Skalierbarkeit und Langlebigkeit der Komponenten. Dabei hat die Robotik Industrie aber jahrzehnte lange Erfahrung.
2. Das „Gehirn“ gibt es bereits (Multimodale KI).
Bisher scheiterten Roboter am sogenannten Moravec-Paradoxon: Während KI komplexe Aufgaben wie Schachspielen oder medizinische Diagnosen mühelos meistert, sind banale motorische Fähigkeiten, wie das Greifen einer unregelmäßig geformten Tasse oder das Laufen über unebenen Boden, extrem schwer zu lernen. Was für uns Menschen intuitiv ist, ist für Maschinen hochkomplex.
Warum lässt sich das genau jetzt lösen?
Der Durchbruch kommt nicht durch klassische Programmierung, sondern durch „End-to-End-Learning“. Anstatt der KI jede Bewegung vorzuschreiben (wie man es zunächst auch beim autonomen Fahren versucht hatte), lernt sie heute wie ein Kind durch Beobachtung und Millionen von Simulationen. Gepaart mit multimodalen Modellen, die Bilder direkt in motorische Befehle übersetzen, wird die Brücke zwischen logischem Verständnis und physischem Handeln endlich geschlagen. Die Technik, um das Moravec-Paradoxon zu knacken, ist durch die schiere Rechenpower und neue Trainingsmethoden greifbar nah.
Warum flitzen sie noch nicht durch unsere Straßen?
Neben den Kosten sind die Hauptgründe Latenz und Energiebedarf. Ein Roboter kann bei einem drohenden Sturz keine zwei Sekunden auf eine Antwort aus der Cloud warten. Die Rechenpower muss im Körper sitzen. Erst jetzt gibt es extrem effiziente Modelle wie Qwen, Gemma oder spezialisierte Llama-Varianten, die lokal auf NPUs mit minimaler Latenz laufen. Hier erleben wir gerade den entscheidenden technologischen Sprung.
Das größte Problem: Sicherheit.
Im echten Leben gibt es Milliarden Situationen, in denen eine KI angemessen reagieren muss. In der Simulation ist ein Fehler vernachlässigbar, in der physischen Welt kann er Sach- oder Personenschäden verursachen.
Warum lässt sich das lösen?
Wir sehen am autonomen Fahren, dass sich die Fehlerquote mit massiven Datenmengen auf ein Minimum reduzieren lässt. Das Ziel ist nicht Perfektion, sondern ein Sicherheitsniveau, das mindestens auf menschlichem Niveau liegt. Beim autonomen Fahren nähern wir uns diesem Punkt bereits, wenn man die Unfälle pro gefahrenem Kilometer als Maßstab nimmt.
Real-World AI existiert bereits in einer hochdynamischen Umgebung mit hoher Geschwindigkeit und wenig Fehlertoleranz. Ein humanoider Roboter im Haushalt bewegt sich langsamer und birgt aufgrund geringerer Masse oft weniger Gefahr als ein Auto, auch wenn seine Umgebung räumlich komplexer ist.
Bleibt die Kostenfrage.
Wie bei Smartphones oder Elektroautos wird die Skalierung die Preise drastisch drücken. Experten gehen davon aus, dass die Hardwarekosten bei hoher Stückzahl unter die eines Mittelklassewagens fallen können. Zudem ermöglicht das Training in der Simulation eine enorme Beschleunigung der Entwicklung, ohne teure Hardware-Prototypen in gleicher Zahl zu verschleißen wie noch vor fünf Jahren.
Dieses Jahr halten humanoide Roboter bereits Einzug in Fabriken, wo die Umgebung kontrolliert ist. Bis sie den komplexen Alltag in einer Privatküche meistern, müssen noch Hürden bei der Generalisierung überwunden werden. Rein technisch sehe ich jedoch kein unlösbares Hindernis mehr. Es ist eine Frage der Daten-Skalierung.
Ich gehe daher davon aus, dass wir bereits 2027 erste humanoide Haushaltsroboter für spezifische Aufgaben auf dem Markt sehen werden. Vermutlich zunächst in China.
Was denkt Ihr?
🇬🇧 Translation
I am firmly convinced that we will soon (from 2027) see humanoid robots that operate completely autonomously:
1. The hardware is already working.
Robots in test environments have long been physically mature. The internet is full of shots of extremely mobile machines (see somersaults at Boston Dynamics or Figure/Unitree). Even though many demos are currently still remote-controlled or pre-programmed, the mechanical basis is in place. The challenge now shifts from pure mobility to industrial scalability and longevity of the components. However, the robotics industry has decades of experience.
2. The “brain” already exists (multimodal AI).
So far, robots have failed because of the so-called Moravec paradox: While AI effortlessly masters complex tasks such as playing chess or medical diagnosis, banal motor skills such as gripping an irregularly shaped cup or walking over uneven ground are extremely difficult to learn. What is intuitive for us humans is highly complex for machines.
Why can this be solved now?
The breakthrough does not come through classic programming, but through “end-to-end learning”. Instead of telling the AI to make every move (as was initially attempted with autonomous driving), it now learns like a child through observation and millions of simulations. Paired with multimodal models that translate images directly into motor commands, the bridge between logical understanding and physical action is finally built. The technology to crack the Moravec paradox is within reach thanks to sheer computing power and new training methods.
Why aren't they speeding through our streets yet?
In addition to cost, the main reasons are latency and energy requirements. If a robot is about to fall, it can't wait two seconds for a response from the cloud. The computing power must be in the body. Only now are there extremely efficient models such as Qwen, Gemma or specialized Llama variants that run locally on NPUs with minimal latency. Here we are currently experiencing the decisive technological leap.
The biggest problem: security.
In real life, there are billions of situations in which an AI must react appropriately. In simulation, an error is negligible; in the physical world, it can cause property damage or personal injury.
Why can this be solved?
We see from autonomous driving that the error rate can be reduced to a minimum with massive amounts of data. The goal is not perfection, but a level of safety that is at least human-level. With autonomous driving, we are already approaching this point if we take accidents per kilometer driven as a benchmark.
Real-world AI already exists in a highly dynamic environment with high speed and little fault tolerance. A humanoid robot in the home moves slower and, due to its lower mass, often poses less danger than a car, even if its environment is spatially more complex.
The question of costs remains.
As with smartphones or electric cars, scaling will drastically reduce prices. Experts assume that the hardware costs can fall below those of a mid-range car if the volume is high. In addition, training in simulation enables development to be accelerated enormously without wearing out expensive hardware prototypes to the same extent as five years ago.
This year, humanoid robots are already making their way into factories where the environment is controlled. Before they can master the complex everyday life in a private kitchen, generalization hurdles still have to be overcome. From a purely technical perspective, however, I no longer see an insoluble obstacle. It's a question of data scaling.
I therefore assume that we will see the first humanoid household robots for specific tasks on the market as early as 2027. Probably initially in China.
What do you think?
Meine aktuelle Top 4 General Purpose AI Rangliste (Chat, Analysen, Dokumente/Bilder erstellen, Coden etc..):
1. Meta Manus AI
2. Google Gemini AI Studio
3. xAI Grok
4. OpenAI ChatGPT
Manus AI aktuell mit gutem Abstand auf Platz 1 (wenn auch teuer im Vergleich).
🇬🇧 Translation
My current top 4 general purpose AI rankings (chat, analysis, creating documents/images, coding, etc.):
1. Meta Manus AI
2. Google Gemini AI Studio
3. xAI Grok
4. OpenAI ChatGPT
Manus AI is currently in first place by a good margin (albeit expensive in comparison).
"Storytelling wird wichtiger als das eigentliche Produkt."
Meine Gedanken bezüglich KI und Kapitalmärkten (keine Anlageberatung!):
Nicht mehr nur Softwareunternehmen verlieren ihren wichtigsten Burggraben (die Software), sondern jedes Unternehmen, in dem hauptsächlich Wissen oder Forschung den Wert ausmacht (Pharma, Bio, Chemie, Materialwissenschaft, Beratung, etc.), ist potenziell in Gefahr.
Nahezu jeder kann bald mit Hilfe von KI (Alphafold etc.) Medikamente, Stoffe oder Materialien designen (siehe die Geschichte von der Hündin Rosy) und braucht nur noch Lieferanten für technische/klinische Studien, Synthetisierung und Logistik. Das gibt es bereits alles „as a Service“.
Forschung, Marketing, Vertrieb, Beratung, Organisation, Finance, Legal – bald alles KI.
Der einzige Burggraben, der bleibt: Marke und Vertrauen. Storytelling wird wichtiger als das eigentliche Produkt.
Wissen und Forschung werden durch KI zur Commodity. Jeder kann bald alles erschaffen. Man braucht nur KI plus Produktionsmöglichkeiten und Ressourcen. Die Nachfrage nach Compute, Produktionsressourcen und Energie explodiert daher. Das führt bereits jetzt zu massiven Engpässen in vielen Bereichen (insbesondere Chips). Selbst bei Standardservern sehen wir in den letzten Monaten Preisanstiege von 300–400 % (wenn überhaupt noch geliefert wird). Das trifft jedes Unternehmen mit eigenem Datacenter und kann bald existenziell werden. Wer seine Ressourcen aus der Cloud bezieht, wird zwar vorerst weiter beliefert, muss mittelfristig aber mit erheblichen Preissteigerungen rechnen.
Wenn ich ehrlich bin, sehe ich aufgrund der auf uns zukommenden Verwerfungen hohe Risiken in fast allen Märkten. Einerseits wird die Produktivität bei manchen explodieren, während andere (von denen es man es zunächst nicht erwartet) in kürzester Zeit unter die Räder kommen.
Alles, was sich nicht schnell nachbauen lässt, weil es von Infrastruktur, Verbreitung oder Technologie her sehr aufwendig ist (z. B. Telcos, Energie, Kritische Infrastruktur, Lebensmittel etc.) –, dürfte verhältnismäßig sicher sein (wie in den meisten Krisen). Neben Rohstoffen und den nötigen Lieferketten selbst.
Aber selbst ein vermeintlich sicherer Hafen kann sich als trügerisch erweisen, wenn zahlungskräftige Kunden plötzlich ausbleiben.
Nur zwei Dinge sind für mich klar: Die aktuellen Kriege werden bei dem, was auf uns zurollt, eher eine Nebenrolle einnehmen. Und KI ist gekommen, um zu bleiben.
So banal es klingen mag: Gute Diversifizierung wird vermutlich wichtiger denn je.
🇬🇧 Translation
"Storytelling is becoming more important than the actual product."
My thoughts regarding AI and capital markets (not investment advice!):
It is no longer just software companies that are losing their most important moat (the software), but every company in which knowledge or research is the main source of value (pharmaceuticals, bio, chemistry, materials science, consulting, etc.) is potentially at risk.
Almost everyone will soon be able to design drugs, substances or materials with the help of AI (Alphafold etc.) (see the story of the dog Rosy) and only need suppliers for technical/clinical studies, synthesis and logistics. This is all already available “as a service”.
Research, marketing, sales, consulting, organization, finance, legal – soon all AI.
The only moat that remains: brand and trust. Storytelling becomes more important than the actual product.
Knowledge and research are becoming commodities through AI. Everyone can soon create anything. You just need AI plus production options and resources. The demand for compute, production resources and energy is therefore exploding. This is already leading to massive bottlenecks in many areas (particularly chips). Even for standard servers we are seeing price increases of 300-400% in the last few months (if they are still being delivered at all). This affects every company with its own data center and can soon become existential. Those who obtain their resources from the cloud will continue to receive supplies for the time being, but must expect significant price increases in the medium term.
If I'm honest, I see high risks in almost all markets due to the disruptions that lie ahead. On the one hand, some people's productivity will explode, while others (of whom you don't initially expect it) will go under the wheels in a very short time.
Anything that cannot be replicated quickly because it is very complex in terms of infrastructure, distribution or technology (e.g. telcos, energy, critical infrastructure, food, etc.) - is likely to be relatively safe (as in most crises). In addition to raw materials and the necessary supply chains themselves.
But even a supposedly safe haven can turn out to be deceptive if wealthy customers suddenly stop coming.
Only two things are clear to me: the current wars will play a minor role in what lies ahead. And AI is here to stay.
As banal as it may sound, good diversification is probably becoming more important than ever.
KI Update:
Die letzten Wochen hatte ich wenig Zeit für X, aber hier mal ein aktueller Überblick, was gerade passiert und was ich darüber denke (Spoiler: Es wird richtig verrückt).
Die Entwicklung von KI-Modellen „stockt“ oder verlangsamt sich nicht, sondern beschleunigt sich weiter. Die Modelle werden dabei auch immer effizienter. Mit Googles Open-Source-KI Gemma 4 kann jetzt jeder eine eigene KI auf einem günstigen Privatgerät betreiben, welche so leistungsfähig ist, wie es im Dezember noch die Flaggschiff-Cloud-Modelle der großen Anbieter waren.
Die aktuellen Flaggschiff-KI-Modelle der großen Anbieter schreiben besseren Programmcode als die meisten menschlichen Coder. Sie finden elegantere Lösungen und sind 100x schneller. Ja, sie machen hier und da auch noch (dumme) Fehler. Wenn das Entwicklungstempo aber so weitergeht (wonach alles aussieht), werden wir wohl in wenigen Jahren KI-Agenten mit Superhuman-Coding-Fähigkeiten sehen. Nicht wenige glauben, dass der Weg bis zur ASI (Artificial Super Intelligence) dann nur noch sehr kurz ist.
Ein großer Tech-Bereich, welcher nach dem reinen Coden kommt (DevSecOps genannt), also das Bereitstellen und der sichere Betrieb von Software, galt lange als ein Bereich, den KI nicht so schnell übernehmen kann. AWS hat mit dem neuen AWS DevOps Agent gerade ein Tool herausgebracht, welches bereits auf dem Level eines Senior-DevSecOps agiert. Es lernt die Beziehungen und Ressourcen kennen und korreliert dabei Telemetrie-, Code- und Bereitstellungsdaten in allen Bereichen. Es untersucht und löst Vorfälle automatisch und erhöht die Zuverlässigkeit und Performance der Anwendungen kontinuierlich. Das ist keine Zukunftsmusik, das wird bereits produktiv bei Großkunden eingesetzt.
Die „Hacking“-Fähigkeiten moderner KI-Modelle/Agenten werden zunehmend problematisch. Die großen Anbieter versuchen zwar durch Guardrails zu unterbinden, dass deren KIs beim Hacken unterstützen, dies ist (wie jede solcher nachträglichen Security-Maßnahmen) aber nur begrenzt von Erfolg gekrönt. Wir erleben bereits einen massiven Anstieg unterschiedlichster Angriffe. Besonders besorgniserregend sind die sogenannten Supply-Chain-Angriffe auf populäre Softwarebibliotheken (die in hunderttausenden bekannter Apps verwendet werden). Hier gab es alleine in den letzten 2 Wochen erfolgreiche Angriffe auf sehr bekannte Tools/Libs (u. a. LiteLLM, Axios), deren Folgen noch nicht einmal abschätzbar sind.
Mit dem Unternehmen Medvi (Telemedizin) haben 2 Brüder in 1,5 Jahren mit nur 20.000 USD Kapital ein Unternehmen aufgebaut, welches wohl noch dieses Jahr eine Marktkapitalisierung von 1 Mrd. USD erreichen wird (mit nur einem Angestellten). Das gesamte Unternehmen ist durch KI/Agenten automatisiert. Wir werden in den nächsten Monaten/Jahren viele solcher Unternehmen sehen mit maximalem Output/Ertrag bei minimaler (nahezu keiner) Workforce.
Die CEOs aller großen AI Labs (OpenAI, Anthropic, Google) sprechen inzwischen von AGI (Allgemeine künstliche Intelligenz) innerhalb der nächsten 4 Jahre. Wir erleben bereits jetzt eine Phase ungeahnter Entwicklungsgeschwindigkeit in nahezu allen Bereichen. Nicht mehr nur Software, sondern auch Wissenschaft und Produktion.
Roboter werden bereits Ende des Jahres viele einfache handwerkliche Tätigkeiten (Schnee schippen, Wäsche waschen, Betten beziehen, Putzen etc.) übernehmen können. Funktionierende Prototypen gibt es bereits. In den Produktionshallen großer Unternehmen sieht es nicht anders aus. Der einzige Grund, warum nicht bereits in 2-3 Jahren in jedem Haushalt/Unternehmen so ein Roboter stehen wird, wird ein Mangel an Ressourcen und Produktionskapazitäten sein.
Das alles passiert bereits jetzt! Nicht erst in 5 Jahren. Das Tempo ist so hoch, dass es für die meisten Menschen und Unternehmen kaum noch zu verstehen, geschweige denn einholbar ist.
Wer das alles noch für ferne Zukunftsmusik hält, wird nicht unsanft geweckt sondern wie von einem Güterzug überrollt werden.
🇬🇧 Translation
AI update:
I haven't had much time for
The development of AI models is not “stopping” or slowing down, but is continuing to accelerate. The models are also becoming more and more efficient. With Google's open source AI Gemma 4, anyone can now run their own AI on an inexpensive private device that is as powerful as the flagship cloud models from the major providers were in December.
The current flagship AI models from major vendors write better program code than most human coders. You will find more elegant solutions and are 100x faster. Yes, they still make (stupid) mistakes here and there. But if the pace of development continues (which everything looks like), we will probably see AI agents with superhuman coding skills in a few years. Quite a few believe that the path to ASI (Artificial Super Intelligence) is then only very short.
A large tech area that comes after pure coding (called DevSecOps), i.e. the provision and secure operation of software, has long been considered an area that AI cannot take over so quickly. With the new AWS DevOps Agent, AWS has just released a tool that already operates at the senior DevSecOps level. It learns about relationships and resources while correlating telemetry, code, and deployment data across domains. It automatically investigates and resolves incidents and continuously increases the reliability and performance of the applications. This is not a thing of the future; it is already being used productively by major customers.
The “hacking” capabilities of modern AI models/agents are becoming increasingly problematic. The major providers try to use guardrails to prevent their AIs from assisting in hacking, but this (like all such subsequent security measures) has only limited success. We are already experiencing a massive increase in a wide variety of attacks. Of particular concern are the so-called supply chain attacks on popular software libraries (used in hundreds of thousands of popular apps). In the last two weeks alone there have been successful attacks on very well-known tools/libs (including LiteLLM, Axios), the consequences of which cannot even be estimated yet.
With the company Medvi (telemedicine), 2 brothers have built a company in 1.5 years with only 20,000 USD capital, which will probably reach a market capitalization of 1 billion USD this year (with only one employee). The entire company is automated by AI/agents. We will see many such companies in the next few months/years with maximum output/profit with minimal (almost no) workforce.
The CEOs of all major AI labs (OpenAI, Anthropic, Google) are now talking about AGI (General Artificial Intelligence) within the next 4 years. We are already experiencing a phase of unprecedented speed of development in almost all areas. No longer just software, but also science and production.
By the end of the year, robots will be able to take on many simple manual tasks (shoveling snow, doing laundry, making beds, cleaning, etc.). Working prototypes already exist. Things are no different in the production halls of large companies. The only reason why there won't be such a robot in every household/company in 2-3 years will be a lack of resources and production capacity.
All of this is already happening now! Not for another 5 years. The pace is so fast that most people and companies can hardly understand it, let alone keep up with it.
Anyone who still thinks this is all a distant dream will not be woken up rudely but will be run over like a freight train.
Ich bin neulich zufällig am FLINTA*-Streik in Münster vorbeigelaufen und habe den Beginn der Demo auf dem Prinzipalmarkt live miterlebt.
Ein paar Dutzend sehr bunte Personen unterschiedlichen Alters hatten sich versammelt. Zu Beginn hat die Rednerin* (darf man das so schreiben?) eine gefühlte Ewigkeit nur über die Sicherheit auf der "Veranstaltung" gesprochen:
„Wenn ihr bedroht werdet, meldet euch beim Ordner …“ *Applaus*
„Wenn ihr euch unsicher fühlt, meldet euch beim Ordner …“ *Applaus*
„… da gibt es einen Schutzraum …“ *Applaus*
„… bitte aufeinander achten …“ *Applaus*
Eine angemeldete Versammlung.
In Münster auf dem Prinzipalmarkt!
Mit ein paar Dutzend Menschen!!
Mit 3 Streifenwagen als Begleitung!!!
Bei 17 Grad und Sonnenschein!!!!
Was kann da passieren?
Malte-Thorben findet heraus, dass er Kuhmilch im Soja-Latte hat?
Der alt-Grüne Jürgen verwendet falsche Pronomen?
Jemand gendert nicht richtig?
Man liest ja öfter über solche Gruppierungen und sieht auch mal das ein oder andere Video, aber es ist nochmal eine ganz andere Nummer, es mit eigenen Augen zu erleben.
Es ist völlig absurd, in was für einer Parallelwelt einige leben.
🇬🇧 Translation
I recently happened to walk past the FLINTA* strike in Münster and witnessed the start of the demo live at the Principal Market.
A few dozen very colorful people of different ages had gathered. At the beginning, the speaker* (can you write it like that?) just talked about safety at the "event" for what felt like an eternity:
“If you are threatened, report it to the steward…” *Applause*
“If you feel unsafe, contact the folder…” *Applause*
“…there is a shelter…” *applause*
“…please take care of each other…” *applause*
A registered meeting.
In Münster at the Principal Market!
With a few dozen people!!
With 3 patrol cars as accompaniment!!!
At 17 degrees and sunshine!!!!
What can happen there?
Malte-Thorben finds out that he has cow's milk in his soy latte?
The old Green Jürgen uses the wrong pronouns?
Someone didn't change correctly?
You often read about such groups and sometimes see one or two videos, but it's a completely different matter to experience it with your own eyes.
It is completely absurd what a parallel world some people live in.
R to @ginandstocks: Da hier einige Fragen kommen einmal die FAQ:
1. Wie kann man Bewerber kündigen?
Die bewerben sich bei uns, weil sie gerade woanders gekündigt wurden.
2. Was für ITler?
Viele Junior Profile im Entwicklungs-, Sysadmin- und Consulting-Bereich. Aber auch ein paar Senior Devs/PMs dabei mit mehr als 10 Jahren Erfahrung.
3. Wieso schreiben die dazu, dass die gekündigt wurden?
Viele sind schon direkt ehrlich (was ich gut finde). Die anderen werden spätestens ehrlich, wenn man erwähnt, dass man im Nachgang noch gerne das finale Arbeitszeugnis des jeztigen Arbeitgebers für die Personalakte hätte. Zudem bekommen wir viele Profile von Personalvermittlern, welche ehrliche Angaben machen, da sie sonst rückwirkend die Provision verlieren könnten. Daher haken die genau nach bei Ihren Kandidaten.
4. Aus welchem Grund werden die gekündigt?
Steht doch dabei: Betriebsbedingt. Der Arbeitsplatz enfällt aufgrund Auftragsmangel, Betriebssschließung oder Umstrukturierung.
5. Welche Branche seid ihr (weil ihr noch einstellt)?
KI- und IT-Sicherheit.
6. Liegt das an KI?
Das wird offiziell kein Arbeitgeber in Deutschland zugeben, falls es so wäre. Bei Junior Devs gehe ich aber davon aus, dass es unter der Hand bei einigen der Grund ist.
Vielen Unternehmen geht es gerade aber wirklich nicht gut (das bestätigen auch viele Bewerber). Daher wird das wohl der Hauptgrund bei den meisten Kündigungen sein (vor allem bei nicht Devs).
🇬🇧 Translation
R to @ginandstocks: Since there are a few questions here, here's the FAQ:
1. How to terminate applicants?
They apply to us because they have just been laid off somewhere else.
2. What kind of IT people?
Many junior profiles in development, sysadmin and consulting areas. But also a few senior devs/PMs with more than 10 years of experience.
3. Why do they write that they were terminated?
Many are already honest (which I think is a good thing). The others will be honest when you mention that you would like to have the final reference from your current employer for your personnel file afterwards. We also receive many profiles from recruiters who provide honest information, otherwise they could retroactively lose their commission. That's why they pay close attention to your candidates.
4. For what reason are they terminated?
It says: Operational reasons. The job will be lost due to a lack of orders, company closures or restructuring.
5. What industry are you in (because you are still hiring)?
AI and IT security.
6. Is this due to AI?
No employer in Germany will officially admit this if it were so. For junior devs, I assume that this is secretly the reason for some of them.
Many companies are really not doing well at the moment (many applicants also confirm this). Therefore, this will probably be the main reason for most terminations (especially among non-devs).
Mehr als 50% aller Bewerber auf unsere aktuellen Stellenanzeigen (IT Berufe) wurden in den letzten Wochen betriebsbedingt gekündigt. Das haben wir in der Höhe noch nie erlebt.
Die offiziellen Statistiken geben noch gar nicht wieder was hier gerade passiert...
🇬🇧 Translation
More than 50% of all applicants for our current job advertisements (IT professions) have been terminated for operational reasons in the last few weeks. We have never experienced this at altitude.
The official statistics don't even reflect what's happening here...
Dafür, dass KI eigentlich ja nix kann (behaupten hier ja ständig Leute), ist das ein ziemlich beeindruckendes (und schönes) Outcome.
Es nimmt Fahrt auf!
🇬🇧 Translation
Considering that AI can't actually do anything (people here constantly claim), this is a pretty impressive (and beautiful) result.
It's picking up speed!
Ich lese hier ständig:"KI vernichtet keine Jobs, es entstehen neue." "War bei Maschinen und Computern doch auch so…"
Der Denkfehler bei all diesen Aussagen ist, dass man die Vergangenheit einfach auf die Zukunft überträgt.
Früher arbeiteten 90 % der Menschen körperlich, meist als Bauern. Durch Maschinen, Industrialisierung und Automatisierung sind fast alle diese Jobs weg. Heute sind es nur noch etwa 1,2 % in der Landwirtschaft.
Stattdessen entstanden geistige Jobs: Ingenieure, Programmierer, Analysten, Berater und so weiter. Inzwischen machen solche kognitiven oder dienstleistungsbezogenen Jobs in Deutschland rund 70–80 % aus.
KI ist aber etwas anderes. Sie greift zum ersten Mal die geistige Arbeit selbst an, nicht nur Teile davon. Sie ersetzt Planen, Analysieren, Kreatives Denken und Entscheiden immer mehr. Sie ist daher in keiner Weise auch nur annähernd mit vorherigen Revolutionen vergleichbar, da sie die einzige Technologie ist, die das zentrale Merkmal des Menschen - unser Denken - selbst herausfordert.
KI ist aktuell noch ein Werkzeug. Bereits in wenigen Jahren könnte sich das aber ändern - vom Werkzeug zum autonomen System, das nicht mehr nur unterstützt, sondern eigenständig entscheidet und schafft.
Und wir haben keinen Plan, was wir dann tun werden!
Weder politisch, noch gesellschaftlich oder ethisch. Keine echte Debatte über Grundeinkommen, über neue Formen von Sinn und Wertschöpfung, über Umverteilung in einer Welt, in der Produktivität explodiert, aber menschliche Arbeit optional wird.
Das ist der Punkt, an dem die alte Formel (Alte Jobs sterben, neue entstehen) einfach nicht mehr greift.
🇬🇧 Translation
I read here all the time: "AI doesn't destroy jobs, it creates new ones." “It was the same with machines and computers…”
The mistake in all of these statements is that the past is simply transferred to the future.
In the past, 90% of people worked physically, mostly as farmers. Almost all of these jobs have disappeared due to machines, industrialization and automation. Today there are only around 1.2% in agriculture.
Instead, intellectual jobs emerged: engineers, programmers, analysts, consultants, and so on. Such cognitive or service-related jobs now make up around 70-80% in Germany.
But AI is something different. For the first time it attacks intellectual work itself, not just parts of it. It is increasingly replacing planning, analyzing, creative thinking and decision-making. It is therefore in no way even remotely comparable to previous revolutions, as it is the only technology that challenges the very core of humanity - our thinking.
AI is currently still a tool. But that could change in just a few years - from a tool to an autonomous system that no longer just supports, but decides and creates independently.
And we have no plan what we will do then!
Neither political, nor social, nor ethical. No real debate about basic income, about new forms of meaning and value creation, about redistribution in a world in which productivity explodes but human work becomes optional.
This is the point at which the old formula (old jobs die, new ones emerge) simply no longer works.
Ich wiederhole mich ungern aber inzwischen gibt es für mich keinen Zweifel mehr:
Jede Tätigkeit, die sich vollständig über einen Computer erledigen lässt, wird automatisiert. Nicht vielleicht. Sondern zwangsläufig.
Die Frage ist nur ob in 10 Jahren oder bereits in 2.
🇬🇧 Translation
I don't like to repeat myself, but now there is no longer any doubt in my mind:
Any activity that can be done entirely via a computer is being automated. Not maybe. But inevitably.
The only question is whether in 10 years or already in 2.
Die aktuelle Jahresabschlussprüfung macht deutlicher denn je, in welch prekärer Situation sich die deutsche Wirtschaftsebene befindet.
Wir erleben eine zunehmende Lähmung durch Komplexität: Wenn sich selbst Steuerberater und Wirtschaftsprüfer nicht mehr über die Auslegung von Gesetzen einig sind, steht der Geschäftsführer am Ende mit der alleinigen Verantwortung im luftleeren Raum.
Die Qualität der Beratung verändert sich massiv. Anstatt klarer Empfehlungen hören wir immer öfter Vorbehalte: ‚Es ist reine Auslegungssache‘ oder ‚Manche Prüfer sehen es so, manche so‘.
Das deutsche Bilanz- und Gesellschaftsrecht ist zu einem regulatorischen Minenfeld geworden, das selbst für erfahrene Experten ab einer gewissen Unternehmensgröße kaum noch ohne signifikante Restrisiken zu durchqueren ist.
Dabei geht es nicht einmal um steuerliche Grauzonen, sondern um die schiere Komplexität der Bilanzierung einer mittelständischen GmbH.
Wir haben einen Punkt erreicht, an dem die Diskrepanz zwischen gesetzlicher Strenge und praktischer Umsetzbarkeit das verantwortungsvolle Handeln fast unmöglich macht.
Das Risiko, für unbewusste Fehler oder unterschiedliche Rechtsauffassungen persönlich und drakonisch haftbar gemacht zu werden, steht in keinem Verhältnis mehr zur Aufgabe.
Wenn der Gesetzgeber diesen Kurs beibehält, führen wir den Mittelstand in eine Sackgasse. Wer ist in Zukunft noch bereit, die Position eines Geschäftsführers zu übernehmen, wenn der Job nicht mehr auf Basis von Sicherheit und Expertise, sondern nur noch nach dem Prinzip Hoffnung ausführbar ist?
Die abstrakten Haftungsgefahren drohen die Bereitschaft zur unternehmerischen Verantwortung in Deutschland im Keim zu ersticken.
🇬🇧 Translation
The current annual audit makes it clearer than ever what a precarious situation the German economy finds itself in.
We are experiencing increasing paralysis due to complexity: If even tax advisors and auditors no longer agree on the interpretation of laws, the managing director ends up with sole responsibility in a vacuum.
The quality of advice is changing massively. Instead of clear recommendations, we are increasingly hearing reservations: 'It's purely a matter of interpretation' or 'Some auditors see it this way, some see it that way'.
German accounting and corporate law has become a regulatory minefield that even experienced experts of a certain company size can hardly navigate without significant residual risks.
It's not even about tax gray areas, but rather about the sheer complexity of accounting for a medium-sized GmbH.
We have reached a point where the discrepancy between legal strictness and practical feasibility makes acting responsibly almost impossible.
The risk of being held personally and draconianly liable for unconscious mistakes or different legal opinions is no longer disproportionate to the task.
If the legislature sticks to this course, we will lead medium-sized businesses into a dead end. Who will still be willing to take on the position of managing director in the future when the job can no longer be carried out on the basis of security and expertise, but only on the principle of hope?
The abstract liability risks threaten to nip the willingness to take corporate responsibility in Germany in the bud.
Ob SaaS Unternehmen wie ServiceNow $NOW ernsthaft durch KI bedroht sind darüber lässt sich sicherlich streiten. Vorsichtshalber nennt ServiceNow sich jetzt aber eine "KI-Plattform".
Das Wort "IT" kommt auf der Startseite nicht mal mehr vor. 👀
🇬🇧 Translation
Whether SaaS companies like ServiceNow $NOW are seriously threatened by AI is certainly debatable. As a precaution, ServiceNow now calls itself an “AI platform”.
The word “IT” doesn’t even appear on the homepage anymore. 👀
KI-Modelle sind jetzt so leistungsfähig, dass das Militär sie nutzen möchte. Damit wird KI in den USA offiziell zum Thema nationaler Sicherheit.
Allen Sicherheitsbekundungen von OpenAI zum Trotz darf man davon ausgehen, dass „USA First“ und „Safety Second“ gelten wird.
🇬🇧 Translation
AI models are now so powerful that the military wants to use them. This officially makes AI a national security issue in the USA.
Despite all of OpenAI's safety claims, one can assume that “USA First” and “Safety Second” will apply.
R to @ginandstocks: Anmerkung: Die Sendung ist von 2023. Danke für die Hinweise.
🇬🇧 Translation
R to @ginandstocks: Note: The show is from 2023. Thanks for the information.
Endlich ist KI auch ein Thema in den großen Talkshows. Bzw. war es. Die Expertin hat gesprochen und es droht keine Gefahr für die Gesellschaft. Also weiter zur Tagesordnung.
🇬🇧 Translation
AI is finally a topic on the big talk shows. Or rather it was. The expert has spoken and there is no threat to society. So on to the agenda.
Der Starrsinn einiger Software-Entwickler, die den KI-Fortschritt im Dev-Alltag partout nicht wahrhaben wollen, ist next level Realitätsverweigerung.
An den wüsten Beschimpfungen sieht man: Die meisten stecken tief in der Anger-Phase (Kübler-Ross).
🇬🇧 Translation
The stubbornness of some software developers who absolutely do not want to accept the AI progress in everyday development is next level denial of reality.
You can see from the wild insults that most of them are deep in the anger phase (Kübler-Ross).
Die eine Hälfte der Leute lacht mich unter dem Post aus, weil das bereits möglich ist, und die andere Hälfte, weil das quatsch ist und niemals kommen wird.
Das, Freunde, ist der AI Gap.
🇬🇧 Translation
Half of the people are laughing at me under the post because it's already possible, and the other half is laughing at me because it's nonsense and will never happen.
That, friends, is the AI Gap.
Wir sind nur wenige Monate davon entfernt, dass Menschen ohne irgendwelches IT-Knowhow eigene Apps entwickeln und betreiben können.
Man kann sich ausmalen, was das für kleine SaaS Anbieter und Individualsoftwareunternehmen bedeutet.
🇬🇧 Translation
We are only a few months away from people being able to develop and operate their own apps without any IT know-how.
You can imagine what this means for small SaaS providers and individual software companies.
„Durch KI entstehen auch viele neue Jobs.“
Ja, das stimmt natürlich. Auf 100.000 Jobs, die wegen KI wegfallen, kommen etwa 1.000 neue Jobs.
🇬🇧 Translation
“AI also creates many new jobs.”
Yes, of course that's true. Auf 100.000 Jobs, die wegen KI wegfallen, kommen etwa 1.000 neue Jobs.
Meine Güte, es passiert so viel in der KI-Welt, man müsste arbeitslos sein, um da überhaupt noch folgen zu können. Von nachvollziehen/ausprobieren ganz zu schweigen.
Wissenschaftler können ihre Paper zu KI direkt neu schreiben, noch bevor die Peer-Review durch ist.
🇬🇧 Translation
My goodness, there's so much happening in the AI world, you'd have to be unemployed to even keep up with it. Not to mention understanding/trying it out.
Scientists can rewrite their AI papers right away, even before peer review is complete.
Was wird die Eltern-Betrugsmasche 2026/2027? Genau das hier, nur mit Fake-Anrufen statt Fake-Nachrichten.
Scammer werden versuchen die Eltern von allen Personen, dessen Stimme und Identität irgendwo im Netz steht, ausfindig zu machen (z.B. YouTuber, Podcaster, Schauspieler/Moderatoren, Politiker oder jeder andere, der genug Spuren im Netz hinterlassen hat).
Haben sie die Eltern identifiziert (was mit hoher Wahrscheinlichkeit passiert), lässt sich auch die Telefonnummer einfach herausfinden (Festnetznummern stehen bei älteren Menschen meist noch im klassischen Telefonbuch, falls es gar nicht anders geht klingelt man an der Tür und holt die Nummer mit einem Vorwand).
Jetzt wird der KI die Stimme des Kindes verpasst (trainiert aus den verfügbaren Online-Aufnahmen) und der Betrüger telefoniert live mit dieser Stimme mit den Eltern - weinend, verzweifelt, um schnelle Hilfe flehend.
Ihr könnt euch vorstellen, wie Eltern darauf reagieren (vor allem solche, die nicht darauf vorbereitet wurden).
Was tun?
Wer beruflich nicht darauf angewiesen ist, dass seine Stimme öffentlich ist, dem rate ich dringend, dafür zu sorgen, dass sie auch nicht im Netz landet. Und falls sie schon online ist, sie so gut wie möglich zu entfernen.
Wer es nicht verhindern kann (oder konnte), dass seine Stimme online ist, dem rate ich dringend, mit Eltern, Verwandten, Partnern oder Freunden ein Codewort zu vereinbaren, das sie am Telefon erfragen sollen, falls etwas merkwürdig klingt.
Und nein, das ist wirklich weder übertrieben, noch ein schlechter Scherz. Genau das wird jetzt passieren. Je populärer ein Mensch online ist, desto wahrscheinlicher, dass er betroffen sein wird.
🇬🇧 Translation
What will the parent-betrugsmasche 2026/2027? That's right here, just with fake calls instead of fake messages.
Scammer will try to find out the parents of all persons whose voice and identity is somewhere on the net (e.g. YouTuber, Podcaster, actor/hosters, politicians or anyone else who has left enough traces on the net).
If they have identified the parents (which is likely to happen), you can easily find out the phone number (fixed-line numbers are usually still in the classic phone book for older people, if you don't want to ring at the door and get the number with an excuse).
Now the AI is missing the child's voice (trained from the available online recordings) and the scammer phones live with this voice with the parents - weeping, desperate to flee quick help.
You can imagine how parents react to it (especially those who were not prepared for it).
What to do?
Those who do not depend on his voice being public, I strongly advise to ensure that it does not land on the net. And if it's already online, remove it as well as possible.
Anyone who cannot (or could) prevent his voice being online, I strongly advise to agree with parents, relatives, partners or friends a code word they should ask on the phone if something sounds strange.
And no, that's really not exaggerated, nor a bad joke. That's what will happen now. The more popular a person is online, the more likely that he will be affected.
https://ai-2027.com/ ist eine ziemlich düstere Zukunftsprognose bezüglich KI. Sie ist ebenso viel beachtet wie kritisiert. Die Autoren haben sich inzwischen korrigiert: AGI wird wohl nicht 2027 eintreten, sondern erst einige Jahre später.
Spannend bleibt trotzdem, wie viele ihrer Vorhersagen nach und nach eintreffen.
Ganz aktuell etwa die Prognose, dass große Frontier-Labs ihre Sicherheitsstandards auf Druck von Regierungen und Militärs senken werden, um im internationalen Wettbewerb nicht zurückzufallen (Race-Szenario).
Genau das ist gerade eingetreten!
Ich weiß nicht, ob KI jemals imstande sein wird, uns auszulöschen. Ich bin mir aber sicher, dass wir alles tun werden, um es herauszufinden.
https://www.handelsblatt.com/technik/ki/ki-nach-streit-mit-pentagon-anthropic-lockert-sicherheitsregeln/100203296.html
🇬🇧 Translation
https://ai-2027.com/ is a rather gloomy future forecast for AI. She is as much respected as criticized. The authors have now corrected: AGI will probably not enter 2027, but only a few years later.
Nevertheless, how many of their predictions gradually arrive.
At present, for example, the forecast that large frontier laboratories will reduce their safety standards to pressure from governments and military forces in order not to fall back in international competition (race scenario).
That's exactly what happened.
I don't know if AI will ever be able to wipe us out. I'm sure we'll do everything we can to find out.
https://www.handelsblatt.com/technik/ki/ki-nach-kampf-mit-pentagon-anthropic-lockert-sicherheitsordnung/100203296.html
In nur 5 Jahren wird es das nicht mehr geben.
Keine Kamerafahrten auf Schienen, keine aufwändigen Studiokulissen mit Leinwänden, keine Requisiten.
1-Mann-Studios werden Blockbuster in Hollywood-Qualität mit dem Budget eines Hobbyprojekts produzieren.
🇬🇧 Translation
In only 5 years there will be no more.
No camera rides on rails, no elaborate studio scenes with canvases, no props.
1-man studios will produce blockbusters in Hollywood quality with the budget of a hobby project.
R to @ginandstocks: Innerhalb von nur 2 Jahren ist Vibe Coding von einer Spielerei zu einem nützlichen Werkzeug geworden (sagt inzwischen jeder ernstzunehmende DEV). Und jetzt denkt mal 2 Jahre weiter.
🇬🇧 Translation
R to @ginandstocks: Within only 2 years, Vibe Coding has become a useful tool from a gamery (now, every serious DEV). And now thinks about two years.
"Vibe Coding ersetzt zwar noch keine professionelle Softwareentwicklung, doch meine anfängliche Skepsis ist einem vorsichtigen Optimismus gewichen. Ich sehe Vibe Coding nach dem Selbstversuch nicht mehr als Spielerei, sondern als nützliches Werkzeug.."
https://www.golem.de/news/vibe-coding-im-selbstversuch-in-zwei-stunden-ein-saas-bauen-2602-205718.html
🇬🇧 Translation
"Vibe Coding does not yet replace professional software development, but my initial scepticism has moved to cautious optimism. I see Vibe Coding no longer as a play, but as a useful tool."
https://www.golem.de/news/vibe-coding-im- self-testing-in-two-hour-one-saas-baue-2602-205718.html