SZwanglos – Following Feed

465 Posts (gefiltert)
Reset
@DamienERNST1 @KatusaResearch RT von @DamienERNST1 21.03 16:16
$960 Per Ounce. Vanished in Three Weeks The average gold miner runs about 15% of their all-in costs through energy. Oil up 52% adds $130 to every ounce produced. And Gold down $830 kills the revenue side. Three weeks of war turned a $3,600 margin into $2,640. And the Strait of Hormuz is still closed.
🇩🇪 Übersetzung
RT von @DamienERNST1: 960 $ pro Unze. Innerhalb von drei Wochen verschwunden Der durchschnittliche Goldminenbetreiber deckt etwa 15 % seiner Gesamtkosten mit Energie ab. Der Anstieg des Ölpreises um 52 % bringt 130 US-Dollar pro produzierte Unze mit sich. Und der Rückgang des Goldpreises um 830 $ macht die Einnahmenseite zunichte. Drei Wochen Krieg verwandelten eine Marge von 3.600 $ in 2.640 $. Und die Straße von Hormus ist immer noch gesperrt.
@DamienERNST1 @WeatherMonitors RT von @DamienERNST1 21.03 14:56
Students at a Government Polytechnic in India have created a fire extinguisher that uses low-frequency sound waves to push oxygen away and extinguish fires, instead of using water or foam.
🇩🇪 Übersetzung
RT von @DamienERNST1: Studenten einer staatlichen Fachhochschule in Indien haben einen Feuerlöscher entwickelt, der niederfrequente Schallwellen verwendet, um Sauerstoff wegzudrücken und Brände zu löschen, anstatt Wasser oder Schaum zu verwenden.
@DamienERNST1 @JavierBlas RT von @DamienERNST1 21.03 12:25
US Treasury says there are 140 million barrels of Iranian oil "stranded" on the water. That's misleading -- if not false. There're about 100 million barrels of Iranian oil on their way to China, and probably another 40 million on floating storage. Only the later is "stranded."
🇩🇪 Übersetzung
RT von @DamienERNST1: Das US-Finanzministerium sagt, dass 140 Millionen Barrel iranisches Öl auf dem Wasser „gestrandet“ sind. Das ist irreführend – wenn nicht sogar falsch. Etwa 100 Millionen Barrel iranisches Öl sind auf dem Weg nach China und wahrscheinlich weitere 40 Millionen in schwimmenden Lagern. Nur Letzteres ist „gestrandet“.
@DamienERNST1 @LEXPRESS RT von @DamienERNST1 21.03 11:40
Derrière le pari technologique de l'entrepreneur français @ylecun, se trouve une rupture avec les grands modèles de langage (LLM) actuels et, en toile de fond, une fenêtre d'opportunité pour l’Europe. ➡️ https://l.lexpress.fr/BLo ✍️ @MRecoquille
🇩🇪 Übersetzung
RT von @DamienERNST1: Ich habe die Technologieparität des französischen Unternehmers @ylecun kennengelernt, er hat einen Bruch mit den großen Sprachmodellen (LLM) in der Gegenwart und im Alltag gefunden, eine Gelegenheit, sich für Europa zu öffnen. ➡️ https://l.lexpress.fr/BLo ✍️ @MRecoquille
@DamienERNST1 @Dr_Singularity RT von @DamienERNST1 21.03 11:34
this is big OpenAI is aiming to build a fully autonomous AI researcher as its next major goal. The near term milestone: by September 2026, to have an AI research intern that can independently complete multi day human tasks. 2028 goal - a self operating, multi agent research lab running inside a data center. AI systems doing the heavy intellectual lifting, while humans define the problems worth solving.
🇩🇪 Übersetzung
RT von @DamienERNST1: Das ist groß Als nächstes großes Ziel strebt OpenAI den Aufbau eines vollständig autonomen KI-Forschers an. Der kurzfristige Meilenstein: Bis September 2026 soll ein KI-Forschungspraktikant eingestellt werden, der mehrtägige menschliche Aufgaben selbstständig erledigen kann. Ziel für 2028: ein selbsttätiges Multiagenten-Forschungslabor, das in einem Rechenzentrum betrieben wird. KI-Systeme erledigen die schwere intellektuelle Arbeit, während Menschen die Probleme definieren, die es zu lösen gilt.
@DamienERNST1 @slow_developer RT von @DamienERNST1 21.03 11:00
Terence Tao says AI is already doing frontier math humans can't, just a different frontier than we expect But it is a different kind of mathematical ability, closer to how calculators surpassed human number-crunching without thinking like mathematicians "within a decade, AI can do much of the work mathematicians do today"
🇩🇪 Übersetzung
RT von @DamienERNST1: Terence Tao sagt, dass KI bereits Grenzberechnungen durchführt, die Menschen nicht können, nur eine andere Grenze, als wir erwarten Aber es handelt sich um eine andere Art von mathematischer Fähigkeit, die eher der Art und Weise ähnelt, wie Taschenrechner die menschliche Zahlenverarbeitung übertrafen, ohne wie Mathematiker zu denken „Innerhalb eines Jahrzehnts kann KI einen Großteil der Arbeit erledigen, die Mathematiker heute leisten.“
@DamienERNST1 @TKouilou RT von @DamienERNST1 21.03 10:26
Le ton change clairement dans les canaux russes. Même les sources proches de l’aviation parlent d’un vrai problème. 💥👉 Nouvelle perte confirmée : Un autre Kamov Ka-52 a été perdu. Les causes exactes restent inconnues pour l’instant. Mais en interne, une hypothèse inquiète : les drones FPV. Panique autour des drones FPV Depuis cette perte, priorité totale : installer en urgence des systèmes de guerre électronique (REB) sur les hélicoptères d’attaque. Sur les Mil Mi-8, les équipages bricolent leurs propres solutions… à leurs risques et périls. Systèmes “artisanaux” Les pilotes de Mi-8 utilisent : • du matériel financé par des volontaires • des équipements achetés eux-mêmes • des installations improvisées Bref, du système D en pleine guerre moderne. Officiellement, l’industrie travaille sur des solutions depuis des années. Dans les faits : rien de concret sur le terrain. Le décalage est énorme entre besoins réels et réponses techniques. 👉 Des équipages pas totalement démunis… mais presque Aujourd’hui, la plupart des équipages ont des détecteurs de drones et parfois même des fusils à bord (oui, littéralement) Mais selon les retours c’est bien sûr insuffisant et surtout peu efficace 👉 Le vrai problème technique Installer du REB sur des hélicoptères comme le Mil Mi-28 ou le Ka-52 n’est pas simple. Pourquoi ? incompatibilité électromagnétique Un système mal intégré peut… perturber les propres systèmes de l’hélico Dans le pire des cas le REB peut provoquer la perte de l’appareil Contrairement à un hélico de transport : • on ne peut pas juste poser un système dans la cabine • tout doit être intégré proprement (antennes, alimentation, commandes) Et ça, ça prend du temps… que le terrain n’a pas. 👉 Réaction en haut lieu Selon la source, depuis hier : ➡️les responsables russes prennent le problème très au sérieux Mais en attendant une solution industrielle : ➡️ils pourraient copier les systèmes déjà bricolés sur le terrain ➡️même imparfaits, ils semblent “tenir” 👉 Conclusion Les pertes récentes, confirmées aussi par Militarnyi, montrent une vulnérabilité croissante : ➡️ les hélicoptères d’attaque russes ne sont pas prêts face aux drones FPV ➡️et les solutions actuelles arrivent trop lentement Un signal faible… mais très révélateur de l’évolution du champ de bataille. https://militarnyi.com/en/news/russians-lose-second-ka-52-in-24-hours/ https://t.me/bomber_fighter/24636
🇩🇪 Übersetzung
RT von @DamienERNST1: Der Ton ändert die Klarheit in den russischen Kanälen. Die Quellen der Luftfahrt stammen ebenfalls aus einem aktuellen Problem. 💥👉 Neue Bestätigung perte: Ein anderer Kamov Ka-52 ist für immer da. Die Ursachen bleiben für den Augenblick bestehen. Im Internet gibt es eine weitere Frage: FPV-Drohnen. Panique Autor von FPV-Drohnen Aus diesem Grund hat die absolute Priorität: Installieren Sie dringend elektronische Kampfsysteme (REB) auf Angriffshubschraubern. Auf der Mil Mi-8 bricolieren die Ausrüstungen ihre eigenen Lösungen ... zu ihren Risiken und Gefahren. „Artisanaux“-Systeme Die von der Mi-8 verwendeten Piloten: • Das von Freiwilligen finanzierte Material • des équipements achetés eux-mêmes • des improvisierten Installationen Kurze Beschreibung, das System D im modernen Stil. Offiziell arbeitet die Industrie seit Jahren an Lösungen. In der Tat: Betonung auf dem Gelände. Der Druck ist zwischen den erforderlichen Walzen- und Reaktionstechniken enorm. 👉 Des équipages pas totalement démunis… mais presque Aujourd’hui, la pluppart of equipages ont detecteurs de Drones et parfois meme of fusils à bord (oui, littéralement) Allerdings waren die Rücksendungen nicht ausreichend und absolut wirksam 👉 Die problematische Technik Die Installation von REB auf Hubschraubern wie der Mil Mi-28 oder der Ka-52 ist nicht einfach. Pourquoi? elektromagnetische Inkompatibilität Ein nicht integriertes System kann die eigenen Systeme des Hubschraubers stören In der Nähe des REB-Gehäuses kann die Gefahr bestehen, dass das Gerät beschädigt wird Widerspruch zu einem Transporthélico: • Es kann sein, dass kein System in der Kabine vorhanden ist • Alles, was Sie brauchen, ist integriertes Eigentum (Antennen, Stromversorgung, Befehle) Und es dauerte so lange, bis das Gelände verschwunden war. 👉 Direkte Reaktion Selon la source, depuis hier: ➡️Les Responsables russes prennent the problem très au sérieux Weitere Informationen zu einer industriellen Lösung: ➡️Ihre Kopierer-Systeme wurden auf dem Gelände gebaut ➡️même imparfaits, ils semblent „tenir“ 👉 Fazit Aktuelle Meldungen, die auch von der Armee bestätigt wurden, weisen eine erhöhte Verwundbarkeit auf: ➡️ Russische Angriffshubschrauber dürfen nicht mit FPV-Drohnen konfrontiert werden ➡️Die aktuellen Lösungen kommen in Kürze an Ein schwaches Signal … mehr als nur ein Aufschluss über die Entwicklung des Schlachtfeld-Champions. https://militarnyi.com/en/news/russians-lose-second-ka-52-in-24-hours/ https://t.me/bomber_fighter/24636
@DamienERNST1 @front_ukrainian RT von @DamienERNST1 21.03 08:35
❗️Ground-based robotic systems this year could replace up to a third of 🇺🇦Ukrainian infantry on the line of combat contact — commander of the 3rd Army Corps Andriy Biletskyi “If we move in the direction of technological innovation, then this year, I am convinced, it will be possible to remove up to 30% of infantrymen from the line of combat contact, and in the near future — up to 80%.”
🇩🇪 Übersetzung
RT von @DamienERNST1: ❗️Bodengestützte Robotersysteme könnten in diesem Jahr bis zu einem Drittel der 🇺🇦ukrainischen Infanterie an der Kampfkontaktlinie ersetzen – Kommandeur des 3. Armeekorps Andriy Biletskyi „Wenn wir uns in Richtung technologischer Innovation bewegen, wird es meiner Überzeugung nach in diesem Jahr möglich sein, bis zu 30 % der Infanteristen aus der Kampfkontaktlinie zu entfernen, und in naher Zukunft sogar bis zu 80 %.“
@DamienERNST1 @aakashgupta RT von @DamienERNST1 21.03 04:07
The observation is real but the causation runs backwards. 53% of unicorn founders studied CS, engineering, or economics. All math-heavy. 62% held post-graduate degrees. They kept choosing harder problems on purpose. Math at a young age is where you first encounter a problem that takes 45 minutes of wrong answers before the right one appears. Most kids quit that loop. Some stay in it. The ones who stay are self-selecting for one trait: tolerance for being wrong repeatedly while continuing to work. That trait is invisible in every other school subject where memorization still gets you an A. Patrick Collison enrolled at MIT at 16. Dropped out. Stripe is now worth $159 billion. A decade of training on problems where the first five approaches fail and you keep going anyway is what built that company. The girl in this photo is doing Arrhenius kinetics and Michaelis-Menten enzyme modeling. Applied math. The kind where the answer has to be right because a physical system depends on it. Startups are the same loop at a larger scale. Incomplete information, no answer key, months before you know if you're even solving the right problem. The math kids were learning to stay in the room.
🇩🇪 Übersetzung
RT von @DamienERNST1: Die Beobachtung ist real, aber die Kausalität läuft rückwärts. 53 % der Unicorn-Gründer haben Informatik, Ingenieurwesen oder Wirtschaftswissenschaften studiert. Alles mathelastig. 62 % hatten einen Postgraduiertenabschluss. Sie wählten absichtlich immer wieder schwierigere Probleme. In der Mathematik stößt man in jungen Jahren zum ersten Mal auf ein Problem, bei dem man 45 Minuten lang falsche Antworten braucht, bevor die richtige Antwort auftaucht. Die meisten Kinder verlassen diese Schleife. Manche bleiben drin. Diejenigen, die bleiben, selektieren sich selbst aufgrund einer Eigenschaft: der Toleranz, wiederholt Fehler zu machen und gleichzeitig weiter zu arbeiten. Diese Eigenschaft ist in jedem anderen Schulfach unsichtbar, in dem man durch Auswendiglernen immer noch eine Eins erhält. Patrick Collison schrieb sich mit 16 am MIT ein und brach das Studium ab. Stripe ist jetzt 159 Milliarden US-Dollar wert. Ein Jahrzehnt der Schulung zu Problemen, bei denen die ersten fünf Ansätze scheitern und man trotzdem weitermacht, hat dieses Unternehmen aufgebaut. Das Mädchen auf diesem Foto führt Arrhenius-Kinetik und Michaelis-Menten-Enzymmodellierung durch. Angewandte Mathematik. Die Art, bei der die Antwort richtig sein muss, weil ein physikalisches System davon abhängt. Startups sind in größerem Maßstab derselbe Kreislauf. Unvollständige Informationen, kein Antwortschlüssel, Monate bevor Sie wissen, ob Sie überhaupt das richtige Problem lösen. Die Mathematikkinder lernten, im Zimmer zu bleiben.
@DamienERNST1 @ShangguanJiewen RT von @DamienERNST1 21.03 03:27
🇨🇳China is Using Algae to Transform Deserts into Farmland After spraying cyanobacteria, microbial growth transforms deserts into arable land. Sound like sci-fi? It's Chinese innovation.
🇩🇪 Übersetzung
RT von @DamienERNST1: 🇨🇳China nutzt Algen, um Wüsten in Ackerland zu verwandeln Nach dem Versprühen von Cyanobakterien verwandelt mikrobielles Wachstum Wüsten in Ackerland. Klingt nach Science-Fiction? Es ist chinesische Innovation.
@DamienERNST1 @SStapczynski RT von @DamienERNST1 21.03 00:28
This chart shows how the US natural gas market is insulated from the conflict in the Middle East 🇺🇸👇 European gas prices surged to the highest since Russia's invasion of Ukraine in 2022 Meanwhile, US prices steady due to abundance of supply (thanks to the shale revolution)
🇩🇪 Übersetzung
RT von @DamienERNST1: Dieses Diagramm zeigt, wie der US-amerikanische Erdgasmarkt vom Konflikt im Nahen Osten isoliert ist 🇺🇸👇 Die europäischen Gaspreise sind auf den höchsten Stand seit der russischen Invasion der Ukraine im Jahr 2022 gestiegen Unterdessen stabilisieren sich die US-Preise aufgrund des reichlichen Angebots (dank der Schieferrevolution)
@DamienERNST1 @AnishA_Moonka RT von @DamienERNST1 20.03 20:44
Terence Tao is arguably the greatest mathematician alive. He just sat down with Dwarkesh for ~84 minutes on AI, math, and what actually counts as scientific progress. Here is the clearest thinking I have heard on what AI can and cannot do for science. Our notes: 𝟭. 𝗔𝗜 𝗵𝗮𝘀 𝗺𝗮𝗱𝗲 𝗴𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝗻𝗴 𝗶𝗱𝗲𝗮𝘀 𝗮𝗹𝗺𝗼𝘀𝘁 𝗳𝗿𝗲𝗲. 𝗧𝗵𝗲 𝗵𝗮𝗿𝗱 𝗽𝗮𝗿𝘁 𝗶𝘀 𝗻𝗼𝘄 𝗰𝗵𝗲𝗰𝗸𝗶𝗻𝗴 𝘄𝗵𝗶𝗰𝗵 𝗼𝗻𝗲𝘀 𝗮𝗿𝗲 𝗿𝗲𝗮𝗹. The internet made it nearly free to send a message to anyone. AI has done the same thing for coming up with possible explanations for scientific problems. You can now produce thousands of theories in minutes. But figuring out which ones are actually correct, and which are garbage? That part has not gotten any faster. Every company and research lab should be thinking about this gap. We can generate endlessly. We cannot verify at the same speed. 𝟮. 𝗞𝗲𝗽𝗹𝗲𝗿 𝘀𝗽𝗲𝗻𝘁 𝟮𝟬 𝘆𝗲𝗮𝗿𝘀 𝘁𝗿𝘆𝗶𝗻𝗴 𝗿𝗮𝗻𝗱𝗼𝗺 𝘁𝗵𝗲𝗼𝗿𝗶𝗲𝘀 𝗯𝗲𝗳𝗼𝗿𝗲 𝗵𝗲 𝗴𝗼𝘁 𝗶𝘁 𝗿𝗶𝗴𝗵𝘁. Johannes Kepler (the astronomer who figured out how planets orbit the Sun) started with a beautiful but completely wrong theory involving 3D geometric shapes nested between the planets. He kept guessing for two decades. The book where he finally published his correct law is mostly notes about astrology, about how Earth's musical notes cause famine. @Dwarkesh_sp puts it perfectly: the random idea generator is only useful if there is a reliable dataset to test against. Without the astronomical observations that another scientist (Tycho Brahe) had painstakingly collected, Kepler would never have found the right answer. 𝟯. 𝗣𝗮𝘁𝘁𝗲𝗿𝗻𝘀 𝗳𝗿𝗼𝗺 𝘀𝗺𝗮𝗹𝗹 𝘀𝗮𝗺𝗽𝗹𝗲𝘀 𝗰𝗮𝗻 𝗯𝗲 𝗰𝗼𝗺𝗽𝗹𝗲𝘁𝗲 𝗳𝗹𝘂𝗸𝗲𝘀. Kepler's law about orbital timing was based on just six data points, one per known planet. A later astronomer, named Bode, found a similar pattern and predicted a missing planet. Two new discoveries matched. People got excited. Then Neptune was discovered, and the pattern completely broke. It was a numerical coincidence from too few examples. I think about this every time someone shows a "law" based on a handful of cherry-picked data points. Kepler got lucky. Bode did not. 𝟰. 𝗧𝗵𝗲 𝗰𝗼𝗿𝗿𝗲𝗰𝘁 𝘁𝗵𝗲𝗼𝗿𝘆 𝗼𝗳𝘁𝗲𝗻 𝗹𝗼𝗼𝗸𝘀 𝘄𝗼𝗿𝘀𝗲 𝘁𝗵𝗮𝗻 𝘁𝗵𝗲 𝘄𝗿𝗼𝗻𝗴 𝗼𝗻𝗲 𝗮𝘁 𝗳𝗶𝗿𝘀𝘁. When Copernicus proposed that the Earth goes around the Sun, his model was actually less accurate than the old (wrong) Earth-centered model. The old model had a thousand years of tweaks, making it precise. Copernicus was simpler but rougher. Newton's theory of gravity left mysteries that Einstein, centuries later, resolved. Any AI system that scores ideas purely on "how accurate is this right now" would have dismissed most of history's biggest breakthroughs. That should make everyone pause before building benchmarks that only measure today's accuracy. 𝟱. 𝗔𝗜 𝗶𝗻 𝗺𝗮𝘁𝗵 𝗰𝗮𝗻 𝗷𝘂𝗺𝗽, 𝗯𝘂𝘁 𝗶𝘁 𝗰𝗮𝗻𝗻𝗼𝘁 𝗰𝗹𝗶𝗺𝗯. Tao's analogy: imagine a mountain range of walls, all different heights, all in the dark. Humans slowly feel their way up, finding handholds and mapping routes. AI is a machine that can jump straight up two meters. Sometimes it clears a short wall. Sometimes it jumps in the wrong direction and crashes. But it cannot grab a ledge, pull itself up, and jump again from a higher position. That inability to build on partial progress is the gap. Anyone who has worked on a hard problem where each small step makes the next one possible will recognize what is missing here. 𝟲. 𝗔𝗜 𝗰𝗹𝗲𝗮𝗿𝗲𝗱 𝘁𝗵𝗲 𝗲𝗮𝘀𝘆 𝗺𝗮𝘁𝗵 𝗽𝗿𝗼𝗯𝗹𝗲𝗺𝘀 𝗳𝗮𝘀𝘁, 𝘁𝗵𝗲𝗻 𝗵𝗶𝘁 𝗮 𝘄𝗮𝗹𝗹. There is a famous list of about 1,100 unsolved math challenges (called Erdos problems, named after a legendary mathematician who collected them). AI solved about 50 of them in a burst. Almost all were problems nobody had seriously tried before. Then progress stalled. Three separate teams threw the best AI models at every remaining problem and got almost nothing new. I keep seeing this same pattern across industries. The wins get posted on social media. The systematic failure rates stay quiet. If you only follow the highlights, your picture of AI progress is way off. 𝟳. 𝗧𝗵𝗲𝗿𝗲 𝗶𝘀 𝗮 𝗱𝗶𝗳𝗳𝗲𝗿𝗲𝗻𝗰𝗲 𝗯𝗲𝘁𝘄𝗲𝗲𝗻 𝗰𝗹𝗲𝘃𝗲𝗿𝗻𝗲𝘀𝘀 𝗮𝗻𝗱 𝗶𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲. When two mathematicians solve a problem together, they try something, it almost works, they adjust, try again, and each failed attempt teaches them something that shapes the next one. AI mostly just guesses, fails, guesses again, fails again. It does not learn from each failure to make the next attempt smarter. Tao calls what AI does right now "artificial cleverness." That is the most precise two-word description of these systems we have seen anyone use. 𝟴. 𝗧𝗮𝗼'𝘀 𝗽𝗮𝗽𝗲𝗿𝘀 𝗮𝗿𝗲 𝗿𝗶𝗰𝗵𝗲𝗿 𝗻𝗼𝘄, 𝗯𝘂𝘁 𝘁𝗵𝗲 𝗰𝗼𝗿𝗲 𝘄𝗼𝗿𝗸 𝗶𝘀 𝘂𝗻𝗰𝗵𝗮𝗻𝗴𝗲𝗱. His research papers now include more charts, code, and numerical examples because AI makes those easy. Recreating his current papers without AI would take 5x longer. But the hardest part of the job, actually solving the mathematical puzzle, still happens with pen and paper. AI handles the side tasks. This is such an honest assessment. The 5x number is real, but it measures extras rather than the actual breakthrough. I think most knowledge workers are quietly discovering the same thing about their own jobs right now. 𝟵. 𝗪𝗲 𝗸𝗻𝗼𝘄 𝗵𝗼𝘄 𝘁𝗼 𝗳𝗼𝗿𝗺𝗮𝗹𝗶𝘇𝗲 𝗽𝗿𝗼𝗼𝗳, 𝗯𝘂𝘁 𝗻𝗼𝘁 𝗶𝗻𝘁𝘂𝗶𝘁𝗶𝗼𝗻. We now have computer systems (like the programming language Lean) that can check whether a mathematical proof is logically valid. AI has gotten good at using those. But there is no equivalent system for the softer questions: "Is this idea worth pursuing?" "Does this approach seem promising?" That kind of scientific intuition still requires human judgment and years of experience. If someone builds a way to formalize that kind of reasoning, it will be one of the most important tools of the decade. Formalizing scientific taste sounds impossible, but formalizing deductive logic also sounded impossible for 2,000 years before it happened. 𝟭𝟬. 𝗗𝗮𝗿𝘄𝗶𝗻 𝘀𝘂𝗰𝗰𝗲𝗲𝗱𝗲𝗱 𝗽𝗮𝗿𝘁𝗹𝘆 𝗯𝗲𝗰𝗮𝘂𝘀𝗲 𝗵𝗲 𝘄𝗿𝗼𝘁𝗲 𝘄𝗲𝗹𝗹. Darwin wrote in plain English and wove scattered evidence into a story people could follow. Newton wrote in Latin, invented new math to explain his ideas, and kept his best insights secret out of rivalry. It took decades for other scientists to translate Newton into terms that regular people could understand. How persuasive an explanation is turns out to matter hugely in science. And that is exactly the kind of thing that is very hard to teach an AI to optimize for. Maybe it should stay that way. 𝟭𝟭. 𝗧𝗮𝗼 𝘁𝗵𝗶𝗻𝗸𝘀 𝘆𝗼𝘂 𝘀𝗵𝗼𝘂𝗹𝗱 𝘀𝘁𝗼𝗽 𝗼𝘃𝗲𝗿-𝗼𝗽𝘁𝗶𝗺𝗶𝘇𝗶𝗻𝗴 𝘆𝗼𝘂𝗿 𝘁𝗶𝗺𝗲. He once spent a year at a research institute with zero distractions. After a few months, he ran out of ideas. He finds that the events he reluctantly attends outside his comfort zone often produce his best unexpected encounters. A certain amount of randomness and distraction is necessary for creative work. I built an app through Vibe coding precisely because we stumbled into it by accident. The most interesting things in any career tend to come from the unplanned detours. The greatest mathematician alive is telling you to stop maximizing your schedule. 𝟭𝟮. 𝗜𝗳 𝗮 𝗰𝗲𝗿𝘁𝗮𝗶𝗻 𝗺𝗮𝘁𝗵 𝗰𝗼𝗻𝗷𝗲𝗰𝘁𝘂𝗿𝗲 𝘁𝘂𝗿𝗻𝘀 𝗼𝘂𝘁 𝘁𝗼 𝗯𝗲 𝘄𝗿𝗼𝗻𝗴, 𝗼𝘂𝗿 𝗲𝗻𝗰𝗿𝘆𝗽𝘁𝗶𝗼𝗻 𝗰𝗼𝘂𝗹𝗱 𝗯𝗿𝗲𝗮𝗸. There is an unproven mathematical conjecture called the Riemann hypothesis about how prime numbers (numbers divisible only by 1 and themselves, like 7, 11, 13) are distributed. Much of modern encryption relies on the assumption that prime numbers have no hidden patterns. Tao says if this conjecture turned out to be false, it would mean there is a secret pattern in the primes that nobody knows about. And if one hidden pattern exists, there are probably more that could be exploited to break encryption. That is the single scariest sentence about internet security I have ever heard a Fields Medalist (the highest honor in mathematics) say out loud. Tao on careers: "We live in a particularly unpredictable era. Things we have taken for granted for centuries may not hold anymore." He points out that even high school students can now contribute to frontier math research using AI tools, something that used to require a PhD. The full podcast is worth listening to. Link in thread.
🇩🇪 Übersetzung
RT von @DamienERNST1: Terence Tao ist wohl der größte Mathematiker am Leben. Er setzte sich einfach mit Dwarkesh für ~84 Minuten auf KI, Mathematik und was tatsächlich zählt als wissenschaftliche Fortschritt. Hier ist das klarste Denken, das ich gehört habe, was KI für die Wissenschaft tun kann und kann. Unsere Anmerkungen: 1. KI hat fast freie Ideen generiert. Der harte Teil prüft nun, welche real sind. Das Internet machte es fast kostenlos, eine Nachricht an jeden zu senden. Die KI hat dasselbe getan, um mögliche Erklärungen für wissenschaftliche Probleme zu machen. Sie können jetzt Tausende von Theorien in Minuten produzieren. Aber herauszufinden, welche richtig sind und welche Müll sind? Der Teil ist nicht schneller geworden. Jedes Unternehmen und Forschungslabor sollte an diese Lücke denken. Wir können endlos erzeugen. Wir können nicht mit der gleichen Geschwindigkeit überprüfen. 2. Kepler verbrachte 20 Jahre versuchte zufällige Theorien, bevor er es richtig bekam. Johannes Kepler (der Astronom, der herausgefunden hat, wie Planeten die Sonne umkreisen) begann mit einer schönen, aber völlig falschen Theorie mit 3D geometrischen Formen zwischen den Planeten eingebettet. Er erraten seit zwei Jahrzehnten. Das Buch, in dem er schließlich sein korrektes Gesetz veröffentlichte, ist meist Notizen über Astrologie, wie die Noten der Erde Hunger verursachen. @Dwarkesh sp bringt es perfekt: Der Zufalls-Ideen-Generator ist nur nützlich, wenn es einen zuverlässigen Datensatz zum Testen gibt. Ohne die astronomischen Beobachtungen, die ein anderer Wissenschaftler (Tycho Brahe) schmerzhaft gesammelt hatte, hätte Kepler nie die richtige Antwort gefunden. 3. Muster aus kleinen Proben können komplette Flocken sein. Keplers Gesetz über die Orbitalzeit basierte auf nur sechs Datenpunkten, einem pro bekannten Planeten. Ein später Astronom namens Bode fand ein ähnliches Muster und prophezeite einen fehlenden Planeten. Zwei neue Entdeckungen wurden abgestimmt. Die Leute sind aufgeregt. Dann wurde Neptun entdeckt, und das Muster komplett gebrochen. Es war ein numerischer Zufall aus zu wenigen Beispielen. Ich denke daran, jedes Mal, wenn jemand ein "Gesetz" zeigt, basierend auf einer Handvoll von kirsch-verlesenen Datenpunkten. Kepler hatte Glück. Bode nicht. 4. Die richtige Theorie sieht oft schlechter aus als die falsche zuerst. Als Copernicus vorschlug, dass die Erde um die Sonne geht, war sein Modell tatsächlich weniger genau als das alte (falsche) irdische Modell. Das alte Modell hatte tausend Jahre Tweaks, so dass es präzise. Copernicus war einfacher, aber rauer. Newtons Schwerkrafttheorie hinterließ Mysterien, die Einstein, Jahrhunderte später, aufgelöst. Jedes KI-System, das Ideen rein auf "wie genau ist das jetzt" trifft, hätte die meisten der größten Durchbrüche der Geschichte entlassen. Das sollte jeder Pause machen, bevor er Benchmarks baut, die nur die heutige Genauigkeit messen. 5. KI in Mathematik kann springen, aber es kann nicht klettern. Taos Analogie: stellen Sie sich eine Bergkette von Wänden vor, alle unterschiedlichen Höhen, alles im Dunkeln. Die Menschen fühlen sich langsam auf dem Weg nach oben, finden Handhalte- und Kartierungswege. KI ist eine Maschine, die gerade auf zwei Meter springen kann. Manchmal löscht es eine kurze Wand. Manchmal springt es in die falsche Richtung und stürzt ab. Aber es kann keine Leiste greifen, sich hochziehen und wieder von einer höheren Position springen. Diese Unfähigkeit, auf teilweisem Fortschritt aufzubauen, ist die Lücke. Wer an einem harten Problem gearbeitet hat, wo jeder kleine Schritt den nächsten ermöglicht, wird erkennen, was hier fehlt. 6. KI räumte die einfachen Mathe Probleme schnell, dann traf eine Wand. Es gibt eine berühmte Liste von etwa 1.100 ungelösten Mathe-Herausforderungen (genannte Erdos-Probleme, benannt nach einem legendären Mathematiker, der sie gesammelt hat). KI löste etwa 50 davon in einem Burst. Fast alle waren Probleme, die vorher niemand ernsthaft versucht hatte. Dann ist der Fortschritt gestoppt. Drei separate Teams warfen die besten KI-Modelle bei jedem verbleibenden Problem und bekamen fast nichts Neues. Ich sehe dieses gleiche Muster in verschiedenen Branchen. Die Gewinne werden auf Social Media veröffentlicht. Die systematischen Ausfallraten bleiben ruhig. Wenn Sie nur den Höhepunkten folgen, ist Ihr Bild von KI-Fortschritt weit entfernt. 7. Es gibt einen Unterschied zwischen Klugheit und Intelligenz. Wenn zwei Mathematiker gemeinsam ein Problem lösen, versuchen sie etwas, es funktioniert fast, sie passen, versuchen wieder, und jeder gescheiterte Versuch lehrt sie etwas, das die nächste formt. KI erraten meistens nur, scheitert, erraten wieder, scheitert wieder. Es lernt nicht von jedem Fehler, den nächsten Versuch intelligenter zu machen. Tao nennt, was KI jetzt "künstliche Klugheit" tut. Das ist die präziseste Zwei-Worte-Beschreibung dieser Systeme, die wir gesehen haben, dass jeder benutzt. 8. Taos Papiere sind jetzt reicher, aber die Kernarbeit ist unverändert. Seine Forschungsarbeiten umfassen nun mehr Diagramme, Code und numerische Beispiele, weil KI diese einfach macht. Seine aktuellen Papiere ohne KI zu rekrutieren würde 5x länger dauern. Aber der härteste Teil der Arbeit, tatsächlich das mathematische Puzzle zu lösen, passiert immer noch mit Stift und Papier. KI übernimmt die Nebenaufgaben. Das ist eine so ehrliche Einschätzung. Die 5x-Zahl ist real, aber sie misst Extras anstatt den tatsächlichen Durchbruch. Ich glaube, die meisten Wissensarbeiter entdecken im Moment das Gleiche an ihren eigenen Arbeitsplätzen. 9. Wir wissen, wie man Beweise formalisiert, aber nicht Intuition. Wir haben nun Computersysteme (wie die Programmiersprache Lean), die überprüfen können, ob ein mathematischer Beweis logisch gültig ist. KI hat gut daran gearbeitet. Aber es gibt kein äquivalentes System für die weicheren Fragen: "Ist diese Idee es wert zu verfolgen?" "Gibt dieser Ansatz vielversprechend?" Diese Art von wissenschaftlichen Intuition erfordert immer noch menschliches Urteil und jahrelange Erfahrung. Wenn jemand einen Weg baut, diese Art von Argumentation zu formalisieren, wird es eines der wichtigsten Werkzeuge des Jahrzehnts sein. Die Formalisierung des wissenschaftlichen Geschmacks klingt unmöglich, aber die formalisierende deduktive Logik klang auch für 2.000 Jahre unmöglich, bevor es geschah. 10. Darwin gelang es teilweise, weil er gut schrieb. Darwin schrieb in einfachen Englisch und wove verstreut Beweise in eine Geschichte, die Menschen folgen könnten. Newton schrieb in Latein, erfand neue Mathematik, um seine Ideen zu erklären, und hielt seine besten Einsichten geheim aus Rivalität. Es dauerte Jahrzehnte, bis andere Wissenschaftler Newton in Begriffe übersetzen, die reguläre Menschen verstehen konnten. Wie überzeugend eine Erklärung herauskommt, ist in der Wissenschaft sehr wichtig. Und das ist genau das, was sehr schwer ist, eine KI zu lehren, um zu optimieren. Vielleicht sollte es so bleiben. 11. Tao denkt, Sie sollten aufhören, Ihre Zeit zu überschätzen. Er verbrachte einmal ein Jahr in einem Forschungsinstitut mit null Ablenkungen. Nach ein paar Monaten lief er aus Ideen. Er findet, dass die Ereignisse, die er zögerlich außerhalb seiner Komfortzone besucht, oft seine besten unerwarteten Begegnungen hervorbringen. Für die kreative Arbeit ist eine gewisse Menge an Zufall und Ablenkung notwendig. Ich baute eine App durch Vibe Codierung genau, weil wir durch Zufall in sie eingebrochen. Die interessantesten Dinge in jeder Karriere neigen dazu, von den ungeplanten Umwege zu kommen. Der größte Mathematiker am Leben sagt, dass Sie aufhören, Ihren Zeitplan zu maximieren. 12. Wenn sich eine bestimmte Mathe-Konjektion als falsch erweist, könnte unsere Verschlüsselung brechen. Es gibt eine unvorhergesehene mathematische Konjektion namens Riemann Hypothese darüber, wie Primzahlen (Zahlen nur um 1 und selbst divisierbar, wie 7, 11, 13) verteilt werden. Ein Großteil der modernen Verschlüsselung beruht auf der Annahme, dass die Grundzahlen keine versteckten Muster haben. Tao sagt, wenn sich diese Vermutung als falsch erwies, würde es bedeuten, dass es ein geheimes Muster in den Primen gibt, von denen niemand weiß. Und wenn ein verstecktes Muster existiert, gibt es wahrscheinlich mehr, die verwendet werden könnten, um Verschlüsselung zu brechen. Das ist der einzige gruseligste Satz über die Internetsicherheit, den ich je gehört habe, ein Fields Medalist (die höchste Ehre in der Mathematik) sagen laut. Tao auf Karriere: "Wir leben in einer besonders unvorhersehbaren Zeit. Dinge, die wir seit Jahrhunderten für sich genommen haben, können nicht mehr halten." Er weist darauf hin, dass selbst High School-Studenten jetzt mit AI-Tools zur Grenz Matheforschung beitragen können, was früher eine PhD erforderte. Die volle Podcast ist es wert, zuzuhören. Link in Thread.
@DamienERNST1 @iamsupersocks RT von @DamienERNST1 20.03 20:31
L'âge d'or de l'open-weight se referme mais pas là où on croit MiniMax M2.7 vient de sortir. Performance au niveau de GLM-5, un tiers du coût. Mais la vraie info c'est pas les benchmarks. C'est le premier flagship MiniMax qui sort sans publier ses poids. Pas de téléchargement. Pas de HuggingFace. API only. MiniMax, le labo chinois qui publiait tout en open, vient de fermer la porte. Pour comprendre pourquoi c'est un signal fort, il faut rembobiner. Depuis un an, les labos chinois dominaient l'open-weight. DeepSeek V3, Qwen3, GLM-4.7, MiMo, MiniMax M2 → tout publié. Licences ouvertes. Poids téléchargeables dès le jour de la sortie. N'importe qui pouvait les faire tourner, les modifier, les déployer. C'était pas de la générosité. C'était une stratégie : inonder le marché de modèles gratuits pour couper l'herbe sous le pied des labos US fermés comme OpenAI et Anthropic. Aujourd'hui les dominos tombent. → MiniMax M2.7 : fermé. API only → GLM-5 Turbo (http://Z.ai) : le modèle de base reste ouvert, mais la meilleure version est fermée → Qwen (Alibaba) : départs dans le leadership, rumeurs de pivot vers le propriétaire Trois labos. Même direction. Même trimestre. Quand un entraînement coûte $100M+ et que tes investisseurs veulent du retour, donner tes meilleurs modèles gratuitement devient difficile à justifier. Mais attention. Les chinois ne lâchent pas l'open-weight. Ils restructurent. Le pattern qui se dessine c'est celui de DeepSeek : → modèle de base : publié, ouvert, téléchargeable → version premium : fermée, accessible uniquement par API payante Ils ferment le haut de gamme tout en gardant un pied dans l'écosystème open. Souveraineté, influence, contrôle de la communauté dev. C'est pas un abandon. C'est une stratégie hybride. Et pendant que la Chine se referme en haut, NVIDIA fait le mouvement inverse. Au GTC la semaine dernière, Jensen Huang lance la Nemotron Coalition. Huit labos fondateurs : Mistral AI, Cursor, LangChain, Perplexity, Reflection AI (fondé par Mira Murati, ex-CTO d'OpenAI), Black Forest Labs, Sarvam, Thinking Machines Lab. Premier projet : un modèle frontier co-développé par Mistral et NVIDIA. Entraîné sur DGX Cloud. Publié en open. Base du futur Nemotron 4. Et la gamme actuelle est déjà impressionnante. Nemotron 3 Super : 120 milliards de paramètres, 12 milliards actifs à l'inférence. Architecture hybride. Poids ouverts + 10 000 milliards de tokens de données d'entraînement publiés + recettes complètes. Numéro 1 sur DeepResearch Bench. Nemotron-Cascade 2, sorti aujourd'hui : 30 milliards de paramètres, 3 milliards actifs. Bat Qwen3.5 (un modèle 40x plus gros) sur le math, le code et les workflows agentiques. 3 milliards de paramètres actifs. C'est le genre de modèle qui tourne sur ta machine, pas sur un cluster. La stratégie de NVIDIA est limpide. Plus les modèles ouverts tournent bien sur GPU NVIDIA, plus le monde achète du NVIDIA. L'open-weight n'est pas un cadeau. C'est une machine à créer de la demande pour le compute. L'inverse exact du mouvement chinois. Les chinois ferment parce que l'open ne rapporte plus assez. NVIDIA ouvre parce que l'open fait vendre du hardware et ils ont besoin de diversifier leur vertical pour rester leader. Le vrai produit de NVIDIA, c'est la dépendance au compute. Et Mistral dans tout ça ? Le labo français se positionne comme le bras européen de cette coalition. Mais faut pas être naïf. Mistral n'est pas open par idéologie. La même semaine que la coalition, ils lancent Forge → une plateforme d'entraînement custom pour entreprises. Du lock-in pur. Open-weight pour la distribution. Propriétaire pour le revenu. Le même calcul que tout le monde. L'open-weight n'est pas une idéologie. C'est une stratégie de distribution. Le paysage qui se dessine pour les prochains mois : → Frontier : tu paies une API. OpenAI, Anthropic, Google. Tu contrôles rien. → Mid-tier : open-weight. NVIDIA + Mistral + labos chinois en mode hybride. Tu télécharges, tu customises, tu déploies chez toi. → Local : explosion. Des modèles de 3 à 80 milliards de paramètres actifs qui tournent sur du hardware grand public. Quand un modèle à 3 milliards de paramètres actifs bat des modèles 40 fois plus gros, la question "pourquoi je paie une API ?" devient de plus en plus difficile à ignorer. L'open-weight ne disparaît pas. Il change de mains. Les chinois restructurent. NVIDIA ramasse le flambeau. Mistral s'accroche. Meta se referme. Personne n'est open par conviction. Pour ceux qui buildent en local, c'est paradoxalement le meilleur moment de l'histoire. Le frontier sera toujours l'API de quelqu'un d'autre. Le sweet spot local, c'est le tien.
🇩🇪 Übersetzung
RT von @DamienERNST1: Der Goldmedaillengewinner des Open-Weight-Turniers wird mehr als nur auf Croit verwiesen MiniMax M2.7 kann sofort sortiert werden. Leistung auf GLM-5-Niveau, eine Stufe höher. Weitere Informationen finden Sie unter Benchmarks. Das ist das Flaggschiff-Premiermodell MiniMax, das vor wenigen Tagen ohne Veröffentlichung veröffentlicht wurde. Pas de téléchargement. Pas de HuggingFace. Nur API. MiniMax, das chinesische Labor, das vollständig geöffnet ist, muss an der Tür befestigt werden. Um zu verstehen, dass es sich um eine Signalfestung handelt, muss ich sie sofort loswerden. Seitdem dominieren die chinesischen Labore das offene Gewicht. DeepSeek V3, Qwen3, GLM-4.7, MiMo, MiniMax M2 → vollständig veröffentlicht. Lizenzen ouvertes. Die Kosten sind seit dem Tag des Ausfalls kostenpflichtig. Es ist wichtig, dass Sie den Messebesuch, den Modifikator und den Einsatz durchführen können. C'était pas de la générosité. Es handelt sich um eine Strategie: Im Rahmen der Markteinführung von kostenlosen Modellen basiert es auf den US-Arbeitsplätzen wie OpenAI und Anthropic. Aujourd'hui les dominos tombent. → MiniMax M2.7: fermé. Nur API → GLM-5 Turbo (http://Z.ai): Das Basismodell wurde veröffentlicht, die beste Version wurde jedoch verkauft → Qwen (Alibaba): verlässt die Führung, Gerüchte über den Dreh- und Angelpunkt gegenüber dem Eigentümer Drei Labore. Même-Richtung. Même Trimestre. Als eine Investition mehr als 100 Mio. US-Dollar kostete und die Anleger auf die Rückkehr hofften, waren die besten kostenlosen Modelle nur schwer zu rechtfertigen. Mais Aufmerksamkeit. Die Chinois gehen nicht über das offene Gewicht hinaus. Die Umstrukturierung erfolgt. Das Muster, das aus DeepSeek besteht: → Basismodell: publié, ouvert, téléchargeable → Premium-Version: geschlossen, zugängliche Einzigartigkeit per API-Zahlung Sie fermentieren die gesamte Haut des Fleisches, während sie in der geöffneten Umgebung unkontrolliert bleiben. Souveränität, Einfluss, Kontrolle der Gemeinde, Dev. C'est pas un aufgegeben. Das ist eine Hybridstrategie. Und nachdem die Chinesen auf der Höhe waren, führte NVIDIA die umgekehrte Bewegung durch. In der letzten Woche des GTC hat Jensen Huang die Nemotron Coalition vorgestellt. Beteiligte Arbeitsgruppen: Mistral AI, Cursor, LangChain, Perplexity, Reflection AI (gegründet von Mira Murati, ehemalige CTO von OpenAI), Black Forest Labs, Sarvam, Thinking Machines Lab. Erstes Projekt: ein von Mistral und NVIDIA gemeinsam entwickeltes Frontier-Modell. Eingetragen in DGX Cloud. Veröffentlicht und geöffnet. Basis der Zukunft Nemotron 4. Das eigentliche Spiel ist déjà impressionnante. Nemotron 3 Super: 120 Milliarden Parameter, 12 Milliarden Angriffspunkte. Hybride Architektur. Ausstehende Beträge + 10.000 Milliarden Token für veröffentlichte Spenden + vollständige Rechnungen. Nummer 1 auf DeepResearch Bench. Nemotron-Kaskade 2, derzeit verfügbar: 30 Milliarden Parameter, 3 Milliarden Aktivitäten. Bat Qwen3.5 (ein Modell 40x plus groß) für Mathematik, Code und Workflow-Agenten. 3 Milliarden aktive Parameter. Dies ist das Genre des Modells, das auf der Maschine gespielt wird, nicht auf einem Cluster. Die Strategie von NVIDIA ist klar. Darüber hinaus sind die Modelle gut auf der NVIDIA-GPU verfügbar und die Welt wird von NVIDIA erreicht. Das Open-Weight ist kein Geschenk. Es handelt sich um eine Maschine, die speziell für die Rechenleistung entwickelt wurde. Die exakte Umkehrung der chinesischen Bewegung. Die Chinesen fermentieren, weil sie keinen Kontakt mehr haben. NVIDIA verfügt über ein Paket, das offen für Hardware-Verkäufer ist und die Notwendigkeit besteht, ihre Vertikale für andere Marktführer zu diversifizieren. Das Produkt von NVIDIA ist eine Rechenleistung. Und Mistral dans all à? Die französische Arbeitswelt hat sich gegenüber den europäischen Bündnissen dieser Koalition positioniert. Mais faut pas être naiv. Mistral ist nicht offen für seine Ideologie. In derselben Woche wie die Koalition haben sie Forge verlassen und eine benutzerdefinierte Trainingsplattform für Unternehmen entwickelt. Du lock-in pur. Offenes Gewicht für die Verteilung. Eigentümer für Einnahmen. Die gleiche Berechnung wie die ganze Welt. Open-Weight ist keine Ideologie. Das ist eine Vertriebsstrategie. Die Zahlung, die für die nächsten Monate geplant ist: → Frontier: Sie zahlen eine API. OpenAI, Anthropic, Google. Sie können es steuern. → Mittelklasse: offenes Gewicht. NVIDIA + Mistral + chinesische Labore im Hybridmodus. Du lädst es ein, du passt es an, du stellst es zur Verfügung. → Lokal: Explosion. Drei Modelle mit 80 Milliarden Parametern werden bei Turnieren auf großer Bühne gespielt. Als ein Modell mit 3 Milliarden aktiven Parametern mehr als 40 Monate dauerte, stellte sich die Frage „Für eine API-Zahlung?“ von Plus und Plus schwer zu Ignorieren. L'open-weight ne disparaît pas. Ich wechsle das Stromnetz. Die Umstrukturierung der Chinesen. NVIDIA baut die Flamme auf. Mistral s'accroche. Meta se referme. Personne n'est open par conviction. Für diejenigen, die vor Ort gebaut wurden, ist das paradoxerweise der beste Moment der Geschichte. Le Frontier wird die API von irgendjemandem anderen nennen. Le Sweet Spot Local, das ist Le Tien.
@DamienERNST1 @QuanquanGu RT von @DamienERNST1 20.03 20:00
Actually not just math, this is happening across almost every field. AI is collapsing the barrier to entry for research. What once required a PhD and years of training can now start much easier. We are moving toward a world where there is no “hard research”, but just unsolved problems. Big things are coming!
🇩🇪 Übersetzung
RT von @DamienERNST1: Eigentlich nicht nur in der Mathematik, das passiert in fast allen Bereichen. KI lässt die Eintrittsbarriere für die Forschung sinken. Was früher einen Doktortitel und jahrelange Ausbildung erforderte, kann jetzt viel einfacher beginnen. Wir bewegen uns auf eine Welt zu, in der es keine „harte Forschung“ gibt, sondern nur ungelöste Probleme. Große Dinge kommen!
@DamienERNST1 @PerseusLeGrand RT von @DamienERNST1 20.03 19:12
On ne se rend réellement compte de la beauté de la France qu’en voyageant. Oui, il y a des coins merveilleux dans le monde entier, mais la France regorge de joyaux ! Peu importe où vous vous promenez, il y a quelque chose à faire ou à voir. C’est assez impressionnant quand on y pense.
🇩🇪 Übersetzung
RT von @DamienERNST1: Es ist mir egal, ob ich mit der Schönheit Frankreichs auf Reisen bin. Ja, es sind wundervolle Münzen in der ganzen Welt, mehr als die französische Regierung! Peu importe où vous vous promenez, il y a quelque à faire or à voir. Das ist für mich beeindruckend, wenn ich darüber nachdenke.
@DamienERNST1 @volcaholic1 RT von @DamienERNST1 20.03 18:33
Chinese drones dropping fire-extinguishing capsules that burst before impact, spreading foam or powder fast to tackle fires in hard-to-reach spots before crews arrive.
🇩🇪 Übersetzung
RT von @DamienERNST1: Chinesische Drohnen werfen Feuerlöschkapseln ab, die vor dem Aufprall platzen, und verteilen schnell Schaum oder Pulver, um Brände an schwer zugänglichen Stellen zu bekämpfen, bevor die Besatzungen eintreffen.
@DamienERNST1 @academic_la RT von @DamienERNST1 20.03 18:12
The current plan is to strike and weaken Iran's forces for a month, then seize or blockade Kharg Island to force Iran into talks to reopen the Strait of Hormuz and surrender. This is a terrible idea with zero chance of working: 1) That "month of degrading" is a month of continued global economic damage from the closed strait. Then talks will mean more time for the global economy to feel pain. That works in Iran's favor. It plays into their hands. 2) It doesn't actually work. Iran can just shut off oil production; holding the island doesn't force them to reopen anything. 3) The shooting ducks problem. Occupying an island 15 miles off the Iranian coast puts soldiers in an extremely exposed position 4) Why would Iran negotiate? If you've already bombed their island and seized it, what's their incentive to negotiate rather than escalate? They are already in crisis. Their best weapon is to put the US in crisis too. There is no clear mechanism by which holding Kharg Island translates to a peace deal on US terms. 5) Mission creep. Once you put troops on Iranian soil, even a small island, you've crossed a threshold that's very hard to walk back. Iran has to respond or look completely defeated domestically. Then the US has to respond to that response. And suddenly you're in a ground war with Iran that nobody voted for and nobody has a plan to end. The American plan is as bad as it could be. It will take an awful situation and make it worse. The best thing the US can do is cut its losses and declare victory.
🇩🇪 Übersetzung
RT von @DamienERNST1: Der aktuelle Plan besteht darin, die iranischen Streitkräfte einen Monat lang anzugreifen und zu schwächen und dann die Insel Kharg zu erobern oder zu blockieren, um den Iran zu Gesprächen über die Wiedereröffnung der Straße von Hormus und die Kapitulation zu zwingen. Das ist eine schreckliche Idee ohne Aussicht auf Erfolg: 1) Dieser „Monat der Erniedrigung“ ist ein Monat anhaltenden globalen wirtschaftlichen Schadens durch die gesperrte Meerenge. Dann werden die Gespräche bedeuten, dass die Weltwirtschaft mehr Zeit hat, Schmerzen zu spüren. Das kommt dem Iran zugute. Es spielt ihnen in die Hände. 2) Es funktioniert eigentlich nicht. Der Iran kann die Ölförderung einfach einstellen; Das Halten der Insel zwingt sie nicht dazu, irgendetwas wieder zu öffnen. 3) Das Problem der schießenden Enten. Die Besetzung einer Insel 15 Meilen vor der iranischen Küste bringt Soldaten in eine äußerst exponierte Lage 4) Warum sollte Iran verhandeln? Wenn Sie ihre Insel bereits bombardiert und erobert haben, welchen Anreiz haben sie dann, zu verhandeln, anstatt zu eskalieren? Sie stecken bereits in der Krise. Ihre beste Waffe besteht darin, auch die USA in eine Krise zu stürzen. Es gibt keinen klaren Mechanismus, durch den die Besetzung der Insel Kharg zu einem Friedensabkommen zu US-Bedingungen führt. 5) Missionskriechen. Sobald man Truppen auf iranischem Boden stationiert hat, selbst auf einer kleinen Insel, hat man eine Schwelle überschritten, die man nur schwer wieder zurückgehen kann. Der Iran muss reagieren oder im Inland völlig besiegt aussehen. Dann müssen die USA auf diese Reaktion reagieren. Und plötzlich befindet man sich in einem Bodenkrieg mit dem Iran, für den niemand gestimmt hat und für den niemand einen Plan hat, ihn zu beenden. Der amerikanische Plan ist so schlecht, wie er nur sein könnte. Es wird eine schreckliche Situation verschlimmern. Das Beste, was die USA tun können, ist, ihre Verluste zu begrenzen und den Sieg zu erklären.
@DamienERNST1 @AzizSapphire RT von @DamienERNST1 20.03 18:00
Here are 5 crude oil 🛢 benchmarks prices Brent WTI Murban Oman Dubai
🇩🇪 Übersetzung
RT von @DamienERNST1: Hier sind 5 Rohöl-Benchmark-Preise Brent WTI Murban Oman Dubai
@DamienERNST1 @elerianm RT von @DamienERNST1 20.03 17:14
Consensus is shifting, and rightly so: This third week of the war has fueled a shift from a short-term energy disruption to long-term structural damage. With that, the broader fallout—also marked by the non-linear risks associated with tipping points and multiple equilibrium dynamics—poses an increasing threat to global economic wellbeing and financial stability. #economy #energy #markets #middleeastwar
🇩🇪 Übersetzung
RT von @DamienERNST1: Der Konsens verschiebt sich, und das zu Recht: Diese dritte Kriegswoche hat zu einer Verlagerung von einer kurzfristigen Energieunterbrechung zu langfristigen Strukturschäden geführt. Damit stellen die umfassenderen Folgen – auch gekennzeichnet durch die nichtlinearen Risiken im Zusammenhang mit Kipppunkten und multiplen Gleichgewichtsdynamiken – eine zunehmende Bedrohung für das globale wirtschaftliche Wohlergehen und die Finanzstabilität dar. #Wirtschaft #Energie #Märkte #Naherostkrieg
@DamienERNST1 @MalcolmNance RT von @DamienERNST1 20.03 17:00
EVERYONE REPEAT AFTER ME You CANNOT get to Kharg Island with Marines until you successfully transit the Strait of Hormuz ... which the IRGC will make a living hell with sea mines, suicide boat drones, missiles and aerial drones Once past the SOH its a 20-24 hour dash (380nm) to Kharg along a coast that may be firing off antiship missiles, ballistic hypersonic missiles, cruise missiles small boats and suicide drones of all sorts, aerial, surface and subsurface. Then they can just blow up the islands refineries when you arrive so you have to live in a town of 8,000 who hate you in a cloud of poisonous smoke/gas
🇩🇪 Übersetzung
RT von @DamienERNST1: JEDER WIEDERHOLT NACH MIR Sie KÖNNEN NICHT mit Marines zur Insel Kharg gelangen, bis Sie die Straße von Hormus erfolgreich durchquert haben ... die das IRGC mit Seeminen, Selbstmordbootdrohnen, Raketen und Luftdrohnen zur Hölle machen wird Nach dem SOH ist es ein 20-24-stündiger Sprint (380 Seemeilen) nach Kharg entlang einer Küste, an der möglicherweise Antischiffsraketen, ballistische Hyperschallraketen, Marschflugkörper, kleine Boote und Selbstmorddrohnen aller Art aus der Luft, über der Oberfläche und unter der Oberfläche abgefeuert werden. Dann können sie bei Ihrer Ankunft einfach die Raffinerien der Insel in die Luft jagen, sodass Sie in einer Stadt mit 8.000 Einwohnern, die Sie hassen, in einer Wolke aus giftigem Rauch/Gas leben müssen
@DamienERNST1 @Fascinate_Hist RT von @DamienERNST1 20.03 16:47
If you think Art Nouveau is just for Paris, think again. Casa Fernandini is Lima, Peru’s best-kept secret: a stunning masterclass in glass, wrought iron, and early 20th-century elegance.
🇩🇪 Übersetzung
RT von @DamienERNST1: Wenn Sie denken, dass Jugendstil nur etwas für Paris ist, dann denken Sie noch einmal darüber nach. Casa Fernandini ist das bestgehütete Geheimnis von Lima, Peru: eine atemberaubende Meisterklasse in Glas, Schmiedeeisen und Eleganz des frühen 20. Jahrhunderts.
@DamienERNST1 20.03 16:12
First time I am seeing this, but with FPV drones increasing in speed, it will become more and more common.
🇩🇪 Übersetzung
Ich sehe das zum ersten Mal, aber da FPV-Drohnen immer schneller werden, wird es immer häufiger vorkommen.
@DamienERNST1 @Rainmaker1973 RT von @DamienERNST1 20.03 15:40
Deep in the Amazon forest, is the world's largest single drop waterfall, Guyana
🇩🇪 Übersetzung
RT von @DamienERNST1: Tief im Amazonas-Regenwald befindet sich Guyana, der größte Wasserfall der Welt
@DamienERNST1 @BoWang87 RT von @DamienERNST1 20.03 15:02
2026 may be the year AI starts to truly reason about biology. AlphaFold helped close the sequence → structure gap. The next frontier is sequence → functions. Today, together with @genophoria and the team at @arcinstitute , we’re releasing BioReason-Pro — the first multimodal reasoning model for protein function prediction.
🇩🇪 Übersetzung
RT von @DamienERNST1: 2026 könnte das Jahr sein, in dem die KI beginnt, wirklich über Biologie nachzudenken. AlphaFold hat dazu beigetragen, die Lücke zwischen Sequenz und Struktur zu schließen. Die nächste Grenze ist Folge → Funktionen. Heute veröffentlichen wir zusammen mit @genophoria und dem Team von @arcinstitute BioReason-Pro – das erste multimodale Reasoning-Modell zur Vorhersage von Proteinfunktionen.
@DamienERNST1 @pushmeet RT von @DamienERNST1 20.03 14:09
Our AlphaProof paper is in this week’s issue of @Nature! In 2024, @GoogleDeepMind's proof agents AlphaProof & AlphaGeometry together made a substantial leap in AI by achieving the silver-medal standard in solving IMO problems. The Nature paper describes the technical innovations required—in particular, the RL loop bridging natural language & symbolic rigor—that made AlphaProof possible.
🇩🇪 Übersetzung
RT von @DamienERNST1: Unser AlphaProof-Artikel ist in der dieswöchigen Ausgabe von @Nature! Im Jahr 2024 machten die Proofagenten AlphaProof und AlphaGeometry von @GoogleDeepMind gemeinsam einen erheblichen Sprung in der KI, indem sie den Silbermedaillenstandard bei der Lösung von IMO-Problemen erreichten. Das Nature-Papier beschreibt die erforderlichen technischen Innovationen – insbesondere die RL-Schleife, die natürliche Sprache und symbolische Genauigkeit verbindet –, die AlphaProof möglich gemacht haben.
@DamienERNST1 @TrentTelenko RT von @DamienERNST1 20.03 12:21
Well, yeah. This was inevitable and it can happen to a AH-64 Apache or AH-1Z Cobra tomorrow in the fighting against Iran.
🇩🇪 Übersetzung
RT von @DamienERNST1: Nun ja. Dies war unvermeidlich und kann einem AH-64 Apache oder AH-1Z Cobra morgen im Kampf gegen den Iran passieren.
@DamienERNST1 20.03 11:07
Je suis inquiet. Il existe un déséquilibre entre la production et la consommation de pétrole de l'ordre de dix millions de barils par jour. Si cette tendance se confirme, le prix du carburant risque très clairement de dépasser les 3 € le litre. https://www.dhnet.be/conso/prixenergie/2026/03/20/crise-au-moyen-orient-les-carburants-a-3-du-litre-a-la-pompe-cest-a-craindre-previent-damien-ernst-UGLH6DLFGRC7HPXYZOFHOFQVIE/
🇩🇪 Übersetzung
Ich bin unruhig. Es besteht ein Ungleichgewicht zwischen der Produktion und der Vollendung des Benzins in Höhe von zwei Millionen Barils pro Tag. Wenn dies der Fall ist, wird der Kraftstoffpreis wahrscheinlich um mehr als 3 € pro Liter gesenkt. https://www.dhnet.be/conso/prixenergie/2026/03/20/crise-au-moyen-orient-les-carburants-a-3-du-litre-a-la-pompe-cest-a-craindre-previent-damien-ernst-UGLH6DLFGRC7HPXYZOFHOFQVIE/
@DamienERNST1 @robbertleusink RT von @DamienERNST1 20.03 11:03
Medieval city planners built streets that curved, narrowed, and wound without logic Le Corbusier called them donkey paths and spent his career trying to replace them with straight lines Those streets survived a thousand years of war, plague, and fire His buildings are already being demolished
🇩🇪 Übersetzung
RT von @DamienERNST1: Mittelalterliche Stadtplaner bauten Straßen, die sich ohne Logik krümmten, verengten und schlängelten Le Corbusier nannte sie Eselspfade und versuchte im Laufe seiner Karriere, sie durch gerade Linien zu ersetzen Diese Straßen überstanden tausend Jahre Krieg, Pest und Feuer Seine Gebäude werden bereits abgerissen
@DamienERNST1 @rryssf_ RT von @DamienERNST1 20.03 10:54
🚨 BREAKING: Meta researchers showed a model 2 million hours of video. No labels. No physics textbook. No supervision at all. Then they showed it a clip where an object disappears behind a wall and never comes back. The model flagged it as wrong. 🤯 It had learned object permanence. Shape consistency. Collision dynamics. Entirely from watching. What's more surprising: even a model trained on just one week of unique video achieved above-chance performance on physics violation detection. That's not a fluke. That's a principle. The key insight from the paper: this only works when the model predicts in a learned representation space, not in raw pixels. The model has to build an internal world model, compressed and abstract, and predict against that. Pixel-space prediction fails. Multimodal LLMs that reason through text fail. Only the architecture that builds abstract representations while predicting missing sensory input, something close to how neuroscientists describe predictive coding, actually acquires physics intuition. Which means the core knowledge researchers assumed had to be hardwired may just be observation at scale. Babies learn object permanence by watching things. Turns out the same principle holds here. Now here's the part nobody's talking about. If observation alone teaches a model the rules of the physical world, what happens when you apply the same principle to production systems? Production has physics too. Not gravity. But rules just as consistent: which deploys cause incidents at 3am, which config combinations interact dangerously, which code paths quietly degrade under load, which service changes cause failures two hops away. These patterns are embedded in thousands of trajectories. Code pushes, metric shifts, customer tickets, incident timelines. Largely unobserved. Certainly unlabeled. Nobody writes a runbook that says "if service A deploys with flag X active and service B is above 70% CPU, latency on service C degrades 40% within 6 minutes." But that pattern exists. It's repeatable. And it's sitting in your observability data right now, invisible because no one has built a model to find it. That's the gap @playerzeroai is trying to close. Not another test runner. Not another alert threshold. A production world model that learns which things break from accumulated observation, the same way Meta's model learned gravity. It doesn't check your test coverage. It predicts failure trajectories. One week of video was enough to learn that solid objects don't pass through walls. The question is how much production observation your system needs before a model starts predicting where yours will break next. The Meta paper suggests the bar might be lower than anyone expects.
🇩🇪 Übersetzung
RT von @DamienERNST1: 🚨 BREAKING: Metaforscher zeigten einem Modell 2 Millionen Stunden Video. Keine Etiketten. Kein Physiklehrbuch. Überhaupt keine Aufsicht. Dann zeigten sie einen Clip, in dem ein Gegenstand hinter einer Wand verschwindet und nie wieder zurückkommt. Das Modell hat es als falsch gekennzeichnet. 🤯 Es hatte Objektpermanenz gelernt. Formkonsistenz. Kollisionsdynamik. Ganz vom Zuschauen. Was noch überraschender ist: Selbst ein Modell, das nur eine Woche lang mit einem einzigartigen Video trainiert wurde, erzielte eine überdurchschnittliche Leistung bei der Erkennung von Physikverstößen. Das ist kein Zufall. Das ist ein Prinzip. Die wichtigste Erkenntnis aus dem Artikel: Dies funktioniert nur, wenn das Modell in einem erlernten Darstellungsraum Vorhersagen trifft, nicht in Rohpixeln. Das Modell muss ein komprimiertes und abstraktes internes Weltmodell erstellen und anhand dessen Vorhersagen treffen. Die Vorhersage des Pixelraums schlägt fehl. Multimodale LLMs, die durch Text argumentieren, scheitern. Nur die Architektur, die abstrakte Darstellungen aufbaut und gleichzeitig fehlende sensorische Eingaben vorhersagt, etwa so, wie Neurowissenschaftler die prädiktive Kodierung beschreiben, erlangt tatsächlich physikalische Intuition. Das bedeutet, dass das Kernwissen, von dem die Forscher annahmen, dass es fest verdrahtet sei, möglicherweise nur eine Beobachtung im Maßstab ist. Babys lernen Objektbeständigkeit, indem sie Dinge beobachten. Es stellt sich heraus, dass hier das gleiche Prinzip gilt. Hier ist der Teil, über den niemand spricht. Wenn einem Modell allein durch Beobachtung die Regeln der physischen Welt beigebracht werden, was passiert dann, wenn man dasselbe Prinzip auf Produktionssysteme anwendet? Auch die Produktion hat Physik. Nicht die Schwerkraft. Aber die Regeln sind genauso konsistent: Welche Bereitstellungen verursachen um 3 Uhr morgens Vorfälle, welche Konfigurationskombinationen gefährlich interagieren, welche Codepfade sich unter Last stillschweigend verschlechtern, welche Dienständerungen zwei Hops entfernt zu Ausfällen führen. Diese Muster sind in Tausende von Flugbahnen eingebettet. Code-Pushs, Metrikverschiebungen, Kundentickets, Zeitpläne für Vorfälle. Weitgehend unbeobachtet. Auf jeden Fall unbeschriftet. Niemand schreibt ein Runbook, in dem es heißt: „Wenn Dienst A mit aktiviertem Flag Aber dieses Muster existiert. Es ist wiederholbar. Und es befindet sich gerade in Ihren Beobachtbarkeitsdaten, unsichtbar, weil niemand ein Modell erstellt hat, um es zu finden. Das ist die Lücke, die @playerzeroai zu schließen versucht. Kein weiterer Testläufer. Keine weitere Alarmschwelle. Ein Produktionsweltmodell, das anhand gesammelter Beobachtungen lernt, welche Dinge kaputt gehen, auf die gleiche Weise, wie Metas Modell die Schwerkraft gelernt hat. Ihre Testabdeckung wird nicht überprüft. Es prognostiziert Fehlerverläufe. Eine Woche Video reichte aus, um zu lernen, dass feste Gegenstände keine Wände durchdringen. Die Frage ist, wie viel Produktionsbeobachtung Ihr System benötigt, bevor ein Modell vorhersagt, wo Ihr System als nächstes kaputt gehen wird. Das Meta-Papier deutet darauf hin, dass die Messlatte niedriger sein könnte, als irgendjemand erwartet.
@DamienERNST1 @LeoDaVinciWave RT von @DamienERNST1 20.03 10:04
One of the world’s most beautiful Art Deco skyscrapers 570 Lexington Ave, NYC (1931).
🇩🇪 Übersetzung
RT von @DamienERNST1: Einer der schönsten Art-Déco-Wolkenkratzer der Welt, 570 Lexington Ave, NYC (1931).
@DamienERNST1 @21NewsBE RT von @DamienERNST1 20.03 09:02
« Même dans un scénario relativement favorable, on parle de mois, voire plus » : @DamienERNST1 alerte sur un choc énergétique pire que Nord Stream https://www.21news.be/on-va-souffrir-pendant-un-an-damien-ernst-alerte-sur-un-choc-energetique-pire-que-nord-stream/
🇩🇪 Übersetzung
RT von @DamienERNST1: „In einem relativ günstigen Szenario, zum Glück noch mehr“: @DamienERNST1 warnt vor einem Energieschub, der Nord Stream übersteigt https://www.21news.be/on-va-souffrir-pendant-un-an-damien-ernst-alerte-sur-un-choc-energetique-pire-que-nord-stream/
@DamienERNST1 @Osinttechnical RT von @DamienERNST1 20.03 07:59
Early this morning, multiple Iranian attack drones hit Kuwait’s Mina Al-Ahmadi oil refinery, setting several areas of the refinery complex ablaze and causing a partial shutdown.
🇩🇪 Übersetzung
RT von @DamienERNST1: Heute früh haben mehrere iranische Angriffsdrohnen die Ölraffinerie Mina Al-Ahmadi in Kuwait getroffen, mehrere Bereiche des Raffineriekomplexes in Brand gesetzt und eine teilweise Schließung verursacht.
@DamienERNST1 @antoniomele101 RT von @DamienERNST1 20.03 07:13
The "Human researchers still have an advantage because AI does not have research taste" take lasted about one month... https://arxiv.org/abs/2603.14473
🇩🇪 Übersetzung
RT von @DamienERNST1: Die Einstellung „Menschenforscher sind immer noch im Vorteil, weil KI keinen Forschungsgeschmack hat“ dauerte etwa einen Monat ... https://arxiv.org/abs/2603.14473
@DamienERNST1 @IbrahimJalalYE RT von @DamienERNST1 20.03 07:10
The IRGC has struck Kuwait’s Mina Al-Ahmadi refinery twice in 48 hours, igniting fires & forcing KNPC to shut down units at a facility with ~730,000 b/d capacity Iran is both blocking Hormuz Strait & systematically disrupting GCC energy assets to maximise global economic shocks.
🇩🇪 Übersetzung
RT von @DamienERNST1: Das IRGC hat die Mina Al-Ahmadi-Raffinerie in Kuwait innerhalb von 48 Stunden zweimal angegriffen, Brände entfacht und KNPC gezwungen, Einheiten in einer Anlage mit einer Kapazität von etwa 730.000 Barrel pro Tag abzuschalten Der Iran blockiert sowohl die Straße von Hormus als auch systematisch die Energieanlagen des GCC, um globale Wirtschaftsschocks zu maximieren.
@DamienERNST1 @BelgaVoice RT von @DamienERNST1 20.03 07:06
"prix du gaz passé de 50 à 65-70€/MWh" "choc pire que Nord Stream" "1.200 TWh" "hausse significative des coûts énergétiques qui va peser sur le pouvoir d’achat" https://www.21news.be/on-va-souffrir-pendant-un-an-damien-ernst-alerte-sur-un-choc-energetique-pire-que-nord-stream/ @21NewsBE
🇩🇪 Übersetzung
RT von @DamienERNST1: „Gaspreis von 50 bis 65-70 €/MWh“ „Schon für Nord Stream“ „1.200 TWh“ „Hausse significative des coûts énergétiques qui va peser sur le pouvoir d’achat“ https://www.21news.be/on-va-souffrir-pendant-un-an-damien-ernst-alerte-sur-un-choc-energetique-pire-que-nord-stream/ @21NewsBE
@DamienERNST1 @aakashgupta RT von @DamienERNST1 20.03 05:10
Your brain at 2 AM writing a paper you started at 10 PM is operating in a neurochemical state that most productivity systems spend thousands of dollars trying to replicate. Sleep deprivation suppresses your prefrontal cortex. That's the region responsible for self-criticism, second-guessing, and the voice that says "this paragraph isn't good enough." At 2 AM, that voice goes quiet. Not because you've achieved some zen state. Because the hardware running it is shutting down for the night and you won't let it. Meanwhile the deadline is dumping norepinephrine and cortisol into your system, which narrows your attention to a single point. Your brain physically cannot multitask in that state. No checking your phone. No opening a new tab. The stress response has commandeered every available resource and pointed it at the Google Doc. Lowered inhibition plus chemically forced single-task focus. That combination is almost identical to what Csikszentmihalyi documented across 30 years of flow state research. Clear goal, immediate feedback, challenge matched to skill. A 12-page paper due in 8 hours hits all three criteria by accident. The lo-fi beats matter more than people think. Repetitive audio at 60-70 BPM synchronizes with resting heart rate and suppresses novelty-seeking circuits. You stop hearing it within minutes. It becomes an auditory wall that blocks interruption without costing you any cognitive load. It's the cheapest sensory deprivation chamber ever built. And the black coffee at midnight is pharmacologically different from your morning cup. Your adenosine levels have been building all day, so the caffeine is fighting a much stronger sleep signal. The subjective experience of "wired but calm" at 1 AM is a different drug interaction than alert-at-9-AM. Same molecule, completely different neurochemical environment. Every semester, twice a semester, four years straight. That's 40 sessions of accidental deep work before anyone had a name for it. The grade was an A- because the conditions were perfect. Not despite the chaos. Because of it.
🇩🇪 Übersetzung
RT von @DamienERNST1: Ihr Gehirn arbeitet um 2 Uhr morgens beim Schreiben einer Arbeit, die Sie um 22 Uhr begonnen haben, in einem neurochemischen Zustand, für dessen Replikation die meisten Produktivitätssysteme Tausende von Dollar ausgeben. Schlafentzug unterdrückt Ihren präfrontalen Kortex. Das ist die Region, die für Selbstkritik, Zweifel und die Stimme verantwortlich ist, die sagt: „Dieser Absatz ist nicht gut genug.“ Um 2 Uhr morgens verstummt diese Stimme. Nicht, weil Sie einen Zen-Zustand erreicht haben. Weil die Hardware, auf der es läuft, über Nacht heruntergefahren wird und Sie das nicht zulassen. Mittlerweile schüttet die Frist Noradrenalin und Cortisol in Ihr System aus, was Ihre Aufmerksamkeit auf einen einzigen Punkt beschränkt. In diesem Zustand kann Ihr Gehirn physisch keine Multitasking-Aufgaben ausführen. Keine Überprüfung Ihres Telefons. Kein Öffnen eines neuen Tabs. Die Stressreaktion hat alle verfügbaren Ressourcen beschlagnahmt und auf das Google-Dokument verwiesen. Geringere Hemmung plus chemisch erzwungener Konzentration auf eine einzige Aufgabe. Diese Kombination ist fast identisch mit dem, was Csikszentmihalyi in 30 Jahren Forschung zum Strömungszustand dokumentiert hat. Klares Ziel, sofortiges Feedback, auf die Fähigkeiten abgestimmte Herausforderung. Eine 12-seitige Arbeit, die in 8 Stunden fällig ist, erfüllt zufällig alle drei Kriterien. Die Lo-Fi-Beats sind wichtiger als die Leute denken. Wiederholter Ton mit 60–70 Schlägen pro Minute synchronisiert sich mit der Ruheherzfrequenz und unterdrückt Schaltkreise, die nach Neuheiten suchen. Sie hören es innerhalb weniger Minuten nicht mehr. Es wird zu einer Hörwand, die Unterbrechungen blockiert, ohne Sie kognitive Belastung zu kosten. Es ist die billigste sensorische Deprivationskammer, die jemals gebaut wurde. Und der schwarze Kaffee um Mitternacht unterscheidet sich pharmakologisch von Ihrer Morgentasse. Ihr Adenosinspiegel ist den ganzen Tag über gestiegen, sodass das Koffein ein viel stärkeres Schlafsignal bekämpft. Das subjektive Erleben von „verdrahtet, aber ruhig“ um 1 Uhr morgens ist eine andere Arzneimittelinteraktion als die Alarmbereitschaft um 9 Uhr. Gleiches Molekül, völlig andere neurochemische Umgebung. Jedes Semester, zweimal im Semester, vier Jahre am Stück. Das sind 40 Sitzungen zufälliger Tiefenarbeit, bevor irgendjemand einen Namen dafür hatte. Die Note war eine Eins, weil die Bedingungen perfekt waren. Nicht trotz des Chaos. Aus diesem Grund.
@DamienERNST1 @rseroter RT von @DamienERNST1 19.03 22:33
5% of employees are doing sophisticated work with AI—treating as a reasoning partner, delegating complex tasks, ambitious usage—and the best users are above manager level! Interesting data: https://hbr.org/2026/03/what-the-best-ai-users-do-differently-and-how-to-level-up-all-of-your-employees
🇩🇪 Übersetzung
RT von @DamienERNST1: 5 % der Mitarbeiter erledigen anspruchsvolle Arbeit mit KI – sie behandeln als Argumentationspartner, delegieren komplexe Aufgaben, ehrgeizige Nutzung – und die besten Benutzer befinden sich über der Managerebene! Interessante Daten: https://hbr.org/2026/03/what-the-best-ai-users-do-differently-and-how-to-level-up-all-of-your-employees
@DamienERNST1 @AnishA_Moonka RT von @DamienERNST1 19.03 22:02
The largest buyout fund in history raised $28 billion. Jeff Bezos is reportedly raising $100 billion, more than 3x that record, to buy manufacturing companies and automate them with AI. The Wall Street Journal broke the story today. Bezos has been meeting sovereign wealth fund managers (government-owned investment pools in the Middle East and Singapore), pitching what investor documents call a "manufacturing transformation vehicle." The targets: chipmaking, defense, and aerospace. The money flows through Project Prometheus, the AI startup Bezos co-founded in November 2025 with physicist Vik Bajaj, formerly of Google X. Prometheus launched with $6.2 billion and over 120 employees poached from OpenAI, DeepMind, and Meta. The company says it builds "AI for the physical economy," meaning AI that learns from real-world environments and physical materials, not just text and images. Prometheus is the brain. The $100 billion fund is the body. Bezos is worth about $234 billion. This fund would represent roughly 43% of his entire fortune. Most of the capital would come from outside investors, but there is only one precedent at this size: SoftBank's Vision Fund, which also raised $100 billion in 2017 ($45 billion from Saudi Arabia's sovereign fund, $15 billion from Abu Dhabi). That fund posted a $32 billion loss in a single year. Masayoshi Son publicly said he was "embarrassed" and "ashamed" of the results. U.S. manufacturing is a $3 trillion sector with 113 million workers. Its share of GDP has dropped from 11% in 2012 to 9% today. The bet is that AI can reverse that decline by making factories radically more productive. Just last week, Travis Kalanick (former Uber CEO) came out of 8 years of stealth to launch Atoms, a robotics company targeting factory automation. Multiple billionaires are converging on "physical AI" this month. Bezos is just doing it with a checkbook 3x the size of anything the buyout industry has ever seen.
🇩🇪 Übersetzung
RT von @DamienERNST1: Der größte Buyout-Fonds der Geschichte hat 28 Milliarden US-Dollar eingesammelt. Berichten zufolge sammelt Jeff Bezos 100 Milliarden US-Dollar, mehr als das Dreifache dieses Rekords, um Fertigungsunternehmen zu kaufen und sie mit KI zu automatisieren. Das Wall Street Journal hat die Geschichte heute veröffentlicht. Bezos traf sich mit Staatsfondsmanagern (staatseigene Investmentpools im Nahen Osten und in Singapur) und stellte etwas vor, was Investorendokumente als „Vehikel zur Transformation der Fertigung“ bezeichnen. Die Ziele: Chipherstellung, Verteidigung und Luft- und Raumfahrt. Das Geld fließt über das Projekt Prometheus, das KI-Startup, das Bezos im November 2025 gemeinsam mit dem Physiker Vik Bajaj, ehemals bei Google Das Unternehmen gibt an, „KI für die physische Wirtschaft“ zu entwickeln, also KI, die aus realen Umgebungen und physischen Materialien lernt, nicht nur aus Text und Bildern. Prometheus ist das Gehirn. Der 100-Milliarden-Dollar-Fonds ist das Gremium. Bezos ist rund 234 Milliarden Dollar wert. Dieser Fonds würde etwa 43 % seines gesamten Vermögens ausmachen. Der größte Teil des Kapitals würde von externen Investoren kommen, aber es gibt nur einen Präzedenzfall dieser Größe: den Vision Fund von SoftBank, der 2017 ebenfalls 100 Milliarden US-Dollar einsammelte (45 Milliarden US-Dollar vom Staatsfonds Saudi-Arabiens, 15 Milliarden US-Dollar von Abu Dhabi). Dieser Fonds verzeichnete in einem einzigen Jahr einen Verlust von 32 Milliarden US-Dollar. Masayoshi Son sagte öffentlich, er sei „peinlich berührt“ und „schämte sich“ über die Ergebnisse. Das verarbeitende Gewerbe in den USA ist ein 3-Billionen-Dollar-Sektor mit 113 Millionen Arbeitnehmern. Sein Anteil am BIP ist von 11 % im Jahr 2012 auf heute 9 % gesunken. Die Wette ist, dass KI diesen Rückgang umkehren kann, indem sie Fabriken radikal produktiver macht. Erst letzte Woche erholte sich Travis Kalanick (ehemaliger CEO von Uber) aus seiner achtjährigen Tarnung, um Atoms zu gründen, ein Robotikunternehmen, das auf Fabrikautomatisierung abzielt. Mehrere Milliardäre konvergieren diesen Monat zum Thema „physische KI“. Bezos macht es einfach mit einem Scheckbuch, das dreimal so groß ist wie alles, was die Buyout-Branche je gesehen hat.
@DamienERNST1 @AdiPolak RT von @DamienERNST1 19.03 21:20
Jim Cramer asked Jensens why companies are laying people off if AI is supposed to make everyone MORE productive. Jensen's answer: "For companies with imagination, you will do more with more. For companies where the leadership is just out of ideas, they have nothing else to do. They have no reason to imagine greater than they are. When they have more capability, they don't do more."
🇩🇪 Übersetzung
RT von @DamienERNST1: Jim Cramer fragte Jensens, warum Unternehmen Menschen entlassen, wenn KI alle produktiver machen soll. Jensens Antwort: „Unternehmen mit Vorstellungskraft können mit mehr mehr erreichen. Unternehmen, deren Führung nur aus Ideen besteht, haben nichts anderes zu tun. Sie haben keinen Grund, sich Größeres vorzustellen, als sie sind. Wenn sie mehr Fähigkeiten haben, tun sie nicht mehr.“
@DamienERNST1 @JavierBlas RT von @DamienERNST1 19.03 19:00
CHART OF THE DAY: The White House is fighting to keep the price of WTI crude oil under $100 a barrel. But for America's Main Street what truly matters isn't the price of crude, but the cost of refined products — and those are rising fast. Link to my @Opinion column on reply.
🇩🇪 Übersetzung
RT von @DamienERNST1: CHART DES TAGES: Das Weiße Haus kämpft darum, den Preis für WTI-Rohöl unter 100 Dollar pro Barrel zu halten. Aber für Amerikas Main Street kommt es nicht wirklich auf den Rohölpreis an, sondern auf die Kosten für raffinierte Produkte – und diese steigen schnell. Link zu meiner @Opinion-Kolumne in der Antwort.