Damien Ernst souhaite devenir le nouveau recteur de l’Université de Liège : « L’ULiège doit être davantage ouverte sur la Ville et les entreprises » https://www.sudinfo.be/id1130974/article/2026-03-30/damien-ernst-souhaite-devenir-le-nouveau-recteur-de-luniversite-de-liege-luliege?utm_campaign=pushs&utm_source=twitter&utm_medium=tw_lm
🇩🇪 Übersetzung
RT von @DamienERNST1: Damien Ernst hat den neuen Rektor der Universität Lüttich gegründet: „L’ULiège hat einen Vorteil gegenüber der Stadt und den Unternehmen.“ https://www.sudinfo.be/id1130974/article/2026-03-30/damien-ernst-souhaite-devenir-le-nouveau-recteur-de-luniversite-de-liege-luliege?utm_campaign=pushs&utm_source=twitter&utm_medium=tw_lm
Ukraine est en train d’opérer un basculement stratégique discret mais majeur vers le Moyen-Orient — et ce n’est pas anodin.
Dans cette séquence, Volodymyr Zelensky met en avant trois dynamiques clés :
D’abord, l’exportation d’un savoir-faire devenu unique : la protection des civils face aux frappes massives (missiles, drones, saturation). L’Ukraine n’exporte plus seulement des armes, mais une expérience opérationnelle acquise sous pression extrême.
Ensuite, un changement d’échelle : on parle ici de systèmes complets — défense multicouche, guerre électronique, logiciels — et non de simples équipements. C’est une approche intégrée, exactement ce qui manque aujourd’hui à beaucoup d’États confrontés à des menaces hybrides.
Enfin, et c’est sans doute le plus important, une logique d’échange : Kyiv ne vend pas seulement, elle négocie. Accès à des capacités anti-balistiques, partenariats énergétiques, accords sur 10 ans. Autrement dit, une diplomatie de guerre qui devient une diplomatie industrielle et stratégique.
C’est une évolution majeure : l’Ukraine, longtemps dépendante, devient un fournisseur de sécurité. Et elle le fait dans une région où la compétition entre puissances (États-Unis, Chine, Russie) est déjà intense.
Peu commenté, mais structurant.
🇩🇪 Übersetzung
RT von @DamienERNST1: Die Ukraine ist im Zuge einer diskreten Basculement-Strategie höherer Gewalt gegenüber dem Orient tätig – und das ist nicht der Fall.
In dieser Sequenz traf Wolodymyr Selenskyj vor drei dynamischen Schlüsseln:
An Bord ist der Export zu einem einzigartigen Know-how geworden: Der Schutz der Zivilbevölkerung vor massiven Angriffen (Raketen, Drohnen, Sättigung). Die Ukraine wird nicht nur mit Waffen exportiert, sondern hat auch ein operatives Erlebnis, das extremen Druck ausübt.
Ensuite, eine Änderung der Umgebung: Wir sprechen hier von vollständigen Systemen – Multi-Couch-Verteidigung, elektronischer Verteidigung, Logik – und nicht von einfachen Geräten. Es handelt sich um eine integrierte Annäherung, die genau darauf abzielt, die Staaten, die mit hybriden Bedrohungen konfrontiert sind, vor die Tür zu setzen.
Endlich, und das ohne Zweifel, eine Wechsellogik: Kiew wird nie verkauft, sie verhandelt. Zugriff auf antibalistische Kapazitäten, Energiepartnerschaften, Vereinbarungen über 10 Jahre. Darüber hinaus handelte es sich um eine Kampfdiplomatie, die von einer industriellen und strategischen Diplomatie abweicht.
Es handelt sich um eine höhere Entwicklung: Die Ukraine ist für längere Zeit von einem Sicherheitsbeauftragten abhängig. Und sie war in einer Region oder im Wettbewerb zwischen Großstädten (Etats-Unis, China, Russia) sehr intensiv.
Peu commenté, mais structurant.
Never too late!
Golden Pass announces first LNG production (train 1).
The facility has two other trains, expected to come online by 3Q 2026 and 1Q 2027, respectively. When in full production, it would add ~18 million ton per year (more than current QatarEnergy losses).
🇩🇪 Übersetzung
RT von @DamienERNST1: Es ist nie zu spät!
Golden Pass kündigt erste LNG-Produktion an (Zug 1).
Die Anlage verfügt über zwei weitere Züge, die voraussichtlich im 3. Quartal 2026 bzw. im 1. Quartal 2027 in Betrieb gehen werden. Bei voller Produktion würde es etwa 18 Millionen Tonnen pro Jahr hinzufügen (mehr als die derzeitigen Verluste von QatarEnergy).
Claude solved it in an hour. Couldn’t tell you why it works. Couldn’t generalize to the next case. Knuth’s note is the cleanest field observation of the Shannon/Kolmogorov boundary I’ve seen. Detail by detail.
https://medium.com/@vishalmisra/knuth-just-showed-us-where-to-put-the-human-013c0330ef0a
🇩🇪 Übersetzung
RT von @DamienERNST1: Claude hat es in einer Stunde gelöst. Ich kann Ihnen nicht sagen, warum es funktioniert. Konnte nicht auf den nächsten Fall verallgemeinert werden. Knuths Notiz ist die sauberste Feldbeobachtung der Shannon/Kolmogorov-Grenze, die ich je gesehen habe. Detail für Detail.
https://medium.com/@vishalmisra/knuth-just-showed-us-where-to-put-the-human-013c0330ef0a
COLUMN: Five weeks into the Third Gulf War, the math of oil-barrel counting is intractable: The world is short of the black stuff. Enter demand destruction.
@Opinion
https://www.bloomberg.com/opinion/articles/2026-03-30/oil-prices-iran-war-is-pushing-energy-market-into-demand-destruction-mode?utm_source=website&utm_medium=share&utm_campaign=twitter
🇩🇪 Übersetzung
RT von @DamienERNST1: KOLUMNE: Fünf Wochen nach Beginn des Dritten Golfkriegs ist die Rechnung beim Zählen der Ölfässer unlösbar: Der Welt fehlt das schwarze Zeug. Geben Sie die Bedarfsvernichtung ein.
@Meinung
https://www.bloomberg.com/opinion/articles/2026-03-30/oil-prices-iran-war-is-pushing-energy-market-into-demand-destruction-mode?utm_source=website&utm_medium=share&utm_campaign=twitter
Reprogrammer l’organisme pour vaincre le cancer !
Et si l’on pouvait reprogrammer notre immunité pour vaincre le cancer ? C’est ce que des scientifiques de l’université de Californie (UCSF) espèrent, après avoir franchi une étape potentiellement révolutionnaire dans la lutte contre la maladie. Publiée dans la revue Nature, cette recherche pourrait simplifier la thérapie CAR-T et la rendre accessible à bien plus de patients.
Jusqu’à présent, la thérapie CAR-T consistait à prélever les cellules T du sang du patient, à les modifier en laboratoire pour qu’elles reconnaissent et attaquent spécifiquement les cellules cancéreuses, puis à les réinjecter. Ce processus est long, extrêmement coûteux et nécessite souvent une chimiothérapie préalable. L’équipe dirigée par Justin Eyquem a conçu un système à deux particules injectables : l’une délivre l’outil d’édition génétique CRISPR-Cas9 ciblé vers les cellules T, tandis que l’autre introduit précisément la séquence d’ADN qui transforme ces cellules en « tueuses de cancer ». Pour la première fois, une grande séquence d’ADN a ainsi été intégrée de manière ciblée et stable dans des cellules T humaines sans les sortir de l’organisme.
Chez des souris dotées d’un système immunitaire humanisé et atteintes de cancers agressifs, une seule injection a suffi. En deux semaines, le cancer était devenu indétectable chez la quasi-totalité des animaux. Mieux encore, les cellules ainsi reprogrammées directement dans le corps ont montré une meilleure capacité à se multiplier et à persister que celles fabriquées en laboratoire.
Cette approche, encore au stade préclinique, ouvre la voie à un traitement « prêt à l’emploi », comparable à un vaccin, qui pourrait être administré plus rapidement, à moindre coût et sans les lourdeurs actuelles. Elle pourrait ainsi démocratiser l’accès à cette immunothérapie, y compris dans des contextes où les infrastructures spécialisées manquent.
🇩🇪 Übersetzung
RT von @DamienERNST1: Programmiere den Organismus neu, um den Krebs zu vernichten!
Und wenn Sie nicht immun gegen Krebs programmieren könnten? Es handelt sich um Wissenschaftler der kalifornischen Universität (UCSF), die nach der Franchise ein möglicherweise revolutionäres Stadium in der Luft gegen die Krankheit antreten. Veröffentlicht in der Zeitschrift Nature, diese Suche, um die CAR-T-Therapie zu vereinfachen und sie für Patienten besser zugänglich zu machen.
Derzeit besteht die CAR-T-Therapie aus der Vorbehandlung der T-Zellen des Patienten, dem Modifikator im Labor zur Aufklärung und anschließenden Spezifizierung der Krebszellen und anschließend zur Injektion. Dieser Prozess ist langwierig, äußerst kostspielig und erfordert eine praktikable Chimiothérapie. Das von Justin Eyquem geleitete Team beschloss, ein System für zwei injizierbare Partikel zu entwickeln: Es lieferte das CRISPR-Cas9-Generator-Tool für Zellen T und stellte außerdem die ADN-Sequenz vor, mit der diese Zellen transformiert werden. tueuses de cancer ». Zum ersten Mal war es eine große ADN-Sequenz, die es in die Lage versetzte, die Zellen des Menschen ohne die Art des Organismus zu reinigen und zu stabilisieren.
Da es sich um ein humanisiertes Immunsystem und um aggressive Krebserkrankungen handelt, reicht eine einzige Injektion aus. In zwei Wochen war der Krebs in der quasi totalen Tierwelt nicht mehr nachweisbar. Außerdem wurden die Zellen direkt im Körper umprogrammiert und verfügten über eine bessere Kapazität, um die im Labor gefertigten Zellen zu vervielfachen und beizubehalten.
Dieser Ansatz, noch einmal im präklinischen Stadium, war bereits auf dem Weg zu einem „Vorbereitungstermin“, vergleichbar mit einer Impfung, die schnellstmöglich verabreicht werden musste, ohne die tatsächlichen Kosten zu senken. Sie soll den Zugang zu dieser Immuntherapie demokratisieren und umfasst den Kontext der benötigten Spezialinfrastrukturen.
The concentration of Russian forces on the Zaporizhzhia Front is the thinnest I can remember.
It used to be three times as many regiments stationed here just over 6 months ago!
🇩🇪 Übersetzung
RT von @DamienERNST1: Die Konzentration russischer Streitkräfte an der Saporischschja-Front ist die geringste, an die ich mich erinnern kann.
Vor etwas mehr als 6 Monaten waren hier dreimal so viele Regimenter stationiert!
The apparent lack of Russian FPV drone defenses indicates Ukrainians are finding ways to achieve tactical drone dominance to enable getting heavy equipment back into the fight.
Nine months ago bringing equipment like this near / into the kill zone was near impossible.
🇩🇪 Übersetzung
RT von @DamienERNST1: Der offensichtliche Mangel an russischen FPV-Drohnenverteidigungen deutet darauf hin, dass die Ukrainer Wege finden, die taktische Drohnendominanz zu erlangen, um schweres Gerät wieder in den Kampf zu bringen.
Vor neun Monaten war es nahezu unmöglich, solche Ausrüstung in die Nähe bzw. in die Tötungszone zu bringen.
Well now,
My March 26th 2026 prediction Pres, Trump would follow through on his threat of knocking out Iranian power has been fully fulfilled.
1/
🇩🇪 Übersetzung
RT von @DamienERNST1: Nun ja,
Meine Vorhersage vom 26. März 2026, Herr Präsident, dass Trump seine Drohung, die iranische Macht auszuschalten, wahr machen würde, hat sich vollständig erfüllt.
1/
Every flower price in the world is set in the Netherlands
The Dutch control 80% of global flower trade through a single auction in Aalsmeer
Twenty million flowers change hands there every day
The building is larger than Monaco
The Dutch did not just grow flowers
They built the infrastructure that decides what the entire world pays for them
Every florist on earth prices against a Dutch auction they have never visited
🇩🇪 Übersetzung
RT von @DamienERNST1: Jeder Blumenpreis der Welt wird in den Niederlanden festgelegt
Die Niederländer kontrollieren 80 % des weltweiten Blumenhandels über eine einzige Auktion in Aalsmeer
Täglich wechseln dort 20 Millionen Blumen den Besitzer
Das Gebäude ist größer als Monaco
Die Niederländer bauten nicht nur Blumen an
Sie haben die Infrastruktur aufgebaut, die darüber entscheidet, was die ganze Welt für sie bezahlt
Jeder Florist auf der Welt berechnet seine Preise anhand einer niederländischen Auktion, an der er noch nie teilgenommen hat
BREAKING: Widespread power outages and blackouts are being reported across Iran following new US and Israeli strikes.
We have yet to receive comment on Iran from President Trump since Thursday, when Trump said he was pausing strikes on Iranian power plants until April 6th.
🇩🇪 Übersetzung
RT von @DamienERNST1: BREAKING: Nach neuen Angriffen der USA und Israels werden im ganzen Iran weit verbreitete Stromausfälle und Stromausfälle gemeldet.
Wir haben seit Donnerstag, als Trump sagte, er werde die Angriffe auf iranische Kraftwerke bis zum 6. April aussetzen, noch keinen Kommentar zum Iran von Präsident Trump erhalten.
Now compare with Europe. The lesson here is that the greatest pressure to end this war -- from the catastrophic economic effects that the mainstream media has only just started grasping, and of which they are nowhere near the true potential scale -- will fall on the rest of the world. Insofar as they are felt at all by the US it will be mainly through the ripple effects of economic collapse elsewhere (capital flows and trade, etc) and much lesser direct efects, especially if Trump manages to impose export controls on US crude and get the grades the US doesn't produce from Canada.
The shale revolution made doing business in Europe more expensive than in the US. Then, the US injected far more fiscal stimulus into the economy than Europe in response to the global financial crisis. This led to the divergence in GDP/capita numbers over the last 20 years. Europe's response to Russia's invasion to Ukraine made that worse, and now, this is going to make it even worse again. Meanwhile, US private equity will continue to loot EU assets at cheap valuations.
🇩🇪 Übersetzung
RT von @DamienERNST1: Vergleichen Sie jetzt mit Europa. Die Lehre daraus ist, dass der größte Druck, diesen Krieg zu beenden – aufgrund der katastrophalen wirtschaftlichen Auswirkungen, die die Mainstream-Medien gerade erst zu begreifen beginnen und deren wahres potenzielles Ausmaß sie bei weitem nicht erkennen – auf dem Rest der Welt lasten wird. Soweit die USA sie überhaupt zu spüren bekommen, wird dies hauptsächlich durch die Welleneffekte des wirtschaftlichen Zusammenbruchs anderswo (Kapitalströme und Handel usw.) und viel geringere direkte Auswirkungen geschehen, insbesondere wenn es Trump gelingt, Exportkontrollen für US-Rohöl einzuführen und die Sorten, die die USA nicht produzieren, aus Kanada zu beziehen.
Die Schieferrevolution machte Geschäfte in Europa teurer als in den USA. Als Reaktion auf die globale Finanzkrise haben die USA der Wirtschaft dann weitaus mehr fiskalpolitische Impulse gegeben als Europa. Dies führte in den letzten 20 Jahren zu einer Divergenz der BIP/Kopf-Zahlen. Die Reaktion Europas auf Russlands Invasion in der Ukraine hat das noch schlimmer gemacht, und jetzt wird es noch schlimmer werden. Unterdessen wird US-Private-Equity weiterhin EU-Vermögenswerte zu günstigen Bewertungen plündern.
Russia has stepped up its support for Iran providing Iran with drone shipments and advice on Iranian drone strikes altitude, numbers of drones per wave whilst also providing targeting data which has been used to successful target US military radar installations-WSJ
🇩🇪 Übersetzung
RT von @DamienERNST1: Russland hat seine Unterstützung für den Iran verstärkt, indem es dem Iran Drohnenlieferungen und Ratschläge zu iranischen Drohnenangriffshöhen und der Anzahl der Drohnen pro Welle zur Verfügung stellt und gleichzeitig Zieldaten bereitstellt, die zur erfolgreichen Zielerfassung von US-Militärradaranlagen verwendet wurden – WSJ
🚨🚨Yemen's Houthi Group, an Iranian ally, has threatened to close the Bab al-Mandab Strait, which currently handles 12% of global trade.
🇩🇪 Übersetzung
RT von @DamienERNST1: 🚨🚨Jemens Huthi-Gruppe, ein Verbündeter Irans, hat damit gedroht, die Bab al-Mandab-Straße zu schließen, über die derzeit 12 % des Welthandels abgewickelt werden.
Israeli/American airforce has bombed the electricity grid in Tehran Iran causing large power outages.
🇩🇪 Übersetzung
RT von @DamienERNST1: Die israelisch-amerikanische Luftwaffe hat das Stromnetz in Teheran, Iran, bombardiert, was zu großen Stromausfällen führte.
For the American economy, the key different between the current energy shock and previous ones is the (lack of) impact in US natural gas prices.
That's crucial for industrial activity and electricity prices (and thus inflation). Far less reported than oil, but as significant.
🇩🇪 Übersetzung
RT von @DamienERNST1: Für die amerikanische Wirtschaft ist der entscheidende Unterschied zwischen dem aktuellen und früheren Energieschock die (fehlende) Auswirkung auf die US-Erdgaspreise.
Das ist entscheidend für die Industrieaktivität und die Strompreise (und damit die Inflation). Weit weniger gemeldet als Öl, aber genauso bedeutend.
All roads lead back to 9 PM bed time, 5 AM wake up, 4 hours of deep, focused work creative work first thing, work out mid day to break it up, admin & calls in the afternoon, hang with friends and loved ones in the evening, repeat forever.
🇩🇪 Übersetzung
RT von @DamienERNST1: Alle Wege führen zurück zu 21:00 Uhr Schlafenszeit, 5:00 Uhr Aufstehen, 4 Stunden intensive, konzentrierte Arbeit, kreative Arbeit als Erstes, Mittagstraining, um die Pause zu unterbrechen, Verwaltung und Anrufe am Nachmittag, Abhängen mit Freunden und Liebsten am Abend, ewig wiederholen.
Tomorrow will officially go down as the WORST day ever in stock market history.
🇩🇪 Übersetzung
RT von @DamienERNST1: Morgen wird offiziell als der SCHLECHTESTE Tag aller Zeiten in die Börsengeschichte eingehen.
🚨 Cambridge researchers just tested what happens when you overload an AI's memory with irrelevant data.
They found a complete collapse of modern RAG systems.
Not a minor hallucination. A total failure of the exact retrieval architecture that every enterprise AI relies on to access private data.
The models simply drowned in the noise.
The researchers tested standard Retrieval-Augmented Generation (RAG) and filtering models like Self-RAG. They fed them information but slowly increased the ratio of distracting, low-quality documents.
Here is what they found.
Current read-time filtering failed completely. When the ratio of distractors hit 8:1, the accuracy of standard RAG systems plummeted to 0%. The AI lost the ability to find the truth.
It exposed a massive architectural flaw. We currently store every single document an AI reads, regardless of quality, and force the model to sort through the garbage at query time. It is highly inefficient and fundamentally broken.
The biological fix. The researchers built a new system called "Write-Time Gating" modeled after the human hippocampus. Instead of saving everything, it evaluates novelty, reliability, and source reputation before the data is even stored.
And then there is the finding that changes how we build AI: hierarchical archiving. When beliefs update, the system does not delete the old data. It deprioritizes it, maintaining a version history just like the human brain. The result? The write-gated system maintained 100% accuracy even at massive distractor scales, all while costing one-ninth the compute of current systems.
The researchers made it clear. When you dump raw, unfiltered data into a database and expect the LLM to figure it out later, you are building a system designed to fail at scale.
No reliable retrieval. No cost control. No accuracy guarantees. Nothing.
Right now, companies are building massive vector databases, throwing every piece of corporate documentation into them, and assuming the AI will magically find the signal in the noise.
Stop treating AI memory like a hard drive. Start treating it like a biological filter. Build the gate at the entrance, not the exit.
🇩🇪 Übersetzung
RT von @DamienERNST1: 🚨 Cambridge-Forscher haben gerade getestet, was passiert, wenn man den Speicher einer KI mit irrelevanten Daten überlastet.
Sie stellten einen völligen Zusammenbruch moderner RAG-Systeme fest.
Keine kleine Halluzination. Ein völliger Ausfall der exakten Abrufarchitektur, auf die jede Unternehmens-KI angewiesen ist, um auf private Daten zuzugreifen.
Die Modelle gingen einfach im Lärm unter.
Die Forscher testeten Standard-Retrieval-Augmented Generation (RAG) und Filtermodelle wie Self-RAG. Sie versorgten sie mit Informationen, erhöhten aber langsam den Anteil ablenkender, minderwertiger Dokumente.
Hier ist, was sie gefunden haben.
Die Filterung der aktuellen Lesezeit ist vollständig fehlgeschlagen. Als das Verhältnis der Distraktoren 8:1 erreichte, sank die Genauigkeit der Standard-RAG-Systeme auf 0 %. Die KI verlor die Fähigkeit, die Wahrheit herauszufinden.
Es offenbarte einen massiven architektonischen Fehler. Wir speichern derzeit jedes einzelne Dokument, das eine KI liest, unabhängig von der Qualität, und zwingen das Modell, den Müll zum Zeitpunkt der Abfrage zu sortieren. Es ist höchst ineffizient und grundsätzlich kaputt.
Die biologische Lösung. Die Forscher bauten ein neues System namens „Write-Time Gating“, das dem menschlichen Hippocampus nachempfunden ist. Anstatt alles zu speichern, bewertet es Neuheit, Zuverlässigkeit und Reputation der Quelle, bevor die Daten überhaupt gespeichert werden.
Und dann ist da noch die Erkenntnis, die die Art und Weise, wie wir KI aufbauen, verändert: die hierarchische Archivierung. Wenn Überzeugungen aktualisiert werden, löscht das System die alten Daten nicht. Es priorisiert es und verwaltet einen Versionsverlauf, genau wie das menschliche Gehirn. Das Ergebnis? Das schreibgeschützte System behielt selbst bei massiven Distraktormaßstäben eine 100-prozentige Genauigkeit bei und kostete dabei nur ein Neuntel der Rechenleistung aktueller Systeme.
Die Forscher machten es deutlich. Wenn Sie rohe, ungefilterte Daten in eine Datenbank laden und erwarten, dass der LLM sie später herausfindet, bauen Sie ein System auf, das darauf ausgelegt ist, bei großem Maßstab zu scheitern.
Kein zuverlässiger Abruf. Keine Kostenkontrolle. Keine Genauigkeitsgarantie. Nichts.
Derzeit bauen Unternehmen riesige Vektordatenbanken auf, werfen jede einzelne Unternehmensdokumentation hinein und gehen davon aus, dass die KI das Signal auf magische Weise im Rauschen findet.
Hören Sie auf, den KI-Speicher wie eine Festplatte zu behandeln. Behandeln Sie es wie einen biologischen Filter. Bauen Sie das Tor am Eingang, nicht am Ausgang.
Marc Andreessen says raw intelligence might be the worst qualification for leadership — and it changes everything about how we should think about AI.
"If the leader is more than one standard deviation of IQ away from the followers, it's a real problem."
Andreessen points to the US military, one of the earliest and most rigorous adopters of IQ testing, as the source of this insight.
They slot people into specialties and leadership roles based on IQ scores. And over the years, they kept seeing the same pattern.
A leader who is significantly less intelligent than their people struggles to model how those people think. That part is intuitive.
But the reverse turns out to be equally true.
"It's actually very hard for very smart people to model the internal thought processes of even moderately smart people."
A leader who is two standard deviations above the norm of the organisation they're running also loses theory of mind, that ability to hold an accurate model of what's happening inside someone else's head.
The gap is too wide in both directions.
Andreessen then takes this to its logical conclusion:
"If you had a person or a machine that had a thousand IQ or something like it, its understanding of reality would be so alien to the people or the things that it was managing that it wouldn't even be able to connect in any sort of realistic way."
An AI that vastly outthinks every human in the room isn't positioned to lead those humans. It's positioned to be completely incomprehensible to them.
Leadership has never really been an intelligence problem. It's a connection problem. And no amount of raw intelligence closes that gap — past a certain point, it only widens it.
The world will not be run by the smartest thing in the room for a long time. Maybe ever.
🇩🇪 Übersetzung
RT von @DamienERNST1: Marc Andreessen sagt, dass rohe Intelligenz möglicherweise die schlechteste Qualifikation für Führung ist – und sie ändert alles daran, wie wir über KI denken sollten.
„Wenn der Anführer mehr als eine Standardabweichung des IQ von den Gefolgsleuten entfernt ist, ist das ein echtes Problem.“
Als Quelle dieser Erkenntnis verweist Andreessen auf das US-Militär, einen der ersten und strengsten Anwender von IQ-Tests.
Sie ordnen Menschen auf der Grundlage ihrer IQ-Werte Fachgebieten und Führungsrollen zu. Und im Laufe der Jahre sahen sie immer wieder das gleiche Muster.
Eine Führungskraft, die deutlich weniger intelligent ist als ihre Leute, hat Schwierigkeiten, die Denkweise dieser Leute nachzubilden. Dieser Teil ist intuitiv.
Aber auch das Gegenteil trifft zu.
„Für sehr kluge Menschen ist es tatsächlich sehr schwierig, die internen Denkprozesse selbst einigermaßen kluger Menschen nachzubilden.“
Eine Führungskraft, die zwei Standardabweichungen über der Norm der Organisation liegt, die sie leitet, verliert auch die Theorie des Geistes, also die Fähigkeit, ein genaues Modell dessen zu haben, was im Kopf eines anderen geschieht.
Der Abstand ist in beide Richtungen zu groß.
Andreessen bringt dies dann zu seiner logischen Schlussfolgerung:
„Wenn Sie eine Person oder eine Maschine mit einem IQ von 1.000 oder etwas Ähnlichem hätten, wäre ihr Verständnis der Realität den Menschen oder den Dingen, die sie verwaltet, so fremd, dass sie nicht einmal in der Lage wäre, auf realistische Weise eine Verbindung herzustellen.“
Eine KI, die jeden Menschen im Raum um Längen übertrifft, ist nicht in der Lage, diese Menschen zu führen. Es ist so positioniert, dass es für sie völlig unverständlich ist.
Führung war nie wirklich ein Geheimdienstproblem. Es handelt sich um ein Verbindungsproblem. Und keine Menge roher Intelligenz kann diese Lücke schließen – ab einem bestimmten Punkt wird sie nur noch größer.
Die Welt wird noch lange nicht von der klügsten Person im Raum regiert. Vielleicht jemals.
30-Year Treasury Yield closed at 4.98%, getting very close to the highest level since the run-up to the Global Financial Crisis 👻😱👀
🇩🇪 Übersetzung
RT von @DamienERNST1: Die Rendite 30-jähriger Staatsanleihen schloss bei 4,98 % und näherte sich damit sehr nahe dem höchsten Stand seit dem Vorfeld der globalen Finanzkrise 👻😱👀
I still remember when people thought "prompt engineering" was going to become a real career.
🇩🇪 Übersetzung
RT von @DamienERNST1: Ich erinnere mich noch daran, als die Leute dachten, „Prompt Engineering“ würde eine echte Karriere werden.
The world's liquid helium depends on 16 plants. Building a new one takes 3 to 6 years. Why? Helium is different from most other gases. When extracted from natural gas, every other component freezes out during cryogenic processing. But above −228°C, the standard industrial method of expanding gas through a valve to cool it makes helium hotter, not colder. So liquefaction at −269°C requires turboexpanders spinning at up to 250,000 rpm. Getting helium to 99.9999% semiconductor grade means concentrating it 1,250 times, then purifying it through 7 stages across a 900-degree temperature range. The final stage uses zirconium alloy cartridges at 700°C to chemically bind impurities below 1 part per billion. The turboexpanders are built by less than five companies worldwide, the zirconium cartridges by even fewer. Lead times for either: 12 to 24 months. The US sold its strategic helium reserve in January 2024. Semiconductor fabs carry about one week of inventory.
🇩🇪 Übersetzung
RT von @DamienERNST1: Das flüssige Helium der Welt hängt von 16 Pflanzen ab. Der Bau eines neuen Gebäudes dauert 3 bis 6 Jahre. Warum? Helium unterscheidet sich von den meisten anderen Gasen. Bei der Gewinnung aus Erdgas gefriert bei der kryogenen Verarbeitung jede andere Komponente aus. Aber oberhalb von −228 °C wird Helium durch die industrielle Standardmethode, bei der Gas durch ein Ventil expandiert wird, um es abzukühlen, heißer und nicht kälter. Für die Verflüssigung bei −269 °C sind daher Turboexpander erforderlich, die sich mit bis zu 250.000 U/min drehen. Um Helium auf eine Halbleiterqualität von 99,9999 % zu bringen, muss es 1.250-fach konzentriert und anschließend in sieben Stufen über einen Temperaturbereich von 900 Grad gereinigt werden. In der letzten Stufe werden Kartuschen aus einer Zirkoniumlegierung bei 700 °C eingesetzt, um Verunreinigungen unter 1 Teil pro Milliarde chemisch zu binden. Die Turboexpander werden von weniger als fünf Firmen weltweit gebaut, die Zirkonkartuschen sogar von noch weniger. Lieferzeiten für beide: 12 bis 24 Monate. Die USA haben ihre strategischen Heliumreserven im Januar 2024 verkauft. Halbleiterfabriken haben einen Lagerbestand von etwa einer Woche.
🦔 A software engineer published a blog this week arguing that programming languages are dead and everything will soon be written in plain English, run directly on what he calls ClaudeVM. The argument is that just as Java brought ten times more engineers than COBOL, natural language will bring hundreds of millions of people who write in English instead of code, swamping traditional software the same way JavaScript swamped everything before it. He calls traditional coding today the equivalent of filming radio plays for television, using the new medium but thinking in the old one.
My Take
I've seen this argument cycle through the industry in different forms since COBOL was supposed to make programming accessible to everyone in the 1960s. The core problem hasn't changed. Natural language is imprecise by design. That imprecision is a feature for human communication and a serious liability for software that needs to behave the same way every time it runs. A bank's transaction system, a medical device, an air traffic control system. These are not problems where close enough is acceptable.
What I do think is true is the direction of the argument, not the destination. The barrier to building useful software is falling fast and will keep falling. More people will create more software with less formal training. That's already happening and it matters economically. But the claim that deterministic, auditable, maintainable code becomes irrelevant because LLMs can be seeded for reproducibility is the kind of argument that sounds clever until you're debugging a production system at 3am and need to know exactly what happened and why. Engineers aren't resistant to this idea because they're like radio stars failing to see television. They're resistant because they've spent careers cleaning up what happens when precision gets treated as optional.
Hedgie🤗
🇩🇪 Übersetzung
RT von @DamienERNST1: 🦔 Ein Softwareentwickler hat diese Woche einen Blog veröffentlicht, in dem er argumentiert, dass Programmiersprachen tot sind und bald alles in einfachem Englisch geschrieben sein wird und direkt auf dem läuft, was er ClaudeVM nennt. Das Argument lautet: So wie Java zehnmal mehr Ingenieure hervorgebracht hat als COBOL, wird die natürliche Sprache Hunderte Millionen Menschen hervorbringen, die auf Englisch statt in Code schreiben und traditionelle Software auf die gleiche Weise überschwemmen, wie JavaScript alles davor überschwemmt hat. Er bezeichnet die traditionelle Codierung heute als das Äquivalent zum Verfilmen von Hörspielen für das Fernsehen, wobei man das neue Medium nutzt, aber im alten denkt.
Meine Meinung
Seit COBOL in den 1960er-Jahren die Programmierung für jedermann zugänglich machen sollte, habe ich diese Argumentation in unterschiedlicher Form in der Branche erlebt. Das Kernproblem hat sich nicht geändert. Natürliche Sprache ist von Natur aus ungenau. Diese Ungenauigkeit ist ein Merkmal der menschlichen Kommunikation und eine ernsthafte Gefahr für Software, die sich bei jeder Ausführung gleich verhalten muss. Das Transaktionssystem einer Bank, ein medizinisches Gerät, ein Flugsicherungssystem. Dies sind keine Probleme, bei denen eine ausreichende Nähe akzeptabel ist.
Was meiner Meinung nach wahr ist, ist die Richtung des Arguments, nicht das Ziel. Die Hürde für die Entwicklung nützlicher Software sinkt schnell und wird weiter sinken. Mehr Menschen werden mehr Software mit weniger formaler Ausbildung erstellen. Das geschieht bereits und ist wirtschaftlich von Bedeutung. Aber die Behauptung, dass deterministischer, überprüfbarer und wartbarer Code irrelevant wird, weil LLMs zur Reproduzierbarkeit geseed werden können, ist ein Argument, das clever klingt, bis Sie um 3 Uhr morgens ein Produktionssystem debuggen und genau wissen müssen, was passiert ist und warum. Ingenieure sträuben sich nicht gegen diese Idee, weil sie wie Radiostars sind, die kein Fernsehen sehen. Sie sind resistent, weil sie ihre Karriere damit verbracht haben, aufzuklären, was passiert, wenn Präzision als optional behandelt wird.
Hedgie🤗
The part nobody's thinking about: this loop has a termination point.
Right now, a lab lands a breakthrough, uses it internally for 3 to 6 months, ships a wave of products, then releases the model publicly. The public gets the breakthrough. The gap closes. Cycle repeats.
But once the internal model is good enough to meaningfully accelerate training the next model, the public release becomes a farewell letter. You're getting the version they've already moved past. The version that already built its replacement.
Watch Anthropic right now. 74 releases in 52 days. Claude Code, Cowork, Computer Use, Channels, Security, Opus 4.6, Sonnet 4.6. Cowork was built with Claude Code in 10 days. Their own engineers ship 60 to 100 internal releases per day. Then on Thursday a misconfigured CMS leaked a draft announcement for "Claude Mythos," a new model tier above Opus that Anthropic confirmed is real and called "a step change." They've been running on something the rest of us haven't seen yet. That's why the shipping velocity looked impossible.
The gap between internal capability and public capability has been roughly one model generation. That gap is about to become permanent. Because every month the better model stays internal, it compounds. It writes better training code. It finds better architectures. It debugs its own evals.
The "flurry of releases" Kevin describes is the last phase where outsiders can even track what's happening. After that, the velocity becomes unexplainable without knowing what's underneath it.
🇩🇪 Übersetzung
RT von @DamienERNST1: Der Teil, an den niemand denkt: Diese Schleife hat einen Endpunkt.
Im Moment gelingt einem Labor ein Durchbruch, es wird drei bis sechs Monate lang intern verwendet, eine Reihe von Produkten ausgeliefert und das Modell dann öffentlich veröffentlicht. Der Durchbruch gelingt der Öffentlichkeit. Die Lücke schließt sich. Zyklus wiederholt sich.
Aber sobald das interne Modell gut genug ist, um das Training des nächsten Modells sinnvoll zu beschleunigen, wird die öffentliche Veröffentlichung zu einem Abschiedsbrief. Sie erhalten die Version, an der sie bereits vorbeigekommen sind. Die Version, die ihren Ersatz bereits eingebaut hat.
Schauen Sie sich jetzt Anthropic an. 74 Veröffentlichungen in 52 Tagen. Claude Code, Cowork, Computernutzung, Kanäle, Sicherheit, Opus 4.6, Sonnet 4.6. Cowork wurde mit Claude Code in 10 Tagen aufgebaut. Ihre eigenen Ingenieure versenden täglich 60 bis 100 interne Releases. Dann ließ ein falsch konfiguriertes CMS am Donnerstag einen Ankündigungsentwurf für „Claude Mythos“ durchsickern, eine neue Modellstufe oberhalb von Opus, die Anthropic als real bestätigte und als „eine schrittweise Änderung“ bezeichnete. Sie sind auf etwas gestoßen, das der Rest von uns noch nicht gesehen hat. Deshalb schien die Versandgeschwindigkeit unmöglich zu sein.
Die Lücke zwischen interner Leistungsfähigkeit und öffentlicher Leistungsfähigkeit betrug etwa eine Modellgeneration. Diese Lücke wird bald dauerhaft sein. Da jeden Monat das bessere Modell intern bleibt, verstärkt es sich. Es schreibt besseren Trainingscode. Es findet bessere Architekturen. Es debuggt seine eigenen Auswertungen.
Die „Flut der Veröffentlichungen“, die Kevin beschreibt, ist die letzte Phase, in der Außenstehende überhaupt verfolgen können, was passiert. Danach wird die Geschwindigkeit unerklärlich, ohne dass man weiß, was sich darunter befindet.
With the Strait of Hormuz still closed, this feels like those weird couple of weeks before the global Covid lockdown. A surreal complacency, with a few people warning of what’s coming. If oil and fertilizer don’t start flowing to Asia soon, this will be a major catastrophe.
🇩🇪 Übersetzung
RT von @DamienERNST1: Da die Straße von Hormus immer noch geschlossen ist, fühlt es sich an wie die seltsamen Wochen vor dem weltweiten Covid-Lockdown. Eine surreale Selbstgefälligkeit, bei der einige Leute vor dem warnen, was kommt. Wenn nicht bald Öl und Düngemittel nach Asien fließen, wäre das eine große Katastrophe.
Why is Earth tilted at exactly 23.5 degrees?
It is a permanent scar from a 4.5 billion yr old collision. A Mars-sized planet named Theia slammed into Earth. The impact was so violent it knocked Earth off its vertical axis & blasted enough debris into space to form the Moon.
W/o the Moon acting as a gravitational anchor, Earth’s tilt would wobble wildly from 0 to 85 degrees.
If we did not have that 23.5 degrees tilt locked in by the Moon, the seasons would be chaotic. 1 year the poles would melt completely; the next, the equator would freeze. The 23.5 degrees tilt is the stability sode for life.
🇩🇪 Übersetzung
RT von @DamienERNST1: Warum ist die Erde genau um 23,5 Grad geneigt?
Es handelt sich um eine bleibende Narbe einer 4,5 Milliarden Jahre alten Kollision. Ein marsgroßer Planet namens Theia prallte auf die Erde. Der Aufprall war so heftig, dass er die Erde aus ihrer vertikalen Achse schleuderte und genug Trümmer in den Weltraum schleuderte, um den Mond zu bilden.
Ohne die Funktion des Mondes als Gravitationsanker würde die Neigung der Erde stark von 0 auf 85 Grad schwanken.
Wenn wir nicht die vom Mond vorgegebene Neigung von 23,5 Grad hätten, wären die Jahreszeiten chaotisch. 1 Jahr würden die Pole vollständig schmelzen; Im nächsten Moment würde der Äquator zufrieren. Die Neigung von 23,5 Grad ist die Stabilität fürs Leben.
The only 4 jobs that will remain at tech companies.
Credits: @yrechtman
🇩🇪 Übersetzung
RT von @DamienERNST1: Die einzigen 4 Arbeitsplätze, die bei Technologieunternehmen verbleiben werden.
Credits: @yrechtman
Great “trick” to get kids to learn
Two groups read the same passage.
* Group A was told they'd be tested.
* Group B was told they'd have to teach it to another student.
Nobody actually taught anything.
They were just told they’d have to teach.
Group B crushed it.
Better recall.
Better organization.
Advantage concentrated on main points.
So just believing they'd have to teach changed how they studied.
The researchers' line that stuck with me: students have effective study strategies they simply don't use unless prodded to.
So our kids already know how to learn well.
They just don't do it when they're told to study for a test. The test framing makes them passive.
While teaching makes them active.
At @ForgePrep, the highest level of mastery students can demonstrate is teaching another students to competence. It’s part of why we have Montessori mixed age classes as this creates more opportunities for this type of teaching
🇩🇪 Übersetzung
RT von @DamienERNST1: Toller „Trick“, um Kinder zum Lernen zu bringen
Zwei Gruppen lesen dieselbe Passage.
* Gruppe A wurde mitgeteilt, dass sie getestet werden würden.
* Gruppe B wurde gesagt, dass sie es einem anderen Schüler beibringen müssten.
Niemand hat wirklich etwas gelehrt.
Ihnen wurde nur gesagt, dass sie unterrichten müssten.
Gruppe B hat es geschafft.
Bessere Erinnerung.
Bessere Organisation.
Der Vorteil konzentrierte sich auf die Hauptpunkte.
Allein der Glaube, dass sie unterrichten müssten, veränderte die Art und Weise, wie sie lernten.
Der Satz der Forscher, der mir im Gedächtnis geblieben ist: Studierende haben effektive Lernstrategien, die sie einfach nicht anwenden, wenn sie nicht dazu aufgefordert werden.
Unsere Kinder wissen also bereits, wie man gut lernt.
Sie tun es einfach nicht, wenn man ihnen sagt, sie sollen für eine Prüfung lernen. Durch die Testrahmung werden sie passiv.
Während der Unterricht sie aktiv macht.
Bei @ForgePrep besteht das höchste Maß an Meisterschaft, das Schüler vorweisen können, darin, anderen Schülern Kompetenz beizubringen. Dies ist einer der Gründe, warum wir altersgemischte Montessori-Kurse anbieten, da dadurch mehr Möglichkeiten für diese Art des Unterrichts entstehen
Iran already destroyed the THAAD battery the US moved from South Korea to Jordan
Incredible
🇩🇪 Übersetzung
RT von @DamienERNST1: Der Iran hat die THAAD-Batterie, die die USA von Südkorea nach Jordanien verlegt hatten, bereits zerstört
Unglaublich
What they don’t tell you: sometimes the declines last a decade and come with 50% losses off the peak
I can guarantee you no one who bought the top in 1973 or 2000 would have been calmed by the knowledge that they would eventually get back to even if they could just sit, nursing losses for a decade
🇩🇪 Übersetzung
RT von @DamienERNST1: Was sie Ihnen nicht sagen: Manchmal dauern die Rückgänge ein Jahrzehnt und gehen mit Verlusten von 50 % gegenüber dem Höhepunkt einher
Ich kann Ihnen garantieren, dass sich niemand, der das Top 1973 oder 2000 gekauft hat, durch die Gewissheit beruhigt hätte, dass er irgendwann wieder dorthin zurückkehren würde, selbst wenn er ein Jahrzehnt lang nur sitzen und Verluste hinnehmen könnte
Brilliant line: "Success is determined by your ability to:
- Speak
- Write
- Have good ideas
In that order."
Explains why so many people with very bad ideas (refuted by every experiment) can nevertheless be seen as successful: they can speak well...
🇩🇪 Übersetzung
RT von @DamienERNST1: Brillante Zeile: „Erfolg wird durch Ihre Fähigkeit bestimmt:
- Sprich
- Schreiben
- Haben Sie gute Ideen
In dieser Reihenfolge.“
Erklärt, warum so viele Menschen mit sehr schlechten Ideen (die durch jedes Experiment widerlegt werden) dennoch als erfolgreich angesehen werden können: Sie können gut sprechen ...
🚨 BREAKING: Stanford just analyzed the privacy policies of the six biggest AI companies in America.
Amazon. Anthropic. Google. Meta. Microsoft. OpenAI.
All six use your conversations to train their models. By default. Without meaningfully asking.
Here's what the paper actually found.
The researchers at Stanford HAI examined 28 privacy documents across these six companies not just the main privacy policy, but every linked subpolicy, FAQ, and guidance page accessible from the chat interfaces.
They evaluated all of them against the California Consumer Privacy Act, the most comprehensive privacy law in the United States.
The results are worse than you think.
Every single company collects your chat data and feeds it back into model training by default. Some retain your conversations indefinitely. There is no expiration. No auto-delete. Your data just sits there, forever, feeding future versions of the model.
Some of these companies let human employees read your chat transcripts as part of the training process. Not anonymized summaries. Your actual conversations.
But here's where it gets genuinely dangerous.
For companies like Google, Meta, Microsoft, and Amazon companies that also run search engines, social media platforms, e-commerce sites, and cloud services your AI conversations don't stay inside the chatbot.
They get merged with everything else those companies already know about you.
Your search history. Your purchase data. Your social media activity. Your uploaded files.
The researchers describe a realistic scenario that should make you pause: You ask an AI chatbot for heart-healthy dinner recipes. The model infers you may have a cardiovascular condition. That classification flows through the company's broader ecosystem. You start seeing ads for medications. The information reaches insurance databases. The effects compound over time.
You shared a dinner question. The system built a health profile.
It gets worse when you look at children's data.
Four of the six companies appear to include children's chat data in their model training. Google announced it would train on teenager data with opt-in consent. Anthropic says it doesn't collect children's data but doesn't verify ages. Microsoft says it collects data from users under 18 but claims not to use it for training.
Children cannot legally consent to this. Most parents don't know it's happening.
The opt-out mechanisms are a maze.
Some companies offer opt-outs. Some don't. The ones that do bury the option deep inside settings pages that most users will never find. The privacy policies themselves are written in dense legal language that researchers people whose job is reading these documents found difficult to interpret.
And here's the structural problem nobody is addressing.
There is no comprehensive federal privacy law in the United States governing how AI companies handle chat data. The patchwork of state laws leaves massive gaps. The researchers specifically call for three things: mandatory federal regulation, affirmative opt-in (not opt-out) for model training, and automatic filtering of personal information from chat inputs before they ever reach a training pipeline.
None of those exist today.
The uncomfortable truth is this: every time you type something into ChatGPT, Gemini, Claude, Meta AI, Copilot, or Alexa, you are contributing to a training dataset. Your medical questions. Your relationship problems. Your financial details. Your uploaded documents.
You are not the customer. You are the curriculum.
And the companies doing this have made it as hard as possible for you to stop.
🇩🇪 Übersetzung
RT von @DamienERNST1: 🚨 BREAKING: Stanford hat gerade die Datenschutzrichtlinien der sechs größten KI-Unternehmen in Amerika analysiert.
Amazonas. Anthropisch. Google. Meta. Microsoft. OpenAI.
Alle sechs nutzen Ihre Gespräche, um ihre Modelle zu trainieren. Standardmäßig. Ohne sinnvoll zu fragen.
Hier ist, was die Zeitung tatsächlich herausgefunden hat.
Die Forscher von Stanford HAI untersuchten 28 Datenschutzdokumente dieser sechs Unternehmen, nicht nur die Hauptdatenschutzrichtlinie, sondern alle verknüpften Unterrichtlinien, FAQ und Anleitungsseiten, die über die Chat-Schnittstellen zugänglich sind.
Sie bewerteten sie alle anhand des California Consumer Privacy Act, dem umfassendsten Datenschutzgesetz in den Vereinigten Staaten.
Die Ergebnisse sind schlimmer als Sie denken.
Jedes einzelne Unternehmen sammelt Ihre Chat-Daten und gibt sie standardmäßig wieder in das Modelltraining ein. Einige speichern Ihre Gespräche auf unbestimmte Zeit. Es gibt kein Ablaufdatum. Kein automatisches Löschen. Ihre Daten bleiben für immer dort und speisen zukünftige Versionen des Modells ein.
Einige dieser Unternehmen lassen im Rahmen des Schulungsprozesses menschliche Mitarbeiter Ihre Chat-Transkripte lesen. Nicht anonymisierte Zusammenfassungen. Ihre tatsächlichen Gespräche.
Aber hier wird es wirklich gefährlich.
Bei Unternehmen wie Google, Meta, Microsoft und Amazon, die auch Suchmaschinen, Social-Media-Plattformen, E-Commerce-Websites und Cloud-Dienste betreiben, bleiben Ihre KI-Konversationen nicht im Chatbot.
Sie werden mit allem anderen zusammengeführt, was diese Unternehmen bereits über Sie wissen.
Ihr Suchverlauf. Ihre Kaufdaten. Ihre Social-Media-Aktivitäten. Ihre hochgeladenen Dateien.
Die Forscher beschreiben ein realistisches Szenario, das Sie innehalten lassen sollte: Sie fragen einen KI-Chatbot nach Rezepten für ein herzgesundes Abendessen. Das Modell geht davon aus, dass Sie möglicherweise an einer Herz-Kreislauf-Erkrankung leiden. Diese Klassifizierung fließt durch das breitere Ökosystem des Unternehmens. Sie sehen Anzeigen für Medikamente. Die Informationen gelangen in Versicherungsdatenbanken. Die Auswirkungen verstärken sich mit der Zeit.
Sie haben eine Frage zum Abendessen geteilt. Das System erstellte ein Gesundheitsprofil.
Noch schlimmer wird es, wenn man sich die Daten von Kindern ansieht.
Vier der sechs Unternehmen scheinen Chatdaten von Kindern in ihre Modellschulung einzubeziehen. Google kündigte an, dass es mit der Opt-in-Einwilligung auf Daten von Teenagern trainieren werde. Anthropic gibt an, keine Daten von Kindern zu sammeln, das Alter jedoch nicht zu überprüfen. Microsoft gibt an, Daten von Benutzern unter 18 Jahren zu sammeln, gibt jedoch an, diese nicht für Schulungen zu verwenden.
Kinder können dem gesetzlich nicht zustimmen. Die meisten Eltern wissen nicht, dass es passiert.
Die Opt-out-Mechanismen sind ein Labyrinth.
Einige Unternehmen bieten Opt-outs an. Manche nicht. Diejenigen, die die Option tief in den Einstellungsseiten vergraben, die die meisten Benutzer nie finden werden. Die Datenschutzrichtlinien selbst sind in einer dichten juristischen Sprache verfasst, die für Forscher, deren Aufgabe die Lektüre dieser Dokumente ist, schwer zu interpretieren war.
Und hier liegt das strukturelle Problem, das niemand anspricht.
In den Vereinigten Staaten gibt es kein umfassendes Bundesdatenschutzgesetz, das den Umgang von KI-Unternehmen mit Chat-Daten regelt. Der Flickenteppich der Landesgesetze hinterlässt riesige Lücken. Die Forscher fordern insbesondere drei Dinge: eine verbindliche Bundesregulierung, ein positives Opt-in (nicht ein Opt-out) für das Modelltraining und die automatische Filterung persönlicher Informationen aus Chat-Eingaben, bevor diese jemals eine Trainingspipeline erreichen.
Nichts davon existiert heute.
Die unangenehme Wahrheit ist diese: Jedes Mal, wenn Sie etwas in ChatGPT, Gemini, Claude, Meta AI, Copilot oder Alexa eingeben, tragen Sie zu einem Trainingsdatensatz bei. Ihre medizinischen Fragen. Ihre Beziehungsprobleme. Ihre Finanzdaten. Ihre hochgeladenen Dokumente.
Sie sind nicht der Kunde. Sie sind der Lehrplan.
Und die Unternehmen, die dies tun, haben es Ihnen so schwer wie möglich gemacht, damit aufzuhören.
Un objet que l’on ne voit quasiment plus de nos jours : l’éteignoir.
🇩🇪 Übersetzung
RT von @DamienERNST1: Ein Objekt, das ich in unseren Tagen nicht mehr sehen kann: der Beruf.
I get the feeling that situation will be much worse than the one represented by the blue dashed line.
🇩🇪 Übersetzung
Ich habe das Gefühl, dass die Situation viel schlimmer sein wird als die, die durch die blaue gestrichelte Linie dargestellt wird.
URANIUM DOES NOT GO STRAIGHT FROM THE GROUND INTO A REACTOR.
Most people think nuclear fuel = mining.
Reality: it is a 4-stage supply chain, each with its own chokepoints.
• Stage 1 - Mining & Milling
Uranium ore → U3O8 (yellowcake)
Kazakhstan, Canada, Namibia dominate supply
• Stage 2 - Conversion
Yellowcake → UF6 gas (required for enrichment)
Only a handful of facilities outside Russia/China (U.S., Canada, France)
• Stage 3 - Enrichment
Natural uranium = 0.7% U-235
Reactors need 3–5% (LEU)
Russia controls ~40% of global capacity
• Stage 4 - Fuel Fabrication
LEU → uranium dioxide pellets → fuel rods → assemblies
This is the finished reactor fuel
The risk is real:
Russia still supplied ~25% of U.S. enrichment services in 2024
The Prohibiting Russian Uranium Imports Act bans that by 2028
But new centrifuge capacity takes 7–10 years to build
The clock is running.
$CCJ $LEU $UEC $UUUU
🇩🇪 Übersetzung
RT von @DamienERNST1: URAN GEHT NICHT GERADE AUS DER ERDE IN EINEN REAKTOR.
Die meisten Menschen denken, Kernbrennstoff sei = Bergbau.
Realität: Es handelt sich um eine vierstufige Lieferkette mit jeweils eigenen Engpässen.
• Stufe 1 – Bergbau und Mühle
Uranerz → U3O8 (Yellowcake)
Kasachstan, Kanada und Namibia dominieren das Angebot
• Stufe 2 – Konvertierung
Yellowcake → UF6-Gas (zur Anreicherung erforderlich)
Nur eine Handvoll Einrichtungen außerhalb Russlands/Chinas (USA, Kanada, Frankreich)
• Stufe 3 – Bereicherung
Natürliches Uran = 0,7 % U-235
Reaktoren benötigen 3–5 % (LEU)
Russland kontrolliert etwa 40 % der weltweiten Kapazität
• Stufe 4 – Kraftstoffherstellung
LEU → Urandioxid-Pellets → Brennstäbe → Baugruppen
Dies ist der fertige Reaktorbrennstoff
Das Risiko ist real:
Russland lieferte im Jahr 2024 immer noch etwa 25 % der US-Anreicherungsdienstleistungen
Das Gesetz zum Verbot der russischen Uranimporte verbietet dies bis 2028
Der Bau einer neuen Zentrifugenkapazität dauert jedoch sieben bis zehn Jahre
Die Uhr läuft.
$CCJ $LEU $UEC $UUUU
🚨 $220K. 3 months. No PhD. No gatekeeping.
Perplexity's Research Residency is hunting brilliant minds from ANY field: physics, cogsci, quant finance, math, philosophy + more.
Bring your unique brain. We'll bring compute, mentorship & mission.
Rolling apps. SF/Palo Alto. Visa support.
Apply before your genius friend does 👇
https://www.perplexity.ai/hub/ai-research-residency
#AI #BuildWithPerplexity #ResearchResidency @perplexity_ai
🇩🇪 Übersetzung
RT von @DamienERNST1: 🚨 220.000 $. 3 Monate. Kein Doktortitel. Kein Gatekeeping.
Die Forschungsresidenz von Perplexity ist auf der Suche nach brillanten Köpfen aus ALLEN Bereichen: Physik, Zahnwissenschaften, Quantenfinanzen, Mathematik, Philosophie und mehr.
Bringen Sie Ihr einzigartiges Gehirn mit. Wir bringen Rechenleistung, Mentoring und Mission mit.
Rollende Apps. SF/Palo Alto. Visa-Unterstützung.
Bewerben Sie sich, bevor es Ihr genialer Freund tut 👇
https://www.perplexity.ai/hub/ai-research-residency
#AI #BuildWithPerplexity #ResearchResidency @perplexity_ai
"Do not learn to code" is the worst career advice of the decade.
People are telling college students to skip Computer Science because AI will just automate it all. Andrew Ng just killed this myth at Stanford with a brilliant analogy.
When he tried to generate images with Midjourney, he typed: "make pretty pictures of robots" and got garbage.
His collaborator, however, understood Art History. He knew the exact vocabulary of lighting, genre, and palette. He spoke the "language of art," and generated masterpieces.
Andrew Ng is seeing the exact same thing happen in software engineering right now.
AI didn't replace the need to understand Computer Science. It made Computer Science the required vocabulary to control the AI.
If you don't understand how computers actually work, you are just typing "make a pretty app" into Cursor and shipping fragile, unscalable logic.
Here is Andrew Ng's exact hiring hierarchy today:
Level 1: 10 years of experience, but codes by hand (He won't hire them).
Level 2: Fresh college grad, but highly fluent in AI-assisted coding (He hires them over the 10-year veteran).
Level 3 (God Tier): Deeply understands CS fundamentals AND uses AI-assisted coding.
When humanity went from punch cards to keyboards, coding got easier, and more people coded. We are at that exact inflection point again.
AI doesn't replace fundamentals. It multiplies them.
🇩🇪 Übersetzung
RT von @DamienERNST1: „Lerne nicht programmieren“ ist der schlechteste Karriereratschlag des Jahrzehnts.
Die Leute raten College-Studenten, Informatik zu überspringen, weil KI alles nur automatisieren wird. Andrew Ng hat gerade diesen Mythos in Stanford mit einer brillanten Analogie zerstört.
Als er versuchte, mit Midjourney Bilder zu generieren, tippte er: „Mach hübsche Bilder von Robotern“ und bekam Müll.
Sein Mitarbeiter verstand jedoch Kunstgeschichte. Er kannte das genaue Vokabular der Beleuchtung, des Genres und der Farbpalette. Er sprach die „Sprache der Kunst“ und schuf Meisterwerke.
Andrew Ng beobachtet derzeit genau das Gleiche in der Softwareentwicklung.
KI ersetzte nicht die Notwendigkeit, Informatik zu verstehen. Dadurch wurde die Informatik zum erforderlichen Vokabular, um die KI zu steuern.
Wenn Sie nicht verstehen, wie Computer tatsächlich funktionieren, geben Sie einfach „Eine hübsche App erstellen“ in den Cursor ein und liefern fragile, nicht skalierbare Logik.
Hier ist Andrew Ngs genaue Einstellungshierarchie heute:
Stufe 1: 10 Jahre Erfahrung, aber Codes von Hand (Er wird sie nicht einstellen).
Stufe 2: Frischer Hochschulabsolvent, aber sehr fließend in der KI-gestützten Codierung (Er stellt sie über den 10-Jahres-Veteranen ein).
Level 3 (God Tier): Versteht die CS-Grundlagen tiefgreifend UND verwendet KI-gestützte Codierung.
Als die Menschheit von Lochkarten auf Tastaturen umstieg, wurde das Codieren einfacher und mehr Menschen programmierten. Wir sind wieder genau an diesem Wendepunkt.
KI ersetzt keine Grundlagen. Es vervielfacht sie.
i often think about this..
🇩🇪 Übersetzung
RT von @DamienERNST1: Ich denke oft darüber nach.
China’s Unitree AI Robot performs at duomo di milano
🇩🇪 Übersetzung
RT von @DamienERNST1: Chinas Unitree AI Robot tritt im Duomo di Milano auf