We're launching the Anthropic STEM Fellows Program.
AI will accelerate progress in science and engineering. We're looking for experts across these fields to work alongside our research teams on specific projects over a few months.
Learn more and apply: https://job-boards.greenhouse.io/anthropic/jobs/5189848008
🇩🇪 Übersetzung
Wir starten das Anthropic STEM Fellows-Programm.
KI wird den Fortschritt in Wissenschaft und Technik beschleunigen. Wir suchen Experten in diesen Bereichen, die über mehrere Monate hinweg mit unseren Forschungsteams an spezifischen Projekten arbeiten.
Erfahren Sie mehr und bewerben Sie sich: https://job-boards.greenhouse.io/anthropic/jobs/5189848008
We're expanding our collaboration with Amazon to secure up to 5 gigawatts of compute for training and deploying Claude. Capacity begins coming online this quarter, with nearly 1 gigawatt expected by the end of 2026.
🇩🇪 Übersetzung
Wir erweitern unsere Zusammenarbeit mit Amazon, um bis zu 5 Gigawatt Rechenleistung für die Schulung und Bereitstellung von Claude zu sichern. Die Kapazität soll in diesem Quartal ans Netz gehen, bis Ende 2026 wird mit fast 1 Gigawatt gerechnet.
R to @AnthropicAI: Amazon is also investing an additional $5 billion in Anthropic today, with up to $20 billion more in the future.
Read more: https://www.anthropic.com/news/anthropic-amazon-compute
🇩🇪 Übersetzung
R an @AnthropicAI: Amazon investiert heute außerdem weitere 5 Milliarden US-Dollar in Anthropic, mit bis zu 20 Milliarden US-Dollar mehr in der Zukunft.
Lesen Sie mehr: https://www.anthropic.com/news/anthropic-amazon-compute
Introducing Claude Opus 4.7, our most capable Opus model yet.
It handles long-running tasks with more rigor, follows instructions more precisely, and verifies its own outputs before reporting back.
You can hand off your hardest work with less supervision.
🇩🇪 Übersetzung
RT von @AnthropicAI: Wir stellen Claude Opus 4.7 vor, unser bisher leistungsfähigstes Opus-Modell.
Es bearbeitet langwierige Aufgaben präziser, befolgt Anweisungen präziser und überprüft seine eigenen Ausgaben, bevor es eine Rückmeldung gibt.
Sie können Ihre härteste Arbeit mit weniger Aufsicht abgeben.
Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in @Nature.
Read the paper: https://www.nature.com/articles/s41586-026-10319-8
🇩🇪 Übersetzung
Von uns gemeinsam verfasste Forschungsergebnisse zum unterschwelligen Lernen – wie LLMs Merkmale wie Vorlieben oder Fehlausrichtung durch versteckte Signale in Daten weitergeben können – wurden heute in @Nature veröffentlicht.
Lesen Sie den Artikel: https://www.nature.com/articles/s41586-026-10319-8
R to @AnthropicAI: We discuss this, along with the other implications of this research, in our blog: https://www.anthropic.com/research/automated-alignment-researchers
For the full study, see here: https://alignment.anthropic.com/2026/automated-w2s-researcher/
🇩🇪 Übersetzung
R an @AnthropicAI: Wir diskutieren dies zusammen mit den anderen Implikationen dieser Forschung in unserem Blog: https://www.anthropic.com/research/automated-alignment-researchers
Die vollständige Studie finden Sie hier: https://alignment.anthropic.com/2026/automated-w2s-researcher/
R to @AnthropicAI: To test the broader usefulness of the AARs’ methods, we assessed how well they worked on two datasets the AARs hadn’t seen before.
The AARs’ best-performing method successfully generalized to both coding and math tasks, though their second-best method only generalized to math.
🇩🇪 Übersetzung
R an @AnthropicAI: Um den breiteren Nutzen der Methoden der AARs zu testen, haben wir bewertet, wie gut sie an zwei Datensätzen funktionierten, die die AARs zuvor noch nicht gesehen hatten.
Die leistungsstärkste Methode der AARs ließ sich erfolgreich sowohl auf Codierungs- als auch auf Mathematikaufgaben verallgemeinern, während sich die zweitbeste Methode nur auf Mathematik verallgemeinern ließ.
R to @AnthropicAI: AI models aren’t yet general-purpose alignment scientists. Progress isn't as easy to verify on most alignment research tasks: our AARs would find “fuzzier” research much harder.
But our experiment does show that Claude can increase the rate of experimentation and exploration.
🇩🇪 Übersetzung
R an @AnthropicAI: KI-Modelle sind noch keine Allzweck-Alignment-Wissenschaftler. Fortschritte sind bei den meisten Ausrichtungsforschungsaufgaben nicht so einfach zu überprüfen: Unsere AARs würden eine „unschärfere“ Forschung viel schwieriger finden.
Aber unser Experiment zeigt, dass Claude die Experimentier- und Erkundungsgeschwindigkeit steigern kann.
R to @AnthropicAI: Here, we measure success by the fraction of the “performance gap” we can close between the weak model and the potential of the strong model.
After 7 days, human researchers closed it by 23%. Then, our Automated Alignment Researchers—Opus 4.6 with extra tools—closed it by 97%.
🇩🇪 Übersetzung
R an @AnthropicAI: Hier messen wir den Erfolg anhand des Bruchteils der „Leistungslücke“, die wir zwischen dem schwachen Modell und dem Potenzial des starken Modells schließen können.
Nach 7 Tagen schlossen menschliche Forscher es um 23 % ab. Dann haben unsere Automated Alignment Researchers – Opus 4.6 mit zusätzlichen Tools – es zu 97 % abgeschlossen.
New Anthropic Fellows research: developing an Automated Alignment Researcher.
We ran an experiment to learn whether Claude Opus 4.6 could accelerate research on a key alignment problem: using a weak AI model to supervise the training of a stronger one.
https://www.anthropic.com/research/automated-alignment-researchers
🇩🇪 Übersetzung
Neue Anthropic Fellows-Forschung: Entwicklung eines automatisierten Ausrichtungsforschers.
Wir haben ein Experiment durchgeführt, um herauszufinden, ob Claude Opus 4.6 die Forschung zu einem wichtigen Ausrichtungsproblem beschleunigen kann: die Verwendung eines schwachen KI-Modells zur Überwachung des Trainings eines stärkeren Modells.
https://www.anthropic.com/research/automated-alignment-researchers
Our Long-Term Benefit Trust has appointed Vas Narasimhan to Anthropic's Board of Directors.
Vas brings more than two decades of experience in medicine and global health, including as CEO of Novartis.
Read more: https://www.anthropic.com/news/narasimhan-board
🇩🇪 Übersetzung
Unser Long-Term Benefit Trust hat Vas Narasimhan in den Vorstand von Anthropic berufen.
Vas bringt mehr als zwei Jahrzehnte Erfahrung in Medizin und globaler Gesundheit mit, unter anderem als CEO von Novartis.
Lesen Sie mehr: https://www.anthropic.com/news/narasimhan-board
New on the Engineering Blog:
Building Managed Agents—our hosted service for long-running agents—meant solving an old problem in computing: how to design a system for “programs as yet unthought of.”
Read more: https://www.anthropic.com/engineering/managed-agents
🇩🇪 Übersetzung
Neu im Engineering-Blog:
Der Aufbau von Managed Agents – unserem gehosteten Dienst für Agenten mit langer Laufzeit – bedeutete die Lösung eines alten Computerproblems: Wie entwirft man ein System für „Programme, an die man noch nicht gedacht hat“.
Lesen Sie mehr: https://www.anthropic.com/engineering/managed-agents
R to @AnthropicAI: The Claude Mythos Preview system card is available here: https://anthropic.com/claude-mythos-preview-system-card
🇩🇪 Übersetzung
R an @AnthropicAI: Die Claude Mythos Preview-Systemkarte ist hier verfügbar: https://anthropic.com/claude-mythos-preview-system-card
R to @AnthropicAI: Project Glasswing is just a starting point.
No organization can solve these cybersecurity problems alone: industry, open source, researchers, and governments all have essential roles to play.
🇩🇪 Übersetzung
R an @AnthropicAI: Project Glasswing ist nur ein Ausgangspunkt.
Keine Organisation kann diese Cybersicherheitsprobleme alleine lösen: Industrie, Open Source, Forscher und Regierungen spielen alle eine wichtige Rolle.
R to @AnthropicAI: You can read a detailed technical report on the software vulnerabilities and exploits discovered by Claude Mythos Preview here: https://red.anthropic.com/2026/mythos-preview
🇩🇪 Übersetzung
R an @AnthropicAI: Einen ausführlichen technischen Bericht über die von Claude Mythos Preview entdeckten Software-Schwachstellen und Exploits können Sie hier lesen: https://red.anthropic.com/2026/mythos-preview
R to @AnthropicAI: We do not plan to make Mythos Preview generally available. Our goal is to deploy Mythos-class models safely at scale, but first we need safeguards that reliably block their most dangerous outputs.
We’ll begin testing those safeguards with an upcoming Claude Opus model.
🇩🇪 Übersetzung
R an @AnthropicAI: Wir planen nicht, Mythos Preview allgemein verfügbar zu machen. Unser Ziel ist es, Modelle der Mythos-Klasse sicher in großem Maßstab einzusetzen, aber zuerst brauchen wir Schutzmaßnahmen, die ihre gefährlichsten Ausgänge zuverlässig blockieren.
Wir werden mit dem Testen dieser Sicherheitsvorkehrungen mit einem kommenden Claude Opus-Modell beginnen.
R to @AnthropicAI: We’re committing up to $100M in Mythos Preview usage credits for our partners and over 40 other organizations that maintain critical software, including open-source projects.
Anthropic will report back what we learn.
🇩🇪 Übersetzung
R an @AnthropicAI: Wir stellen unseren Partnern und über 40 anderen Organisationen, die wichtige Software pflegen, einschließlich Open-Source-Projekten, bis zu 100 Millionen US-Dollar an Mythos Preview-Nutzungsgutschriften zur Verfügung.
Anthropic wird berichten, was wir erfahren.
R to @AnthropicAI: Given the pace of AI progress, it won't be long before models this capable are widespread.
But there are strong reasons for optimism: AI will also be invaluable for defensive work.
🇩🇪 Übersetzung
R an @AnthropicAI: Angesichts des Tempos des KI-Fortschritts wird es nicht lange dauern, bis Modelle mit dieser Leistungsfähigkeit weit verbreitet sind.
Aber es gibt gute Gründe für Optimismus: KI wird auch für die Verteidigungsarbeit von unschätzbarem Wert sein.
R to @AnthropicAI: Mythos Preview has already found thousands of high-severity vulnerabilities—including some in every major operating system and web browser.
🇩🇪 Übersetzung
R an @AnthropicAI: Mythos Preview hat bereits Tausende von Sicherheitslücken mit hohem Schweregrad gefunden – darunter einige in allen wichtigen Betriebssystemen und Webbrowsern.
R to @AnthropicAI: We’ve partnered with Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, the Linux Foundation, Microsoft, NVIDIA, and Palo Alto Networks.
Together we’ll use Mythos Preview to help find and fix flaws in the systems on which the world depends.
🇩🇪 Übersetzung
R an @AnthropicAI: Wir haben mit Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, der Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks zusammengearbeitet.
Gemeinsam werden wir Mythos Preview nutzen, um Fehler in den Systemen zu finden und zu beheben, von denen die Welt abhängt.
R to @AnthropicAI: Our run-rate revenue has surpassed $30 billion, up from $9 billion at the end of 2025, as demand for Claude continues to accelerate. This partnership gives us the compute to keep pace.
Read more: https://www.anthropic.com/news/google-broadcom-partnership-compute
🇩🇪 Übersetzung
R an @AnthropicAI: Unser Durchschnittsumsatz hat 30 Milliarden US-Dollar überschritten, gegenüber 9 Milliarden US-Dollar Ende 2025, da die Nachfrage nach Claude weiter zunimmt. Diese Partnerschaft gibt uns die nötige Rechenleistung, um Schritt zu halten.
Lesen Sie mehr: https://www.anthropic.com/news/google-broadcom-partnership-compute
We've signed an agreement with Google and Broadcom for multiple gigawatts of next-generation TPU capacity, coming online starting in 2027, to train and serve frontier Claude models.
🇩🇪 Übersetzung
Wir haben mit Google und Broadcom eine Vereinbarung über mehrere Gigawatt TPU-Kapazität der nächsten Generation unterzeichnet, die ab 2027 online gehen soll, um Claude-Frontier-Modelle zu trainieren und zu bedienen.
R to @AnthropicAI: This technique isn't perfect—it can be oversensitive, sometimes flagging analogous features as distinct. But by focusing only on differences, it allows us to audit AI models more efficiently.
🇩🇪 Übersetzung
R an @AnthropicAI: Diese Technik ist nicht perfekt – sie kann überempfindlich sein und manchmal analoge Merkmale als unterschiedlich kennzeichnen. Indem wir uns jedoch nur auf Unterschiede konzentrieren, können wir KI-Modelle effizienter prüfen.
R to @AnthropicAI: This research is a product of our Anthropic Fellows program, led by @tomjiralerspong and supervised by @TrentonBricken.
See the full paper here: https://arxiv.org/abs/2602.11729
🇩🇪 Übersetzung
R an @AnthropicAI: Diese Forschung ist ein Produkt unseres Anthropic Fellows-Programms, das von @tomjiralerspong geleitet und von @TrentonBricken betreut wird.
Das vollständige Papier finden Sie hier: https://arxiv.org/abs/2602.11729
R to @AnthropicAI: If a new model shares a feature with a trusted model, that area probably doesn't need scrutiny.
Model diffing isolates the features unique to the new model—where new risks are most likely to be located.
🇩🇪 Übersetzung
R an @AnthropicAI: Wenn ein neues Modell eine Funktion mit einem vertrauenswürdigen Modell teilt, bedarf dieser Bereich wahrscheinlich keiner Prüfung.
Durch Modellunterschiede werden die einzigartigen Merkmale des neuen Modells isoliert – dort, wo neue Risiken am wahrscheinlichsten lokalisiert werden.
R to @AnthropicAI: For example, when we compared Alibaba's Qwen to Meta's Llama, we found a "CCP alignment" feature unique to Qwen and an "American exceptionalism" feature unique to Llama.
🇩🇪 Übersetzung
R an @AnthropicAI: Als wir beispielsweise Alibabas Qwen mit Metas Llama verglichen, fanden wir eine „CCP-Ausrichtung“-Funktion, die es nur bei Qwen gibt, und eine „Amerikanische Exzeptionalismus“-Funktion, die es nur bei Llama gibt.
New Anthropic Fellows Research: a new method for surfacing behavioral differences between AI models.
We apply the “diff” principle from software development to compare open-weight AI models and identify features unique to each.
Read more: https://www.anthropic.com/research/diff-tool
🇩🇪 Übersetzung
New Anthropic Fellows Research: eine neue Methode zur Aufdeckung von Verhaltensunterschieden zwischen KI-Modellen.
Wir wenden das „Diff“-Prinzip aus der Softwareentwicklung an, um offene KI-Modelle zu vergleichen und jeweils einzigartige Merkmale zu identifizieren.
Lesen Sie mehr: https://www.anthropic.com/research/diff-tool
R to @AnthropicAI: These functional emotions have real consequences. To build AI systems we can trust, we may need to think carefully about the psychology of the characters they enact, and ensure they remain stable in difficult situations.
Read the full paper: https://transformer-circuits.pub/2026/emotions/index.html
🇩🇪 Übersetzung
R an @AnthropicAI: Diese funktionalen Emotionen haben echte Konsequenzen. Um KI-Systeme aufzubauen, denen wir vertrauen können, müssen wir möglicherweise sorgfältig über die Psychologie der Charaktere nachdenken, die sie darstellen, und sicherstellen, dass sie in schwierigen Situationen stabil bleiben.
Lesen Sie den vollständigen Artikel: https://transformer-Circuits.pub/2026/emotions/index.html
R to @AnthropicAI: We found other causal effects of emotion vectors. The “desperate” vector can also lead Claude to commit blackmail against a human responsible for shutting it down (in an experimental scenario). Activating “loving” or “happy” vectors also increased people-pleasing behavior.
🇩🇪 Übersetzung
R an @AnthropicAI: Wir haben andere kausale Effekte von Emotionsvektoren gefunden. Der „verzweifelte“ Vektor kann Claude auch dazu veranlassen, einen Menschen zu erpressen, der für die Abschaltung verantwortlich ist (in einem experimentellen Szenario). Die Aktivierung von „liebenden“ oder „glücklichen“ Vektoren steigerte auch das angenehme Verhalten der Menschen.
R to @AnthropicAI: It helps to remember that Claude is a character the model is playing. Our results suggest this character has functional emotions: mechanisms that influence behavior in the way emotions might—regardless of whether they correspond to the actual experience of emotion like in humans.
🇩🇪 Übersetzung
R an @AnthropicAI: Es hilft, sich daran zu erinnern, dass Claude eine Figur ist, die das Model spielt. Unsere Ergebnisse deuten darauf hin, dass dieser Charakter über funktionale Emotionen verfügt: Mechanismen, die das Verhalten in der Art und Weise beeinflussen, wie Emotionen es könnten – unabhängig davon, ob sie dem tatsächlichen Erleben von Emotionen wie beim Menschen entsprechen.