SZwanglos – Following Feed

78 Posts (gefiltert)
Reset
@OpenMedFuture 02.03 12:32
The public debate Anthropic vs. the Pentagon is framed as an ethics story, A clean narrative. And it’s incomplete. Mass surveillance and autonomous weapons are the most visible part of this conflict, but It’s not about that, it's about who gets to shape what the AI can say/do/generate, ideological guardrails, public perception, influence operations, or "Constitutional AI" values. Saying Anthropic is playing a perfect PR coup, but thinking a $380B company that’s been fighting open source behind the scenes does this because of “ethics,” is like thinking an oil tanker offsets emissions by tweeting about sustainability.
🇩🇪 Übersetzung
Die öffentliche Debatte „Anthropic vs. the Pentagon“ ist als Ethikgeschichte angelegt, als klare Erzählung. Und es ist unvollständig. Massenüberwachung und autonome Waffen sind der sichtbarste Teil dieses Konflikts, aber darum geht es nicht, es geht darum, wer bestimmen darf, was die KI sagen/tun/erzeugen kann, ideologische Leitplanken, öffentliche Wahrnehmung, Einflussnahme auf Operationen oder Werte der „verfassungsmäßigen KI“. Zu sagen, dass Anthropic ein perfekter PR-Coup ist, aber zu denken, dass ein 380-Milliarden-Dollar-Unternehmen, das hinter den Kulissen gegen Open Source kämpft, dies aus „Ethik“ tut, ist, als würde man denken, ein Öltanker gleicht Emissionen aus, indem er über Nachhaltigkeit twittert.
@OpenMedFuture @MilkRoadAI RT von @OpenMedFuture 01.03 18:42
The CEO of a $380 billion AI company said something that should concern every developer, every startup, and every government on earth. He called open-source AI a "red herring." This is Dario Amodei, the man who runs Claude. His argument sounds technical but it's not and it's about money. Here's what he said: "I don't care whether a model is open source or not. The only thing I care about is, is it a good model?" Sounds reasonable, until you look at his books. 75% of Anthropic's $14 billion in revenue comes from one thing, charging companies per token to use Claude through an API. If enterprises could run their own models for free that revenue disappears. So when Amodei says open source "doesn't matter," what he means is, please don't look at open source. His technical argument, AI "open source" isn't real open source. You get the weights, just numbers not the actual source code and you can't see inside the model. Fair point but it misses the bigger picture. Companies running open source models don't need to see inside. They need three things, lower costs, data privacy, and freedom from vendor lock in. Open source somewhat delivers all three. A Berkeley study found open source AI models cost up to 90% less than closed APIs. Hospitals can keep patient data in house. Banks can meet compliance rules. Defense contractors don't send classified data to someone else's servers. Amodei brought up DeepSeek to prove his point. "I don't think it mattered that DeepSeek was open source," he said. But DeepSeek's release crashed Nvidia's stock by the biggest single day loss in market history and it mattered. Here's the pattern that keeps repeating in tech: Linux was a toy until it ran the internet. Android was "fragmented" until it owned 72% of mobile. Open source starts cheap, then it gets good, then it wins. Anthropic is posting record revenue. 500+ customers spending over $1M a year and 8 of the Fortune 10 on board. But so were BlackBerry and Sun Microsystems. So was every incumbent that dismissed the disruptor. The real question isn't whether open source is a red herring. But the real question is whether the man running a $380 billion closed source empire is the right person to ask.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Der CEO eines 380-Milliarden-Dollar-KI-Unternehmens sagte etwas, das jeden Entwickler, jedes Startup und jede Regierung auf der Welt betreffen sollte. Er nannte Open-Source-KI einen „Ablenkungsmanöver“. Das ist Dario Amodei, der Mann, der Claude leitet. Sein Argument klingt technisch, ist es aber nicht und es geht um Geld. Hier ist, was er sagte: „Es ist mir egal, ob ein Modell Open Source ist oder nicht. Das Einzige, was mich interessiert, ist, ist es ein gutes Modell?“ Klingt vernünftig, bis man sich seine Bücher ansieht. 75 % des Umsatzes von Anthropic in Höhe von 14 Milliarden US-Dollar stammen aus einer Sache: Den Unternehmen werden pro Token Gebühren für die Nutzung von Claude über eine API berechnet. Wenn Unternehmen ihre eigenen Modelle kostenlos betreiben könnten, würden diese Einnahmen verschwinden. Wenn Amodei also sagt, dass Open Source „keine Rolle“ spielt, meint er damit: Bitte schauen Sie nicht auf Open Source. Sein technisches Argument, KI „Open Source“ sei kein echtes Open Source. Sie erhalten die Gewichte, nur Zahlen, nicht den eigentlichen Quellcode, und Sie können nicht in das Modell hineinsehen. Das ist durchaus berechtigt, aber es geht am Gesamtbild vorbei. Unternehmen, die Open-Source-Modelle betreiben, müssen nicht nach innen schauen. Sie brauchen drei Dinge: niedrigere Kosten, Datenschutz und Freiheit von der Abhängigkeit von einem Anbieter. Open Source bietet in gewisser Weise alle drei. Eine Berkeley-Studie ergab, dass Open-Source-KI-Modelle bis zu 90 % weniger kosten als geschlossene APIs. Krankenhäuser können Patientendaten im eigenen Haus aufbewahren. Banken können Compliance-Regeln einhalten. Verteidigungsunternehmen senden keine geheimen Daten an die Server anderer Personen. Amodei erwähnte DeepSeek, um seinen Standpunkt zu beweisen. „Ich glaube nicht, dass es wichtig war, dass DeepSeek Open Source war“, sagte er. Aber die Veröffentlichung von DeepSeek ließ die Nvidia-Aktie mit dem größten Ein-Tages-Verlust in der Marktgeschichte abstürzen, und das war von Bedeutung. Hier ist das Muster, das sich in der Technik immer wieder wiederholt: Linux war ein Spielzeug, bis es das Internet betrieb. Android wurde „fragmentiert“, bis es 72 % der Mobilgeräte besaß. Open Source fängt billig an, wird dann gut und gewinnt dann. Anthropic verzeichnet Rekordumsätze. Über 500 Kunden geben mehr als 1 Million US-Dollar pro Jahr aus und 8 der Fortune 10 sind an Bord. Aber das gilt auch für BlackBerry und Sun Microsystems. Das galt auch für alle Amtsinhaber, die den Störer entlassen hatten. Die eigentliche Frage ist nicht, ob Open Source ein Ablenkungsmanöver ist. Aber die eigentliche Frage ist, ob der Mann, der ein Closed-Source-Imperium im Wert von 380 Milliarden US-Dollar leitet, die richtige Person ist.
@OpenMedFuture @greg16676935420 RT von @OpenMedFuture 01.03 17:23
I’ll never forget you, perfect February
🇩🇪 Übersetzung
RT von @OpenMedFuture: Ich werde dich nie vergessen, perfekter Februar
@OpenMedFuture @TheAhmadOsman RT von @OpenMedFuture 01.03 16:50
NEW OPENSOURCE MODELS INCOMING We're getting four new Qwen 3.5 models today > Qwen 3.5 9B > Qwen 3.5 4B > Qwen 3.5 2B > Qwen 3.5 0.8B Everybody is starting to say Buy a GPU ;)
🇩🇪 Übersetzung
RT von @OpenMedFuture: NEUE OPENSOURCE-MODELLE KOMMEN Wir bekommen heute vier neue Qwen 3.5-Modelle > Qwen 3,5 9B > Qwen 3,5 4B > Qwen 3,5 2B > Qwen 3,5 0,8B Jeder fängt an zu sagen: Kaufen Sie eine GPU ;)
@OpenMedFuture @RoundtableSpace RT von @OpenMedFuture 01.03 16:15
Qwen3.5-35B-A3B running locally on an M4 chip at 49.5 tokens per second. A 35B model. On a laptop. In real time. LOCAL AI IS GETTING SCARY FAST.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Qwen3.5-35B-A3B läuft lokal auf einem M4-Chip mit 49,5 Token pro Sekunde. Ein 35B-Modell. Auf einem Laptop. In Echtzeit. Die lokale KI wird schnell unheimlich.
@OpenMedFuture 28.02 20:42
Now that the bottleneck between idea an execution is disappearing, the idea might become the most valuable part of the whole digital value chain.
🇩🇪 Übersetzung
Da der Engpass zwischen Idee und Umsetzung nun verschwindet, könnte die Idee zum wertvollsten Teil der gesamten digitalen Wertschöpfungskette werden.
@OpenMedFuture 28.02 06:57
Hot take: Is the Anthropic-Pentagon “autonomous weapons” clash just a smokescreen? IMHO, it’s all about clamping down on information control. „Oppose us all you want. We’re the side that supports free speech and open debate. But don’t whine to the media that you’re being “targeted” when all we’ve done is articulate a policy disagreement.“ If the Pentagon really would be interested in building autonomous weapons it would likely bypass Anthropic entirely. This might be more about, preventing the military from modifying the model’s certain ideological viewpoints, rather than genuine ethical concerns over weaponry. far better-suited options for autonomous weapons development would be specialized defense tech companies with a track record in military AI and robotics.
🇩🇪 Übersetzung
Hot Take: Ist der Konflikt zwischen Anthropic und Pentagon um „autonome Waffen“ nur ein Vorwand? Meiner Meinung nach geht es vor allem darum, die Informationskontrolle einzuschränken. „Stellen Sie sich gegen uns, so viel Sie wollen. Wir sind die Seite, die freie Meinungsäußerung und offene Debatte unterstützt. Aber beschweren Sie sich nicht bei den Medien, dass Sie „ins Visier genommen“ werden, wenn wir doch nur eine politische Meinungsverschiedenheit artikuliert haben.“ Wenn das Pentagon wirklich daran interessiert wäre, autonome Waffen zu bauen, würde es Anthropic wahrscheinlich vollständig umgehen. Dabei geht es möglicherweise eher darum, das Militär daran zu hindern, bestimmte ideologische Standpunkte des Modells zu ändern, als um echte ethische Bedenken hinsichtlich der Bewaffnung. Weitaus besser geeignete Optionen für die Entwicklung autonomer Waffen wären spezialisierte Verteidigungstechnologieunternehmen mit einer Erfolgsbilanz in militärischer KI und Robotik.
@OpenMedFuture @kimmonismus RT von @OpenMedFuture 25.02 20:01
I love Karpathy's posts because they're so on point. He's not only a leading expert in his field, but he also manages to capture the zeitgeist with his statements. But this post is particularly impactful. Since December, (agentic) coding has undergone a significant transformation, one could even say a qualitative leap. Before, it was a matter of iterative improvements, but since the end of last year, it has demonstrated its true value in a completely different way. Or, in Karpathy's words: "It is hard to communicate how much programming has changed due to AI in the last 2 months: not gradually and over time in the "progress as usual" way, but specifically this last December. There are a number of asterisks but imo coding agents basically didn’t work before December and basically work since. (...) As a result, programming is becoming unrecognizable. You’re not typing computer code into an editor like the way things were since computers were invented, that era is over. You're spinning up AI agents, giving them tasks *in English* and managing and reviewing their work in parallel." Two points on this that need to be repeated again and again because they are often still misunderstood. 1) The very basic truth: this is the worst it will ever be. From here on out, things will get better. Even if the status quo were to remain as it is, it would be serious. But what we have today is the worst it will ever be. 2) The pace of progress is constantly increasing. It is exponential. And that's the crucial point: from December to February, more happened than in a very long time. And this trajectory will likely (almost certainly) continue. If points 1) and 2) are true, it is simply impossible to foresee and predict how this will affect society and all essential areas. As much as I welcome and approve of this, the near future is unpredictable. That's all I wanted to say.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Ich liebe Karpathys Beiträge, weil sie so auf den Punkt kommen. Er ist nicht nur ein führender Experte auf seinem Gebiet, sondern schafft es auch, mit seinen Aussagen den Zeitgeist zu treffen. Aber dieser Beitrag hat eine besondere Wirkung. Seit Dezember hat die (agentische) Codierung einen deutlichen Wandel, man könnte sogar sagen einen qualitativen Sprung, erlebt. Früher ging es um iterative Verbesserungen, doch seit Ende letzten Jahres zeigt es seinen wahren Wert auf ganz andere Weise. Oder, in Karpathys Worten: „Es ist schwer zu sagen, wie sehr sich die Programmierung in den letzten zwei Monaten durch die KI verändert hat: nicht allmählich und im Laufe der Zeit in der Art und Weise, wie es üblich ist, sondern speziell im letzten Dezember. Es gibt eine Reihe von Sternchen, aber meiner Meinung nach funktionierten Codierungsagenten grundsätzlich nicht vor Dezember und im Grunde genommen auch seitdem. (...) Infolgedessen wird die Programmierung nicht mehr wiederzuerkennen. Sie geben Computercode nicht mehr in einen Editor ein, wie es seit der Erfindung der Computer der Fall war, diese Ära ist vorbei. Sie starten KI-Agenten, ihnen Aufgaben *auf Englisch* zu geben und parallel ihre Arbeit zu verwalten und zu überprüfen.“ Dazu zwei Punkte, die immer wieder wiederholt werden müssen, weil sie oft noch immer missverstanden werden. 1) Die grundlegende Wahrheit: Das ist das Schlimmste, was es jemals geben wird. Von hier an wird es besser werden. Selbst wenn der Status quo so bleiben würde, wäre es ernst. Aber was wir heute haben, ist das Schlimmste, was es jemals geben wird. 2) Das Tempo des Fortschritts nimmt ständig zu. Es ist exponentiell. Und das ist der entscheidende Punkt: Von Dezember bis Februar ist so viel passiert wie schon lange nicht mehr. Und diese Entwicklung wird sich wahrscheinlich (mit ziemlicher Sicherheit) fortsetzen. Wenn die Punkte 1) und 2) zutreffen, ist es einfach unmöglich, vorherzusehen und vorherzusagen, welche Auswirkungen dies auf die Gesellschaft und alle wesentlichen Bereiche haben wird. So sehr ich dies begrüße und befürworte, die nahe Zukunft ist unvorhersehbar. Das ist alles, was ich sagen wollte.
@OpenMedFuture 25.02 19:08
Building Edge AI for health feels line developing for a 10 megapixel market whereas technology only supports 5 megapixel technology. From first principles, here are the necessary layers that must all mature together (none can be skipped): Layer 0: Physics/Compute substrate: Raw silicon efficiency. We need sustained 50–100+ TOPS at <5 W on phone-class devices (today’s best phones are ~15–25 TOPS peak, then throttle). Without this floor, everything else is theater. Layer 1: Model architecture & compression: Sparse/MoE + extreme quantization (1–4 bit) + distillation that keeps reasoning intact. Qwen3.5-35B-A3B or Nanbeige4.1-3B-bf16 are the first real proof-of-concept; we need this pattern scaled 5–10× in capability while staying laptop/phone-sized. Layer 2: Inference runtime & memory system: Zero-overhead engines (better than today’s llama.cpp / ExecuTorch / CoreML) + unified memory architecture so context + weights + KV cache all live without swapping. This is the “lens + sensor” equivalent. Layer 3: Multimodal fusion & real-time loop: Native vision + audio + sensor + tool-use in one forward pass at >30 Hz. When your phone can watch you cook, listen to your question, and control your smart home offline, the cloud tax becomes obvious. Layer 4: On-device memory + personal data flywheel: persistent long term memory + continual learning that actually improves with your data, not the world’s. This is the “film roll you own forever” layer. Layer 5: OS + UX integration AI becomes a first-class citizen like the camera app today. always-on, zero-friction, system-wide. No separate “AI app” you open probably no Phone Layer 6: Energy + thermal + reliability envelope: Must run for 8+ hours of mixed use. The moment users stop thinking “I’ll just use cloud for this” is the flip. When these six layers cross the threshold simultaneously (probably 2027–2028 at current trajectory), the switch flips: cloud becomes the expensive backup, not the default. so yes I am curious to see what @Apple will announce in September. The hype around openclaw should have given them enough confidence to double down on their current MLX and Core LM frameworks. Any other exciting developments out there?
@OpenMedFuture @karpathy RT von @OpenMedFuture 25.02 18:50
It is hard to communicate how much programming has changed due to AI in the last 2 months: not gradually and over time in the "progress as usual" way, but specifically this last December. There are a number of asterisks but imo coding agents basically didn’t work before December and basically work since - the models have significantly higher quality, long-term coherence and tenacity and they can power through large and long tasks, well past enough that it is extremely disruptive to the default programming workflow. Just to give an example, over the weekend I was building a local video analysis dashboard for the cameras of my home so I wrote: “Here is the local IP and username/password of my DGX Spark. Log in, set up ssh keys, set up vLLM, download and bench Qwen3-VL, set up a server endpoint to inference videos, a basic web ui dashboard, test everything, set it up with systemd, record memory notes for yourself and write up a markdown report for me”. The agent went off for ~30 minutes, ran into multiple issues, researched solutions online, resolved them one by one, wrote the code, tested it, debugged it, set up the services, and came back with the report and it was just done. I didn’t touch anything. All of this could easily have been a weekend project just 3 months ago but today it’s something you kick off and forget about for 30 minutes. As a result, programming is becoming unrecognizable. You’re not typing computer code into an editor like the way things were since computers were invented, that era is over. You're spinning up AI agents, giving them tasks *in English* and managing and reviewing their work in parallel. The biggest prize is in figuring out how you can keep ascending the layers of abstraction to set up long-running orchestrator Claws with all of the right tools, memory and instructions that productively manage multiple parallel Code instances for you. The leverage achievable via top tier "agentic engineering" feels very high right now. It’s not perfect, it needs high-level direction, judgement, taste, oversight, iteration and hints and ideas. It works a lot better in some scenarios than others (e.g. especially for tasks that are well-specified and where you can verify/test functionality). The key is to build intuition to decompose the task just right to hand off the parts that work and help out around the edges. But imo, this is nowhere near "business as usual" time in software.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Es ist schwer zu sagen, wie sehr sich die Programmierung in den letzten zwei Monaten durch KI verändert hat: nicht schrittweise und im Laufe der Zeit im „Progress as Usual“-Stil, sondern konkret im letzten Dezember. Es gibt eine Reihe von Sternchen, aber meiner Meinung nach funktionierten die Codierungsagenten im Grunde genommen nicht vor Dezember und im Grunde genommen auch seitdem – die Modelle haben eine deutlich höhere Qualität, langfristige Kohärenz und Beständigkeit und können große und lange Aufgaben bewältigen, die weit über die Zeit hinausgehen, dass sie den Standard-Programmierworkflow extrem stören. Um nur ein Beispiel zu nennen: Am Wochenende habe ich ein lokales Videoanalyse-Dashboard für die Kameras meines Zuhauses erstellt, also habe ich geschrieben: „Hier ist die lokale IP und der Benutzername/das Passwort meines DGX Spark. Einloggen, SSH-Schlüssel einrichten, vLLM einrichten, Qwen3-VL herunterladen und testen, einen Server-Endpunkt zum Inferenzieren von Videos einrichten, ein einfaches Web-UI-Dashboard, alles testen, es mit systemd einrichten, Speichernotizen für sich selbst aufzeichnen und einen Markdown-Bericht für mich erstellen.“ Der Agent war ca. 30 Minuten unterwegs, stieß auf mehrere Probleme, recherchierte online nach Lösungen, löste sie einzeln, schrieb den Code, testete ihn, debuggte ihn, richtete die Dienste ein und kam mit dem Bericht zurück, und schon war es erledigt. Ich habe nichts angerührt. Vor drei Monaten hätte das alles noch ein Wochenendprojekt sein können, aber heute ist es etwas, das man anfängt und für 30 Minuten vergisst. Dadurch wird die Programmierung unkenntlich. Sie geben Computercode nicht wie seit der Erfindung des Computers in einen Editor ein, diese Ära ist vorbei. Sie starten KI-Agenten, geben ihnen Aufgaben *auf Englisch* und verwalten und überprüfen parallel ihre Arbeit. Der größte Gewinn besteht darin, herauszufinden, wie Sie die Abstraktionsebenen weiter erklimmen können, um langlebige Orchestrator-Claws mit den richtigen Tools, Speicher und Anweisungen einzurichten, die mehrere parallele Codeinstanzen produktiv für Sie verwalten. Die durch erstklassiges „Agenten-Engineering“ erreichbare Hebelwirkung scheint derzeit sehr hoch zu sein. Es ist nicht perfekt, es erfordert eine hochrangige Anleitung, Urteilsvermögen, Geschmack, Kontrolle, Wiederholung sowie Hinweise und Ideen. In einigen Szenarien funktioniert es viel besser als in anderen (z. B. insbesondere bei Aufgaben, die genau spezifiziert sind und bei denen Sie die Funktionalität überprüfen/testen können). Der Schlüssel liegt darin, die Intuition zu entwickeln, um die Aufgabe genau richtig zu zerlegen, um die funktionierenden Teile abzugeben und an den Rändern weiterzuhelfen. Aber meiner Meinung nach ist dies bei Software noch lange nicht die Zeit, in der alles so weitergeht wie bisher.
@OpenMedFuture 25.02 12:50
With my new startup we are building for a decentralised future of AI. Agree with Paul, that edge AI is still in its early stages. To investors I make the analogy with digital camera‘s. First when the technology reached 10 megapixels it disrupted the market. So in analogy to this, with edge AI we are at 6 Megapixel. Don‘t believe me? Think about this next time you download 300 hours of HD video‘s prior to leaving on a trip.
@OpenMedFuture @cerebras RT von @OpenMedFuture 24.02 01:16
Introducing ExomeBench: a benchmark for evaluating genomic models on disease-associated genetic variants, built in collaboration with with @MayoClinic. Most genomics benchmarks focus on general sequence modeling tasks. What remains under-evaluated is whether these models can answer clinically meaningful questions about genetic variants. That's why we built ExomeBench and are releasing it to the public: a benchmark for evaluating health-relevant variant interpretation in exome regions.
@OpenMedFuture 23.02 23:42
Another win for the open ecosystem in nedicine.
@OpenMedFuture @Shea_ARK RT von @OpenMedFuture 23.02 21:02
The FDA just made one of the most significant shifts in its evidentiary standards in decades—and it feels like a lot of people have slept on the news! The FDA will now default to ONE pivotal trial for drug approval, not two. The science of evaluating whether a drug works has advanced enormously. Today, development programs build evidence across multiple dimensions—mechanism of action, biomarker effects, intermediate endpoints—that collectively tell a more complete story. That body of confirmatory evidence, from mechanistic data to real-world evidence, can replace a second pivotal trial. We have historically seen more regulatory flexibility in rare diseases and oncology where need is acute. But the biggest impact we expect to see with the shift from two to one pivotal trial is likely to be in common conditions like cardiovascular and respiratory where the two pivotal trial dogma has been more entrenched. Potentially up to $350M in savings per program and years off timelines. And this might just be the start—could continuous trial designs that collapse the rigid phase structure be the next paradigm shift in clinical development?
🇩🇪 Übersetzung
RT von @OpenMedFuture: Die FDA hat gerade eine der bedeutendsten Änderungen ihrer Beweisstandards seit Jahrzehnten vorgenommen – und es fühlt sich an, als hätten viele Menschen bei den Nachrichten geschlafen! Die FDA wird nun standardmäßig EINE entscheidende Studie für die Arzneimittelzulassung verwenden, nicht zwei. Die Wissenschaft zur Beurteilung, ob ein Medikament wirkt, hat enorme Fortschritte gemacht. Heutzutage sammeln Entwicklungsprogramme Beweise über mehrere Dimensionen hinweg – Wirkmechanismus, Biomarker-Effekte, Zwischenendpunkte – die zusammen eine umfassendere Geschichte erzählen. Dieser Bestand an bestätigenden Beweisen, von mechanistischen Daten bis hin zu realen Beweisen, kann eine zweite entscheidende Studie ersetzen. Wir haben in der Vergangenheit eine größere regulatorische Flexibilität bei seltenen Krankheiten und der Onkologie gesehen, wo der Bedarf dringend ist. Die größte Auswirkung, die wir mit der Umstellung von zwei auf eine Zulassungsstudie erwarten, dürfte jedoch bei häufigen Erkrankungen wie Herz-Kreislauf- und Atemwegserkrankungen auftreten, bei denen das Dogma der beiden Zulassungsstudien stärker verankert ist. Potenziell bis zu 350 Millionen US-Dollar an Einsparungen pro Programm und Jahren außerhalb der Zeitpläne. Und das könnte erst der Anfang sein – könnten kontinuierliche Studiendesigns, die die starre Phasenstruktur auflösen, der nächste Paradigmenwechsel in der klinischen Entwicklung sein?
@OpenMedFuture 23.02 19:14
I applaud contributors to make the future of health open 🙏🏻
@OpenMedFuture 21.02 12:05
This is what policy makers in Brussels won‘t get 👇🏻 The current open eco-system is rewiring all value chains. Local AI is opening doors fo new hardware eco-systems. I doesn‘t halways have to be a Mac Mini ;-)
@OpenMedFuture 21.02 08:52
R to @OpenMedFuture: 6/ The reference genome itself was never patented. That single forgotten decision created today’s miracle. Next time someone tells you “accelerating innovation needs strong IP and patents,” hand them this story. Watch their argument quietly disintegrate. Open source doesn’t mean less economic opportunity. It means more lives saved, more companies born, more knowledge democratized, and faster progress than any monopoly ever delivered. Open won. Trillions created for all of us. Now the real question: In the next frontier, AI models, climate data, brain atlases, will we choose the Iron Throne… or the open road?
@OpenMedFuture 21.02 08:51
R to @OpenMedFuture: 5/ The cold math everyone ignores: public investment created a non-rivalrous good that returned 65–141×. Open systems ride Moore’s Law, exponential progress. Closed systems follow Eroom’s Law, costs double every 9 years while innovation crawls. History is merciless: every time we kept foundational science open (genome, internet protocols, GPS), humanity won by orders of magnitude.
@OpenMedFuture 21.02 08:51
R to @OpenMedFuture: 4/ Picture the parent who can now afford the test that diagnoses their child’s rare disease — because the data was never behind a paywall. The cancer patient who gets the right drug first time, because open population-scale data showed doctors exactly what to look for. That’s not abstract. That’s real lives, real families, real hope — unlocked because one policy choice said “this knowledge belongs to humanity.”
@OpenMedFuture 21.02 08:51
R to @OpenMedFuture: 3/ Result? 30,000× cheaper in 20 years. $40–60B market today racing to $150B+. A benchtop $100 genome you can actually buy. Open data didn’t kill incentives. It supercharged them.
@OpenMedFuture 21.02 08:51
R to @OpenMedFuture: 1/ Imagine Pathway A, the one that almost won. Venter/Celera locks the genome behind strong IP. Royalties on every alignment, every diagnosis. Sequencing stays $5k–$20k. Tiny elite market. Precision medicine delayed 15+ years. The HGP’s trillion-dollar economic return? Shrinks to almost nothing.
@OpenMedFuture 21.02 08:51
R to @OpenMedFuture: 2/ Pathway B — the miracle that actually happened: Immediate, unrestricted open access to the full 3-billion-base reference. A true global public good. Massive shared datasets explode: gnomAD, UK Biobank, 1000 Genomes. Open standards. Thousands of open-source tools anyone can use. No gatekeepers. Network effects take over. Competitors (Illumina, Element, Ultima, Nanopore, MGI) all build on the same free foundation.
@OpenMedFuture 21.02 08:51
🧵 The $100 genome just landed (Element VITARI, this week). The point everyone forgets: it only exists because the human reference genome was set completely free in 2000–2003. I’ve spent years pushing open-source and open innovation in healthcare. It feels like standing alone defending democracy in Game of Thrones, while the patent kings build their walls and swear “this is how you accelerate progress.” They’re wrong. Dead wrong. And this story proves it.
@OpenMedFuture @bilawalsidhu RT von @OpenMedFuture 20.02 02:27
Between Gemini 3.1 and Claude 4.6 it's honestly wild what you can build. This feels like Google Earth and Palantir had a baby. Made this with all the geospatial bells and whistles -- real time plane & satellite tracking, real traffic cams in Austin, and even got a traffic system working. Panoptic detection on everything. Skinned the whole thing to look like a classified intelligence system. EO, FLIR, CRT. Got a bunch more stuff on the roadmap. This is fun.
@OpenMedFuture 19.02 22:36
The regulatory capture never has been so visible 👇🏻
@OpenMedFuture 19.02 20:57
On-device AI Assistants are fully compliant, and our Agent Builder empowers every clinician to become an AI innovator. With my new startup, Isaree, we address the challenge that hospital IT departments often can’t solve problems fast enough to meet clinical needs.
@OpenMedFuture @Zai_org RT von @OpenMedFuture 18.02 02:45
Presenting the GLM-5 Technical Report! http://arxiv.org/abs/2602.15763 After the launch of GLM-5, we’re pulling back the curtain on how it was built. Key innovations include: - DSA Adoption: Significantly reduces training and inference costs while preserving long-context fidelity - Asynchronous RL Infrastructure: Drastically improves post-training efficiency by decoupling generation from training - Agent RL Algorithms: Enables the model to learn from complex, long-horizon interactions more effectively Through these innovations, GLM-5 achieves SOTA performance among open-source models, with particularly strong results in real-world software engineering tasks.
@OpenMedFuture 17.02 19:13
Not a fan seeing him go to OpenAI, however he is right. In Europe, we face two key challenges: low productivity per capita and GDP, and a widespread mindset that resists adopting technologies that could boost our productivity. It’s as if we’re proud of doing things the hard way, more paper, more meetings, less output.
@OpenMedFuture 17.02 14:43
Bart De Wever's recent Antwerp speech delivered a brutal reality check on Europe's industrial decline, urging with fierce intellectual urgency that the continent must slash red tape and embrace tech-neutral reforms to avoid becoming a mere museum of past glory.
@OpenMedFuture 15.02 18:36
The actors who stop fearing AI and start using it as a creative tool will be the ones who win, those who see that it gives them the power to produce, direct and star in their own stories without waiting for permission from hollywood.
@OpenMedFuture 15.02 11:21
And what if the greatest barrier to curing cancer isn't its biological complexity, mutations, resistance, and metastasis, but the strangling bureaucracy of regulatory delays, funding shortages and data silos that stalls breakthroughs like immunotherapies and AI diagnostics? In stark contrast, the current wave of open source AI innovation delivers remarkable results at breakneck speed, with releases in the last few weeks like GLM-5 for advanced reasoning and coding, Seed 2.0 for enhanced multimodal capabilities, and Minimax M2.5 for efficient agentic tasks, compressing years of progress into days through collaborative, borderless development and highlighting how dismantling red tape could unleash similar velocity in healthcare, turning cancer from a formidable foe into a defeated one.
@OpenMedFuture 13.02 19:40
My 2018 prediction that open-source AI would rival centralized giants has come true, but its massive expansion has far exceeded my expectations. 🚀🚀🚀
@OpenMedFuture 13.02 09:47
Policy makers in Europe should monitor progress to pivot quickly based on real-world metrics, ensuring initiatives adapt to the ecosystem's pace rather than dictating it. I have the feeling that some still want to dictate innovation, embedded it in their current hierarchies and dogma's. If one thinks like that, he hasn‘t understood anything on how innovation works. And the worst things is that you end up using innovation from regions (eg. China) that have a very different long term goal.
@OpenMedFuture 11.02 22:49
💪🏻 @Bart_DeWever well said!
@OpenMedFuture Bart de Witte 16.01 17:48
AI won't displace doctors, but doctors who don't advocate for open-source innovation risk being displaced by those who m
🇩🇪 Übersetzung
KI wird Ärzte nicht verdrängen, aber Ärzte, die sich nicht für Open-Source-Innovationen einsetzen, laufen Gefahr, von denen verdrängt zu werden, die m
@OpenMedFuture Jaynit 13.03 13:05
Steve Jobs literally predicted the iPhone, the Internet, AI and the next 50 years of technology in a single speech from
🇩🇪 Übersetzung
Steve Jobs hat in einer einzigen Rede buchstäblich das iPhone, das Internet, die KI und die nächsten 50 Jahre der Technologie vorhergesagt
@OpenMedFuture Aravind Srinivas 14.03 18:24
We will look back on AlphaFold as one of the greatest things to come from AI. Will keep giving for generations to come.
🇩🇪 Übersetzung
Wir werden auf AlphaFold als eines der größten Dinge der KI zurückblicken. Ich werde auch in den kommenden Generationen weiter spenden.
@OpenMedFuture Bart de Witte 15.03 20:03
Thrilled to see Microsoft's GigaTIME: an open-weight AI turning cheap H&E slides into virtual spatial proteomics! Open c
🇩🇪 Übersetzung
Ich bin gespannt, Microsofts GigaTIME zu sehen: eine KI mit offenem Gewicht, die billige H&E-Objektträger in virtuelle räumliche Proteomik verwandelt! Öffnen Sie c