SZwanglos – Following Feed

104 Posts (gefiltert)
Reset
@OpenMedFuture @Shaughnessy119 RT von @OpenMedFuture 14.03 17:54
Open source AI medicine is an insane trend
🇩🇪 Übersetzung
RT von @OpenMedFuture: Open-Source-KI-Medizin ist ein verrückter Trend
@OpenMedFuture 13.03 19:20
Open!
@OpenMedFuture @remi_or_ RT von @OpenMedFuture 13.03 18:02
The inference stack just got simpler. PagedAttention, the kernel that made vLLM fast, now ships natively in 🤗 Transformers CB. Result: 84% of vLLM throughput on a single GPU. Near SOTA with no extra runtime. The gap is closing 📈
🇩🇪 Übersetzung
RT von @OpenMedFuture: Der Inferenzstapel ist jetzt einfacher. PagedAttention, der Kernel, der vLLM schnell gemacht hat, wird jetzt nativ in 🤗 Transformers CB ausgeliefert. Ergebnis: 84 % des vLLM-Durchsatzes auf einer einzelnen GPU. Nahezu SOTA ohne zusätzliche Laufzeit. Die Lücke schließt sich 📈
@OpenMedFuture @garrytan RT von @OpenMedFuture 13.03 14:39
It is truly the age of open source
🇩🇪 Übersetzung
RT von @OpenMedFuture: Es ist wirklich das Zeitalter von Open Source
@OpenMedFuture @AlexFinn RT von @OpenMedFuture 12.03 19:44
If you have your OpenClaw working 24/7 using frontier models like Opus, you're easily burning $300 a day. That's $100,000 a year. I have 3 Mac Studios and a DGX Spark running 4 high end local models (Nemotron 3, Qwen 3.5, Kimi K2.5, MiniMax2.5). They're chugging 24/7/365. I spent a third of that yearly cost to buy these computers I'll be able to use them for years for free On top of that they're completely private, secure, and personalized. Not a single prompt goes to a cloud server that can be read by an employee or used to train another model I hope this makes it painfully obvious why local is the future for AI agents. And why America needs to enter the local AI race.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Wenn Ihr OpenClaw rund um die Uhr mit Spitzenmodellen wie Opus arbeitet, verbrennen Sie problemlos 300 US-Dollar pro Tag. Das sind 100.000 Dollar pro Jahr. Ich habe 3 Mac Studios und einen DGX Spark mit 4 lokalen High-End-Modellen (Nemotron 3, Qwen 3.5, Kimi K2.5, MiniMax2.5). Sie tuckern rund um die Uhr. Ich habe ein Drittel dieser jährlichen Kosten für den Kauf dieser Computer ausgegeben Ich werde sie jahrelang kostenlos nutzen können Darüber hinaus sind sie völlig privat, sicher und personalisiert. Keine einzige Eingabeaufforderung geht an einen Cloud-Server, der von einem Mitarbeiter gelesen oder zum Trainieren eines anderen Modells verwendet werden kann Ich hoffe, dass dies deutlich macht, warum die Zukunft für KI-Agenten lokal liegt. Und warum Amerika am lokalen KI-Wettbewerb teilnehmen muss.
@OpenMedFuture RT von @OpenMedFuture 11.03 21:59
@dorialexander Exactly! “It took some time but open data in AI is actually popular” The graph shows the recent phase is finally a healthy, sustainable climb instead of just hype spikes. I think a big driver is the democratization of AI agents. 2026 turned into the year regular devs can actually build real agents thanks to accessible frameworks, local models, and no-code tools. These agents are extremely data-hungry for RAG, tool use, memory, and fine-tuning, and they desperately need clean, traceable, legally safe, multilingual data at scale. Common Corpus is basically tailor-made for exactly that new wave. Congrats on crossing 1M downloads, open data is having its agent moment! 🚀
🇩🇪 Übersetzung
RT von @OpenMedFuture: @dorialexander Genau! „Es hat einige Zeit gedauert, aber offene Daten in der KI sind tatsächlich beliebt“ Die Grafik zeigt, dass es sich in der jüngsten Phase endlich um einen gesunden, nachhaltigen Anstieg und nicht nur um Hype-Spitzen handelt. Ich denke, ein großer Treiber ist die Demokratisierung von KI-Agenten. 2026 wurde das Jahr, in dem normale Entwickler dank zugänglicher Frameworks, lokaler Modelle und No-Code-Tools tatsächlich echte Agenten entwickeln können. Diese Agenten sind äußerst datenhungrig in Bezug auf RAG, Werkzeugnutzung, Speicher und Feinabstimmung und benötigen dringend saubere, nachvollziehbare, rechtssichere und mehrsprachige Daten in großem Maßstab. Common Corpus ist im Grunde genau für diese neue Welle maßgeschneidert. Herzlichen Glückwunsch zum Durchschreiten von 1 Million Downloads, Open Data hat seinen Agenten-Moment! 🚀
@OpenMedFuture @perplexity_ai RT von @OpenMedFuture 11.03 17:51
Announcing Personal Computer. Personal Computer is an always on, local merge with Perplexity Computer that works for you 24/7. It's personal, secure, and works across your files, apps, and sessions through a continuously running Mac mini.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Ankündigung eines Personal Computers. Personal Computer ist eine immer aktive, lokale Verbindung mit Perplexity Computer, die rund um die Uhr für Sie arbeitet. Es ist persönlich, sicher und funktioniert für alle Ihre Dateien, Apps und Sitzungen über einen kontinuierlich laufenden Mac mini.
@OpenMedFuture 11.03 14:08
"First they let companies pay to protect their websites from every agent and crawler and now they let crawlers pay to access the website"
🇩🇪 Übersetzung
„Zuerst ließen sie Unternehmen bezahlen, um ihre Websites vor jedem Agenten und Crawler zu schützen, und jetzt lassen sie Crawler bezahlen, um auf die Website zuzugreifen.“
@OpenMedFuture 11.03 07:23
Just read @AxelVossMdEP statement on LinkedIn, where he celebrated his copyright / genAI initiative. He states ‘Ensuring creators get fairly paid’, the newest EU copyright slogan for AI training, sounds noble until you remember how scientific publishing actually works. Scientists write the papers for free. Peer reviewers (the actual quality control) work for free. Editors are often unpaid volunteers. Now the same publishers are rushing to sign lucrative AI licensing deals with OpenAI, Google, etc., and suddenly they’re champions of “creator rights”. Funny how that works. The author whose blood, sweat and unpaid labour went into the paper? Still gets nothing when their work is fed into the next GPT. This isn’t about protecting creators. Is it? It’s about protecting gatekeepers while pretending the scientists are finally getting a seat at the table. If the EU really cared about fair pay for creators in science, they’d start by fixing the broken academic publishing model, not just adding another revenue stream for the middlemen who’ve been exploiting researchers for decades.
🇩🇪 Übersetzung
Lesen Sie einfach die Erklärung von @AxelVossMdEP auf LinkedIn, in der er seine Urheberrechts-/genAI-Initiative feierte. Er stellt fest, dass „Sicherstellen, dass Urheber fair bezahlt werden“, der neueste EU-Urheberrechtsslogan für die KI-Ausbildung, klingt nobel, bis man sich daran erinnert, wie wissenschaftliches Publizieren tatsächlich funktioniert. Wissenschaftler schreiben die Arbeiten kostenlos. Peer-Reviewer (die eigentliche Qualitätskontrolle) arbeiten kostenlos. Redakteure sind oft unbezahlte Freiwillige. Jetzt beeilen sich dieselben Verlage, lukrative KI-Lizenzverträge mit OpenAI, Google usw. abzuschließen, und sind plötzlich Verfechter der „Erstellerrechte“. Komisch, wie das funktioniert. Der Autor, dessen Blut, Schweiß und unbezahlte Arbeit in die Zeitung geflossen sind? Bekommt immer noch nichts, wenn ihre Arbeit in das nächste GPT eingespeist wird. Hier geht es nicht um den Schutz der Urheber. Ist es? Es geht darum, die Gatekeeper zu schützen und gleichzeitig so zu tun, als würden die Wissenschaftler endlich einen Platz am Tisch bekommen. Wenn sich die EU wirklich um eine faire Bezahlung von Wissenschaftlern kümmern würde, würde sie damit beginnen, das kaputte akademische Veröffentlichungsmodell zu reparieren und nicht nur eine weitere Einnahmequelle für die Zwischenhändler zu schaffen, die Forscher seit Jahrzehnten ausbeuten.
@OpenMedFuture @ArthurMacwaters RT von @OpenMedFuture 11.03 06:41
the pathway to the AI doctor is pretty much the same as autonomous driving: > supervised autonomy in easy scenarios > use humans in the loop to eliminate risk > publish safety data > get regulatory approval for more scenarios > expand supervised autonomy > repeat until supervision not needed
🇩🇪 Übersetzung
RT von @OpenMedFuture: Der Weg zum KI-Arzt ist im Wesentlichen der gleiche wie beim autonomen Fahren: > Überwachte Autonomie in einfachen Szenarien > Menschen im Kreislauf einsetzen, um Risiken zu eliminieren > Sicherheitsdaten veröffentlichen > Erhalten Sie die behördliche Genehmigung für weitere Szenarien > die beaufsichtigte Autonomie erweitern > wiederholen, bis keine Aufsicht mehr erforderlich ist
@OpenMedFuture @harshbhatt7585 RT von @OpenMedFuture 11.03 05:16
Inspired by @karpathy autoresearch. I built "autoRL" which can build and train RL environments autonomously. I instructed agent to build a simulated Trading Env and train it, I ran it for 7 hours in my Macbook overnight with with 24+ experiments. It built the ENV and figured out how to train to get incremental returns over simulated episodes. the scores tells how much reward the agent gets on average per evaluation episode. checkout "autoRL" repo here: https://github.com/harshbhatt7585/autoRL env and training file: https://github.com/harshbhatt7585/autoRL/tree/autorl/mar11/candidate
🇩🇪 Übersetzung
RT von @OpenMedFuture: Inspiriert von @karpathy autoresearch. Ich habe „autoRL“ erstellt, das RL-Umgebungen autonom erstellen und trainieren kann. Ich habe den Agenten angewiesen, eine simulierte Handelsumgebung zu erstellen und sie zu trainieren. Ich habe sie über Nacht 7 Stunden lang auf meinem MacBook mit mehr als 24 Experimenten ausgeführt. Es wurde das ENV erstellt und herausgefunden, wie man trainiert, um über simulierte Episoden inkrementelle Erträge zu erzielen. Die Punktzahl gibt an, wie viel Belohnung der Agent durchschnittlich pro Bewertungsepisode erhält. Schauen Sie sich das „autoRL“-Repo hier an: https://github.com/harshbhatt7585/autoRL Umgebungs- und Trainingsdatei: https://github.com/harshbhatt7585/autoRL/tree/autorl/mar11/candidate
@OpenMedFuture @cwhogg RT von @OpenMedFuture 10.03 00:32
I gave my little Open Health Data project an account and will post interesting (and uninteresting) findings and analyses as blog posts. Please give comments, requests for features, requests for analyses, requests for new datasets…
🇩🇪 Übersetzung
RT von @OpenMedFuture: Ich habe meinem kleinen Open Health Data-Projekt einen Account gegeben und werde interessante (und uninteressante) Erkenntnisse und Analysen als Blogbeiträge veröffentlichen. Bitte geben Sie Kommentare, Anfragen nach Funktionen, Anfragen nach Analysen, Anfragen nach neuen Datensätzen ... ab.
@OpenMedFuture @karpathy RT von @OpenMedFuture 09.03 22:28
Three days ago I left autoresearch tuning nanochat for ~2 days on depth=12 model. It found ~20 changes that improved the validation loss. I tested these changes yesterday and all of them were additive and transferred to larger (depth=24) models. Stacking up all of these changes, today I measured that the leaderboard's "Time to GPT-2" drops from 2.02 hours to 1.80 hours (~11% improvement), this will be the new leaderboard entry. So yes, these are real improvements and they make an actual difference. I am mildly surprised that my very first naive attempt already worked this well on top of what I thought was already a fairly manually well-tuned project. This is a first for me because I am very used to doing the iterative optimization of neural network training manually. You come up with ideas, you implement them, you check if they work (better validation loss), you come up with new ideas based on that, you read some papers for inspiration, etc etc. This is the bread and butter of what I do daily for 2 decades. Seeing the agent do this entire workflow end-to-end and all by itself as it worked through approx. 700 changes autonomously is wild. It really looked at the sequence of results of experiments and used that to plan the next ones. It's not novel, ground-breaking "research" (yet), but all the adjustments are "real", I didn't find them manually previously, and they stack up and actually improved nanochat. Among the bigger things e.g.: - It noticed an oversight that my parameterless QKnorm didn't have a scaler multiplier attached, so my attention was too diffuse. The agent found multipliers to sharpen it, pointing to future work. - It found that the Value Embeddings really like regularization and I wasn't applying any (oops). - It found that my banded attention was too conservative (i forgot to tune it). - It found that AdamW betas were all messed up. - It tuned the weight decay schedule. - It tuned the network initialization. This is on top of all the tuning I've already done over a good amount of time. The exact commit is here, from this "round 1" of autoresearch. I am going to kick off "round 2", and in parallel I am looking at how multiple agents can collaborate to unlock parallelism. https://github.com/karpathy/nanochat/commit/6ed7d1d82cee16c2e26f45d559ad3338447a6c1b All LLM frontier labs will do this. It's the final boss battle. It's a lot more complex at scale of course - you don't just have a single train. py file to tune. But doing it is "just engineering" and it's going to work. You spin up a swarm of agents, you have them collaborate to tune smaller models, you promote the most promising ideas to increasingly larger scales, and humans (optionally) contribute on the edges. And more generally, *any* metric you care about that is reasonably efficient to evaluate (or that has more efficient proxy metrics such as training a smaller network) can be autoresearched by an agent swarm. It's worth thinking about whether your problem falls into this bucket too.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Vor drei Tagen habe ich Autoresearch verlassen, um Nanochat für ca. 2 Tage auf das Modell Depth=12 zu optimieren. Es wurden etwa 20 Änderungen gefunden, die den Validierungsverlust verbesserten. Ich habe diese Änderungen gestern getestet und alle waren additiv und wurden auf größere Modelle (Tiefe = 24) übertragen. Unter Berücksichtigung all dieser Änderungen habe ich heute gemessen, dass die „Zeit bis GPT-2“ der Bestenliste von 2,02 Stunden auf 1,80 Stunden gesunken ist (ca. 11 % Verbesserung). Dies wird der neue Bestenlisteneintrag sein. Also ja, das sind echte Verbesserungen und sie machen einen echten Unterschied. Ich bin ein wenig überrascht, dass mein allererster naiver Versuch bereits so gut funktioniert hat, obwohl ich dachte, dass es sich um ein bereits recht manuell gut abgestimmtes Projekt handelte. Dies ist für mich eine Premiere, da ich es sehr gewohnt bin, die iterative Optimierung des neuronalen Netzwerktrainings manuell durchzuführen. Man kommt auf Ideen, setzt sie um, prüft, ob sie funktionieren (besserer Validierungsverlust), entwickelt darauf basierend neue Ideen, liest einige Artikel zur Inspiration usw. usw. Das ist das A und O dessen, was ich seit zwei Jahrzehnten täglich mache. Zu sehen, wie der Agent den gesamten Arbeitsablauf Ende-zu-Ende und ganz alleine durchführt, während er ca. 700 autonome Änderungen sind wild. Es hat sich wirklich die Abfolge der Ergebnisse der Experimente angesehen und diese zur Planung der nächsten Experimente verwendet. Es ist (noch) keine neuartige, bahnbrechende „Forschung“, aber alle Anpassungen sind „real“, ich habe sie vorher nicht manuell gefunden, und sie stapeln sich und haben Nanochat tatsächlich verbessert. Zu den größeren Dingen gehören z.B.: - Es ist mir ein Versehen aufgefallen, dass mein parameterloses QKnorm keinen Skalierungsmultiplikator hatte, sodass meine Aufmerksamkeit zu diffus war. Der Agent fand Multiplikatoren, um es zu schärfen und auf zukünftige Arbeiten hinzuweisen. – Es stellte sich heraus, dass die Value Embeddings die Regularisierung wirklich mögen und ich habe keine angewendet (ups). - Es stellte sich heraus, dass meine gebündelte Aufmerksamkeit zu konservativ war (ich habe vergessen, sie anzupassen). - Es stellte sich heraus, dass alle Betas von AdamW fehlerhaft waren. - Der Zeitplan für die Gewichtsabnahme wurde angepasst. - Die Netzwerkinitialisierung wurde optimiert. Dies kommt zu all dem Tuning hinzu, das ich bereits im Laufe der Zeit vorgenommen habe. Der genaue Commit ist hier, aus dieser „Runde 1“ der Autorecherche. Ich werde mit „Runde 2“ beginnen und parallel dazu untersuchen, wie mehrere Agenten zusammenarbeiten können, um Parallelität freizusetzen. https://github.com/karpathy/nanochat/commit/6ed7d1d82cee16c2e26f45d559ad3338447a6c1b Alle LLM-Grenzlabore werden dies tun. Es ist der letzte Bosskampf. Im Maßstab ist es natürlich viel komplexer – man hat nicht nur einen einzigen Zug. py-Datei zum Optimieren. Aber es zu tun ist „nur Ingenieurskunst“ und es wird funktionieren. Sie stellen einen Schwarm von Agenten zusammen, Sie lassen sie zusammenarbeiten, um kleinere Modelle zu optimieren, Sie fördern die vielversprechendsten Ideen in immer größeren Maßstäben und Menschen (optional) tragen an den Rändern bei. Und ganz allgemein kann *jede* Metrik, die Ihnen wichtig ist und die einigermaßen effizient auszuwerten ist (oder die über effizientere Proxy-Metriken verfügt, wie z. B. das Training eines kleineren Netzwerks), von einem Agentenschwarm automatisch recherchiert werden. Es lohnt sich darüber nachzudenken, ob Ihr Problem auch in diesen Bereich fällt.
@OpenMedFuture 09.03 19:50
wow @cwhogg 🚀 this is so valuable to the whole healthcare system! 🙏🏻
🇩🇪 Übersetzung
wow @cwhogg 🚀 das ist so wertvoll für das gesamte Gesundheitssystem! 🙏🏻
@OpenMedFuture @DeryaTR_ RT von @OpenMedFuture 08.03 19:04
💯! A year ago I said it was unethical for doctors not to consult AI; now it’s becoming malpractice.
🇩🇪 Übersetzung
RT von @OpenMedFuture: 💯! Vor einem Jahr sagte ich, es sei unethisch für Ärzte, KI nicht zu konsultieren; jetzt wird es zum Kunstfehler.
@OpenMedFuture @karpathy RT von @OpenMedFuture 07.03 19:53
I packaged up the "autoresearch" project into a new self-contained minimal repo if people would like to play over the weekend. It's basically nanochat LLM training core stripped down to a single-GPU, one file version of ~630 lines of code, then: - the human iterates on the prompt (.md) - the AI agent iterates on the training code (.py) The goal is to engineer your agents to make the fastest research progress indefinitely and without any of your own involvement. In the image, every dot is a complete LLM training run that lasts exactly 5 minutes. The agent works in an autonomous loop on a git feature branch and accumulates git commits to the training script as it finds better settings (of lower validation loss by the end) of the neural network architecture, the optimizer, all the hyperparameters, etc. You can imagine comparing the research progress of different prompts, different agents, etc. https://github.com/karpathy/autoresearch Part code, part sci-fi, and a pinch of psychosis :)
🇩🇪 Übersetzung
RT von @OpenMedFuture: Ich habe das „Autoresearch“-Projekt in ein neues, eigenständiges Minimal-Repo gepackt, falls die Leute über das Wochenende spielen möchten. Es handelt sich im Grunde genommen um einen Nanochat-LLM-Trainingskern, reduziert auf eine einzelne GPU, eine Dateiversion mit ca. 630 Codezeilen, dann: - Der Mensch iteriert anhand der Eingabeaufforderung (.md) – Der KI-Agent iteriert auf dem Trainingscode (.py) Das Ziel besteht darin, Ihre Agenten so zu konstruieren, dass sie auf unbestimmte Zeit und ohne Ihr eigenes Zutun den schnellsten Forschungsfortschritt erzielen. Im Bild ist jeder Punkt ein kompletter LLM-Trainingslauf, der genau 5 Minuten dauert. Der Agent arbeitet in einer autonomen Schleife an einem Git-Feature-Zweig und sammelt Git-Commits für das Trainingsskript, während er bessere Einstellungen (mit geringerem Validierungsverlust am Ende) der neuronalen Netzwerkarchitektur, des Optimierers, aller Hyperparameter usw. findet. Sie können sich vorstellen, den Forschungsfortschritt verschiedener Eingabeaufforderungen, verschiedener Agenten usw. zu vergleichen. https://github.com/karpathy/autoresearch Teils Code, teils Science-Fiction und eine Prise Psychose :)
@OpenMedFuture 07.03 06:46
As the German Socialist Party (Matthias Mieves) now openly tries to lure Anthropic to Europe, they’re basically confirming what I saw during the AI Act talks when they tried to stiffle open source collaboration and what @pmarca has been warning about in Washington: that parts of the liberal establishment are comfortable with an AI regime where only two or three big companies are “wrapped in a government cocoon,” protected from competition and tightly steered by the state. Anthropic‘s bias never has been that obvious.
🇩🇪 Übersetzung
Da die Sozialistische Partei Deutschlands (Matthias Mieves) nun offen versucht, Anthropic nach Europa zu locken, bestätigt sie im Grunde das, was ich bei den Verhandlungen zum AI Act gesehen habe, als sie versuchten, die Open-Source-Zusammenarbeit einzudämmen, und wovor @pmarca in Washington gewarnt hat: dass Teile des liberalen Establishments mit einem KI-Regime zufrieden sind, in dem nur zwei oder drei große Unternehmen „in einen Kokon der Regierung gehüllt“, vor Konkurrenz geschützt und streng vom Staat gesteuert sind. Die Voreingenommenheit von Anthropic war noch nie so offensichtlich.
@OpenMedFuture 06.03 15:27
Just a reminder, years have passed, and there are now over 1.3 million open-source models, downloaded more than a hundred times over, with still no evidence of increased bioterrorism risk. But yes, they got their regulations.... which led to us using Chinese models now.
🇩🇪 Übersetzung
Nur zur Erinnerung: Jahre sind vergangen, und mittlerweile gibt es über 1,3 Millionen Open-Source-Modelle, die mehr als hundertmal heruntergeladen wurden, und es gibt immer noch keine Hinweise auf ein erhöhtes Bioterrorismusrisiko. Aber ja, sie haben ihre Vorschriften... was dazu geführt hat, dass wir jetzt chinesische Modelle verwenden.
@OpenMedFuture @drbarnard RT von @OpenMedFuture 06.03 01:25
Slowly, then all of a sudden: “This is the highest single-core score of any consumer PC processor ever, topping the AMD Ryzen 9 series.” (M5 Max also topped multicore benchmarks)
🇩🇪 Übersetzung
RT von @OpenMedFuture: Langsam, dann plötzlich: „Dies ist der höchste Single-Core-Score aller Consumer-PC-Prozessoren aller Zeiten und übertrifft die AMD Ryzen 9-Serie.“ (M5 Max übertraf auch Multicore-Benchmarks)
@OpenMedFuture @kleisjager RT von @OpenMedFuture 05.03 18:22
Wij missen duiders zoals de Franse oud-minister van buitenlandse zaken Hubert Védrine: ‘Geen enkel conflict is ooit opgelost door het internationaal recht, die wereld heeft nooit bestaan. Maar men blijft er over doorgaan omdat postmoderne Europeanen het niet kunnen accepteren dat het een fictie is, het botst met hun diepste overtuigingen.’
🇬🇧 Translation
RT by @OpenMedFuture: Wij missen duiders zoals de Franse oud-minister van buitenlandse zaken Hubert Védrine: ‘The conflict is now open to the international law, the world is no longer valid. Maar men blijft er over doorgaan omdat postmoderne Europeanen het niet kunnen accepteren dat het a fictie is, het botst met hun diepste overtuigingen.’
@OpenMedFuture @Prince_Canuma RT von @OpenMedFuture 05.03 16:49
Coming to MLX-Video🚀
🇩🇪 Übersetzung
RT von @OpenMedFuture: Kommt zu MLX-Video🚀
@OpenMedFuture @MilkRoadAI RT von @OpenMedFuture 05.03 01:44
Apple’s AI plan is way DARKER and smarter than you think. And Gavin Baker just explained why. He says the real bear case for this AI boom isn’t a bubble or a recession. It’s your iPhone. Baker says in 3 years, a bulked up iPhone will be able to run a pruned version of a frontier model. Think future Gemini, Grok, ChatGPT at 30–60 tokens per second, on device, no cloud is needed and it’s free. That’s exactly Apple’s strategy, don’t win the model war, become the distributor of AI. Make it private, local and safe. If that happens, most everyday AI use rewriting, summarizing, basic reasoning never touches a data center. The AI capex boom gets cut off at the source. Model builders become interchangeable and apple owns the gateway. That’s the bear case Gavin is warning about. The real threat to the AI boom isn’t that the models fail. It’s that Apple makes them run on your phone and keeps all the power for itself.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Apples KI-Plan ist viel DUNKLER und intelligenter als Sie denken. Und Gavin Baker hat gerade erklärt, warum. Er sagt, der eigentliche Grund für diesen KI-Boom sei weder eine Blase noch eine Rezession. Es ist Ihr iPhone. Baker sagt, dass in drei Jahren auf einem größeren iPhone eine abgespeckte Version eines Grenzmodells laufen kann. Stellen Sie sich zukünftige Gemini, Grok, ChatGPT mit 30–60 Token pro Sekunde vor, auf dem Gerät ist keine Cloud erforderlich und es ist kostenlos. Das ist genau die Strategie von Apple: Gewinnen Sie nicht den Modellkrieg, sondern werden Sie zum Vertreiber von KI. Machen Sie es privat, lokal und sicher. Wenn das passiert, berühren die meisten alltäglichen KI-Anwendungen Umschreiben, Zusammenfassen und grundlegendes Denken nie ein Rechenzentrum. Der KI-Investitionsboom wird an der Quelle gestoppt. Modellbauer werden austauschbar und Apple besitzt das Gateway. Das ist der Bärenfall, vor dem Gavin warnt. Die eigentliche Bedrohung für den KI-Boom besteht nicht darin, dass die Modelle versagen. Es liegt daran, dass Apple sie auf Ihrem Telefon laufen lässt und die gesamte Leistung für sich behält.
@OpenMedFuture @openEHR RT von @OpenMedFuture 03.03 08:43
Have you ever found yourself stuck in Spain without electricity, connectivity or access to cloud services, and had to rely on #llama to find a hospital and navigate local healthcare? Well, @OpenMedFuture's Bart de Witte has... http://www.youtube.com/watch?v=Qz7ZKrVn2gc
🇩🇪 Übersetzung
RT von @OpenMedFuture: Sind Sie jemals in Spanien ohne Strom, Konnektivität oder Zugang zu Cloud-Diensten festgefahren und mussten sich auf #Lama verlassen, um ein Krankenhaus zu finden und sich im örtlichen Gesundheitswesen zurechtzufinden? Nun, Bart de Witte von @OpenMedFuture hat... http://www.youtube.com/watch?v=Qz7ZKrVn2gc
@OpenMedFuture 02.03 19:36
R to @OpenMedFuture: @christianmiele want to support us building this future? Would love to talk to you!
🇩🇪 Übersetzung
R an @OpenMedFuture: @christianmiele möchte uns beim Aufbau dieser Zukunft unterstützen? Würde mich freuen, mit Ihnen zu sprechen!
@OpenMedFuture 02.03 19:36
🌡️ Healthcare AI Revolution Unlocked – 📷 Manjeet Singh @8maderix just dropped the missing piece for privacy-first, distributed medical intelligence. This is the missing link for the decentralized, private, healthcare AI future we are building @isaree_ai and it's fits perfectly. Hospitals & researchers: your fleet of idle Macs just became a supercomputer for drug discovery, personalized medicine, and rare-disease models. Full neural network training + backpropagation now runs directly on Apple’s Neural Engine (M-series chips) The numbers are insane: M4 ANE hits roughly 6.6 TFLOPS per watt – 80 times more efficient than an NVIDIA A100. This isn’t hype. No more “inference-only” limitation.But here’s what matters most for healthcare:He explicitly links this to real distributed learning infrastructure Doctors, hospitals, research labs, and even home users can now earn up to 100× income from idle compute while keeping patient data 100 % on-device. Why this is massive for medicine: True federated learning for sensitive data (EHRs, imaging, genomics), never leaves the Mac, perfect HIPAA/GDPR compliance.
🇩🇪 Übersetzung
🌡️ KI-Revolution im Gesundheitswesen freigeschaltet – 📷 Manjeet Singh @8maderix hat gerade den fehlenden Teil für datenschutzorientierte, verteilte medizinische Informationen entfernt. Dies ist das fehlende Glied für die dezentrale, private KI-Zukunft im Gesundheitswesen, die wir @isaree_ai aufbauen, und es passt perfekt. Krankenhäuser und Forscher: Ihre Flotte unbenutzter Macs ist gerade zu einem Supercomputer für die Arzneimittelforschung, personalisierte Medizin und Modelle seltener Krankheiten geworden. Vollständiges neuronales Netzwerktraining + Backpropagation läuft jetzt direkt auf Apples Neural Engine (Chips der M-Serie) Die Zahlen sind der Wahnsinn: M4 ANE erreicht etwa 6,6 TFLOPS pro Watt – 80-mal effizienter als ein NVIDIA A100. Das ist kein Hype. Keine „nur schlussfolgernde“ Einschränkung mehr. Aber das Wichtigste für das Gesundheitswesen ist Folgendes: Er verknüpft dies ausdrücklich mit einer echten Infrastruktur für verteiltes Lernen Ärzte, Krankenhäuser, Forschungslabore und sogar Heimanwender können jetzt bis zu 100-fache Einnahmen aus ungenutzter Rechenleistung erzielen, während die Patientendaten zu 100 % auf dem Gerät verbleiben. Warum dies für die Medizin enorm ist: Echtes föderiertes Lernen für sensible Daten (EHRs, Bildgebung, Genomik), verlässt nie den Mac, perfekte HIPAA/GDPR-Konformität.
@OpenMedFuture 02.03 14:40
Is the future of aI decentralised?
🇩🇪 Übersetzung
Ist die Zukunft der KI dezentral?
@OpenMedFuture 02.03 12:32
The public debate Anthropic vs. the Pentagon is framed as an ethics story, A clean narrative. And it’s incomplete. Mass surveillance and autonomous weapons are the most visible part of this conflict, but It’s not about that, it's about who gets to shape what the AI can say/do/generate, ideological guardrails, public perception, influence operations, or "Constitutional AI" values. Saying Anthropic is playing a perfect PR coup, but thinking a $380B company that’s been fighting open source behind the scenes does this because of “ethics,” is like thinking an oil tanker offsets emissions by tweeting about sustainability.
🇩🇪 Übersetzung
Die öffentliche Debatte „Anthropic vs. the Pentagon“ ist als Ethikgeschichte angelegt, als klare Erzählung. Und es ist unvollständig. Massenüberwachung und autonome Waffen sind der sichtbarste Teil dieses Konflikts, aber darum geht es nicht, es geht darum, wer bestimmen darf, was die KI sagen/tun/erzeugen kann, ideologische Leitplanken, öffentliche Wahrnehmung, Einflussnahme auf Operationen oder Werte der „verfassungsmäßigen KI“. Zu sagen, dass Anthropic ein perfekter PR-Coup ist, aber zu denken, dass ein 380-Milliarden-Dollar-Unternehmen, das hinter den Kulissen gegen Open Source kämpft, dies aus „Ethik“ tut, ist, als würde man denken, ein Öltanker gleicht Emissionen aus, indem er über Nachhaltigkeit twittert.
@OpenMedFuture @MilkRoadAI RT von @OpenMedFuture 01.03 18:42
The CEO of a $380 billion AI company said something that should concern every developer, every startup, and every government on earth. He called open-source AI a "red herring." This is Dario Amodei, the man who runs Claude. His argument sounds technical but it's not and it's about money. Here's what he said: "I don't care whether a model is open source or not. The only thing I care about is, is it a good model?" Sounds reasonable, until you look at his books. 75% of Anthropic's $14 billion in revenue comes from one thing, charging companies per token to use Claude through an API. If enterprises could run their own models for free that revenue disappears. So when Amodei says open source "doesn't matter," what he means is, please don't look at open source. His technical argument, AI "open source" isn't real open source. You get the weights, just numbers not the actual source code and you can't see inside the model. Fair point but it misses the bigger picture. Companies running open source models don't need to see inside. They need three things, lower costs, data privacy, and freedom from vendor lock in. Open source somewhat delivers all three. A Berkeley study found open source AI models cost up to 90% less than closed APIs. Hospitals can keep patient data in house. Banks can meet compliance rules. Defense contractors don't send classified data to someone else's servers. Amodei brought up DeepSeek to prove his point. "I don't think it mattered that DeepSeek was open source," he said. But DeepSeek's release crashed Nvidia's stock by the biggest single day loss in market history and it mattered. Here's the pattern that keeps repeating in tech: Linux was a toy until it ran the internet. Android was "fragmented" until it owned 72% of mobile. Open source starts cheap, then it gets good, then it wins. Anthropic is posting record revenue. 500+ customers spending over $1M a year and 8 of the Fortune 10 on board. But so were BlackBerry and Sun Microsystems. So was every incumbent that dismissed the disruptor. The real question isn't whether open source is a red herring. But the real question is whether the man running a $380 billion closed source empire is the right person to ask.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Der CEO eines 380-Milliarden-Dollar-KI-Unternehmens sagte etwas, das jeden Entwickler, jedes Startup und jede Regierung auf der Welt betreffen sollte. Er nannte Open-Source-KI einen „Ablenkungsmanöver“. Das ist Dario Amodei, der Mann, der Claude leitet. Sein Argument klingt technisch, ist es aber nicht und es geht um Geld. Hier ist, was er sagte: „Es ist mir egal, ob ein Modell Open Source ist oder nicht. Das Einzige, was mich interessiert, ist, ist es ein gutes Modell?“ Klingt vernünftig, bis man sich seine Bücher ansieht. 75 % des Umsatzes von Anthropic in Höhe von 14 Milliarden US-Dollar stammen aus einer Sache: Den Unternehmen werden pro Token Gebühren für die Nutzung von Claude über eine API berechnet. Wenn Unternehmen ihre eigenen Modelle kostenlos betreiben könnten, würden diese Einnahmen verschwinden. Wenn Amodei also sagt, dass Open Source „keine Rolle“ spielt, meint er damit: Bitte schauen Sie nicht auf Open Source. Sein technisches Argument, KI „Open Source“ sei kein echtes Open Source. Sie erhalten die Gewichte, nur Zahlen, nicht den eigentlichen Quellcode, und Sie können nicht in das Modell hineinsehen. Das ist durchaus berechtigt, aber es geht am Gesamtbild vorbei. Unternehmen, die Open-Source-Modelle betreiben, müssen nicht nach innen schauen. Sie brauchen drei Dinge: niedrigere Kosten, Datenschutz und Freiheit von der Abhängigkeit von einem Anbieter. Open Source bietet in gewisser Weise alle drei. Eine Berkeley-Studie ergab, dass Open-Source-KI-Modelle bis zu 90 % weniger kosten als geschlossene APIs. Krankenhäuser können Patientendaten im eigenen Haus aufbewahren. Banken können Compliance-Regeln einhalten. Verteidigungsunternehmen senden keine geheimen Daten an die Server anderer Personen. Amodei erwähnte DeepSeek, um seinen Standpunkt zu beweisen. „Ich glaube nicht, dass es wichtig war, dass DeepSeek Open Source war“, sagte er. Aber die Veröffentlichung von DeepSeek ließ die Nvidia-Aktie mit dem größten Ein-Tages-Verlust in der Marktgeschichte abstürzen, und das war von Bedeutung. Hier ist das Muster, das sich in der Technik immer wieder wiederholt: Linux war ein Spielzeug, bis es das Internet betrieb. Android wurde „fragmentiert“, bis es 72 % der Mobilgeräte besaß. Open Source fängt billig an, wird dann gut und gewinnt dann. Anthropic verzeichnet Rekordumsätze. Über 500 Kunden geben mehr als 1 Million US-Dollar pro Jahr aus und 8 der Fortune 10 sind an Bord. Aber das gilt auch für BlackBerry und Sun Microsystems. Das galt auch für alle Amtsinhaber, die den Störer entlassen hatten. Die eigentliche Frage ist nicht, ob Open Source ein Ablenkungsmanöver ist. Aber die eigentliche Frage ist, ob der Mann, der ein Closed-Source-Imperium im Wert von 380 Milliarden US-Dollar leitet, die richtige Person ist.
@OpenMedFuture @greg16676935420 RT von @OpenMedFuture 01.03 17:23
I’ll never forget you, perfect February
🇩🇪 Übersetzung
RT von @OpenMedFuture: Ich werde dich nie vergessen, perfekter Februar
@OpenMedFuture @TheAhmadOsman RT von @OpenMedFuture 01.03 16:50
NEW OPENSOURCE MODELS INCOMING We're getting four new Qwen 3.5 models today > Qwen 3.5 9B > Qwen 3.5 4B > Qwen 3.5 2B > Qwen 3.5 0.8B Everybody is starting to say Buy a GPU ;)
🇩🇪 Übersetzung
RT von @OpenMedFuture: NEUE OPENSOURCE-MODELLE KOMMEN Wir bekommen heute vier neue Qwen 3.5-Modelle > Qwen 3,5 9B > Qwen 3,5 4B > Qwen 3,5 2B > Qwen 3,5 0,8B Jeder fängt an zu sagen: Kaufen Sie eine GPU ;)
@OpenMedFuture @RoundtableSpace RT von @OpenMedFuture 01.03 16:15
Qwen3.5-35B-A3B running locally on an M4 chip at 49.5 tokens per second. A 35B model. On a laptop. In real time. LOCAL AI IS GETTING SCARY FAST.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Qwen3.5-35B-A3B läuft lokal auf einem M4-Chip mit 49,5 Token pro Sekunde. Ein 35B-Modell. Auf einem Laptop. In Echtzeit. Die lokale KI wird schnell unheimlich.
@OpenMedFuture 28.02 20:42
Now that the bottleneck between idea an execution is disappearing, the idea might become the most valuable part of the whole digital value chain.
🇩🇪 Übersetzung
Da der Engpass zwischen Idee und Umsetzung nun verschwindet, könnte die Idee zum wertvollsten Teil der gesamten digitalen Wertschöpfungskette werden.
@OpenMedFuture 28.02 06:57
Hot take: Is the Anthropic-Pentagon “autonomous weapons” clash just a smokescreen? IMHO, it’s all about clamping down on information control. „Oppose us all you want. We’re the side that supports free speech and open debate. But don’t whine to the media that you’re being “targeted” when all we’ve done is articulate a policy disagreement.“ If the Pentagon really would be interested in building autonomous weapons it would likely bypass Anthropic entirely. This might be more about, preventing the military from modifying the model’s certain ideological viewpoints, rather than genuine ethical concerns over weaponry. far better-suited options for autonomous weapons development would be specialized defense tech companies with a track record in military AI and robotics.
🇩🇪 Übersetzung
Hot Take: Ist der Konflikt zwischen Anthropic und Pentagon um „autonome Waffen“ nur ein Vorwand? Meiner Meinung nach geht es vor allem darum, die Informationskontrolle einzuschränken. „Stellen Sie sich gegen uns, so viel Sie wollen. Wir sind die Seite, die freie Meinungsäußerung und offene Debatte unterstützt. Aber beschweren Sie sich nicht bei den Medien, dass Sie „ins Visier genommen“ werden, wenn wir doch nur eine politische Meinungsverschiedenheit artikuliert haben.“ Wenn das Pentagon wirklich daran interessiert wäre, autonome Waffen zu bauen, würde es Anthropic wahrscheinlich vollständig umgehen. Dabei geht es möglicherweise eher darum, das Militär daran zu hindern, bestimmte ideologische Standpunkte des Modells zu ändern, als um echte ethische Bedenken hinsichtlich der Bewaffnung. Weitaus besser geeignete Optionen für die Entwicklung autonomer Waffen wären spezialisierte Verteidigungstechnologieunternehmen mit einer Erfolgsbilanz in militärischer KI und Robotik.
@OpenMedFuture @kimmonismus RT von @OpenMedFuture 25.02 20:01
I love Karpathy's posts because they're so on point. He's not only a leading expert in his field, but he also manages to capture the zeitgeist with his statements. But this post is particularly impactful. Since December, (agentic) coding has undergone a significant transformation, one could even say a qualitative leap. Before, it was a matter of iterative improvements, but since the end of last year, it has demonstrated its true value in a completely different way. Or, in Karpathy's words: "It is hard to communicate how much programming has changed due to AI in the last 2 months: not gradually and over time in the "progress as usual" way, but specifically this last December. There are a number of asterisks but imo coding agents basically didn’t work before December and basically work since. (...) As a result, programming is becoming unrecognizable. You’re not typing computer code into an editor like the way things were since computers were invented, that era is over. You're spinning up AI agents, giving them tasks *in English* and managing and reviewing their work in parallel." Two points on this that need to be repeated again and again because they are often still misunderstood. 1) The very basic truth: this is the worst it will ever be. From here on out, things will get better. Even if the status quo were to remain as it is, it would be serious. But what we have today is the worst it will ever be. 2) The pace of progress is constantly increasing. It is exponential. And that's the crucial point: from December to February, more happened than in a very long time. And this trajectory will likely (almost certainly) continue. If points 1) and 2) are true, it is simply impossible to foresee and predict how this will affect society and all essential areas. As much as I welcome and approve of this, the near future is unpredictable. That's all I wanted to say.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Ich liebe Karpathys Beiträge, weil sie so auf den Punkt kommen. Er ist nicht nur ein führender Experte auf seinem Gebiet, sondern schafft es auch, mit seinen Aussagen den Zeitgeist zu treffen. Aber dieser Beitrag hat eine besondere Wirkung. Seit Dezember hat die (agentische) Codierung einen deutlichen Wandel, man könnte sogar sagen einen qualitativen Sprung, erlebt. Früher ging es um iterative Verbesserungen, doch seit Ende letzten Jahres zeigt es seinen wahren Wert auf ganz andere Weise. Oder, in Karpathys Worten: „Es ist schwer zu sagen, wie sehr sich die Programmierung in den letzten zwei Monaten durch die KI verändert hat: nicht allmählich und im Laufe der Zeit in der Art und Weise, wie es üblich ist, sondern speziell im letzten Dezember. Es gibt eine Reihe von Sternchen, aber meiner Meinung nach funktionierten Codierungsagenten grundsätzlich nicht vor Dezember und im Grunde genommen auch seitdem. (...) Infolgedessen wird die Programmierung nicht mehr wiederzuerkennen. Sie geben Computercode nicht mehr in einen Editor ein, wie es seit der Erfindung der Computer der Fall war, diese Ära ist vorbei. Sie starten KI-Agenten, ihnen Aufgaben *auf Englisch* zu geben und parallel ihre Arbeit zu verwalten und zu überprüfen.“ Dazu zwei Punkte, die immer wieder wiederholt werden müssen, weil sie oft noch immer missverstanden werden. 1) Die grundlegende Wahrheit: Das ist das Schlimmste, was es jemals geben wird. Von hier an wird es besser werden. Selbst wenn der Status quo so bleiben würde, wäre es ernst. Aber was wir heute haben, ist das Schlimmste, was es jemals geben wird. 2) Das Tempo des Fortschritts nimmt ständig zu. Es ist exponentiell. Und das ist der entscheidende Punkt: Von Dezember bis Februar ist so viel passiert wie schon lange nicht mehr. Und diese Entwicklung wird sich wahrscheinlich (mit ziemlicher Sicherheit) fortsetzen. Wenn die Punkte 1) und 2) zutreffen, ist es einfach unmöglich, vorherzusehen und vorherzusagen, welche Auswirkungen dies auf die Gesellschaft und alle wesentlichen Bereiche haben wird. So sehr ich dies begrüße und befürworte, die nahe Zukunft ist unvorhersehbar. Das ist alles, was ich sagen wollte.
@OpenMedFuture 25.02 19:08
Building Edge AI for health feels line developing for a 10 megapixel market whereas technology only supports 5 megapixel technology. From first principles, here are the necessary layers that must all mature together (none can be skipped): Layer 0: Physics/Compute substrate: Raw silicon efficiency. We need sustained 50–100+ TOPS at <5 W on phone-class devices (today’s best phones are ~15–25 TOPS peak, then throttle). Without this floor, everything else is theater. Layer 1: Model architecture & compression: Sparse/MoE + extreme quantization (1–4 bit) + distillation that keeps reasoning intact. Qwen3.5-35B-A3B or Nanbeige4.1-3B-bf16 are the first real proof-of-concept; we need this pattern scaled 5–10× in capability while staying laptop/phone-sized. Layer 2: Inference runtime & memory system: Zero-overhead engines (better than today’s llama.cpp / ExecuTorch / CoreML) + unified memory architecture so context + weights + KV cache all live without swapping. This is the “lens + sensor” equivalent. Layer 3: Multimodal fusion & real-time loop: Native vision + audio + sensor + tool-use in one forward pass at >30 Hz. When your phone can watch you cook, listen to your question, and control your smart home offline, the cloud tax becomes obvious. Layer 4: On-device memory + personal data flywheel: persistent long term memory + continual learning that actually improves with your data, not the world’s. This is the “film roll you own forever” layer. Layer 5: OS + UX integration AI becomes a first-class citizen like the camera app today. always-on, zero-friction, system-wide. No separate “AI app” you open probably no Phone Layer 6: Energy + thermal + reliability envelope: Must run for 8+ hours of mixed use. The moment users stop thinking “I’ll just use cloud for this” is the flip. When these six layers cross the threshold simultaneously (probably 2027–2028 at current trajectory), the switch flips: cloud becomes the expensive backup, not the default. so yes I am curious to see what @Apple will announce in September. The hype around openclaw should have given them enough confidence to double down on their current MLX and Core LM frameworks. Any other exciting developments out there?
@OpenMedFuture @karpathy RT von @OpenMedFuture 25.02 18:50
It is hard to communicate how much programming has changed due to AI in the last 2 months: not gradually and over time in the "progress as usual" way, but specifically this last December. There are a number of asterisks but imo coding agents basically didn’t work before December and basically work since - the models have significantly higher quality, long-term coherence and tenacity and they can power through large and long tasks, well past enough that it is extremely disruptive to the default programming workflow. Just to give an example, over the weekend I was building a local video analysis dashboard for the cameras of my home so I wrote: “Here is the local IP and username/password of my DGX Spark. Log in, set up ssh keys, set up vLLM, download and bench Qwen3-VL, set up a server endpoint to inference videos, a basic web ui dashboard, test everything, set it up with systemd, record memory notes for yourself and write up a markdown report for me”. The agent went off for ~30 minutes, ran into multiple issues, researched solutions online, resolved them one by one, wrote the code, tested it, debugged it, set up the services, and came back with the report and it was just done. I didn’t touch anything. All of this could easily have been a weekend project just 3 months ago but today it’s something you kick off and forget about for 30 minutes. As a result, programming is becoming unrecognizable. You’re not typing computer code into an editor like the way things were since computers were invented, that era is over. You're spinning up AI agents, giving them tasks *in English* and managing and reviewing their work in parallel. The biggest prize is in figuring out how you can keep ascending the layers of abstraction to set up long-running orchestrator Claws with all of the right tools, memory and instructions that productively manage multiple parallel Code instances for you. The leverage achievable via top tier "agentic engineering" feels very high right now. It’s not perfect, it needs high-level direction, judgement, taste, oversight, iteration and hints and ideas. It works a lot better in some scenarios than others (e.g. especially for tasks that are well-specified and where you can verify/test functionality). The key is to build intuition to decompose the task just right to hand off the parts that work and help out around the edges. But imo, this is nowhere near "business as usual" time in software.
🇩🇪 Übersetzung
RT von @OpenMedFuture: Es ist schwer zu sagen, wie sehr sich die Programmierung in den letzten zwei Monaten durch KI verändert hat: nicht schrittweise und im Laufe der Zeit im „Progress as Usual“-Stil, sondern konkret im letzten Dezember. Es gibt eine Reihe von Sternchen, aber meiner Meinung nach funktionierten die Codierungsagenten im Grunde genommen nicht vor Dezember und im Grunde genommen auch seitdem – die Modelle haben eine deutlich höhere Qualität, langfristige Kohärenz und Beständigkeit und können große und lange Aufgaben bewältigen, die weit über die Zeit hinausgehen, dass sie den Standard-Programmierworkflow extrem stören. Um nur ein Beispiel zu nennen: Am Wochenende habe ich ein lokales Videoanalyse-Dashboard für die Kameras meines Zuhauses erstellt, also habe ich geschrieben: „Hier ist die lokale IP und der Benutzername/das Passwort meines DGX Spark. Einloggen, SSH-Schlüssel einrichten, vLLM einrichten, Qwen3-VL herunterladen und testen, einen Server-Endpunkt zum Inferenzieren von Videos einrichten, ein einfaches Web-UI-Dashboard, alles testen, es mit systemd einrichten, Speichernotizen für sich selbst aufzeichnen und einen Markdown-Bericht für mich erstellen.“ Der Agent war ca. 30 Minuten unterwegs, stieß auf mehrere Probleme, recherchierte online nach Lösungen, löste sie einzeln, schrieb den Code, testete ihn, debuggte ihn, richtete die Dienste ein und kam mit dem Bericht zurück, und schon war es erledigt. Ich habe nichts angerührt. Vor drei Monaten hätte das alles noch ein Wochenendprojekt sein können, aber heute ist es etwas, das man anfängt und für 30 Minuten vergisst. Dadurch wird die Programmierung unkenntlich. Sie geben Computercode nicht wie seit der Erfindung des Computers in einen Editor ein, diese Ära ist vorbei. Sie starten KI-Agenten, geben ihnen Aufgaben *auf Englisch* und verwalten und überprüfen parallel ihre Arbeit. Der größte Gewinn besteht darin, herauszufinden, wie Sie die Abstraktionsebenen weiter erklimmen können, um langlebige Orchestrator-Claws mit den richtigen Tools, Speicher und Anweisungen einzurichten, die mehrere parallele Codeinstanzen produktiv für Sie verwalten. Die durch erstklassiges „Agenten-Engineering“ erreichbare Hebelwirkung scheint derzeit sehr hoch zu sein. Es ist nicht perfekt, es erfordert eine hochrangige Anleitung, Urteilsvermögen, Geschmack, Kontrolle, Wiederholung sowie Hinweise und Ideen. In einigen Szenarien funktioniert es viel besser als in anderen (z. B. insbesondere bei Aufgaben, die genau spezifiziert sind und bei denen Sie die Funktionalität überprüfen/testen können). Der Schlüssel liegt darin, die Intuition zu entwickeln, um die Aufgabe genau richtig zu zerlegen, um die funktionierenden Teile abzugeben und an den Rändern weiterzuhelfen. Aber meiner Meinung nach ist dies bei Software noch lange nicht die Zeit, in der alles so weitergeht wie bisher.
@OpenMedFuture 25.02 12:50
With my new startup we are building for a decentralised future of AI. Agree with Paul, that edge AI is still in its early stages. To investors I make the analogy with digital camera‘s. First when the technology reached 10 megapixels it disrupted the market. So in analogy to this, with edge AI we are at 6 Megapixel. Don‘t believe me? Think about this next time you download 300 hours of HD video‘s prior to leaving on a trip.
@OpenMedFuture @cerebras RT von @OpenMedFuture 24.02 01:16
Introducing ExomeBench: a benchmark for evaluating genomic models on disease-associated genetic variants, built in collaboration with with @MayoClinic. Most genomics benchmarks focus on general sequence modeling tasks. What remains under-evaluated is whether these models can answer clinically meaningful questions about genetic variants. That's why we built ExomeBench and are releasing it to the public: a benchmark for evaluating health-relevant variant interpretation in exome regions.
@OpenMedFuture 23.02 23:42
Another win for the open ecosystem in nedicine.
@OpenMedFuture @Shea_ARK RT von @OpenMedFuture 23.02 21:02
The FDA just made one of the most significant shifts in its evidentiary standards in decades—and it feels like a lot of people have slept on the news! The FDA will now default to ONE pivotal trial for drug approval, not two. The science of evaluating whether a drug works has advanced enormously. Today, development programs build evidence across multiple dimensions—mechanism of action, biomarker effects, intermediate endpoints—that collectively tell a more complete story. That body of confirmatory evidence, from mechanistic data to real-world evidence, can replace a second pivotal trial. We have historically seen more regulatory flexibility in rare diseases and oncology where need is acute. But the biggest impact we expect to see with the shift from two to one pivotal trial is likely to be in common conditions like cardiovascular and respiratory where the two pivotal trial dogma has been more entrenched. Potentially up to $350M in savings per program and years off timelines. And this might just be the start—could continuous trial designs that collapse the rigid phase structure be the next paradigm shift in clinical development?
🇩🇪 Übersetzung
RT von @OpenMedFuture: Die FDA hat gerade eine der bedeutendsten Änderungen ihrer Beweisstandards seit Jahrzehnten vorgenommen – und es fühlt sich an, als hätten viele Menschen bei den Nachrichten geschlafen! Die FDA wird nun standardmäßig EINE entscheidende Studie für die Arzneimittelzulassung verwenden, nicht zwei. Die Wissenschaft zur Beurteilung, ob ein Medikament wirkt, hat enorme Fortschritte gemacht. Heutzutage sammeln Entwicklungsprogramme Beweise über mehrere Dimensionen hinweg – Wirkmechanismus, Biomarker-Effekte, Zwischenendpunkte – die zusammen eine umfassendere Geschichte erzählen. Dieser Bestand an bestätigenden Beweisen, von mechanistischen Daten bis hin zu realen Beweisen, kann eine zweite entscheidende Studie ersetzen. Wir haben in der Vergangenheit eine größere regulatorische Flexibilität bei seltenen Krankheiten und der Onkologie gesehen, wo der Bedarf dringend ist. Die größte Auswirkung, die wir mit der Umstellung von zwei auf eine Zulassungsstudie erwarten, dürfte jedoch bei häufigen Erkrankungen wie Herz-Kreislauf- und Atemwegserkrankungen auftreten, bei denen das Dogma der beiden Zulassungsstudien stärker verankert ist. Potenziell bis zu 350 Millionen US-Dollar an Einsparungen pro Programm und Jahren außerhalb der Zeitpläne. Und das könnte erst der Anfang sein – könnten kontinuierliche Studiendesigns, die die starre Phasenstruktur auflösen, der nächste Paradigmenwechsel in der klinischen Entwicklung sein?