Arzneimittelentwicklung: Warum Innovation immer teurer wird – Eroom’s Law bei Small Molecules. Blog#249
Wir alle hoffen auf wirksamere und besser verträgliche Medikamente – gegen Krebs, Alzheimer, seltene Erkrankungen oder Volkskrankheiten wie Diabetes. Gleichzeitig wird die Entwicklung neuer Arzneimittel im Mittel immer langsamer, riskanter und teurer. Dieses Spannungsfeld beschreibt Eroom’s Law: Trotz rasanter Fortschritte bei Methoden, Daten und Technologie sinkt die Zahl der Neuzulassungen pro investiertem (inflationsbereinigtem) F&E-Dollar langfristig.
Kurzfazit
Zum Einstieg grenzen wir bewusst ein: Es geht hier ausschließlich um Small Molecules – also „klassische“ Wirkstoffe, häufig synthetisch hergestellt, oft oral verfügbar (nicht zwingend) und typischerweise über Bindung an Proteine wirksam (Enzyme, Rezeptoren, Transporter).
Vor diesem Hintergrund lautet die Leitfrage dieses Blogartikels Warum wird die Entwicklung eines Wirkstoffkandidaten trotz moderner Methoden im Mittel nicht effizienter, sondern zeit- und kostenintensiver – bei weiterhin hoher Wahrscheinlichkeit des Scheiterns (besonders in späten klinischen Phasen)?
Der Vergleich ist mehr als ein Wortspiel: Er zwingt zur Frage, warum Technologie-Fortschritt nicht automatisch klinischen Erfolg „skaliert“.
Im folgenden gehen wir durch drei Themenblöcke – und diskutieren, welche Probleme existieren und welche Hebel in der Praxis am meisten bringen.
Je besser etablierte Therapien werden (und je verfügbarer Generika), desto schwerer wird es, einen zusätzlichen klinisch relevanten Nutzen zu zeigen. Das führt zu kleineren Effektgrößen, engeren Subgruppen und häufig zu größeren, längeren und teureren Studien.
Problem B: Regulatorische Anforderungen steigen (Sicherheit, Evidenz, Datenqualität).
Nach sicherheitsrelevanten Ereignissen werden Anforderungen typischerweise verschärft – und selten im selben Ausmaß zurückgenommen. Das ist kein „Fehler“ der Behörden, sondern Ausdruck einer zu Recht sehr niedrigen Fehlertoleranz bei Arzneimitteln. Mehr Evidenz heißt in der Praxis: mehr Daten, mehr Dokumentation, mehr Studienlast.
Strategische Antwort: Das Spielfeld klug wählen und den Nutzen messbar machen.
Die wirksamste Reaktion auf eine höhere Messlatte ist nicht, einfach mehr zu investieren, sondern gezielter:
Potenz, Bindung, Target-Engagement und saubere präklinische Daten sind unverzichtbar – garantieren aber keinen klinischen Erfolg. Viele Programme scheitern an der Übersetzung vom Modell zur menschlichen Erkrankungsrealität: ungeeignete Krankheitsmodelle, Netzwerkkompensation, falsche Patientenselektion, unzureichende Exposition im Zielgewebe oder schlicht falsche Hypothesen.
In großen Datensätzen ist die Gesamtwahrscheinlichkeit, von frühen klinischen Phasen bis zur Zulassung zu kommen, niedrig; der kritische Punkt liegt oft dort, wo Wirksamkeit im Menschen erstmals belastbar gezeigt werden muss.
Strategische Antwort: Translation vor der großen Studie erzwingen – und früh entscheiden.
Wenn der Engpass nicht „Ideenmangel“, sondern klinische Validierung/Translation ist, führt „mehr Screening, mehr Targets, mehr Programme“ vor allem zu mehr späteren Abschreibungen.
Strategische Antwort: Organisiert lernen – und Daten wirklich nutzbar machen.
Die wichtigsten Treiber sind eine steigende externe Messlatte (Standardtherapie, Regulierung) und eine interne wissenschaftliche Hürde (Translation/Prädiktion), verstärkt durch Systemdynamiken („mehr Projekte“ ohne Lerngewinn).
Die wirksamsten Hebel liegen in robuster früher Evidenz, humanrelevanterer Translation, klaren Eintrittskriterien in teure Phasen und konsequentem Lernen aus Fehlschlägen.
Im nächsten Blogbeitrag betrachte ich die Entwicklung als Filterkaskade von Discovery über Präklinik bis Phase I–III: Wo gehen Projekte typischerweise verloren – und welche frühen Messgrößen erhöhen die Erfolgswahrscheinlichkeit am stärksten?
- Fokus dieser “Blog-Serie”: Small Molecules (hier definiert als kleine organische Wirkstoffe < 800 Dalton).
- Eroom’s Law: Die Zahl neu zugelassener Wirkstoffe pro investierter F&E-Summe halbiert sich grob alle ~9 Jahre; für 1950–2010 wird ein Rückgang um etwa Faktor ~80 berichtet.
- Im Schnitt kostet die Entwicklung eines Medikaments bis zur Zulassung rund 2,2 Mrd. US-Dollar – inklusive Fehlschläge. Bei komplexen Indikationen liegt der Betrag oft deutlich höher.
- Kernmechanismus: Nicht „zu wenig Ideen“, sondern zu viel späte Unsicherheit: Klinische Fehlschläge – besonders dort, wo Wirksamkeit im Menschen erstmals sauber belegt werden muss – dominieren Zeit und Kosten.
- Hebel: Produktivität steigt vor allem durch bessere frühe Evidenz, bessere Translation und konsequente frühe Entscheidungen – nicht durch kosmetische Effizienzgewinne im Labor.
Arzneimittelentwicklung ist eine Filterkaskade – kein Fließband
Arzneimittelentwicklung funktioniert wie eine Reihe harter Filter: Von vielen Kandidaten schaffen es nur wenige in die Klinik – und noch weniger bis zur Zulassung. Wer nur die wenigen „Sieger“ betrachtet, unterschätzt zwangsläufig die Systemlogik. Wer dagegen versteht, warum Programme scheitern, versteht auch, warum Innovation teuer ist.Zum Einstieg grenzen wir bewusst ein: Es geht hier ausschließlich um Small Molecules – also „klassische“ Wirkstoffe, häufig synthetisch hergestellt, oft oral verfügbar (nicht zwingend) und typischerweise über Bindung an Proteine wirksam (Enzyme, Rezeptoren, Transporter).
Vor diesem Hintergrund lautet die Leitfrage dieses Blogartikels Warum wird die Entwicklung eines Wirkstoffkandidaten trotz moderner Methoden im Mittel nicht effizienter, sondern zeit- und kostenintensiver – bei weiterhin hoher Wahrscheinlichkeit des Scheiterns (besonders in späten klinischen Phasen)?
Eroom’s Law: „Moore’s Law“ – nur rückwärts
Moore’s Law steht sinnbildlich für exponentielle Effizienzgewinne in der Halbleitertechnik. In der Pharmabranche beobachtet man das Gegenmuster: Eroom’s Law (Eroom ist Moore rückwärts gelesen!) beschreibt die sinkende F&E-Effizienz, gemessen als Zahl der Zulassungen pro investierter F&E-Summe. In der häufig zitierten Analyse von Scannell et al. (Link) wurde eine Halbierung etwa alle neun Jahre und ein Rückgang um rund Faktor 80 (im Zeitraum 1950–2010, inflationsbereinigt) beschrieben.Der Vergleich ist mehr als ein Wortspiel: Er zwingt zur Frage, warum Technologie-Fortschritt nicht automatisch klinischen Erfolg „skaliert“.
Warum sinkt die F&E-Effizienz? Drei Problemblöcke – und die passenden Antworten
Der Mechanismus ist nüchtern: Kosten werden vom Scheitern dominiert. Wenn klinische Studien teurer werden, die Messlatte steigt und die Erfolgswahrscheinlichkeit nicht im gleichen Maß zunimmt, fällt die Effizienz zwangsläufig.Im folgenden gehen wir durch drei Themenblöcke – und diskutieren, welche Probleme existieren und welche Hebel in der Praxis am meisten bringen.
Block 1: Externe Messlatte – Standardtherapie und Regulierung
Problem A: Die Vergleichshürde steigt (Standard of Care als „Konkurrenz“).Je besser etablierte Therapien werden (und je verfügbarer Generika), desto schwerer wird es, einen zusätzlichen klinisch relevanten Nutzen zu zeigen. Das führt zu kleineren Effektgrößen, engeren Subgruppen und häufig zu größeren, längeren und teureren Studien.
Problem B: Regulatorische Anforderungen steigen (Sicherheit, Evidenz, Datenqualität).
Nach sicherheitsrelevanten Ereignissen werden Anforderungen typischerweise verschärft – und selten im selben Ausmaß zurückgenommen. Das ist kein „Fehler“ der Behörden, sondern Ausdruck einer zu Recht sehr niedrigen Fehlertoleranz bei Arzneimitteln. Mehr Evidenz heißt in der Praxis: mehr Daten, mehr Dokumentation, mehr Studienlast.
Strategische Antwort: Das Spielfeld klug wählen und den Nutzen messbar machen.
Die wirksamste Reaktion auf eine höhere Messlatte ist nicht, einfach mehr zu investieren, sondern gezielter:
- Indikations- und Portfoliostrategie: Fokus auf Bereiche mit hohem medizinischem Bedarf, klarer Biologie und besser trennbarem Signal-zu-Rauschen (z. B. biomarkergetriebene Teilpopulationen; teils auch seltene Erkrankungen).
- Endpunkte/Patientenselektion: Von Anfang an so planen, dass der erwartete Zusatznutzen gegenüber Standardtherapie robust nachweisbar ist (geeignete Endpunkte, Biomarker, genetisch bedingte Erkrankungen).
Block 2: Interne wissenschaftliche Hürde – Translation und begrenzte Vorhersagekraft
Problem: Frühe Messgrößen sind notwendig, aber nicht hinreichend.Potenz, Bindung, Target-Engagement und saubere präklinische Daten sind unverzichtbar – garantieren aber keinen klinischen Erfolg. Viele Programme scheitern an der Übersetzung vom Modell zur menschlichen Erkrankungsrealität: ungeeignete Krankheitsmodelle, Netzwerkkompensation, falsche Patientenselektion, unzureichende Exposition im Zielgewebe oder schlicht falsche Hypothesen.
In großen Datensätzen ist die Gesamtwahrscheinlichkeit, von frühen klinischen Phasen bis zur Zulassung zu kommen, niedrig; der kritische Punkt liegt oft dort, wo Wirksamkeit im Menschen erstmals belastbar gezeigt werden muss.
Strategische Antwort: Translation vor der großen Studie erzwingen – und früh entscheiden.
- Humanrelevante Modelle: Systeme, die menschliche Biologie besser abbilden, plus realistische PK/PD-Translation und prädiktivere Sicherheitsassays.
- Klare Eintrittskriterien in teure Phasen: Vor großen Studien sollte ein Programm nachvollziehbar belegen: belastbare Target-Evidenz (idealerweise genetisch/klinisch), Target-Modulation im relevanten Gewebe, plausibles therapeutisches Fenster, passende Population und Endpunkte.
- Früher Proof-of-Concept + konsequentes Go/No-Go: Kleine, mechanistisch abgesicherte PoC-Studien sind teuer – aber im Vergleich zu späten Fehlschlägen extrem kosteneffizient.
Block 3: Systemdynamik – „mehr Projekte“ löst das Engpassproblem nicht
Problem: Mehr Programme erhöhen nicht automatisch die Erfolgsrate.Wenn der Engpass nicht „Ideenmangel“, sondern klinische Validierung/Translation ist, führt „mehr Screening, mehr Targets, mehr Programme“ vor allem zu mehr späteren Abschreibungen.
Strategische Antwort: Organisiert lernen – und Daten wirklich nutzbar machen.
- Developability und Kandidatenqualität: Nicht jedes potente Molekül ist ein entwickelbarer Arzneistoff. Mindestkriterien (Löslichkeit, Permeabilität, Metabolismus, Sicherheitsrisiken, Herstellbarkeit) müssen konsequent frühe Entscheidungen treiben.
- Strukturiertes Lernen aus Fehlschlägen: Scheitergründe systematisch erfassen, Muster erkennen und Kriterien/Studiendesigns iterativ verbessern.
- KI/Modelle – aber validiert und im Geltungsbereich: Datengetriebene Methoden können helfen, Risikomuster und Subgruppen zu erkennen, wenn Validierung, Bias-Kontrolle und Applicability Domain sauber sind.
Warum das außerhalb der Branche relevant ist
Eroom’s Law ist keine interne Industrie-Kennzahl, sondern hat direkte Konsequenzen:- Für Patienten: Langsamere Innovation bedeutet späteren Zugang zu dringend benötigten Therapien – besonders dort, wo es heute noch keine oder nur unzureichende Behandlungen gibt.
- Für Gesundheitssysteme: Wenn Entwicklung teurer wird, steigt der Druck auf Preise, Erstattungslogik und Priorisierung – mit Verteilungskonflikten, die am Ende gesellschaftlich ausgetragen werden.
- Für den wissenschaftlichen Fortschritt: Hohe Kosten verstärken Risikoaversion: Es wird attraktiver, „sichere“ inkrementelle Projekte zu machen, während wirklich neue Ansätze schwerer zu finanzieren sind.
Zusammenfassung und Ausblick
Eroom’s Law beschreibt eine robuste Langzeitbeobachtung: weniger Neuzulassungen pro F&E-Dollar trotz besserer Werkzeuge und Daten.Die wichtigsten Treiber sind eine steigende externe Messlatte (Standardtherapie, Regulierung) und eine interne wissenschaftliche Hürde (Translation/Prädiktion), verstärkt durch Systemdynamiken („mehr Projekte“ ohne Lerngewinn).
Die wirksamsten Hebel liegen in robuster früher Evidenz, humanrelevanterer Translation, klaren Eintrittskriterien in teure Phasen und konsequentem Lernen aus Fehlschlägen.
Im nächsten Blogbeitrag betrachte ich die Entwicklung als Filterkaskade von Discovery über Präklinik bis Phase I–III: Wo gehen Projekte typischerweise verloren – und welche frühen Messgrößen erhöhen die Erfolgswahrscheinlichkeit am stärksten?
_____________________________________________________________________________
Verantwortlicher: Klaus Rudolf; Kommentare und Fragen bitte an: rudolfklausblog@gmail.com
Auf diesem Blog teile ich meine persönlichen Meinungen und Erfahrungen . Es ist wichtig zu betonen, dass ich weder Arzt noch Finanzberater bin. Jegliche Informationen, die ich in meinem Blog vorstelle, stellen weder Anlageempfehlungen noch Therapieempfehlungen dar. Für fundierte Entscheidungen in Bezug auf Gesundheitsfragen oder Finanzanlagen empfehle ich, sich umfassend zu informieren und bei Bedarf einen professioniellen Experten zu konsultieren.