Information zur Simulation der Coronavirus Covid-19 Pandemie

  1. Motivation
  2. Wie kann die Simulation dabei helfen?
  3. Definitionen
  4. Was ist das Problem?
  5. Daten
  6. Simulationsablauf und Bedienung
  7. Beispiele
  8. Modell
  9. Modell der Datenerhebung

Motivation

Diese interaktive Simulation und Datenvisualisierung soll folgendes verdeutlichen:

Update Oktober 2020: Obiger Text wurde im April 2020 formuliert. Nun dringen die dort gemachten Bemerkungen langsam ins allgemeine Bewusstsein, insbesondere die Verzerrung der wahrgenommenen Lage durch Erhöhung der Testrate: Der vom RKI berechnete R-Wert, der eigentlich ein intrinsischer Parameter der Infektionsdynamik sein sollte, hängt von der Testrate und ihrer Veränderung ab, was offensichtlich widersinnig ist.

Wie kann die Simulation dabei helfen?

Allen Covid-19-Modellen und Simulationen (und übrigens auch allen Klimamodellen und deren Simulationen) ist gemeinsam, dass sie keine Prognosen ermöglichen. Sehr wohl möglich ist aber eine Szenarienanalyse, also eine bedingte Projektion in die Zukunft, etwa folgender Art:

"wenn zum Zeitpunkt T durch die Implementierung oder Unterlassung von Maßnahmen oder durch das Wetter die Reproduktionszahl R0 einen gewissen Wert erreicht, die Durchseuchung X so und so ist, der Infektionszeitraum zwischen 3 und 7 Tagen nach der Infektion liegt, dopplt so viel getestet und wie bisher medizinisch behandelt wird (gleiche infection fatality rate), dann wird es in Woche A eine Zahl B an neuen Positivtests sowie C reale Neuinfektionen geben sowie in Woche D eine Zahl E an Covid-19-Toten."

Um es (angeblich) mit Mark Twain zu sagen:


Prognosen sind schwierig,
vor allem, wenn sie die Zukunft betreffen.


Dennoch kann die Simulation wichtige Hinweise geben, wie zu handeln ist und vor allem welche Untersuchungen wichtig wären: Wie hoch ist die Durchseuchung bzw die Dunkelziffer?, wie hoch sind die Testfehler der verschiedenen Tests?

Definitionen

Um die Simulation und die allgemeine Corona-Problematik zu verstehen, ist es wichtig, Folgendes zu unterscheiden:

Was ist das Problem?

Mit wenig Ungenauigkeit bekannt sind die primär veröffentlichten Größen xt, yt, zt sowie nt. Daraus können alle Größen mit Subskript "t" sowie die CFR ohne große systematische Fehler abgeleitet werden. Allerdings will man zur Beurteilung des weiteren Infektionsverlauf und davon abhängige politische Entscheidungen die realen Größen wissen, also die ohne "t". Dummerweise sind allein die Todesfälle Z bzw. z angenähert bekannt. Für die wichtigsten vier Größen ist abgesehen von R jedoch nicht einmal die Größenordnung bekannt: Warum sind diese Größen trotz aller Tests unbekannt? Um die IFR und x und damit die Durchseuchung X abzuschätzen, benötigt man den Hellfeldanteil H, also den Anteil aller Infizierten, die auch getestet werden. Falls zusätzlich die Tests perfekt sind, könnte man zumindest etwas verzögert (s.u.) die realen Größen (ohne Subskript 't') durch

x(t-τT) = xt(t)/H,     IFR(t-τT) =H CFR(t)     usw.

schätzen und damit auch X und R bzw R0. Leider sind weder die Tests perfekt noch bekannt, welcher Anteil der Infizierten getestet wird. In der Simulation mache ich bezüglich der Tests folgende Annahmen (Modell-Annahmen weiter unten):

Daten

Es werden zwei allgemein zugängliche Datenquellen verwendet:
  1. Täglich aktualisierte, kompakte Zeitreihen, synthetisiert von Rodrigo Pombo, die direkt live geladen werden,
  2. weitergehende, ebenfalls täglich aktualisierte Daten des Our World in Data (OWiD) Projekts, welche auch Informationen über die Testhäufigkeiten enthalten. Diese Datenquelle ist aber zu groß, um sie life zu laden. Sie wird deshalb serverseitig extrahiert und Redundanzen eliminiert, um nur die relevanten Informationen laden zu müssen.

Simulationsablauf und Bedienung

Gezeigt wird anfänglich die Situation in Deutschland bis zur Gegenwart (mit kann man dann weiter simulieren), und zwar die Ansicht "Simulation+Daten": tägliche Simulationsergebnisse im Vergleich zu den hinterlegte Daten. Es sind aber auch noch Bei Aufruf der Seite wird die Simulation zunächst bezüglich der wöchentlichen Reproduktionszahl anhand der kumulierten Positivenzahlen Xt kalibriert ("gefittet") und anschließend durch Variation der simulierten IFR in fünf Perioden an die kumulierten Todesfallzahlen gefittet, indem die Fehlerquadrate minimiert werden. Die Simulation startet am 8. März, also etwa eine Woche vor den ersten Lockdown-Maßnahmen. Für das Stoppen und Wiederholen der Simulation gibt es drei Eskalationsstufen: Die weiteren Bedienelemente der Simulation sind die folgenden:

Beispiele

  1. Szenario "Unverändert": Drücken Sie nach dem Stopp der Simulation auf und stoppen Sie die Simulation nach einigen Monaten bzw. wenn im Falle von R0 > 1 die Infektionsspitze erreicht ist. Schlussfolgerung: Sie sehen, dass fast überall höhere Fallzahlen prognostiziert werden (in Deutschland sogar die berühmten knapp 20 000 zu Weihnachten), in kaum einen Land aber die Todesfallzahlen vom Frühjahr erreicht werden. Ferner ist die Pandemie im Frühjahr fast überall vorbei, in einigen Ländern wie Schweden schon eher (beachten Sie aber Mark Twain).

  2. Szenario "Sensitivitätsanalyse bezüglich R0": Lassen Sie die Simulation mit neu laufen bis zur Gegenwart, verändern Sie nun den R-Wert um einen kleinen Betrag, z.B. von 1.15 auf 1.05 und lasen Sie die Simulation mit weiterlaufen. Sie werden ganz andere Ergebnisse erhalten, z.B. in Deutschland eine Abnahme der Neuinfektionen und kaum noch Todesfälle (auch wenn R0 > 1 ist, können die tägliche Fallzahlen nach unten gehen, wenn eine hinreichende Durchseuchung I erreicht ist so dass R = R0 (1-I) < 1 ). Schlussfolgerung: Einzig mit dem geschätzten R-Wert weiterzusimulieren ist komplett unseriös, da Unsicherheiten in R von 0.1 zu um den Faktor 10 unterschiedlichen Peaks führen können. Eine Aussage wie "zu Weihnachten wird es 19 600 Fälle pro Tag geben" lässt auf mangelndes Modellversändnis (oder eine Agenda) schließen!

  3. Szenario "Lockdown": Am besten die Ansicht Simulation+Daten oder Daten: Tests wählen und mit Kalibriere neu! die R-Werte neu bis zur Gegenwart fitten. Dann, als Folge der Lockdown-Maßnahme, den R-Wert deutlich unter 1, z.B. 0.8, schieben und weitersimulieren. Während die tatsächlichen Nuinfektionen sofort sinken (Test-Ansicht), folgen die gemessenen positiven Fallzahlen zunächst eine Woche den bisherigen Trend, ehe auch sie sinken. In der kumulierten Ansicht Simulation (kum), in der nur simulierte Messungen gezeigt werden, erkennt man eine Woche lang überhaupt keine Wirkung. Wie die Situation wirklich aussieht, erkennt man in der Simulation (log) Ansicht: Insbesondere fällt die tatsächliche Neuinfektionsrate geradlinig nach unten, was einem exponentiellen Abfall enstpricht. Schlussfolgerung: die Folgen von Eingriffen in das Infektionsgeschehen kann man nur verzögert beobachten/messen

  4. Szenario "Sensitivitätsanalyse: Änderung des Infektionszeitraums oder der Testverzögerung": Der mit den zweiten und dritten Regler einstellbare Infektionszeitraum ist neben dem R-Wert der wichtigste Parameter der Infektionsdynamik. Wie beeinflusst er die R-Schätzung? Stellen Sie zunächst mit Reset , den Ausgangszustand her und merken sich die geschätzten R-Werte. Ändern Sie nun den Zeitraum, z.B. Ansteckungsstart 6 Tage statt 1 Tag nach der eigenen Infektion und drücken Sie Kalibriere neu!: Je kleiner der mittlere Ansteckungstag ist, desto näher sind die R-Schätzungen um 1, die Ereignisse "R-Werte oberhalb 1" bzw "unterhalb" sind aber robust. Auch die Prognose "Unverändert" (einfach weitersimulieren in der Ansicht "Tests") ändert sich, oft aber erstaunlich wenig. Hier sieht man deutlich, dass die aus den Daten geschätzten R-Werte weit von den realen Werten der Infektionsdynamik entfernt sein können und zwar sowohl von R0 (mittlere Zahl der Ansteckungen pro Person ohne Immunität) als auch von R (mit Teilimmunität)

  5. Szenario "Änderung der Testrate": Stellen Sie zunächst mit Reset , den Ausgangszustand her, verschieben Sie den Hellfeld-Regler auf das Maximum und kalibrieren Sie neu. In der Ansicht Simulation+Daten sehen Sie nichts, da dort nur (reale oder simulierte) Beobachtungen zu sehen sind und die Simulationsparameter, inbesondere die R-Werte, an die neue angenommene Situation angepasst wurden. Simulieren Sie mit weiter, sehen Sie einen viel drastischeren Verlauf als vorher. Wiederholen Sie das Ganze mit der minimalen Hellfeld-Einstellung und Sie sehen in der Zukunftsprojektion ein Ende der Epidemie in wenigen Wochen obwohl sich bis zur Gegenwart nichts geändert hat! Warum?
       Dazu sehen Sie in den anderen Ansichten nach, in der logarithmischen sehen Sie beispielsweise eine im Fall eines geringeren Hellfeldes höhere Durchseuchung und in den anderen Ansichten höhere tägliche tatsächliche Infektionsraten. Klar: Um bei einem geringeren Hellfeld auf die beobachteten Fallzahlen zu kommen, müssen mehr infiziert werden! Die Projektionen hängen also stark vom angenommenen Hellfeld ab!

  6. Szenario "dynmische Erhöhung der Testrate": Dieses wichtige Szenario zeigt, wie man allein durch eine zeitlich veränderliche Testrate zu völlige falsche Schlussfolgerungen kommen kann! Stellen Sie das Hellfeld auf mittlere Werte (durch Nutzung des Reglers wird die automatische Testzahlkorrektur ausgeschaltet) und kalibrieren Sie neu. Erhöhen oder erniedrigen Sie nun während der Simulation in der Ansicht Simulation+Daten oder Simulation (kum) das Hellfeld und sehen Sie, was passiert! Allein durch erhöhtes Testen kann man bei stabilen realen Infektionsgeschehen einen Neuanstieg ("zweite Welle") vortäuschen, der einen möglicherweise realen Anstieg kaschiert!

Modell

Simuliert wird ein makroskopisches Standard-Infektionsausbreitungsmodell, was dem SEIR-Modell ähnlich ist, aber Latenzen wie zwischen Ansteckung und Infektiosität explizit durch Delay-Terme statt durch gewöhnliche Differentialgleichungen beschreibt:

Modell der Datenerhebung

Dies betrachte ich als Unique Selling Point meines Simulators

  • Der Test hat eine Sensitivität von 1-α mit α=2% und eine Spezifizität von 1-β mit der false Positive Rates (β-Fehler) β=0.3% Dadurch ergibt sich nach dem Satz von Bayes eine Wahrscheinlichkeit dafür, dass ein Test positiv ausfällt, von

    P(positiv) = p(1-α) + (1-p) β,         p = H x / nt,

    wobei p der wahre Anteil an Infizierten unter den Testpersonen ist und x die wahre Zahl der testrelevanten Infizierten. Die Positivenzahl xt=ntP(positiv) ist dann letztendlich die zu fittende Größe.

  • Getestet wird τT±2 Tage nach der Infektion.

  • Wird die Testrate während der Simulation verändert, bezieht sich dies nur auf neue Tests. Wird beispielsweise zum Zeitpunkt t das Hellfeld von 10% auf 20% erhöht, ist dies nur für die danach getesteten relevant.

  • Bei den Toten ist die Dunkelziffer gleich null, d.h. jeder an Covid19 Gestorbene wird entweder während der Krankheit oder danach durch Autopsie getestet.
    Impressum