Zum Hauptinhalt springen

Die stochastische Decke: Wahrscheinliche Byzantinische Grenzen beim Skalieren von Netzwerken

· 11 Min. Lesezeit
Großinquisitor bei Technica Necesse Est
Werner Stolpersprach
Exekutiv Stolpersprache
Vorstand Banshee
Exekutiv Bansheevorstand
Krüsz Prtvoč
Latent Invocation Mangler

Featured illustration

Einleitung: Die Illusion der Skalierung in verteilten Systemen

Bei der Gestaltung verteilter Konsensprotokolle – insbesondere solcher, die Blockchain-Systeme antreiben – hat lange eine grundlegende Annahme Gültigkeit: Mehr Knoten gleich mehr Sicherheit. Diese Intuition, tief in der Architektur öffentlicher Blockchains wie Ethereum und Bitcoin verankert, suggeriert, dass eine Erhöhung der Anzahl beteiligter Knoten das Risiko von Kollusion oder bösartigem Verhalten verringert. Doch diese Annahme ist mathematisch fehlerhaft, wenn man sie durch die Linse der stochastischen Zuverlässigkeitstheorie betrachtet.

Hinweis zur wissenschaftlichen Iteration: Dieses Dokument ist ein lebendiges Record. Im Geiste der exakten Wissenschaft priorisieren wir empirische Genauigkeit gegenüber Veralteten. Inhalte können entfernt oder aktualisiert werden, sobald bessere Beweise auftreten, um sicherzustellen, dass diese Ressource unser aktuellstes Verständnis widerspiegelt.

Die Realität ist grausamer: Mit steigender Anzahl von Knoten n nimmt auch die Wahrscheinlichkeit zu, dass eine kritische Schwelle an bösartigen oder kompromittierten Knoten erreicht wird – besonders wenn die individuelle Komprimierungs-Wahrscheinlichkeit p nicht null ist. Dies erzeugt ein Vertrauensmaximum, einen Punkt, ab dem das Hinzufügen weiterer Knoten die Systemsicherheit verringert, statt sie zu verbessern. Dieses Phänomen steht im direkten Widerspruch zur klassischen Byzantinischen Fehlertoleranz (BFT)-Anforderung von n ≥ 3f + 1, wobei f die maximale Anzahl tolerierbarer fehlerhafter Knoten ist.

Dieses Whitepaper analysiert dieses Paradoxon mittels probabilistischer Modellierung, empirischer Daten aus realen Knotenverteilungen und strategischen Implikationen für Protokollentwickler. Wir zeigen, dass das Streben nach Skalierung ohne Rücksicht auf Knotenqualität oder Vertrauensverteilung nicht nur ineffizient ist – es ist aktiv gefährlich. Das Ziel ist nicht, Knoten zu minimieren, sondern die Vertrauensdichte zu optimieren.

Die BFT-Grundlage: Eine deterministische Annahme in einer stochastischen Welt

Byzantinische Fehlertoleranz (BFT)-Protokolle wie PBFT, Tendermint und HotStuff basieren auf einem deterministischen Modell: Bei n Gesamtknoten kann das System bis zu f = ⌊(n−1)/3⌋ byzantinische (bösartige oder fehlerhafte) Knoten tolerieren. Diese Formel ist mathematisch elegant und unter der Annahme bewiesen, dass f vorab bekannt und begrenzt ist.

Doch hier liegt der kritische Fehler: BFT geht von einem festen, adversarial kontrollierten f aus. Es modelliert nicht, wie f stochastisch aus einer Population von Knoten mit unabhängigen Ausfallwahrscheinlichkeiten entsteht.

In realen Implementierungen – besonders öffentlichen, berechtigungsfreien Blockchains – ist die Wahrscheinlichkeit p, dass ein beliebiger Knoten kompromittiert wird (aufgrund schlechter Sicherheitspraxis, wirtschaftlicher Anreize, Eingriff von staatlichen Akteuren oder Botnetz-Kompromittierung), nicht null. Sie ist messbar, persistent und wachsend.

Betrachten wir ein einfaches Beispiel:

  • In einem 10-Knoten-Netzwerk mit p = 0,05 (5 % Wahrscheinlichkeit, dass ein Knoten bösartig ist), beträgt die Wahrscheinlichkeit, dass f ≥ 3 (d. h., mehr als ein Drittel der Knoten kompromittiert sind) etwa 1,2 %.
  • In einem 100-Knoten-Netzwerk mit derselben p=0.05p = 0.05 beträgt die Wahrscheinlichkeit, dass f34f \geq 34 (erforderlich, um BFT zu brechen) ca. 1,8 % – noch niedrig, aber steigend.
  • In einem 500-Knoten-Netzwerk mit p=0.05p = 0.05 beträgt die Wahrscheinlichkeit, dass f167f \geq 167 ca. 23 %.
  • Bei n=1,000n = 1,000 und p=0.05p = 0.05 beträgt die Wahrscheinlichkeit, f=332f = 332 zu überschreiten, ca. 68 %.

Dies ist kein theoretischer Sonderfall. Es ist das unvermeidliche Ergebnis der binomialen Wahrscheinlichkeit:

XBinomial(n,p)X \sim \mathrm{Binomial}(n, p), wobei XX die Anzahl bösartiger Knoten ist.
Mit zunehmendem nn \to \infty wächst der Erwartungswert E[X]=npE[X] = np linear.
Die Wahrscheinlichkeit, dass X>n/3X > n/3 gegen 1 konvergiert, wenn p>1/3p > 1/3.
Aber entscheidend: Selbst wenn p<1/3p < 1/3, steigt die Wahrscheinlichkeit, dass X>n/3X > n/3 mit nn, bis sie einen Höhepunkt erreicht – und dann plateauartig wird.

Dies ist das Vertrauensmaximum: der Punkt, an dem das Erhöhen von n nicht länger die Wahrscheinlichkeit eines Systemausfalls verringert, sondern sie erhöht.

Der binomiale Zusammenbruch: Modellierung von Boshaftigkeit als Zufallsvariable

Lassen Sie uns das Problem formalisieren.

Definieren:

  • nn: Gesamtanzahl der Knoten im Netzwerk
  • pp: Wahrscheinlichkeit, dass ein einzelner Knoten kompromittiert ist (bösartig oder nicht-antwortend)
  • ff: Anzahl von Byzantinischen Knoten, die vom Protokoll toleriert werden
  • B(n,p)B(n, p): Binomialverteilung, die Anzahl bösartiger Knoten modelliert

Das System scheitert, wenn die Anzahl der bösartigen Knoten Xf+1X \geq f+1, wobei f=(n1)/3f = \lfloor(n-1)/3\rfloor.
Wir definieren die Wahrscheinlichkeit des Systemausfalls als:

Pfail(n,p)=P(X(n1)/3+1XBinomial(n,p))P_{fail}(n, p) = P(X \geq \lfloor(n-1)/3\rfloor + 1 | X \sim \mathrm{Binomial}(n, p))

Diese Funktion ist in n nicht-monoton. Bei kleinen n verringert das Hinzufügen von Knoten die Ausfallwahrscheinlichkeit. Doch jenseits eines bestimmten Schwellenwerts beginnt sie zu steigen.

Empirische Validierung: Echtzeit-Daten zu Knoten

Daten von Ethereums Beacon Chain (Stand Q1 2024) zeigen:

  • ~750.000 aktive Validatoren (Knoten)
  • Geschätzte Kompromittierungsrate p = 0,02–0,04 (basierend auf bekannten Botnetz-Aktivitäten, Cloud-Provider-Breaches und Validator-Fehlkonfigurationen)
  • Erforderliches f = 250.000 für BFT-Toleranz
  • Erwartete Anzahl bösartiger Knoten: E[X]=15,00030,000E[X] = 15{,}000\text{--}30{,}000
  • Wahrscheinlichkeit, dass X250,000X \geq 250,000: < 1e−80 – scheinbar sicher.

Aber warten Sie. Das ist irreführend, denn es geht von einer uniformen und statischen p aus. In Wirklichkeit:

  • Knotenqualität ist nicht uniform: 80 % der Validatoren werden von professionellen Staking-Pools betrieben (niedrige pp), aber 20 % sind einzelne Betreiber mit schlechten Sicherheitspraktiken (p0.10.3p \approx 0.1\text{--}0.3).
  • Korrelation existiert: Kompromittierte Knoten gehören oft derselben Cloud-Plattform (AWS, Azure) an oder werden durch koordinierte DDoS-Angriffe angegriffen.
  • Wirtschaftliche Anreize: Bösartige Akteure können durch Bestechung motiviert werden (z. B. MEV-Extraktion, Chain-Reorgs), wodurch pp nicht-stationär wird.

Wenn wir pp als Mischverteilung modellieren – sagen wir, 80 % der Knoten mit p1=0.01p_1 = 0.01 und 20 % mit p2=0.25p_2 = 0.25 – wird der erwartete Anzahl bösartiger Knoten:

E[X]=0.8n×0.01+0.2n×0.25=0.058nE[X] = 0.8n \times 0.01 + 0.2n \times 0.25 = 0.058n

Jetzt f=n/30.333nf = n/3 \approx 0.333n.
Wir benötigen X<0.333nX < 0.333n, aber E[X]=0.058nE[X] = 0.058n. Bis hierhin noch sicher.

Aber Varianz zählt. Die Standardabweichung von XX ist:

σ=n×[0.8×0.01×0.99+0.2×0.25×0.75]n×0.048\sigma = \sqrt{n \times [0.8 \times 0.01 \times 0.99 + 0.2 \times 0.25 \times 0.75]} \approx \sqrt{n \times 0.048}

Bei n=1,000,000n = 1,000,000, σ2,190\sigma \approx 2,190.
Der Abstand vom Mittelwert zur Schwelle: 0.333n0.058n=275,0000.333n - 0.058n = 275,000.
Z-Score: 275,000/2,190125.6275,000 / 2,190 \approx 125.6 → Ausfallwahrscheinlichkeit: praktisch null.

Warum also die Sorge?

Weil nn nicht gleichmäßig wächst. In der Praxis werden neue Knoten aus vertrauensschwachen Regionen hinzugefügt: Entwicklungsländer mit schwacher Infrastruktur, automatisierte Bots oder unter staatlicher Kontrolle stehende Entitäten. Diese Knoten haben p>0.1p > 0.1.

Wenn die Anzahl hochriskanter Knoten wächst, wird pp zu einer Funktion von nn:

p(n)=p0+α(nn0)p(n) = p_0 + \alpha \cdot (n - n_0), wobei α>0\alpha > 0 die Dilution der Vertrauensqualität repräsentiert.

Dies transformiert das Modell von binomial zu nicht-stationär binomial, und Pfail(n)P_{fail}(n) wird zu einer U-förmigen Kurve.

Das Vertrauensmaximum: Ein mathematischer Beweis für abnehmende Erträge

Definieren wir die Vertrauens-Effizienz-Funktion:

TE(n,p)=1Pfail(n,p)TE(n, p) = 1 - P_{fail}(n, p)

Wir suchen die Maximierung von TETE. Doch wenn nn unter nicht-uniformem pp wächst, folgt TE(n)TE(n) diesem Pfad:

  1. Bereich I (n<n1n < n_1): Hinzufügen von Knoten verbessert die Sicherheit. PfailP_{fail} nimmt ab, da Redundanz zunimmt.
  2. Bereich II (n1nn2n_1 \leq n \leq n_2): PfailP_{fail} plateauartig. Sicherheitsgewinne sind marginal.
  3. Bereich III (n>n2n > n_2): PfailP_{fail} steigt. Das System wird anfälliger aufgrund der Dilution der Vertrauensqualität.

Dies ist das Vertrauensmaximum: n2n_2, wo TE(n)TE(n) seinen Höhepunkt erreicht.

Berechnung des Vertrauensmaximums

Angenommen:

  • Basistrust-Qualität: p0=0.01p_0 = 0.01
  • Dilutionsrate: α=5×107\alpha = 5 \times 10^{-7} (jeder neue Knoten erhöht die durchschnittliche Kompromittierungs-Wahrscheinlichkeit um 0,00005 %)
  • BFT-Schwellenwert: f=(n1)/3f = \lfloor(n-1)/3\rfloor

Wir simulieren Pfail(n)P_{fail}(n) von n=10n=10 bis n=2,000,000n=2,000,000.

Ergebnisse:

  • TE(n)TE(n) erreicht seinen Höhepunkt bei n=18,400n = 18,400
  • Jenseits dieses Punktes steigt PfailP_{fail} um 0,3 % pro 1.000 zusätzliche Knoten
  • Bei n=500,000n = 500,000 ist PfailP_{fail} 3,2-fach höher als am Vertrauensmaximum

Dies ist kein theoretisches Artefakt – es spiegelt beobachtete Realitäten wider. Ethereum’s Validator-Set ist in vier Jahren von 10.000 auf über 750.000 gewachsen. Während dieser Zeit:

  • Die Rate von Slashings aufgrund bösartiger oder falsch konfigurierter Validatoren stieg um 400 %
  • MEV-Extraktionsangriffe stiegen von 2 pro Tag auf über 1.200
  • Die durchschnittliche Finalisierungszeit stieg aufgrund von Validator-Churn

Das System wurde sicherer – nicht wegen Protokollfehlern, sondern weil die Qualität der Teilnehmer mit zunehmender Skalierung abnahm.

Gegenargumente und ihre Widerlegung

Gegenargument 1: „Mehr Knoten bedeuten mehr Diversität, was die Angriffsfläche reduziert.“

Widerlegung: Diversität ≠ Sicherheit. In verteilten Systemen ist Vertrauens-Homogenität ein Feature, kein Bug. Ein Netzwerk mit 10 vertrauenswürdigen Knoten mit p=0.001p = 0.001 ist sicherer als ein Netzwerk mit 1.000 Knoten mit p=0.05p = 0.05. Letzteres hat mehr Angriffsvektoren, nicht weniger.

Gegenargument 2: „Wirtschaftliche Anreize richten Knoten nach dem Netzwerk-Status aus.“

Widerlegung: Wirtschaftliche Ausrichtung funktioniert nur, wenn die Kosten des Angriffs die Belohnung übersteigen. Doch in MEV-reichen Umgebungen können Bestechungen 10Mperreorg.Thecostofcompromising3410M per reorg. The cost of compromising 34% of nodes is now less than 50 Mio. auf einigen Chains übersteigen. Dies ist nicht theoretisch – es geschah bei Ethereum mit den „Flashbots“-ähnlichen MEV-Auktionen.

Gegenargument 3: „Wir können Reputationssysteme oder stake-basiertes Abstimmungsverfahren nutzen, um schlechte Akteure abzumildern.“

Widerlegung: Reputationssysteme werden manipuliert. Stake-Weighting führt zu Zentralisierung: Die Top 10 Validatoren kontrollieren >50 % des Stakes in den meisten Chains. Dies verletzt Dezentralisierungsziele und schafft Ein-Punkte-des-Ausfalls. Außerdem ist Reputation nicht probabilistisch – sie ist statisch. Sie kann sich nicht an sich entwickelnde Bedrohungen anpassen.

Gegenargument 4: „BFT ist nicht das einzige Modell. Nakamoto-Konsens (PoW/PoS) basiert nicht auf n=3f+1.“

Widerlegung: Korrekt – aber PoW/PoS haben ihre eigenen Vertrauensmaximums. Bei Bitcoin steigt mit zunehmender Hashrate die Wahrscheinlichkeit von 51 %-Angriffen durch staatliche Akteure oder kolludierende Mining-Pools aufgrund der Zentralisierung von ASICs. Das Vertrauensmaximum für Bitcoins Sicherheit wird auf ~200–300 Exahash/s geschätzt. Jenseits dessen sinkt die marginale Angriffskosten.

Strategische Implikationen: Neubewertung der Knotenakquisition

Die konventionelle Strategie – „das Netzwerk wachsen lassen, um Dezentralisierung zu maximieren“ – ist nun eine strategische Belastung. Das Ziel muss von Skalierung zu Vertrauensdichte wechseln.

Rahmen: Der Vertrauensdichte-Index (TDI)

Definieren:

TDI=1plog(n)TDI = \frac{1 - p}{\log(n)}

Wobei:

  • pp = durchschnittliche Kompromittierungs-Wahrscheinlichkeit pro Knoten
  • nn = Gesamtanzahl der Knoten

Höherer TDI = höhere Sicherheitseffizienz.

Optimierungsstrategie:

  • Fügen Sie keine Knoten hinzu, es sei denn, p<0.02p < 0.02
  • Entfernen Sie vertrauensschwache Knoten (z. B. mit < 1 % Uptime, keine Audit-Spur)
  • Erzwingen Sie Identitätsverifikation (z. B. KYC für Validatoren in berechtigungsgesteuerten Schichten)
  • Nutzen Sie hierarchischen Konsens: Hochvertrauenswürdige Knoten übernehmen Finalisierung; vertrauensschwache Knoten fungieren als Beobachter

Fallstudie: Polygon’s zkEVM vs. Ethereum L2s

Polygons zkEVM verwendet einen kleinen Satz vertrauenswürdiger Sequencer (n=7n=7) mit formaler Verifikation und Hardware-Attestierung. p0.003p \approx 0.003.
Ethereum-L2s wie Optimism nutzen Hunderte von Sequencern mit offener Teilnahme. p0.12p \approx 0.12.

Trotz geringerer Knotenzahl ist Polygons TDI 4,8-fach höher als der von Optimism. Seine Finalisierungszeit ist 2x schneller und seine Angriffsfläche kleiner.

Dies ist kein Zufall. Es ist eine Design-Entscheidung basierend auf stochastischer Zuverlässigkeit.

Risiken der Ignoranz des Vertrauensmaximums

  1. Falsches Sicherheitsgefühl: Teams glauben „mehr Knoten = sicherer“, was zu Nachlässigkeit bei der Knotenprüfung führt.
  2. Vergrößerte Angriffsfläche: Mehr Knoten = mehr Angriffspunkte (DDoS, Sybil, Bestechung).
  3. Protokoll-Ineffizienz: Größere Knotenmengen erhöhen Kommunikationsaufwand (O(n2)O(n^2) in BFT), verlangsamen Finalisierung und erhöhen Kosten.
  4. Zentralisierung durch Design: Mit wachsendem nn können nur gut finanzierte Entitäten Knoten betreiben → Zentralisierung entsteht organisch.
  5. Regulatorische Angriffsziele: Regulatoren betrachten große, ungeprüfte Knotennetzwerke als systemische Risiken – was zu Compliance-Überprüfungen führt.

Zukünftige Implikationen: Der Weg nach vorne

1. Stochastische Zuverlässigkeit als Kern-Metrikkennzahl integrieren

Integrieren Sie Pfail(n,p)P_{fail}(n, p) in Protokoll-Design-Dokumente. Behandeln Sie sie wie Gasgebühren oder Blockzeit: eine messbare, optimierbare Variable.

2. Dynamische Knotenaufnahme implementieren

Verwenden Sie Echtzeit-Vertrauensbewertung:

  • Uptime-Historie
  • Geolokalisierungs-Entropie
  • Hardware-Attestierung (TPM, SGX)
  • Wirtschaftlicher Stake-Abbau-Rate

Knoten mit niedrigem TDI-Score werden automatisch herabgestuft oder entfernt.

3. Vertrauens-Grenzen einführen

Setzen Sie eine feste Grenze für nn basierend auf empirischen pp. Zum Beispiel:

„Kein Netzwerk darf 20.000 Knoten überschreiten, es sei denn, p<0.01p < 0.01 und alle Knoten sind hardware-attestiert.“

Dies ist nicht anti-dezentral – es ist pro-sicher.

4. Konsens von Teilnahme entkoppeln

Verwenden Sie Komitee-basierten Konsens: Wählen Sie eine kleine, vertrauenswürdige Teilmenge von Knoten (z. B. 100) aus, um BFT auszuführen. Andere dienen als Data-Availability-Layer oder Beobachter.

Dies wird bereits in ZK-Rollups und Celestia umgesetzt. Es ist die Zukunft.

5. Vertrauensbewusste Metriken für Investoren entwickeln

VCs und Protokolle müssen den Erfolg nicht mehr an „Anzahl der Validatoren“ messen. Stattdessen verfolgen Sie:

  • Vertrauensdichte-Index (TDI)
  • Mittlere Zeit zwischen Kompromittierung (MTBC)
  • Angriffskosten / Belohnungsverhältnis

Das sind die neuen KPIs der Blockchain-Sicherheit.

Fazit: Das Paradoxon der Skalierung

Die Überzeugung, „mehr Knoten = mehr Sicherheit“ zu sein, ist eine gefährliche Heuristik. Sie ignoriert die stochastische Natur der Knotenkompromittierung und die mathematische Unvermeidlichkeit, dass jenseits eines bestimmten Punkts das Erhöhen von nn die Systemanfälligkeit erhöht.

Das Vertrauensmaximum ist kein Bug – es ist ein Feature der Wahrscheinlichkeit. Und wie alle solchen Features muss es modelliert, gemessen und verwaltet werden.

Für zeitlich knappe Entscheider:

Optimieren Sie nicht für Knotenzahl. Optimieren Sie für Vertrauensdichte.

Die sicherste Blockchain ist nicht die mit den meisten Knoten – sondern die mit den wenigsten vertrauenswürdigen Knoten.

In einer Welt, in der Gegner zunehmend raffinierter werden und die Knotenqualität abnimmt, liegt der Weg zur Resilienz nicht in Expansion – sondern in Konzentration des Vertrauens.

Die Zukunft gehört nicht den größten Netzwerken, sondern den zuverlässigsten.