Quantencomputing verbringt den größten Teil seines kommerziellen Lebens als Technologie, die permanent fünf Jahre von der Relevanz entfernt ist. Diese Woche steht dieses Narrativ unter ernstem Druck. Drei unabhängige Forschungsgruppen — bei Microsoft, Google DeepMind sowie einem Konsortium unter Beteiligung von IBM und MIT — haben Ergebnisse veröffentlicht, die fehlerkorrigierte logische Qubits zeigen, die die Leistung ungeschützter physikalischer Qubits übertreffen. Es ist das erste Mal, dass alle drei großen Ansätze zum Quantencomputing gleichzeitig die sogenannte „Break-Even-Schwelle” überschritten haben — und die Konvergenz zwingt die Branche, ihre Zeitpläne zu überdenken.
Das Fehlerproblem, das Quantencomputing bisher definiert hat
Etwas Kontext vorab: Quantencomputer beziehen ihre Leistung aus Qubits, die sich gleichzeitig in einer Überlagerung von 0 und 1 befinden können, was bestimmte Berechnungen exponentiell schneller macht als auf klassischen Rechnern. Der Haken: Qubits sind außerordentlich fragil. Physikalisches Rauschen — Wärmeschwankungen, elektromagnetische Störungen, sogar kosmische Strahlung — bringt Qubits zum Dekohärieren und erzeugt Fehler in Raten, die umfangreiche Berechnungen unzuverlässig machen.
Fehlerkorrektur ist die theoretische Lösung: Indem man ein „logisches” Qubit über viele physikalische Qubits kodiert und kontinuierlich auf Fehler überwacht, kann das logische Qubit beliebig zuverlässig gemacht werden. Das Problem ist, dass Fehlerkorrektur selbst Overhead einführt und Fehler verstärken kann, wenn die physikalische Fehlerrate zu hoch ist. Die Break-Even-Schwelle — an der ein logisches Qubit die physikalischen Qubits, aus denen es besteht, tatsächlich übertrifft — war das zentrale Ziel des Feldes.
Googles Willow-Chip demonstrierte im Dezember 2024 Fehlerraten unterhalb der Schwelle. Die jetzt veröffentlichten Ergebnisse, drei Preprints dieser Woche, gehen weiter: Sie zeigen anhaltenden Betrieb logischer Qubits mit Fehlerraten, die je nach Architektur 10- bis 40-fach niedriger sind als die zugrunde liegenden physikalischen Fehlerraten.
Drei Ansätze, eine Konvergenz
Die Ergebnisse sind teils deshalb bemerkenswert, weil sie über radikal unterschiedliche physikalische Implementierungen erzielt werden.
Microsofts Ansatz nutzt topologische Qubits aus exotischen Quasiteilchen namens Majorana-Fermionen. Das Unternehmen hat seit 2017 über 2 Milliarden Dollar in diese Forschung investiert. Das auf arXiv am 21. April gepostete Paper demonstriert ein 12-logisches-Qubit-System mit einer Fehlerrate von 1 zu 10.000 Gatteroperationen — etwa zwei Größenordnungen besser als die besten ungeschützten supraleitenden Qubits. „Topologischer Schutz gibt uns einen Hardware-Pfad zu einer Million logischer Qubits ohne einen exponentiellen Anstieg der klassischen Steuerelektronik”, sagte Krysta Svore, Microsofts VP of Quantum, in einem Analysten-Briefing.
Google DeepMinds System, basierend auf seiner supraleitenden Willow-Architektur, erreichte logische Fehlerraten von etwa 1 zu 5.000 mit Surface-Code-Fehlerkorrektur über 72 physikalische Qubits pro logisches Qubit. Das Team berichtet, dass eine Skalierung auf 1.000 logische Qubits — ausreichend für bedeutungsvolle pharmazeutische Simulationen — rund 72.000 physikalische Qubits erfordern würde, eine Zahl, die mit Hardware erreichbar ist, die das Unternehmen bis 2028 operativ erwartet.
Das IBM-MIT-Paper nimmt einen anderen Blickwinkel ein: Statt die niedrigste Fehlerrate zu demonstrieren, zeigt es den ersten praktischen Quantenvorteil für ein kommerziell relevantes Problem — die Optimierung von Proteinfaltungs-Simulationspfaden — auf einem 133-Qubit-System. Der Quantenansatz fand in unter zwei Stunden Rechenzeit Lösungen, die 17 % besser waren als das beste klassische Heuristikverfahren; die äquivalente klassische Suche hätte geschätzte 340 Stunden auf einem 10.000-GPU-Cluster benötigt.
Warum die Ergebnisse dieser Woche für Wirtschaft und Forschung wichtig sind
Die Pharmaindustrie ist der lautstärkste potenzielle Frühprofiteur von Quantencomputing. Roche und Pfizer haben beide Quantencomputing-Forschungsprogramme. Eine Sprecherin der rechnerischen Biologieeinheit von Roche nannte das IBM-MIT-Ergebnis „das erste Mal, dass wir ein Quantensystem einen bedeutsam besseren Ansatz zu einem Problem beitragen sahen, das uns wirklich wichtig ist, statt einem synthetischen Benchmark.”
Für Deutschland ist der Kontext besonders relevant. BASF und Bayer — beide mit erheblichen computergestützten Chemie- und Biologie-Aktivitäten — verfolgen Quantencomputing-Programme. Die Fraunhofer-Gesellschaft und das DLR Quantencomputing-Initiative (QCI) haben erhebliche Bundesförderung erhalten, um europäische Quantenkompetenz aufzubauen. Die Konvergenz dieser Woche beschleunigt die Entscheidung, ob diese Investitionen auf eine eigenständige europäische Hardware-Roadmap oder auf Partnerschaften mit US-Konzernen setzen sollen.
Der Finanzdienstleistungssektor beobachtet das Geschehen ebenfalls aufmerksam. Quantenoptimierungsalgorithmen können prinzipiell bessere Lösungen für Portfoliokonstruktion und Risikomanagement finden als klassische Methoden. Für Häuser wie die Deutsche Bank oder Allianz, die komplexe Derivate- und Risikokalkulationen betreiben, könnte ein echter Quantenvorteil bei Monte-Carlo-Simulationen — den Grundlagenmethoden des modernen Risikomanagements — erhebliche operative Auswirkungen haben.
Kryptografie ist ein anderes, dringlicheres Kapitel. Aktuelle Verschlüsselungsstandards (RSA, ECC) beruhen auf Rechenproblemen, die ein großes fehlertolerantes Quantensystem effizient lösen könnte. Das US-amerikanische NIST hat 2024 seine Post-Quanten-Kryptografiestandards finalisiert; das Bundesamt für Sicherheit in der Informationstechnik (BSI) empfiehlt deutschen Behörden und Unternehmen aktiv die Vorbereitung auf den Übergang. Die Ergebnisse dieser Woche verändern die Migrationsfristen nicht grundlegend — praktische kryptografische Angriffe würden Millionen logischer Qubits erfordern, nicht Tausende — aber sie haben die Debatte von theoretisch auf ingenieurwissenschaftlich verschoben.
Die Investitionslandschaft reagiert
Quantencomputing-Aktien bewegten sich scharf auf die Neuigkeiten. IonQ stieg am Dienstag um 18 %, gab aber am Mittwoch 7 % zurück, als Analysten debattierten, ob die Ergebnisse eine echte kommerzielle Inflexion darstellen. Risikokapital in Quantencomputing erreichte 2025 weltweit 3,2 Milliarden Dollar — das Dreifache des Werts von 2022. In Europa fließen Mittel aus dem Quantum Flagship der EU sowie aus nationalen Förderprogrammen, darunter das deutsche Programm „Quantensysteme” des BMBF mit 878 Millionen Euro für den Zeitraum 2022–2026.
Die ehrliche Einschätzung: Praktisches, allgemeines Quantencomputing bleibt Jahre entfernt — und die genaue Zahl ist immer noch Gegenstand echten wissenschaftlichen Streits. Aber die Break-Even-Schwelle, einmal überschritten, neigt dazu, den Fortschritt bei jeder Computertechnologie schnell zu beschleunigen. Forscher, die sich wohl dabei fühlten zu sagen „nicht in diesem Jahrzehnt”, werden weniger komfortabel. Diese Verschiebung der Expertenmeinung ist selbst ein Datenpunkt, den es zu beobachten gilt.
Quellen: Microsoft Research Preprint (arXiv:2604.11029), Google DeepMind Preprint (arXiv:2604.10871), IBM Research / MIT Preprint (arXiv:2604.10654), NIST Post-Quantum Cryptography Standards, McKinsey Quantum Technology Monitor Q1 2026, BSI Empfehlungen zur Post-Quanten-Kryptografie.
Discussion
Sign in to join the discussion.
No comments yet. Be the first to share your thoughts.