"Die ersten Quantencomputer nehmen Gestalt an"
Es war Richard Feynman, der bereits im Jahr 1959 das enorme Potenzial der Miniaturisierung erkannte - eine rasante technologische Entwicklung, die den exponentiellen Zuwachs an Rechnerleistung ermöglichte und damit die Grundlage der heutigen Informationsgesellschaft bildet. Mittlerweile experimentieren große Halbleiterfirmen mit Leiterbahngrößen von nur mehr 5 nm, etwa doppelt so breit wie menschliche DNA, und stoßen damit an die Grenzen der klassischen Physik. Feynman hatte auch daran gedacht, 1982 schrieb er: "... nature isn't classical ... and if you want to make a simulation of nature, you'd better make it quantum mechanical, and by golly it's a wonderful problem, because it doesn't look so easy". Er legte damit den Grundstein für die Idee eines Quantenrechners, der die Grenzen der Miniaturisierung nicht als Problem, sondern als Chance begreift.
Als Hauptanwendung sah er die exakte Simulation von quantenmechanischen Systemen unter kontrollierten Laborbedingungen, wie sie etwa in der Teilchenphysik, der Chemie oder der Materialphysik vorkommen und bisher nur näherungsweise gelöst werden können. Computer mit nur etwa 100 Quantenbits (Qubits) - das Äquivalent zu Transistoren in klassischen Rechnern - wären bereits in der Lage neue Materialien und wichtige bio-chemische Prozesse zu optimieren, Aufgaben die auch für zukünftige klassische Supercomputer unlösbar bleiben werden. Mittlerweile gibt es einen ganzen "Zoo von Quantenalgorithmen", die einen teilweise exponentiellen Vorteil aus der Quantenmechanik erzielen. Dazu gehören drastische Effizienzsteigerungen bei der Primfaktorzerlegung auf der die Sicherheit weitverbreiteter Verschlüsselungsmethoden beruht, oder bei Optimierungsaufgaben in der Logistik-, Finanz- und Computerindustrie, wo sich annähernd beste Lösungen in drastisch kürzerer Zeit finden lassen könnten. Auch im Bereich der Künstlichen Intelligenz erwartet man neue Impulse aus der Quantenwelt, wobei sich letzteres mathematisch bisher noch nicht beweisen lässt.
Beim Quantencomputer werden die klassischen Transistoren durch Atome oder einzelne Elektronen ersetzt. Während ein klassischer digitaler Rechner mit einem Register von N Bits durch nur einen von 2^N möglichen Zuständen beschrieben wird (das sind N binäre Zahlen), wird der Zustand eines Quantencomputers durch die Superposition aller möglichen klassischen Zustände beschrieben (2^N komplexe Amplituden) – eine um Größenordnungen höhere Zahl von Möglichkeiten. Erst die Messung dieses Zustandes ergibt dann einen der möglichen klassischen Zustände - und zwar mit der Wahrscheinlichkeit gegeben durch die Amplitude zum Quadrat. Bevor die Messung stattfindet kann also der gesamte exponentiell vergrößerte Zustandsraum genutzt werden um ein Problem zu lösen. Im Gegensatz zu einer klassischen Rechnung, die auf mehrere Prozessorkerne aufgeteilt wird ist es hier aber so, dass die Wahrscheinlichkeitsamplituden ein Vorzeichen bzw. eine Phase haben, was zu einer konstruktiven Interferenz bestimmter Zustände führen kann die dann im Idealfall die Lösungen der Aufgabe repräsentieren. Insofern kann man sich eine Quantenrechnung vielleicht besser mit einem perfekt eingestimmten Orchester begreifbar machen als durch eine Aneinanderreihung vieler Nullen und Einsen.
Die Herausforderung einen leistungsfähigen Quantenrechner zu bauen kann gar nicht überschätzt werden. Jegliche Interaktion mit der Umgebung kann zu einer ungewollten Messung oder zum Verlust der Phaseninformation führen und damit zum Verlust der Interferenz- und Lösungsfindungsfähigkeit. Das erfordert eine extrem hohe Stabilität und eine perfekte Abschirmung der fragilen Qubit-Zustände. Zum zweiten handelt es sich um Systeme mit kontinuierlichen Amplituden ähnlich zu analogen Computern, die eine weitaus höhere Fehleranfälligkeit aufweisen. Im Gegensatz zum klassischen Rechner müssen die Rechenschritte (die logischen Gatter) aber so realisiert werden, dass bis zu 2^N Koeffizienten direkt oder indirekt in Zaum gehalten werden. In einem realen System sind deshalb aufwändige Methoden der Fehlerkorrektur nötig, die schnelle Messungen erfordern und deren Realisierung sich derzeit noch in einem sehr frühen Anfangsstadion befindet.
Aufgrund der konträren Anforderungen, schnelle Kontrolle und schnelles Auslesen vs. perfekte Abschirmung, gibt es nach wie vor sehr viele verschiedene Ansätze einen Quantenrechner zu realisieren. Neben den am weitesten verbreiteten gatterbasierten Rechnern, die typischerweise mit gefangenen Ionen (Innsbruck, NIST, Maryland, IonQ), supraleitenden Schaltkreisen (Yale, ETH, Berkeley, MIT, Chalmers, IBM, Google, Rigetti Computing, Quantum Circuits, Intel/Delft), Spins in Halbleiter-Quantenpunkten (Sydney, Princeton, Tokyo, Delft, CEA-Leti) und Diamantfehlstellen (Harvard, Stuttgart, Delft) realisiert werden, gibt es aber auch alternative Ansätze wie zum Beispiel das Quantum Annealing mit supraleitenden Qubits (D-Wave), Einwegquantenrechner in integrierten photonischen Systemen (Bristol, Wien, PsiCorps), Quantensimulatoren auf Basis von neutralen Atomen in Lichtfallen (München, Harvard, Wisconsin, Paris), sowie topologische Quantenrechner (Delft, Kopenhagen, Microsoft). Für jeden Hardware-Ansatz gibt es dabei unzählige Arten die Zustände und Interaktionen zu definieren und das Rennen um die beste Quanten Hard- und Software ist noch völlig offen.
Von einigen Ausnahmen abgesehen konzentriert sich der industrielle Bereich auf die Skalierung hin zu Vielqubit-Systemen und entwickelt die dafür notwendige und teure Technologie mit der Hoffnung, dass sich auch Anwendungen für Rechner mittlerer Größe und ohne vollständige Fehlerkorrektur finden lassen werden. Kleinere Teams im universitären Umfeld konzentrieren sich hingegen auf die vielen offenen fundamentalen Fragen. Beide Ansätze sind unverzichtbar um einen nützlichen Quantenrechner zu entwickeln.
In meiner Forschungsgruppe am IST Austria arbeiten wir mit Qubits, deren logische Zustände beispielsweise in der elektrischen Ladung eines nahezu verlustfreien supraleitenden Schaltkreises kodiert werden. Die Hauptvorteile dieses Ansatzes liegen in der Kompatibilität mit herkömmlichen Halbleiterfabrikationsmethoden und schnellen Rechenschritten mithilfe kommerzieller Hochfrequenztechnik. Die Nachteile liegen in der relativ hohen Fehlerrate von etwa 0.1 - 1 Prozent, die eine riesige Redundanz von mindestens 10^4 physikalischen Qubits erfordert um nur ein einziges stabiles – sogenanntes logisches Qubit – zu realisieren. Um diesen gewaltigen Komplexitätszuwachs zu vermeiden arbeiten wir and den physikalischen Grundlagen neuartiger Schaltungen, die besser vor Ladungsfluktuationen geschützt sind. Als interessantes Nebenprodukt aus solchen zustandsgeschützten Schaltungen mit hoher Impedanz könnten sich etwa neue Präzisionsmessungen für eine exaktere Bestimmung der Stromstärke ergeben.
Ein zweites Thema in unserer Gruppe ist die Erforschung der noch nötigen Bauteile um zukünftig weitaus größere Rechner bzw. Netzwerke von Quantenrechnern realisieren zu können. Ein Beispiel ist die Miniaturisierung eines Schaltkreiselements das Mikrowellenphotonen, ähnlich zu Autos in einem Kreisverkehr, nur in eine bestimmte Richtung leitet. Solche Zirkulatoren spielen eine wichtige Rolle in Kommunikationssystemen und sind essenziell um supraleitende Qubits einerseits effizient auslesen zu können aber gleichzeitig gut vor elektronischem Rauschen zu schützen. Der von uns kürzlich realisierte Zirkulator wandelt die einlaufenden Signale in mechanische Oszillationen um, womit wir ihn etwa 100 Mal kleiner als kommerziell verfügbar, und direkt auf dem Mikrochip integriert realisieren konnten.
Ein weiteres Beispiel ist die Entwicklung einer "Netzwerkkarte" für zukünftige supraleitende Quantenrechner. Die bei uns hergestellten Mikrochips werden auf -273.14 Grad Celsius abgekühlt um die Qubits verlässlich im Grundzustand zu initialisieren. Ein Netzwerk aus Quantenrechnern bei diesen Temperaturen ist nur in sehr kleinem Maßstab denkbar. Wir arbeiten daher an einer Schnittstelle, die den niederenergetischen Qubit-Zustand auf ein Photon mit höherer Energie projiziert. Dieses Photon kann dann mit kleinsten Verlusten und ohne thermische Einflüsse über kilometerlange Distanzen, beispielsweise über Glasfaser, Quanteninformation transportieren. Da der dafür benötigte elektrooptischer Signalwandler höchst effizient funktionieren muss könnten sich auch hier indirekte Anwendungen ergeben. Vorausgesetzt die entwickelten Schnittstellen erreichen eine adäquate Bandbreite könnte es zu signifikanten Energieeinsparungen in modernen Netzwerk- und Rechenzentren kommen, welche einen zunehmenden Löwenanteil des weltweiten elektrischen Energiebedarfs verursachen.
Obwohl erste Quantencomputer-Prototypen bereits vor einigen Jahren vorgestellt wurden, ist es noch ein weiter Weg bis Quantenrechner mit Fehlerkorrektur relevante Probleme lösen werden. Dabei ist die Hoffnung weniger, unsere PCs und Laptops zu verbessern, sondern die Möglichkeiten zukünftiger Supercomputer Rechenzentren zu erweitern, um beispielsweise neue Materialien wie etwa Raumtemperatursupraleiter zu entwickeln. Dieses große Potenzial, der ungebrochene Drang nach mehr Rechenleistung und das sich abzeichnende Ende der klassischen Miniaturisierung hat zum Einstieg großer IT Konzerne, zu signifikanten Venture-Capital-Investitionen, zu einem Wettstreit um die besten Talente, und teilweise auch zu überschwänglichen Versprechungen geführt.
Aus der Sicht eines Wissenschafters, dem sowohl die Grundlagenforschung als auch neue Technologien am Herzen liegen ist es aber vor allem eine der spannendsten wissenschaftlichen Herausforderungen dieses Jahrhunderts. An neuen Quantentechnologien zu forschen ist eine höchst interdisziplinäre Aufgabe mit vielen fundamentalen Fragen für Computerwissenschafter und theoretische Physiker, die effiziente Quantenalgorithmen entwickeln und nach den zukünftigen Killer-Apps suchen, und für Experimentalphysiker und Materialwissenschafter, um diese Quantenmaschinen im Reinraum zu fabrizieren und im Labor zum Laufen zu bringen. Auf dem Weg dahin lernen wir die kleinsten Bauteile der Natur besser zu verstehen und hoffen auf viele Überraschungen.