Erleben wir gerade einen Sputnik-Moment in der Informationstechnologie?
"Ein Begriff, der den meisten Menschen so unheimlich-bizarr wie aufregend-futuristisch vorkommt, drängt in die Sphäre der öffentlichen Aufmerksamkeit. Er kombiniert die technologische Allmacht des digitalen Rechnens mit der ehrfurchteinflössenden Komplexität und Abstraktheit der bedeutendsten physikalischen Theorie des 20. Jahrhunderts. Die Sprache ist vom Quantencomputer. Er verspricht eine neue technologische Revolution, die das 21. Jahrhundert ähnlich stark prägen könnte wie die Entwicklung digitaler Schaltkreise das 20. Jahrhundert formte.
Lange waren Quantencomputer Stoff für Science-Fiction und ihre Realisierung lag weit in der Zukunft. Doch bekannterweise nähert sich uns die Zukunft immer schneller. Nun hat Google durchsickern lassen, dass ihnen die Konstruktion eines ersten Quantencomputers gelungen sei, der ein Problem lösen kann, an dem sich ein herkömmlicher Computer die Zähne ausbeisst. Konkret habe der Computer-Chip Sycamore für eine spezielle Rechenaufgabe, für die der weltbeste Supercomputer 10 000 Jahre benötigt, gerade einmal 200 Sekunden gebraucht. Google selbst hat die Eigenschaft eines Quantencomputers, jedem existierenden klassischen Computer bei der Bewältigung von bestimmten Aufgaben überlegen zu sein, bereits vor Jahren als quantum supremacy getauft. Nun scheint der Moment einer solchen „Quantenüberlegenheit* gekommen zu sein. Wir könnten also gerade Zeuge eines Sputnik-Moments in der Informationstechnologie werden. Auch wenn es sich hier eher um einen symbolischen Meilenstein handelt, da das von Sycamore gelöste Problem doch eher von sehr akademischer Natur ist, so könnte die Leistung von Google die Quanteninformationstechnologie ähnlich stimulieren wie der historische Sputnik-Moment der 1950er die Raumfahrt.
Doch was ist eigentlich ein Quantencomputer? Dazu sei zunächst gesagt: Obwohl auch herkömmliche Computer immer kleinere Bauteilen verwenden, bei denen Quanteneffekte eine wichtige Rolle spielen, so basiert ihre Funktionsweise doch prinzipiell vollständig auf der klassischen Physik. Die allen heutigen Computern zugrunde liegende, so genannte von-Neumann-Architektur sorgt dafür, dass die einzelnen Rechenschritte sequentiell, also Bit für Bit abgearbeitet werden. Diese kleinstmöglichen Informationseinheiten nehmen dabei jeweils entweder einen wohldefinierten Zustand von 1 oder 0 an. Quantencomputer hingegen verwenden in ihrem Kern direkt die Eigenschaften der Quantentheorie, womit sie einer völlig anderen Informationstheorie unterliegen Die Entsprechung des klassischen Bits ist in Quantencomputern das Quantenbit, kurz Qubit. Und Qubits haben es in sich: So können sie beispielsweise beide Zustände, also 0 und 1, simultan annehmen, sowie alle Zwischenwerte dazwischen, also z.B. „halb 1“ und „halb 0“. Dies liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen“ zu existieren, Überlagerungen sich klassisch gegenseitig ausschliessender Zustände. Diese bizarre Eigenschaft von Quantenteilchen war einst unter den Vätern der Quantenphysik Auslöser hitziger Diskussionen, die ihren Ausdruck zuletzt in dem bekannten Gedankenexperiment der Schrödinger‘schen Katze fanden. Dazu kommt, dass sich verschiedene Quantenteilchen in so genannte verschränke Zustände bringen lassen. Auch das ist eine Eigenschaft, die wir in unserer, klassischen Welt nicht kennen. Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Über eine „spukhafte Fernbeziehung“ (ein Begriff, den ursprünglich Albert Einstein in ironischer Absicht erfand, der diese Verschränkung für unmöglich hielt) stehen sie sozusagen allesamt direkt in Kontakt miteinander. Jedes Quantenbit „weiss“ dann, was die anderen gerade treiben.
Verschränkte Qubits liegen also in einer Superposition unendlich vieler verschiedener Zustände zugleich vor, die zugleich durch ein unsichtbares und unmessbares Band miteinander verbunden sind. Salopp gesagt: dieses Vielteilchensystem nimmt simultan alle möglichen Zustände ein. Bestimmte Zustände werden (mit einer jeweiligen Wahrscheinlichkeit) erst bei einer physikalischen Messung realisiert. Vorher sind sie objektiv unbestimmt - auch das ist wieder so eine merkwürdige Eigenschaft in der Quantenwelt. Mit Hilfe eines entsprechenden Algorithmus lassen sich nun verschränkte Qbits allesamt gleichzeitig verarbeiten. Es ist, als ob viele Schokoladenfabriken gleichzeitig ihre Fliessbänder angeworfen hätten und nun alle parallel Schokolade produzieren. Je mehr Qubits miteinander verschränkt sind, desto mehr Zustände können parallel verarbeitet werden. Anders als in herkömmlichen Computern, deren Rechenleistung linear mit der Anzahl der Rechenbausteine steigt, erhöht sich damit die Leistung eines Quantencomputers exponentiell mit der Anzahl der eingesetzten Qubits. Die Leistung eines Quantencomputers verdoppelt sich also nicht erst, wenn zu 100 Qubits weitere 100 Qubits hinzugeschaltet werden, sondern bereits, wenn nur ein einziges Qubit zu den 100 Qubits hinzugefügt wird. Kommen 10 dazu, vertausendfacht (genauer 1024-fach) sich seine Leistung, bei 20 neuen Qubits ist der Quantencomputer bereits eine Millionen Mal so schnell, bei 50 neuen Qubits eine Millionen Milliarden Mal. Und bei 100 neuen Informationsträgern, wenn sich die Leistungsfähigkeit eines klassischen Computers gerade mal verdoppelt hat, lässt sich die Erhöhung der Leistungsfähigkeit eines Quantencomputers kaum mehr in Zahlen benennen. Mit dieser enormen Macht der Parallelrechnung liessen sich Probleme lösen, die selbst für die heute in Physik, Biologie, Wetterforschung und anderswo eingesetzten „Supercomputer“ noch bei weitem zu schwierig zu verarbeiten sind.
Bei näherer Betrachtung lässt sich ist die massive Parallelisierung durch verschränkte Zustände allerdings nicht ganz mit parallel arbeitenden Schokoladenfabriken vergleichen. Information, die in verschränkten Systemen gespeichert und verbreitet wird, ist sehr verschieden von der Information die von gewöhnlichen digitalen Computern verarbeitet wird. Quantencomputer arbeiten nicht im wörtlichen Sinne parallel, sondern sie organisieren die Information so, dass diese über sehr viele verschränkte Komponenten des Gesamtsystems verteilt ist Man stelle sich ein Buch mit 100 Seiten vor. Für ein gewöhnliches klassisches Buch gilt, dass jedes Mal, wenn man eine Seite liest, man weitere 1% des Inhalts des Buches erfasst hat. Nachdem man alle Seiten einzeln gelesen haben, weiss man alles, was im Buch steht. Bei einem Quantenbuch, in dem die Seiten miteinander verschränkt sind, liegen die Dinge anders. Betrachtet man darin die Seiten einzeln, sieht man nur zufälliges Kauderwelsch, und nachdem man alle Seiten nacheinander gelesen hat, weiss man immer noch sehr wenig über den Inhalt des Buches. Denn in einem Quantenbuch die Information nicht auf den einzelnen Seiten aufgedruckt ist, sondern fast ausschliesslich in der Korrelation der Seiten untereinander kodiert ist. Wer das das Buch lesen will, muss also alle Seiten gleichzeitig betrachten.
Fünf Felder, deren Probleme heutige Computer – und seien sie noch so gross – überfordern, sollen aufzeigen, welche fantastischen Möglichkeiten sich mit einem Quantencomputer eröffnen:
1. Kryptographie: Heute gängige Verschlüsselungen beruhen auf der Re-Faktorisierung der Produkte zweier sehr grosser Primzahlen. Ab einer bestimmten Zahlengrösse ist diese Aufgabe für einen klassischen Computer nicht mehr zu lösen. Der Informatiker Peter Shor entwickelte 1994 einen Algorithmus, mit dessen Hilfe ein Quantencomputer die grössten Produkte heute verwendeter Primzahlen innerhalb von Minuten in ihre Teiler faktorisieren könnte.
2. Lösung komplexer Optimierungsaufgaben: Die Aufgabe, aus vielen Varianten die optimale Lösung zu finden, gilt unter Mathematikern als besonders knifflig. Solche Probleme treten in der industriellen Logistik, im Design von Mikrochips oder auch in der Optimierung von Verkehrsflüssen auf. Bereits bei einer geringen Zahl von Varianten steigen klassische Computer bei der Berechnung optimaler Lösungen aus. Quantencomputer könnten solche Optimierungsprobleme dagegen in vergleichsweise kurzer Zeit lösen.
3. Bedeutende Anwendungen könnten auf dem Gebiet der Künstlichen Intelligenz liegen: Die dort verwendeten „tiefen neuronale Netze“ sind mit harten kombinatorischen Optimierungsprobleme verbunden, die von Quantencomputern weitaus schneller und besser gelöst werden können als von klassischen Computern.
4. Suche in grossen Datenbanken: Beim Durchsuchen unsortierter Datenmengen muss ein klassischer Computer jeden Datenpunkt einzeln betrachten. Die Suchdauer steigt daher linear mit der Anzahl der Datenpunkte und wird damit bei grossen Datenmengen für einen klassischen Computer schnell zu gross. Im Jahr 1996 veröffentlichte der Informatiker Lov Grover einen Quantencomputer-Algorithmus, für den die Anzahl der notwendigen Rechenschritte nur noch mit der Wurzel der Datenpunkte anwächst. Anstatt bei einer Milliarde Dateneinträgen tausendmal so lange zu brauchen wie bei einer Million, würde dies mit einem Quantencomputer und dem „Grove-Algorithmus“ nur noch etwas mehr als 30-mal so lang dauern – im Falle sehr grosser Zahlen eine atemberaubende Verbesserung.
5. Auffinden neuer chemischer Verbindungen: Auch bei der Simulation von Quantensystemen kommen immer wieder komplexe Optimierungsprobleme vor, bei denen es darum geht, aus vielen Alternativen die bestmögliche, d.h. energetisch günstigste Konfiguration der Elektronen in einem Atoms oder Moleküls zu finden. Theoretische Physiker und Chemiker schlagen sich seit Jahrzehnten bei eher beschränktem Erfolg mit solchen Problem herum. Quantencomputer könnten das Verhalten der beteiligten Elektronen direkt abbilden und modellieren, da sie sich selber wie ein Quantensystem verhalten. Mit dem damit möglichen besseren Verständnis von Moleküle und den Details der chemischen Reaktionen liessen sich beispielsweise neue Medikamente oder auch weit effizientere Batterietechnologien entwickeln.
Einige Physiker glauben sogar, mit einem Quantencomputer jegliche Problemstellungen in der Natur berechnen zu können, vom Verhalten schwarzer Löcher, der Entwicklung des ganz frühen Universums, der Kollisionen hochenergetischer Elementartteilchen bis hin zum Phänomen der Supraleitung und der Modellierung der 100 Milliarden Neuronen und der noch einmal eintausend mal grösseren Anzahl ihrer Verbindungen in unserem Gehirn. Auf jeden Fall lohnt es sich, in den nächsten Woche und Monaten die Wissenschaftsteil der Tageszeitung etwas genauer zu lesen."
Der Autor Lars Jaeger hat Physik, Mathematik, Philosophie und Geschichte studiert und mehrere Jahre in der Quantenphysik sowie Chaostheorie geforscht. Er lebt in der Nähe von Zürich, wo er – als umtriebiger Querdenker – zwei eigene Unternehmen aufgebaut hat, die institutionelle Finanzanleger beraten, und zugleich regelmäßige Blogs zum Thema Wissenschaft und Zeitgeschehen unterhält. Überdies unterrichtet er unter anderem an der European Business School im Rheingau. Die Begeisterung für die Naturwissenschaften und die Philosophie hat ihn nie losgelassen. Sein Denken und Schreiben kreist immer wieder um die Einflüsse der Naturwissenschaften auf unser Denken und Leben. Seine letzten Bücher „Die Naturwissenschaften. Eine Biographie“ (2015) und „Wissenschaft und Spiritualität“ (2016) sind bei Springer Spektrum erschienen. Im August 2017 erschien „Supermacht Wissenschaft“ beim Gütersloher Verlagshaus und sein neuestes Buch „Die zweite Quantenrevolution“ erschien im August 2018 bei Springer. |