Die Idee eines Quantencomputers ist bereits einige Jahrzehnte alt: Schon 1982 hatte der Physiker Richard Feynman dargelegt, dass wahrscheinlich ein spezieller Typ von Computern benötigt wird, um quantenmechanische Effekte in der Natur zu simulieren [1]. Es sollte dann aber bis 2015 dauern, bevor ein erster Quantencomputer tatsächlich über eine Cloud-Anbindung Anwendern zur Verfügung stand, um seinen Einsatz zu testen.
Doch wie unterscheiden sich Quantencomputer und klassische Computer, und warum wird erwartet, dass ein Quantencomputer leistungsfähiger ist? Klassische Computer rechnen mit Bits, die Werte von 0 und 1 einnehmen können. Alle Zahlendarstellungen und Berechnungen in einem klassischen Computer gehen schlussendlich auf Bits und damit verbundene logische Operationen mit den Ergebnissen TRUE oder FALSE zurück. Quantencomputer rechnen dagegen mit sogenannten Quantum Bits (Qubits). Qubits sind eine Überlagerung der quantenmechanischen Zustände 0 und 1, d. h. sie stellen sowohl den Wert 0 wie auch den Wert 1 gleichzeitig dar. Allerdings ist diese Überlagerung nur innerhalb eines Quantencomputers der Fall – sobald ein Rechenergebnis aus einem Quantencomputer ausgelesen wird, kollabiert dieser quantenmechanische Zustand, und es wird mit einer gewissen Wahrscheinlichkeit entweder eine 0 oder eine 1 ausgegeben.
Ein Quantencomputer gibt daher keine eindeutigen Rechenergebnisse zurück. Es sind vielmehr mehrere Wiederholungen der Berechnungen und Messungen notwendig. Durch diese Überlagerung von Zuständen lassen sich ganz natürlich Berechnungen parallelisieren. Zudem spielen noch zwei weitere quantenmechanische Effekte eine entscheidende Rolle: Durch den Effekt der Verschränkung können Informationen in einer Berechnung miteinander verknüpft werden, und durch den Effekt der Interferenz können quantenmechanische Zustände verstärkt oder abgeschwächt werden.
Alle drei quantenmechanischen Effekte sorgen dafür, dass gewisse Berechnungsarten durch Quantencomputer deutlich effizienter ausgeführt werden können – manche Berechnungen können dadurch beschleunigt werden, dass sie mit weniger Rechenschritten auskommen. Modelle, die auf Künstlicher Intelligenz (KI) basieren, profitieren von einer höheren Berechnungskapazität in ihren Modellen, was es ihnen z. B. erlaubt, mit weniger Trainingsdaten zu generalisieren. Der Einsatz von Quantencomputing könnte somit ermöglichen, auch besonders komplexe Datensätze zu prozessieren.
Der Einsatz von Quantencomputing erfolgt prinzipiell im Zusammenspiel mit herkömmlichen Computern, wie in Abb. 1 gezeigt.