Anmelden

Das Quanten-Wettrüsten: Was 2026-2030 für reale Anwendungen bedeutet

Das Quanten-Wettrüsten: Was 2026-2030 für reale Anwendungen bedeutet
⏱ 20 min

Das Quanten-Wettrüsten: Was 2026-2030 für reale Anwendungen bedeutet

Bis zum Jahr 2030 werden voraussichtlich über 100 Milliarden US-Dollar in die Quanteninformatik investiert sein, wobei ein erheblicher Teil davon in die Entwicklung praktischer Anwendungen fließt. Diese Zahl unterstreicht die immense Erwartungshaltung und den rasanten Fortschritt, der in diesem aufstrebenden Feld zu beobachten ist. Das Rennen um die Dominanz in der Quantencomputing-Ära hat bereits begonnen und verspricht, die Art und Weise, wie wir komplexe Probleme lösen, grundlegend zu verändern. Während die vollständige Realisierung eines universellen, fehlerkorrigierten Quantencomputers noch Jahre, wenn nicht Jahrzehnte entfernt sein mag, stehen wir an der Schwelle zu einer Phase, in der erste, wenn auch spezialisierte, reale Anwendungen die Leistungsfähigkeit dieser revolutionären Technologie demonstrieren werden. Der Zeitraum von 2026 bis 2030 wird dabei als entscheidende Übergangsphase betrachtet, in der die theoretischen Möglichkeiten zunehmend in greifbare Ergebnisse für Industrie und Forschung umgesetzt werden.

Der aktuelle Stand: Von Supercomputern zu ersten Quantenvorteilen

Die heutige Landschaft des Quantencomputings ist geprägt von einer enormen Diversität an Ansätzen und Hardware-Plattformen. Unternehmen wie IBM, Google, Microsoft, Intel und eine wachsende Zahl von Start-ups experimentieren mit supraleitenden Qubits, ionengefalleenen Qubits, topologischen Qubits und photonischen Systemen. Während die Anzahl der Qubits in den Prototypen stetig steigt – einige Systeme überschreiten bereits die 1000-Qubit-Marke –, ist die Qualität dieser Qubits, gemessen an Kohärenzzeit und Fehlerraten, entscheidend für die tatsächliche Leistungsfähigkeit. Derzeit befinden wir uns primär im Zeitalter des "Noisy Intermediate-Scale Quantum" (NISQ) Computing. Diese Geräte sind weder groß genug noch fehlerfrei genug, um komplexe Algorithmen wie Shor's Algorithmus zur Faktorisierung großer Zahlen auszuführen, der die heutige Kryptographie bedrohen könnte. Stattdessen liegt der Fokus auf der Erforschung von Quantenvorteilen ("Quantum Advantage") für spezifische Probleme, bei denen selbst ein unvollständiger Quantencomputer herkömmlichen Supercomputern überlegen sein kann. Solche Vorteile könnten beispielsweise in der Simulation von Molekülen, der Optimierung komplexer Systeme oder bestimmten maschinellen Lernaufgaben liegen. Die Herausforderung besteht darin, dass die Leistung eines Quantencomputers nicht allein von der Anzahl der Qubits abhängt, sondern maßgeblich von deren Vernetzungsgrad und der Fähigkeit, Fehler zu minimieren. Aktuelle Systeme sind anfällig für Dekohärenz – den Verlust des Quantenzustands durch Wechselwirkungen mit der Umgebung –, was zu Fehlern führt, die ohne fortschrittliche Fehlerkorrekturmechanismen schwer zu beherrschen sind.

Die Evolution der Qubit-Technologie

Verschiedene physikalische Realisierungen von Qubits haben ihre eigenen Stärken und Schwächen. Supraleitende Qubits, wie sie von IBM und Google verwendet werden, sind relativ einfach zu skalieren und lassen sich gut in bestehende Halbleiterfertigungsprozesse integrieren. Ihre Kohärenzzeiten sind jedoch begrenzt und sie erfordern extrem tiefe Temperaturen. Ionengefallene Qubits hingegen bieten oft längere Kohärenzzeiten und höhere Konnektivität, aber ihre Skalierung stellt eine größere Herausforderung dar. Unternehmen wie IonQ verfolgen diesen Ansatz mit beachtlichem Erfolg. Topologische Qubits, ein theoretisch vielversprechender Ansatz, der von Microsoft verfolgt wird, versprechen intrinsische Fehlerresistenz. Ihre experimentelle Realisierung ist jedoch extrem anspruchsvoll und noch in einem frühen Stadium. Photonische Systeme, die auf Lichtteilchen basieren, sind vielversprechend für die Übertragung von Quanteninformation und könnten eine Rolle in zukünftigen Quantennetzwerken spielen, aber die Erzeugung und Manipulation von verschränkten Photonen im großen Maßstab ist komplex.

Die Rolle von Quantenalgorithmen

Parallel zur Hardware-Entwicklung schreitet auch die Forschung an Quantenalgorithmen voran. Während Shor's und Grover's Algorithmen die bekanntesten Beispiele sind, konzentriert sich die aktuelle Forschung auf NISQ-kompatible Algorithmen. Dazu gehören der "Variational Quantum Eigensolver" (VQE) für chemische Simulationen und der "Quantum Approximate Optimization Algorithm" (QAOA) für Optimierungsprobleme. Diese Algorithmen nutzen eine Kombination aus Quanten- und klassischen Computern, um die Einschränkungen aktueller Quantenhardware zu überbrücken.
1000+
Qubits in aktuellen Prototypen
100+
Millionen US-Dollar für Quanten-Startups 2023
20+
Jahre Forschung bis zur breiten kommerziellen Anwendung erwartet

Schlüsselsektoren im Wandel: Wo Quantencomputer zuerst glänzen

Die transformative Kraft des Quantencomputings wird nicht alle Industriezweige gleichzeitig revolutionieren. Vielmehr werden bestimmte Bereiche mit hochgradig rechenintensiven Problemen die ersten Nutznießer sein. Die Periode 2026-2030 wird voraussichtlich von ersten, aber signifikanten Durchbrüchen in spezialisierten Anwendungsfällen geprägt sein, die heute mit klassischen Mitteln unlösbar sind oder extrem lange dauern würden.

Materialwissenschaft und Medikamentenentwicklung

Die Simulation von Molekülen und Materialien auf atomarer Ebene ist ein Paradebeispiel für ein Problem, das der Quantenmechanik unterliegt und daher ideal für Quantencomputer ist. Klassische Computer stoßen hier schnell an ihre Grenzen, da die Anzahl der möglichen Wechselwirkungen exponentiell mit der Größe des Systems wächst. Mit Quantencomputern werden Forscher in der Lage sein, die elektronische Struktur von Molekülen präziser zu berechnen. Dies ermöglicht die Entdeckung neuer Materialien mit verbesserten Eigenschaften, beispielsweise für Batterien mit höherer Energiedichte, effizientere Katalysatoren für chemische Reaktionen oder Supraleiter bei Raumtemperatur. In der Pharmazie kann dies die Entwicklung neuer Medikamente beschleunigen, indem die Wechselwirkung von Wirkstoffmolekülen mit biologischen Zielstrukturen exakt simuliert wird. Dies könnte zu gezielteren Therapien und einer Reduzierung der Entwicklungszeiten und -kosten führen. Unternehmen wie BASF und Merck investieren bereits in diese Richtung.
"Die Fähigkeit, molekulare Wechselwirkungen mit beispielloser Genauigkeit zu simulieren, wird die Materialwissenschaft und die Medikamentenentwicklung revolutionieren. Wir sprechen hier von der Entdeckung von Materialien, die wir uns heute noch nicht einmal vorstellen können."
— Dr. Anya Sharma, Leiterin Quantencomputing-Forschung, PharmaTech Innovations

Finanzwesen und Optimierungsprobleme

Der Finanzsektor ist ein weiterer Bereich, der von der Leistungsfähigkeit von Quantencomputern stark profitieren wird. Komplexe Optimierungsaufgaben sind dort allgegenwärtig: Portfolio-Optimierung, Risikomanagement, Derivatebewertung und Betrugserkennung. Quantenalgorithmen wie QAOA könnten es Finanzinstituten ermöglichen, optimale Anlagestrategien unter Berücksichtigung einer Vielzahl von Variablen und Einschränkungen zu finden. Die präzisere Bewertung von Risiken durch Simulation komplexer Marktzenarien wird ebenfalls ein wichtiger Anwendungsfall sein. Auch die Erkennung von komplexen Betrugsmustern, die heute oft unentdeckt bleiben, könnte durch Quantenanalysen verbessert werden. Die Möglichkeit, Finanzmodelle mit einer bisher unerreichten Genauigkeit und Geschwindigkeit zu simulieren, wird die Wettbewerbsfähigkeit von Banken und Investmentfonds erheblich steigern.

Künstliche Intelligenz und maschinelles Lernen

Die Schnittstelle zwischen Quantencomputing und Künstlicher Intelligenz (KI), bekannt als "Quantum Machine Learning" (QML), ist ein Forschungsfeld mit enormem Potenzial. Quantencomputer könnten bestimmte Aspekte des maschinellen Lernens beschleunigen oder verbessern, wie z.B. das Training komplexer Modelle, die Mustererkennung in riesigen Datensätzen oder die Optimierung von KI-Algorithmen. Algorithmen wie der "Quantum Support Vector Machine" oder "Quantum Neural Networks" versprechen, Muster zu erkennen, die für klassische Algorithmen zu komplex sind. Dies könnte zu Fortschritten in Bereichen wie Bilderkennung, Spracherkennung und der Analyse natürlicher Sprache führen. Insbesondere die Fähigkeit, nicht-lineare Beziehungen in Daten effizienter zu erfassen, ist ein vielversprechender Aspekt des QML.
Anwendungsbereich Erwarteter Reifegrad (2026-2030) Potenzielle Vorteile
Materialwissenschaft Frühe, spezialisierte Anwendungen (Simulation kleiner Moleküle) Entdeckung neuer Materialien, schnellere Medikamentenentwicklung
Finanzwesen Erste Optimierungs- und Simulationsanwendungen Verbesserte Portfolio-Optimierung, präzisere Risikobewertung
Logistik & Supply Chain Entwicklung von Optimierungsalgorithmen Effizientere Routenplanung, optimierte Lagerhaltung
Kryptographie Forschung und Entwicklung, keine breite Anwendung von Shor's Algorithmus Entwicklung post-quanten-resistenter Verschlüsselung
Künstliche Intelligenz Forschung und Entwicklung von QML-Algorithmen Beschleunigtes Training von ML-Modellen, verbesserte Mustererkennung

Die Hürden auf dem Weg zur breiten Anwendung

Trotz des rasanten Fortschritts und der vielversprechenden Aussichten sind die Hürden auf dem Weg zur breiten, kommerziellen Anwendung von Quantencomputern erheblich. Die Technologie befindet sich noch in einem frühen Stadium, und viele grundlegende Herausforderungen müssen überwunden werden, bevor Quantencomputer alltägliche Werkzeuge für Unternehmen und Forscher werden.

Qubit-Stabilität und Fehlerkorrektur

Die größte technische Herausforderung ist die Beherrschung von Qubits. Qubits sind extrem empfindlich gegenüber ihrer Umgebung. Selbst kleinste Störungen, wie Temperaturänderungen, Vibrationen oder elektromagnetische Felder, können ihren Quantenzustand zerstören (Dekohärenz) und zu Fehlern führen. Dies ist ein fundamentaler Unterschied zu klassischen Bits, die robust gegen solche Einflüsse sind. Um diese Fehler zu minimieren, sind fortschrittliche Quantenfehlerkorrekturtechniken erforderlich. Diese Techniken basieren darauf, dass die Information eines logischen Qubits über mehrere physikalische Qubits verteilt wird, sodass Fehler auf einzelnen physikalischen Qubits erkannt und korrigiert werden können, ohne die eigentliche Information zu zerstören. Die Implementierung dieser Techniken erfordert eine große Anzahl hochwertiger physikalischer Qubits und eine ausgeklügelte Kontrolle. Aktuelle Quantencomputer arbeiten im NISQ-Zeitalter, das heißt, sie sind "noisy" (fehleranfällig) und "intermediate-scale" (nicht groß genug für effektive Fehlerkorrektur auf universellem Niveau). Ein weiterer Aspekt ist die Skalierbarkeit. Die Anzahl der Qubits muss nicht nur erhöht, sondern auch die Konnektivität zwischen ihnen verbessert werden, um komplexe Algorithmen ausführen zu können. Die physikalische Realisierung von Systemen mit Tausenden oder gar Millionen von hochwertigen, miteinander verbundenen Qubits ist eine monumentale ingenieurtechnische Aufgabe.

Software und Algorithmen: Die Brücke zur Hardware

Neben den Hardware-Herausforderungen ist auch die Entwicklung von Software und Algorithmen entscheidend. Quantencomputer sind keine direkten Ersatz für klassische Computer; sie erfordern eine völlig neue Denkweise und neue Programmierparadigmen. Es müssen noch viele Quantenalgorithmen entwickelt und optimiert werden, die spezifische Probleme lösen können. Darüber hinaus benötigen wir leistungsfähige Software-Tools – Compiler, Debugger und Bibliotheken –, die es Entwicklern ermöglichen, Quantenprogramme zu schreiben, zu testen und auszuführen, ohne ein tiefes Verständnis der zugrundeliegenden Quantenmechanik zu benötigen. Die Abstraktionsebene zwischen Hardware und Anwendung muss deutlich erhöht werden. Die Entwicklung von "Quanten-spezifischem" Know-how ist ebenfalls eine Herausforderung. Es gibt derzeit einen Mangel an Fachkräften, die sowohl über Kenntnisse in Quantenphysik und Informatik als auch über Domänenwissen in Anwendungsbereichen verfügen.
Entwicklung der Qubit-Qualität (Simuliert)
Kohärenzzeit (µs)100
Fehlerrate (10⁻³)2.5
Qubit-KonnektivitätHoch
"Die Entwicklung von Quantensoftware ist mindestens genauso wichtig wie die Hardware. Ohne die richtigen Algorithmen und Tools wird die leistungsfähigste Quantenhardware ungenutzt bleiben. Wir müssen die Brücke zwischen Theorie und Praxis schlagen."
— Prof. Dr. Kai Müller, Leiter Institut für Quantensoftware, TU Berlin
Die Investitionen in diese Bereiche müssen parallel zur Hardware-Entwicklung erfolgen, um einen balancierten Fortschritt zu gewährleisten.

Die Hauptakteure im Quantenrennen

Das Quanten-Wettrüsten wird von einer Mischung aus etablierten Technologiegiganten, ambitionierten Start-ups und staatlichen Forschungsprogrammen vorangetrieben. Diese Akteure investieren Milliarden in Forschung und Entwicklung, um an der Spitze dieser technologischen Revolution zu stehen. Zu den führenden Unternehmen im Bereich Hardware und Plattformentwicklung zählen:
  • IBM: Mit seiner "IBM Quantum Experience" hat IBM frühzeitig Zugang zu Quantencomputern über die Cloud ermöglicht und verfolgt einen klaren Fahrplan zur Skalierung seiner supraleitenden Qubit-Architektur.
  • Google: Google hat mit seinem "Sycamore"-Prozessor bewiesen, dass Quantencomputer klassische Supercomputer für bestimmte Probleme übertreffen können (Quantenüberlegenheit). Ihr Fokus liegt ebenfalls auf supraleitenden Qubits.
  • Microsoft: Microsoft setzt auf die Entwicklung topologischer Qubits, die theoretisch inhärent fehlerresistent sind, aber deren experimentelle Realisierung ist komplex. Sie bieten zudem eine umfassende Software-Plattform mit dem "Azure Quantum" Service an.
  • Intel: Intel nutzt seine Expertise in der Halbleiterfertigung für die Entwicklung von Qubits, insbesondere auf Basis von Silizium-Spin-Qubits, die eine gute Skalierbarkeit versprechen.
  • IonQ: Dieses Start-up ist führend im Bereich ionengefallener Qubits und bietet seine Systeme über Cloud-Plattformen an. Sie zeichnen sich durch hohe Qubit-Qualität und Konnektivität aus.
  • Rigetti Computing: Rigetti entwickelt integrierte Quantenprozessoren auf Basis von supraleitenden Qubits und bietet eine eigene Software-Entwicklungsumgebung.
  • Pasqal: Ein europäisches Start-up, das sich auf neutrale Atom-Quantencomputer konzentriert und vielversprechende Ergebnisse erzielt.
Darüber hinaus spielen staatliche Initiativen eine entscheidende Rolle. Viele Länder, darunter die USA, China, die Europäische Union und Kanada, haben nationale Quantenprogramme aufgelegt, die erhebliche Mittel für Grundlagenforschung, Technologieentwicklung und die Ausbildung von Fachkräften bereitstellen. Diese Programme fördern die Zusammenarbeit zwischen Universitäten, Forschungsinstituten und der Industrie. Die Konkurrenz ist intensiv, aber auch die Bereitschaft zur Kooperation und zum Aufbau von Ökosystemen ist hoch. Die Veröffentlichung von Forschungsergebnissen und die Bereitstellung von Zugängen zu Quantencomputern über die Cloud sind wichtige Schritte, um die breitere wissenschaftliche und kommerzielle Gemeinschaft einzubinden.
10+
Führende Technologieunternehmen
5+
Milliarden US-Dollar staatliche Investitionen weltweit pro Jahr
100+
Quanten-Startups weltweit
Diese globalen Anstrengungen deuten darauf hin, dass die Zeit bis zur Kommerzialisierung zwar noch einige Jahre dauern wird, die Grundlage für die breitere Anwendung jedoch bereits jetzt gelegt wird.

Prognosen für die nächsten fünf Jahre: Meilensteine und Erwartungen

Der Zeitraum von 2026 bis 2030 wird voraussichtlich eine kritische Phase für die Entwicklung des Quantencomputings sein. Anstatt auf den universellen, fehlerkorrigierten Quantencomputer zu warten, wird sich der Fokus auf die Erreichung von "Quantenüberlegenheit" oder "Quantum Advantage" in immer mehr spezifischen Anwendungsbereichen verlagern. Bis 2026 könnten wir erste kommerziell nutzbare Lösungen sehen, die für bestimmte Nischenprobleme einen messbaren Vorteil gegenüber den besten klassischen Algorithmen und Hardware bieten. Dies könnten beispielsweise spezialisierte Chemiesimulationen sein, die für die Entwicklung neuer Medikamente oder Materialien entscheidend sind, oder komplexe Optimierungsprobleme im Logistik- oder Finanzwesen. Im Jahr 2028 ist es wahrscheinlich, dass die ersten skalierbaren Quantenprozessoren mit Tausenden von physischen Qubits verfügbar sein werden, die für die Erforschung erster Ansätze zur Quantenfehlerkorrektur genutzt werden können. Dies bedeutet noch nicht die vollständige Fehlerkorrektur, aber erste Schritte in diese Richtung, die die Zuverlässigkeit von Berechnungen auf kleineren Systemen erhöhen. Bis 2030 könnten die ersten Branchen, die von Quantencomputern profitieren, beginnen, ihre Geschäftsmodelle anzupassen. Dies könnte bedeuten, dass Unternehmen eigene Quantencomputing-Ressourcen über Cloud-Dienste beziehen oder spezialisierte Quanten-Algorithmen in ihre bestehenden Prozesse integrieren. Die Entwicklung von Software-Tools und Programmiersprachen wird voraussichtlich einen Reifegrad erreichen, der es mehr Entwicklern ermöglicht, Quantencomputer zu nutzen.

Die Rolle der Cloud und hybrider Ansätze

Die Cloud wird voraussichtlich der primäre Zugangsweg zu Quantencomputern bleiben. Unternehmen werden nicht die Notwendigkeit sehen, eigene, extrem teure und komplexe Quantencomputer zu bauen, sondern werden auf skalierbare Angebote von Anbietern wie IBM, Microsoft und Amazon zurückgreifen. Hybride Ansätze, bei denen bestimmte rechenintensive Teile eines Problems auf einem Quantencomputer und der Rest auf klassischen Computern bearbeitet wird, werden zur Norm. Dies ermöglicht es, die Stärken beider Technologien optimal zu nutzen.

Die Herausforderung der Standardisierung

Ein wichtiges Thema in den kommenden Jahren wird die Standardisierung sein. Mit der Zunahme verschiedener Hardware-Architekturen und Software-Plattformen wird die Notwendigkeit von Standards für Programmierschnittstellen, Datenformate und Algorithmen immer deutlicher. Dies erleichtert die Interoperabilität und beschleunigt die Entwicklung von Anwendungen.

Die nächste Generation von Quantenalgorithmen

Neben der Weiterentwicklung von NISQ-Algorithmen werden auch neue, potenziell noch leistungsfähigere Quantenalgorithmen erforscht, die von zukünftigen, fehlerkorrigierten Quantencomputern profitieren könnten. Dazu gehören verbesserte Versionen von Shor's Algorithmus, Grover's Algorithmus oder neue Algorithmen für die Simulation komplexer Quantensysteme.
2026
Erste kommerzielle Quantenvorteile erwartet
2028
Erste skalierbare Prozessoren mit Tausenden Qubits
2030
Quantencomputing als integraler Bestandteil für Nischenanwendungen
Die Entwicklungen in den nächsten fünf Jahren werden entscheidend dafür sein, ob das immense Potenzial des Quantencomputings in greifbare wirtschaftliche und wissenschaftliche Vorteile umgewandelt werden kann.

Die ethischen und gesellschaftlichen Implikationen

Die transformative Kraft des Quantencomputings bringt nicht nur immense technologische und wirtschaftliche Chancen mit sich, sondern wirft auch wichtige ethische und gesellschaftliche Fragen auf, die frühzeitig adressiert werden müssen. Einer der am meisten diskutierten Aspekte ist die Bedrohung der heutigen Kryptographie. Ein ausreichend großer und fehlerkorrigierter Quantencomputer könnte Shor's Algorithmus ausführen, um die öffentlich-schlüssel-basierten Verschlüsselungsverfahren (wie RSA), die das Rückgrat der Online-Sicherheit bilden, zu brechen. Dies hat weitreichende Konsequenzen für die Datensicherheit, die digitale Identität und die nationale Sicherheit. Die Entwicklung und Implementierung von "post-quanten-resistenter" Kryptographie ist daher eine dringende Aufgabe, die parallel zur Quantencomputerentwicklung vorangetrieben werden muss.
"Wir dürfen nicht warten, bis der Quantencomputer da ist, um die Kryptographie zu schützen. Die Migration zu post-quanten-resistenten Verfahren ist ein komplexer Prozess, der Jahre dauern wird und sofort beginnen muss."
— Dr. Sarah Chen, Cybersicherheitsexpertin, Global Security Institute
Darüber hinaus besteht die Sorge, dass die anfängliche Konzentration von Quantencomputing-Ressourcen und -Know-how bei wenigen großen Unternehmen oder wohlhabenden Nationen die digitale Kluft weiter vertiefen könnte. Es ist entscheidend, dass der Zugang zu dieser Technologie demokratisiert wird und die Vorteile einer breiteren Öffentlichkeit zugutekommen. Dies erfordert Investitionen in Bildung, die Förderung von Open-Source-Projekten und die Unterstützung von Entwicklungsinitiativen in Schwellenländern. Die potenzielle Automatisierung komplexer Aufgaben durch Quantencomputer könnte auch zu erheblichen Veränderungen auf dem Arbeitsmarkt führen. Während neue Berufsfelder entstehen werden (z.B. Quantensoftware-Entwickler, Quantenalgorithmen-Designer), könnten andere, die auf repetitiven oder datenintensiven Aufgaben basieren, durch die Leistungsfähigkeit von Quantenanalysen obsolet werden. Eine proaktive Anpassung von Bildungssystemen und Umschulungsprogrammen ist unerlässlich, um diesen Wandel abzufedern. Die fortgeschrittenen Simulationsfähigkeiten von Quantencomputern könnten auch zu neuen Möglichkeiten in der Forschung und Entwicklung führen, die tiefgreifende ethische Dilemmata aufwerfen. Beispielsweise die Entwicklung von hochwirksamen, aber potenziell gefährlichen neuen Materialien oder Medikamenten. Ein verantwortungsvoller Umgang mit dieser Technologie, begleitet von ethischen Richtlinien und Regulierungsmechanismen, ist von größter Bedeutung.
Wann werden Quantencomputer meine Daten unsicher machen?
Es wird geschätzt, dass ein Quantencomputer, der stark genug ist, um aktuelle Verschlüsselungen zu brechen, noch etwa 5-15 Jahre entfernt ist. Allerdings ist die Umstellung auf post-quanten-resistente Kryptographie ein langwieriger Prozess, der sofort beginnen muss, um zukünftige Daten zu schützen.
Werden Quantencomputer alle Arbeitsplätze ersetzen?
Es ist unwahrscheinlich, dass Quantencomputer alle Arbeitsplätze ersetzen. Sie werden bestimmte Aufgaben automatisieren, aber auch neue, hochspezialisierte Berufsfelder schaffen. Der Fokus wird auf der Anpassung des Arbeitsmarktes durch Bildung und Umschulung liegen.
Können normale Verbraucher Quantencomputer nutzen?
In naher Zukunft werden Quantencomputer wahrscheinlich über Cloud-Dienste zugänglich sein und indirekt durch Anwendungen genutzt werden, die auf ihnen basieren (z.B. verbesserte KI-gestützte Dienste). Eine direkte Nutzung durch Endverbraucher ist unwahrscheinlich.
Die Auseinandersetzung mit diesen Fragen ist nicht nur eine technische, sondern auch eine gesellschaftliche Notwendigkeit, um sicherzustellen, dass die Entwicklung des Quantencomputings zum Wohle der gesamten Menschheit verläuft.