München, 10. Februar 2026 – Quantencomputing hat das Potenzial, komplexe geschäftliche Problemstellungen deutlich schneller zu lösen als herkömmliche Computer. Kein Wunder, dass ein riesiger Hype entstanden ist und viele Unternehmen sich fragen, wie sie die Technologie am besten einsetzen können. NTT DATA (https://de.nttdata.com/), ein weltweit führender Anbieter von KI-, digitalen Business- und Technologie-Services, nennt Hürden und Risiken, die Unternehmen im Blick haben sollten, um nicht von hohen Kosten und ausbleibenden Erfolgen überrascht zu werden.
Sicherheitsexperten warnen schon lange davor, dass Quantencomputing bald leistungsfähig genug sein könnte, um kryptografische Verfahren, an denen sich herkömmliche Computer die Zähne ausbeißen, in wenigen Minuten oder Stunden zu knacken. Das liegt vor allem daran, dass die Technologie bestimmte Berechnungen unglaublich schnell durchführen kann – etwas, dass sich nicht nur für das Brechen von Verschlüsselungsalgorithmen, sondern auch für viele Anwendungsfälle im Unternehmensalltag nutzen lässt. So gehen Experten beispielsweise davon aus, dass sich mit Quantencomputing zahlreiche Optimierungsaufgaben – etwa bei der Planung von Routen oder Produktionsabläufen – ebenso massiv beschleunigen lassen wie die Erforschung neuer chemischer Verbindungen und Materialien.
Bevor Unternehmen allerdings ins Quantencomputing einsteigen und große Investitionen tätigen, sollten sie sich klarmachen, dass die Technik komplex ist und sich bislang kaum im geschäftlichen Alltag nutzen lässt. Bislang geht es vor allem darum, Wissen und Erfahrung zu sammeln, um einen strategischen Vorteil zu besitzen, sobald sich wirtschaftlich tragfähige Anwendungsfälle zeigen. Die größten Herausforderungen dabei sind nach Einschätzung von NTT DATA:
– Technische Limitierungen: Quantencomputer basieren auf sogenannten Qubits, die anders als die klassischen Bits heutiger Computer gleichzeitig 0 und 1 sowie Werte dazwischen darstellen können. Bislang ist die Zahl der Qubits in einem Quantencomputer auf wenige Hundert begrenzt – und damit auch die Rechenleistung der Systeme. Erst wenn es gelingt, die Zahl der Qubits deutlich zu steigern, wird Quantencomputing ausreichend Performance für die Berechnungen im Geschäftsalltag liefern. Bis dahin müssen noch große Stabilitätsprobleme gelöst werden, denn derzeit gibt es gerade bei komplexen Rechenoperationen viel Rauschen und Fehler, die sich nur teilweise durch Fehlerkorrekturmechanismen ausgleichen lassen. Universitäten, Forschungsinstitute und auch viele Unternehmen arbeiten mit Hochdruck daran, diese Limitierungen zu überwinden und erste kommerzielle Erfolge zu erzielen. Wie lange das noch dauern wird, lässt sich jedoch nicht seriös prognostizieren – der große Durchbruch kann jederzeit gelingen oder noch lange auf sich warten lassen.
– Konkurrierende Software-Stacks: Die verschiedenen Anbieter von Quantencomputern verfolgen unterschiedliche Hardware-Ansätze und bieten einen jeweils eigenen Software-Stack an, der in der Regel nicht mit den Plattformen und Tools anderer Anbieter kompatibel ist. Unternehmen, die mit mehr als einem System Erfahrung sammeln wollen, müssen also viel investieren: in Quantencomputing-Services bei mehreren Anbietern und die separate Entwicklung von Algorithmen auf deren jeweiligem Software-Stack. Hinzu kommt, dass die Entwicklung der Hardware schnell voranschreitet, es aber keine richtige Rückwärtskompatibilität gibt. Das heißt, es kann notwendig sein, die Algorithmen immer wieder anzupassen oder gar neu zu entwickeln, wenn sich die Hardware verändert. Um dieses Problem zu überwinden, werden inzwischen von spezialisierten Unternehmen erste Lösungen für systemübergreifende Frameworks angeboten. Diese befinden sich jedoch noch im Aufbau und decken bisher nur begrenzte Plattformen ab.
– Fehlendes Know-how: Da angewandtes Quantencomputing eine noch vergleichsweise junge Technologie ist, gibt es nur wenige Experten für das Thema, und Unternehmen müssen das notwendige Wissen erst intern aufbauen. Das ist mühsam, da die Technologie komplex ist und sich rasch weiterentwickelt – das erworbene Know-how also schnell veralten kann. Zudem konzentrieren sich die Schulungsangebote meist auf eine technologische Plattform, wobei nicht absehbar ist, welche Hardware-Ansätze und Software-Stacks sich letztlich auf breiter Front durchsetzen werden. Und nicht zuletzt besteht natürlich die Gefahr, dass die aufwendig ausgebildeten Experten anschließend abgeworben werden, da sie im Markt äußerst rar und gefragt sind.
– Unbekannte Use Cases: Quantencomputing steckt noch in den Kinderschuhen und es ist bislang kaum absehbar, welche Anwendungsfälle sich mit der Technologie später wirtschaftlich umsetzen lassen. Bislang gibt viele konzeptionelle Ideen, etwa bei kombinatorischen Optimierungen, Künstlicher Intelligenz, in der Materialwissenschaft und Chemie sowie in der Kryptografie, aber nur eine überschaubare Anzahl praxistauglicher Algorithmen. Kein Vergleich zu dem breiten Software-Angebot aus der Welt klassischer Computer, in der es für eigentlich jede Aufgabe eine Anwendung gibt. Unternehmen müssen also zunächst ermitteln, für welche ihrer geschäftlichen Problemstellungen sich Quantencomputing überhaupt eignet – und dann die entsprechenden Algorithmen selbst entwickeln, um verifizieren zu können, ob die Umsetzung tatsächlich machbar ist und einen geschäftlichen Nutzen bringt. Die Untersuchungen von Quantencomputing-Anbietern können hier helfen und Orientierung bieten. Eins zu eins auf die eigenen Use Cases übertragbar sind sie allerdings nur selten.
– Hohes Investitions- und Regulierungsrisiko: Quantencomputer sind extrem teuer, weshalb es für Unternehmen sinnvoller ist, Quantencomputing-Ressourcen in der Cloud zu mieten, anstatt eigene Hardware anzuschaffen und zu betreiben. Dennoch besteht ein hohes Investitionsrisiko, da der Aufbau von Know-how, die Entwicklung von Algorithmen und die Evaluierung von Anwendungsfällen ebenfalls mit nicht unerheblichen Kosten und vielen Unsicherheiten verbunden sind. Insbesondere unter dem Aspekt, dass durch die angesprochene Diversifizierung der Technologie eine Evaluierung immer an einen bestimmten Anbieter gebunden ist. Nicht zuletzt besteht das Risiko, dass Staaten wie die USA und China den Zugang zu Hardware oder Software im Rahmen ihrer Wirtschafts- und Sicherheitspolitik zukünftig beschränken oder ganz verbieten. Zwar existieren bereits heute vielversprechende europäische Quantencomputer, diese können sich aber noch nicht im internationalen Vergleich gegen die großen Anbieter behaupten. Auch hier besteht darüber hinaus das Risiko, dass die kommerzielle Nutzung europäischer Quantencomputer im Rahmen von EU-Regularien zukünftig eingeschränkt werden könnte.
„Universell einsatzbare Quantencomputer sind noch Zukunftsmusik, doch Unternehmen, die sich schon jetzt mit der Technologie beschäftigen, können sich erhebliche Wettbewerbsvorteile sichern“, betont Christian Nietner, Innovation Center Lead for Quantum Computing bei NTT DATA DACH. „Die Technologie ist schlicht zu disruptiv, um sie zu ignorieren, und der große Durchbruch ist jederzeit möglich. Wer dann erst anfängt, Wissen aufzubauen und Erfahrung zu sammeln, verliert viel Zeit und hat womöglich schon entscheidende Marktanteile eingebüßt. Dennoch sollte der frühzeitige Einstieg ins Quantencomputing nicht blauäugig erfolgen, denn die Investitionen und Risiken sind hoch. Ein erfahrener und herstellerunabhängiger Partner, der mögliche Use Cases aufzeigt, zur Technologieauswahl berät und bei der Entwicklung von Prototypen unterstützt, kann daher äußerst wertvoll sein und viele Risiken minimieren.“
Dieses Listicle und das Bild in höherer Auflösung können unter www.pr-com.de/companies/ntt-data abgerufen werden.
