時々世間を騒がせている量子コンピューター。
結局、実用になるのかならないのか。
たぶん実用化できない。
概要
量子もつれやら、量子重ね合わせやらを利用して、「特定の用途で古典的コンピューターよりも桁違いの性能をたたき出す」と言われている。
ここ数年の進捗は目覚ましく、2011年にD-Waveが初の商用量子コンピューターを発売、IBMやGoogleなどの大企業も研究開発を加速し、年々量子コンピューターの量子ビット数が増加、計算能力が増加し、2019年にGoogleが量子超越性を実証したと発表している。
その後も量子コンピューターの開発競争がすさまじい勢いで行われている。
で、2025年初頭での量子コンピューターの現況は、
-
ここ15年ほど、量子コンピューターの実用化に向けた技術開発は順調に進んでいる。
-
超電導回路、イオン方式、半導体方式、光方式等、様々な方法からアプローチが試みられ、広く深く研究されている。
-
量子ビット数が徐々に増え、エラー率は徐々に低下しており、実用化に向けて歩を進めている。
-
2019年には量子超越性を実証した(量子コンピューターが古典コンピューターに対して、特定の問題においてはるかに優れた計算能力を持つということを証明した)、と主張している。
-
古典コンピューターのような汎用計算機ではないものの、このままの進歩を続ければ、量子コンピューターは古典コンピューターに対して桁違い(というか、2の桁違い乗レベルの)計算能力を達成できる。そしてBitcoinが崩壊する。
-
ただし、それには量子ビットの増加・エラー率の低下が必要で、それは2030年以降になるだろう。
上記は私の印象だが、量子コンピューターの現況として大きな間違いはないと思う。
ここで私が疑問に思うのは、
-
量子超越性は本当に実証されたのか。
-
このまま性能向上(量子ビットの増加・エラー率の低下)して、古典コンピューターを遥かに凌駕する性能を達成できるのか。
ということだ。
なんとなくだが、私はいずれも否定的と考えている。
「量子超越は実証されておらず、特定の問題に限っても量子コンピューターは古典コンピューターには及ばない。進歩を続けても、エラーの問題で頭打ち。量子コンピューターの性能を上げていくと、結局古典コンピューターになる。並行宇宙で無限の計算能力というのは、エラーを考慮しないナイーブな希望だった。」というのが、私の予想。
まあ、専門家でも何でもない素人が勝手に考えているだけだけど。
量子超越性は証明されたのか
これが専門的過ぎて全く分からない。
-
ランダム量子回路サンプリング(RCS: random circuit sampling):現在の量子コンピューターで計算しやすく、かつ現在の古典コンピューターで計算が大変な問題を考案する。そして、Head to headで戦わせたところ、量子コンピューターの圧勝、ということらしい。
-
その他の企業:IBMの反論
-
その後の進展:
-
開発スパンが長すぎる
研究開発の分野において、実現までの期間の予測はほとんど当てにならない。
例えば、「空飛ぶ自動車が開発されていて、数年後に実用化の見通しだ」というニュースを聞く。これを聞いたのは数日前だ。
私が子供のころにも、同じニュースを聞いた。
つまり数年という見通しはいい加減で、数年というのは「数年以上、上界なし」という意味だ。
ちなみに、私が子供だったのも数年前だ。
1‐2年の期間は、「だいたい実現可能」
小学生のころ、アシスト自転車が開発されていると聞き、その翌年に発売された。
3‐4年の期間は、「たぶん・もしかしたら実現可能」
5年くらいになると、だいぶ怪しくなってくる。カーボンナノチューブの領域だ。
素晴らしい特性を持っており、様々な製品で応用が期待されている。数年後に製品化されるという話を、数年前に聞いた。
10年以上になると、まず分からない。
10年以上かつ永遠未満。核融合炉の領域。
-
技術は一歩一歩進み、改善している。
-
いずれ、その技術は実現できそうな見通しがある。
-
が、それには10年以上かかりそうだ。
-
1に戻る。
という無限ループ。
そんなアキレスの亀群に、量子コンピューターは入るのではないか。
注:「20年30年に渡る地道な基礎研究は無意味」という意味では全くない。あくまで、「長いスパンにわたる研究は、期間の予測や成功失敗の予測が非常に困難である」ということ。
量子エラー問題
ど素人の私がなんとなく思ったこと。
-
そもそも、量子ゆらぎやら、量子もつれやら、重ね合わせやら、量子コンピューターの原理には本質的にエラーが内在している。
-
エラーがないようにすると、量子コンピューターから離れて、古典的になってしまうのではないか。
-
エラー訂正技術も開発されているようだが、それで問題が解決されない、という現状がよく分からない(古典的コンピューターである私の頭だと、あるエラー訂正技術があれば、それを重ね掛けしてエラー発生率を下げ、あとは量子コンピューターを線形に進化させれば良い、と思うが、そうなってはいない。おそらく量子の本質がそうさせないのだろう)。
根拠も何もないが、量子エラーは量子コンピューターの本質的な問題であり、解決は不可能ではないか(エラー訂正で量子の性質が失われ、古典コンピューターに近づいていくのではないか)と、なんとなく思う。
量子ビットと素人
年々規模が拡大していて、105ビットやら、今年は256ビットやら、景気の良いニュースが並んでいる。
そもそもの疑問として、エラー訂正は除いて単純化すると、量子ビットが増加に従って指数関数的に計算能力が向上するのではないのか。
量子コンピューターの計算の原理は、重ね合わせや量子もつれに基づいている。ビット数が増えると、その分計算能力が向上する。
105ビットから256ビットに増加すると、計算能力は2.5倍ではなく、2の151倍に向上するはずだ。
まさに夢のような話だが、そのニュースからはその夢感は感じられない。
なぜだろうか。
まとめ
-
量子コンピューターの研究開発が行われているが、開発の成果の発表(主にGoogleから)と、ここ数年の進捗状況に乖離があると感じる。
-
量子超越性の実証は疑わしい(5年前に実証されていたら、その5年間の進歩でさらなる桁違いの超越性の実証や、実証に用いられる問題の拡大があるはずだが、それがない)。
-
量子ビット数が増えると、夢のように計算能力が向上する、というのが量子コンピューターの原理のはずだが、何故かそんな夢のような話は聞かない。
-
科学研究の未来予測は困難で、5年後10年後に実現するというのは無意味な言葉である(繰り返しになるが、5年10年の長期にわたる研究が無意味ということではない)。
-
量子エラーの根本的な解決は不可能に感じる。
-
汎用計算においても特定計算においても、量子コンピューターが古典コンピューターを上回ることはないと予想する。
無数の平行宇宙、無数の量子で計算することは出来る。
しかし、その計算結果を抽出して取り出すことは出来ない。
なぜなら我々の世界は、無数の平行宇宙、無数の量子で計算した結果の一つであるから。
というオチではないだろうか。
まあ、クローン禁止定理の言い換えのような気もするが。
おまけ
ネガティブなことしか書いていない・・・
量子コンピューターは、量子の性質を維持しつつ大規模計算を行おうとする試み。
つまりはシュレーディンガーの猫を拡大させる試みだ。
不確実な量子の世界を広げて、それがどのように古典的な世界とつながっているか。
量子コンピューターはコンピューティングではなく、量子力学と古典力学がどのようにつながっていくかの解明、つまり物理学の進歩に役立つかもしれない。