最近有朋友問到一個很關鍵的問題:很多美股在關注到的時候已經(jīng)暴漲過了,如何挖掘出下一個百倍股呢?這個問題仁者見仁智者見智,但我認為最好的辦法是對關鍵產(chǎn)業(yè)趨勢建立前瞻認知,提前布局,買在無人問津時。
就在最近,2025 年諾貝爾物理學獎正式揭曉,量子計算成最大贏家。本期我們就來仔細聊聊量子計算,老規(guī)矩用 AlphaEngine 來解讀。量子計算是一個非常宏大且精彩的話題,本期是專題的上篇,主要講清楚量子計算的基本原理、最新技術突破、核心標的清單。下篇我會詳細介紹量子計算目前的六種主流技術路徑,一二級市場頭部公司的最新進展。
量子計算行業(yè)正處于從 " 科學狂想 " 向產(chǎn)業(yè)化落地的關鍵拐點。
驅動這一轉變的核心是量子糾錯(QEC)技術的實質性突破。
當前量子計算處于" 含噪聲的中尺度量子階 "(NISQ,Noisy Intermediate-Scale Quantum)。
每臺量子計算機包含數(shù)十到數(shù)千個物理量子比特,但這些比特易受環(huán)境噪聲干擾,導致計算保真度有限,無法執(zhí)行需要高精度的大規(guī)模算法。
因此,產(chǎn)業(yè)界聚焦于專用機商業(yè)化與混合算法應用兩大路徑。
以 D-Wave 的量子退火機為代表的專用量子計算機已實現(xiàn)部分商業(yè)落地,為金融、物流、制造等行業(yè)提供顯著效率提升,其 2025 年 Q1 營收同比增長超 500% 驗證了該路徑的盈利能力。
量子 - 經(jīng)典混合計算是當前最實用的模式,通過將量子處理器(QPU)與經(jīng)典高性能計算(GPU)結合,解決特定復雜任務。
英偉達的 CUDA-Q 平臺、IBM 的 Qiskit 引擎正加速構建此生態(tài),為量子算力落地提供關鍵基礎設施。
量子計算的中期目標(約 2030 年前后) 是實現(xiàn) " 含糾錯的實用量子計算 " ,核心在于通過量子糾錯碼(QEC)將多個含噪聲的物理量子比特編碼成一個高保真度的邏輯量子比特,從而大幅提升計算的可靠性。
行業(yè)龍頭已發(fā)布明確的邏輯量子比特發(fā)展路線圖。
Quantinuum 計劃在 2027 年實現(xiàn) 100 個邏輯量子比特。
IBM 規(guī)劃在 2029 年交付包含 200 個邏輯比特的 Starling 系統(tǒng),并在 2033 年推出具備 2000 個邏輯量子比特的 Blue Jay 系統(tǒng)。
量子計算的長期目標是構建全面容錯量子計算機(Fault-Tolerant Quantum Computing,F(xiàn)TQC),其運算錯誤率將接近經(jīng)典計算機,能夠執(zhí)行 Shor 算法等對算力要求極高的復雜算法,從而解決經(jīng)典計算機無法處理的重大科學和商業(yè)問題。
FTQC 的核心是具備足夠數(shù)量和質量的邏輯量子比特,能夠長時間維持量子相干性并執(zhí)行深度復雜的量子電路。
這將使破解現(xiàn)有公鑰密碼體系(如 RSA 加密)成為可能,并為新材料設計、新藥研發(fā)等領域帶來革命性突破。
科技巨頭正為此目標進行長期布局,比如谷歌計劃在 2030 年實現(xiàn)百萬物理量子比特的容錯量子計算機。
微軟則通過拓撲量子計算這一顛覆性路線,期望從根本上提升量子比特的穩(wěn)定性,以期在未來幾年內擴展至百萬量子比特規(guī)模。
量子計算的基本原理一:量子疊加
要理解量子計算的行業(yè)發(fā)展趨勢,勢必要先理解量子計算的基本原理。
量子計算是基于量子力學的獨特行為的計算模式,以量子比特為基本信息單位。
量子計算用到了量子力學的三個基本特性,即 " 量子疊加 "" 量子糾纏 "" 量子干擾 ",我們一個一個來看。
量子疊加是量子力學的核心特性,它允許一個微觀粒子同時處于多種可能狀態(tài)的線性組合中。
經(jīng)典比特在任何時刻只能是 0 或 1,如同已落地硬幣的正反面。
而量子比特(Qubit)則可以同時處于 0 和 1 的疊加態(tài),好比一枚正在旋轉的硬幣,包含了 " 正面 "" 反面 " 以及兩者之間的所有可能性。
這種狀態(tài)的不確定性是量子系統(tǒng)內稟的物理特性,直至測量發(fā)生時,其狀態(tài)才會 " 坍縮 " 到一個確定的經(jīng)典值(0 或 1)。
量子疊加原理賦予了量子計算天然的并行處理能力 。
由于單個量子比特可以表示 0 和 1 的疊加,n 個量子比特組成的系統(tǒng)便可以同時表示和存儲 2^n 種狀態(tài)。
這意味著,對 n 個量子比特的一次操作,等效于對 2^n 個經(jīng)典數(shù)值同時進行運算。
隨著量子比特數(shù)量的增加,其計算空間呈指數(shù)級增長,遠超經(jīng)典計算機的線性算力增長模式。
這種指數(shù)級的并行計算能力,使量子計算機在處理特定復雜問題(如大數(shù)分解、量子化學模擬)時,能夠同時探索海量的可能性,從而突破經(jīng)典計算的算力瓶頸,展現(xiàn)出巨大的潛在優(yōu)勢。
量子計算的基本原理二:量子糾纏
量子糾纏是兩個或多個量子系統(tǒng)間存在的非局域強關聯(lián),被愛因斯坦稱為 " 幽靈般的超距作用 "。
在這種狀態(tài)下,多個量子比特構成一個不可分割的整體,其整體狀態(tài)是確定的,但單個比特的狀態(tài)無法被獨立描述。
對其中一個粒子進行測量,會瞬間影響到另一個或多個糾纏粒子的狀態(tài),無論它們相距多遠,這種瞬時效應突破了經(jīng)典物理的局域性限制。
量子糾纏的非局域關聯(lián)特性,賦予了量子計算強大的全域協(xié)同能力,這對解決復雜系統(tǒng)問題而言至關重要。
糾纏態(tài)使得量子計算機能夠高效處理經(jīng)典計算機難以應對的多體系統(tǒng)問題,例如在量子化學模擬、新材料設計和藥物研發(fā)等領域,通過模擬分子間的復雜相互作用,實現(xiàn)指數(shù)級加速。
量子糾纏也是量子密鑰分發(fā)(QKD)等安全技術的基礎。
任何對糾纏信道的竊聽行為都會破壞其關聯(lián)性,從而被通信雙方立即察覺,確保信息傳輸?shù)慕^對安全。
量子計算的基本原理三:量子干涉
量子干涉的物理本質源于量子態(tài)的波動性。
每個量子比特的疊加態(tài)都可由一個包含振幅和相位的波函數(shù)描述。
當一個量子系統(tǒng)通過不同路徑演化時,這些路徑對應的波函數(shù)會發(fā)生干涉。
通過精確調控量子態(tài)的相位關系,可以實現(xiàn)相長干涉和相消干涉。
當不同路徑的波函數(shù)相位一致或相近時,它們的概率幅會疊加增強,從而顯著提高最終測量到該結果的概率。
反之,當波函數(shù)相位相反時,它們的概率幅會相互抵消,導致測量到該結果的概率降低甚至歸零。
這種通過控制相位來重塑最終結果概率分布的能力,是量子計算操控信息的核心物理機制。
量子算法的核心即是巧妙地利用量子干涉效應,以實現(xiàn)對經(jīng)典算法的加速。
算法的設計目標是通過一系列精確的量子門操作,系統(tǒng)性地調整計算過程中各個路徑的相位,每個量子門都線性作用在整個疊加態(tài)上 。
通過設計量子門序列,使得所有通往正確答案的計算路徑產(chǎn)生相長干涉,其概率幅被放大,增強正確解。
同時,確保通往所有錯誤答案的計算路徑發(fā)生相消干涉,使其概率幅被削弱或完全抵消。
通過這種方式,量子系統(tǒng)在演化結束時,其狀態(tài)會以極高的概率坍縮到期望的解上。
這正是 Shor 算法、Grover 算法等能夠高效求解特定問題的關鍵所在,它們通過干涉效應將計算資源集中于尋找正確答案,從而實現(xiàn)指數(shù)級或平方級的加速。
量子計算的六大步驟
總結一下,量子計算利用了量子力學的三個基本特性,通過量子疊加讓 2^n 條計算路徑在同一套硬件里同步演化,大幅節(jié)省計算資源,最后通過量子干涉讓正確答案顯現(xiàn)出來。
從宏觀角度來看,量子計算過程可分為六個步驟,如下圖所示。
首先是構建物理量子比特(Create Qubits),這是量子計算機的硬件基礎,量子比特能夠表現(xiàn)出量子行為,如疊加態(tài)和糾纏態(tài)。
然后是初始化(Initialization),將量子比特重置到一個 " 干凈 " 的起始狀態(tài),清除所有疊加和糾纏,確保計算過程一致且無噪聲。常見的起始狀態(tài)是計算基態(tài) |0 ,也叫 "ket zero"。
第三步是應用量子門(Run Gates)。通過量子門將量子比特置于疊加和糾纏狀態(tài),把要解決的問題 " 編碼 " 進量子系統(tǒng)中。
第四步是執(zhí)行量子算法(Circuit Execution)。這里的量子電路(Circuit)指的是為完成特定計算任務而設計的一系列量子門的組合。
第五步是演化(Evolution)。通過量子電路,以特定順序應用量子門,可以處理編碼后的量子態(tài),量子門通過相長或相消干涉實現(xiàn)特定的量子邏輯,推動系統(tǒng)演化。
第六步是測量(Measurement)。當所有操作完成后,量子比特的狀態(tài)中應包含問題的解。
此時進行測量,量子比特會從量子態(tài)坍縮為經(jīng)典比特,供后續(xù)分析或決策使用。
值得注意的是,測量后的量子比特并不會 " 永久變成經(jīng)典比特 " 或失去作用,它們可以被重新初始化,回到基態(tài),用于未來的量子計算。
量子計算的主流技術路徑
目前全球量子計算產(chǎn)業(yè)采用的六條主流技術路線,分別是:超導、離子阱、光子、中性原子、拓撲、自旋,每種技術路徑因計算方法的科學本質不同而各有優(yōu)劣,尚未有單一技術路線形成絕對主導。
從成熟度來看,超導 ≈ 離子阱 > 光子 ≈ 中性原子 > 自旋 > 拓撲。
光子與中性原子技術路徑的長期擴展性更強,超導和自旋適合中期過渡。
截止目前,超導(IBM 127 量子比特處理器)、離子阱(IonQ 32 量子比特)已進入云服務階段,率先嘗試商業(yè)化,下面分別來看。
超導量子計算的核心在于構建約瑟夫森結(Josephson Junction), 利用了超導材料在極低溫(約 10mK)環(huán)境下的宏觀量子效應。
IBM 公司在推出 1121 個量子比特的 "Condor" 處理器后,該處理器將錯誤率降低了 3 — 5 倍,并計劃在 2025 年內發(fā)布擁有 1386 個量子比特的 "Kookaburra" 處理器,持續(xù)鞏固其在規(guī)模化上的領先地位。
Google 公司則通過其新一代 "Willow" 芯片,將量子比特的有效計算時間提升至 100 微秒,相比前代產(chǎn)品性能提升了 5 倍,顯著增強了執(zhí)行復雜量子算法的能力。
離子阱路線以其超高保真度(>99.9%)和長相干時間為核心優(yōu)勢,在需要高精度計算的場景中已初步商業(yè)化 。
其技術核心在于利用精密調控的電磁場,在超高真空環(huán)境中囚禁單個帶電原子(離子),并將其作為量子比特。
通過高精度激光束對離子的內部電子能級和外部振動模式進行冷卻與操控,實現(xiàn)量子比特的初始化、量子邏輯門操作以及最終狀態(tài)的讀出。
截至 2025 年,離子阱路線在構建高質量、可糾錯的量子計算機方面取得關鍵突破。
Quantinuum 實現(xiàn)了包含 50 個糾纏邏輯量子比特的系統(tǒng),其雙比特邏輯門保真度超過 98%,展現(xiàn)了顯著的容錯計算能力,是邁向實用化容錯量子計算的重要里程碑。
IonQ 在商業(yè)化部署上保持領先,其 Forte Enterprise 系統(tǒng)已集成至數(shù)據(jù)中心,提供 36 個算法量子比特(#AQ 36)的計算能力。
與需要接近絕對零度環(huán)境的超導路線不同,離子阱系統(tǒng)可在室溫或接近室溫的環(huán)境下運行,顯著降低了對昂貴制冷設備(如稀釋制冷機)的依賴,從而降低了硬件復雜度和運營成本。
當前量子計算的主要瓶頸:量子退相干
量子退相干(Quantum Decoherence)是制約量子計算邁向實用化的根本物理瓶頸。
該過程指量子比特因與外部環(huán)境(如溫度波動、電磁輻射、環(huán)境噪聲)發(fā)生不可避免的相互作用,導致其賴以實現(xiàn)并行計算的疊加態(tài)與糾纏態(tài)信息迅速丟失,最終 " 退化 " 為經(jīng)典比特,嚴重影響計算的準確性與可靠性。
通俗地說, 外部環(huán)境像無數(shù)只 " 隱形的手 " 不斷偷看量子態(tài),把量子信息坍縮成經(jīng)典信息,導致量子算法失效。
比如在超導量子系統(tǒng)中,宇宙射線撞擊即可引發(fā)準粒子濃度驟增,顯著縮短量子比特能量弛豫時間,直接導致量子態(tài)存儲失效。
量子比特的穩(wěn)定性直接體現(xiàn)在 " 相干時間 "(Coherence Tme)這一核心指標上,即量子態(tài)能夠維持其量子特性的時長。
盡管技術進步顯著,例如麻省理工學院已將特定量子態(tài)的維持時間從微秒級提升至 10 秒,但該水平距離運行復雜算法所需的數(shù)小時乃至更長時間仍存在巨大鴻溝,遠未達到實用化門檻。
相干時間的數(shù)量級限制,是當前所有量子計算硬件平臺共同面臨的核心性能天花板,直接決定了量子計算機所能執(zhí)行的運算規(guī)模和深度。
量子退相干的應對之策:量子糾錯(QEC)
如果說量子退相干是 " 出錯 " 的根源,量子糾錯就是 " 打補丁 " 的解決方案,本質上是為了應對量子退相干帶來的 " 量子信息丟失 " 問題。
量子糾錯的核心思路是將量子信息備份到多個物理比特中,即使部分比特因退相干丟失信息,也能通過整體關聯(lián)恢復原始信息。
這種 " 冗余編碼 " 的本質,是用更多的物理資源對抗退相干帶來的 " 信息損耗 "。
盡管量子糾錯在理論層面已取得進展,但其在真實物理系統(tǒng)中的高效實現(xiàn)仍需時日。
量子糾錯面臨最直接的挑戰(zhàn)是其驚人的物理資源開銷。
以當前主流的表面碼(Surface Code)為例,構建一個具備糾錯能力的 " 邏輯量子比特 ",預計需要大約 1000 個物理量子比特進行編碼冗余, 嚴重制約了容錯量子計算機的規(guī)模化進程。
量子糾錯技術的前沿進展
為應對規(guī)模化的挑戰(zhàn),量子糾錯(QEC)技術正從傳統(tǒng)的表面碼向多元化創(chuàng)新路徑演進, 探索編碼效率更高、資源消耗更少的新一代糾錯技術。
微軟在高效編碼領域取得關鍵突破,其提出的4D 拓撲量子糾錯碼展現(xiàn)出巨大潛力。
該技術通過在四維空間中對糾錯碼進行幾何旋轉,實現(xiàn)了物理資源的顯著優(yōu)化,構建邏輯量子比特所需的物理量子比特數(shù)量減少了 5 倍。
更重要的是,該編碼方案能將物理錯誤率從 10 的水平大幅降低至 10 量級,實現(xiàn)了千倍的性能提升。
除了編碼理論的革新,動態(tài)化和智能化也成為量子糾錯的前沿方向。
麻省理工學院(MIT)在 2024 年研發(fā)的 " 動態(tài)糾錯網(wǎng)絡 " 是該領域的代表性成果,該技術能夠根據(jù)實時噪聲情況動態(tài)調整糾錯策略,成功將實現(xiàn)特定糾錯任務所需的量子比特數(shù)量從百萬級(10^6)銳減至千級(10^3),并預計在 2026 年實現(xiàn)工程化應用。
與此同時,利用機器學習輔助量子糾錯的探索也日益深入,通過引入基于深度學習的糾錯方案和零噪聲外推等算法,系統(tǒng)能夠更智能地識別和抑制噪聲,顯著提升量子計算的穩(wěn)定性與糾錯能力。
量子計算的頭部玩家: 純量子企業(yè)與科技巨頭并存
目前參與量子計算研發(fā)、提供量子計算硬件云服務的頭部企業(yè)有兩類,分別是純量子計算公司和科技巨頭。
前者有四家,分別是D-Wave、Rigetti、IonQ、Quantum Computing。
后者包括 IBM、谷歌、微軟、英偉達、亞馬遜和英特爾等科技巨頭。
除上市公司之外,多家知名非上市公司在 量子計算研發(fā)和部署方面已取得重要里程碑,得到了大量一級市場資金支持。
比如 PsiQuantum、Quantinuum、Infleqtion、Pasqal、SEEQC、Atom Computing、Alice & Bob、Quantum Circuits、QuEra、Alpine Quantum Technologies、Xanadu、OQC 和 Diraq。
每家公司在量子計算領域的技術路徑、商業(yè)化選擇各有差異,我會在下篇詳細展開,這里先給出標的清單。