GQCO方法的边界¶
一、问题类型与建模范式的边界¶
1. 只能处理伊辛型二值组合优化问题¶
- 要求问题可写成: $$ H = \sum_{i<j} J_{ij}\sigma_iz\sigma_jz + \sum_i h_i\sigma_i^z $$
- 即:
- 变量必须是二值(±1 / {|0>,|1>});
- 目标函数能完全用单体项 \(h_i\) 和双体耦合 \(J_{ij}\) 表示。
- 不能直接覆盖:
- 连续变量优化;
- 一般的混合整数规划;
- 高阶相互作用(如三体、四体)除非再用额外辅助变量重写成伊辛形式(这会增大规模和复杂度)。
边界 1:从根本建模上,GQCO 是“伊辛模型求解器”,不是“通用优化求解器”。
2. 强依赖“图表示 + 手工特征工程”的编码方式¶
- 输入不是原始问题文本/矩阵,而是:
- 图结构 \(G=(V,E)\):结点=自旋/变量,边=非零 \(J_{ij}\);
- 节点/边特征是一系列
sgn形式的手工符号特征(如 sgn(h_i−h_j)、sgn(h_i h_j J_ij))。 - 这套编码是**为伊辛问题量身定做的**:
- 换其他形式(如QUBO矩阵、约束图、SAT子句)就需要重新设计特征甚至重训编码器;
- 迁移到“完全不同类型的优化问题”时,原有编码几乎不能直接复用。
边界 2:它不是一个“输入任意问题就能理解”的通用编码器,而是高度特化的伊辛图编码方案。
二、规模与计算资源的边界¶
3. 量子比特规模:目前可信范围仅在 3–10 qubit¶
- 模型设计上:门池定义理论支持到 20 qubit;
- 但**训练和系统评测只在 3–10 qubit 随机伊辛实例上完成**:
- 所有 MoE/课程学习策略也是围绕 3–10 qubit 调的;
- 在 >10 qubit 上性能几乎是“未验证区域”。
边界 3:3–10 qubit 是当前版本在论文中“真正有数可讲”的范围,>10 qubit 只能算设想,而非已证实能力。
4. 训练复杂度受制于全振幅模拟(2^n 墙)¶
- 每次训练更新,需要流程:
- 对单个问题实例采样 M 个电路;
- 每条电路都要用状态向量模拟器算期望能量 \(\langle H\rangle\),时间和内存都 ∝ \(2^n\)。
- 所以:
- qubit 数每+1,训练成本理论上翻一倍左右;
- 实际上到 10 qubit 就已非常吃力,再往上基本难以维持同样训练策略。
边界 4:在现有训练范式下,“经典仿真墙”把规模几乎锁死在 10 几个 qubit 左右。
三、电路表示能力与门池设计的边界¶
5. 固定门池(vocabulary)+ 固定离散角度¶
- 门池是**训练前写死的 1901 个门 token**:
- 若干 ½ 比特门(H、RX/RY/RZ、CNOT、RZZ 等);
- 每个旋转门只允许 6 个角度:\(\{\pm\pi/3,\pm\pi/4,\pm\pi/5\}\);
- 控制/目标比特组合全部展开。
- 结果:
- 电路中**没有连续可调的量子参数**;
- 任何角度、拓扑创新都要通过“重新定义门池 + 重训解码器”来实现。
边界 5:电路表达力被固定门池和粗颗粒角度强约束;想要“更细、更丰富”就意味着要重做一套门词表和训练。
6. 电路深度与复杂性边界¶
- 生成电路的长度(门数)约束为:
- 最大长度 \(L_{\max}=2n\);
- 生成到第 4 个门后,若采样到结束 token 才允许提前结束;
- 原因:
- 控制电路过深,避免模拟/真机开销失控;
- 但也**同时限制了电路能表达的量子过程复杂度**。
边界 6:在给定 n 下,GQCO 只能探索“浅到中等深度”的电路,没法系统性探索更深、更复杂的演化。
四、性能与“量子性”的边界¶
7. 电路“类 Clifford”,量子优势空间有限¶
- 实验与可视化表明:
- 去掉只改变全局相位的门后,许多高质量电路和 Clifford 电路很相似;
- 行为像一种“智能比特翻转 + 简单纠缠”的启发式,而不是高度依赖量子干涉的复杂态。
- 这意味着:
- 在当前测试任务上,经典算法有很大机会用类似策略达到相当性能;
- 实质性的“量子优势”空间非常有限甚至不存在。
边界 7:在当前设定与规模下,它学到的是“高级版经典启发式”,而不是“必须靠量子机制才能实现的策略”。
8. 性能目标单一:只盯着期望能量¶
- 训练用的信号本质是**期望能量越低越好**;
- 但实际优化中可能更关心:
- 成功找到基态/近基态的概率;
- 样本复杂度(需要跑多少次电路测量);
- 鲁棒性(对噪声、实例扰动的敏感度)。
- 这些在当前框架中都没有被显式建模、优化。
边界 8:它优化的是“期望能量”这一单指标,对更丰富的应用指标和鲁棒性没有内建支持。
五、泛化与实用性的边界¶
9. 泛化边界:问题分布与特征工程强绑定¶
- 训练数据:特定分布的随机伊辛实例;
- 特征工程:一整套针对 \(h_i,J_{ij}\) 的符号特征向量。
- 因此:
- 对于结构、系数分布与训练集差异很大的真实问题(如稀疏/规则图、图着色、物流调度映射过来的 Ising),性能不确定;
- 换一种任务族,通常要重做特征与训练。
边界 9:泛化主要限于“训练分布附近”的伊辛问题,对于现实复杂问题族没有保证。
10. 训练成本 vs 使用场景的性价比边界¶
- 为了得到一个“见到新问题就能直接生成电路”的模型:
- 训练阶段投入:大量随机实例 + 海量电路采样 + 升级版DPO/CPO优化;
- 推理阶段收益:新实例只需一次前向(或若干采样)就能给出电路。
- 在很多实际场景:
- 需要求解的实例数量有限(几十/几百个);
- 或问题本身不大,经典启发式+单实例VQA就够用。
边界 10:只有在“要反复求解大批量、分布相似的小规模伊辛问题”时,这种一次性重训大模型才有合理经济价值;否则性价比偏低。
六、工程与扩展性的边界¶
11. 门池/硬件适配的工程边界¶
- 门池与特定“理论门集 + 角度网格”紧耦合:
- 想适配某个实际硬件的原生门集(超导 / 离子阱 / 光量子)时,很可能要重设门池;
- 不仅是替换门类型和角度,还涉及不同比特拓扑(线性、二维网格)的连线限制。
- 每次改门池,都意味着:
- 修改词表、embedding、输出层;
- 至少重训/重度微调解码器一轮。
边界 11:面对不同硬件、不同原生门集时,迁移成本高,不算“即插即用”。
12. 训练范式的刚性边界¶
- 训练范式固定为:
- Graph Transformer 编码伊辛图;
- 自回归 Transformer 解码电路序列;
- 对每个问题一次采样多条电路,基于能量排序做 DPO/CPO 更新。
- 若想:
- 接入强化学习式的“逐门交互反馈”;
- 使用近似评估器 + 真机校正的混合训练;
- 或者让模型输出“骨架 + 连续参数”;
- 都需要对整个训练 loop 做大改动,几乎等于在 GQCO 之上再开发一个新框架。
边界 12:当前训练管线对“替代性优化信号、逐步交互、连续参数加入”等新思路较刚性,不是轻量改一两处就能搞定的。
七、概括性总结¶
综合上面各个维度,可以把 GQCO 的“边界”概括成几条主线:
- 任务边界:
- 本质上是“伊辛型二值组合优化问题”的专用生成求解器;
-
对其他问题形态和建模方式高度依赖人工重写与特征工程。
-
规模边界:
- 现实现有训练范式下,可信规模约 3–10 qubit;
-
受制于 \(2^n\) 量子模拟开销,很难直接扩展到几十 qubit 以上。
-
表达力边界:
- 受限于固定门池、有限离散角度和浅电路深度;
-
已学到的策略多是“类Clifford + 智能比特翻转”,很难体现深层量子干涉与潜在量子优势。
-
泛化与实用性边界:
- 泛化依赖于训练分布与手工特征,对真实复杂问题缺少保证;
-
训练成本巨大,只有在“海量、同分布小规模伊辛实例”场景里性价比才说得过去。
-
工程与扩展边界:
- 门池一旦定死,后续适配新门集/新硬件都要大动;
- 训练管线与“全振幅模拟 + DPO/CPO”强绑,对引入近似评估、真机在环、连续参数等新思想的兼容性有限。
你可以把这些边界视作:在不改变现有范式的前提下,GQCO 实际上能走到的“能力边界”和“扩展边界”。
要越过其中任何一条边界(比如规模、表达力或硬件适配),通常就意味着不仅要改模型细节,而是要动到它背后的一整套设计假设。