哈密顿量学习
一、闭系统:哈密顿量学习的基本套路¶
1. 问题形式化¶
假设你的系统是闭的,满足:
$ \dot\rho(t) = -i[H(\theta), \rho(t)] $
- \(H(\theta)\) 是你要学的**有效哈密顿量**,通常事先知道“形式”(比如自旋链、Ising、Heisenberg 等),但不知道具体参数 \(\theta\)(耦合强度、局域磁场等);
- 你能做的:
- 准备若干初始态 \(\rho(0)\)(可能是基态、简单的纯态等);
- 对系统施加控制脉冲(或设定演化时间 \(t\));
- 在不同时间、不同测量基底下测量输出。
目标:从这些「(控制, 初态) → 测量结果」数据中**反推 \(\theta\)**。
2. 标准流程(抽象成 4 步)¶
- 参数化哈密顿量
写成固定的算符展开:
$ H(\theta)=\sum_k \theta_k P_k $
- \(P_k\) 是一组已知的 Hermitian 基(例如各种 Pauli 串 \(\sigma_i^\alpha\sigma_j^\beta\)),
-
\(\theta_k\) 是待估计的实参数(耦合常数、局域场等)。
-
设计实验并采集数据
- 选若干初态 \(\{\rho_j(0)\}\);
- 对每个初态,施加控制 \(u\)(脉冲序列、演化时间)并测量一组可观测量 \(\{O_m\}\);
-
得到数据集: $ \mathcal{D} = \left{ (u_j, t_j, \langle O_m\rangle_{j}) \right} $
-
建模:从数据拟合 \(\theta\)
这里 AI/ML 登场,有几种常用做法:
#### (1)“基于物理模型 + 参数拟合”的 ML
- 先用参数化的 \(H(\theta)\) 做数值演化: $ \rho_{j}^{\text{pred}}(t_j;\theta) = e{-iH(\theta)t_j}\rho_j(0)e $
- 预测测量值: $ \langle O_m \rangle_{j}^{\text{pred}} = \text{Tr}\left[O_m \rho_{j}^{\text{pred}}(t_j;\theta)\right] $
- 用损失函数最小化“预测 vs 实验”的误差: $ \mathcal{L}(\theta) = \sum_{j,m} \left(\langle O_m \rangle_{j}^{\text{pred}} - \langle O_m \rangle_{j}{\text{exp}}\right)2 $
- 优化器可以用:
- 经典梯度下降 / Adam;
- 或贝叶斯优化(高斯过程)——在「数据少、每点代价高」时特别合适。
AI 在这里的角色本质上是:
高效求解“反问题”的参数估计器,在复杂多参数、非凸的空间里找到那组 \(\theta\)。
#### (2)用 NN 直接学习“控制 → 测量”再反推参数
- 搭一个神经网络 \(f_\phi\),输入是实验条件(控制脉冲参数、时间、初态标签),输出是**预测测量结果**;
- 训练好后,再对网络进行“反演”:
- 要么给网络增加一个输出头专门输出 \(\theta\);
- 要么通过对 \(\theta\) 的梯度优化,让 \(f_\phi(\theta)\) 拟合实验数据。
这种做法优点是:
- 不必每次显式做昂贵的薛定谔演化,可以让 NN 学习一个“近似时间演化器”;
- 对实验噪声和未建模效应更鲁棒一些。
#### (3)RNN / 时序模型重构动力学
- 给 RNN 输入一段时间序列测量结果(例如多时刻 \(\langle Z_i(t)\rangle\) 序列);
- 让 RNN 输出**系统参数 \(\theta\)** 或下一时刻的预测;
-
通过在大量模拟数据上训练,让模型学会“某种时间行为 ↔ 某种 \(\theta\)”的对应关系。
-
验证与交叉检验
-
用学到的 \(H(\theta^\*)\) 去预测**一批没参与训练的新实验设置**下的测量结果;
- 比较误差,若在实验误差范围内一致,说明学到的哈密顿量是可信的“有效模型”;
- 反之要么模型形式不对,要么数据不够 / 噪声建模有问题。
文献中把这整个方向称为 Hamiltonian learning[1][2][7],已经形成一个比较通用的框架,并被用于学习多种量子平台的小规模系统模型。
二、开放系统:如何从数据中学到噪声 / Lindblad 算符?¶
真实设备往往是**开放量子系统**,满足 Lindblad 主方程:
$ \dot\rho(t) = -i[H,\rho] + \sum_k \left(L_k\rho L_k^\dagger - \tfrac12{L_k^\dagger L_k,\rho}\right) $
这里 \(\{L_k\}\) 就是你问的**噪声算符 / 路径**,反映退相干、弛豫等过程。
1. 难点¶
- 相比纯哈密顿量,多了大量自由度(每个 \(L_k\) 本身是算符);
- 噪声可能是**非马尔可夫的**(带记忆),用简单 Lindblad 很难直接描述。
2. 两条主路线(综述中提到的)¶
路线 A:嵌入非马尔可夫 → 马尔可夫,再学习嵌入¶
思路:[8][9]
- 物理上把系统 + 环境扩展成更大 Hilbert 空间,使得整体演化是马尔可夫的;
- 在这个扩展空间上,用 ML 学习**等效的 Lindblad 算符和演化**;
- 再把环境自由度“迹出”,得到原系统的有效非马尔可夫动力学。
实操上:
- 用 RNN / 时序 NN 去拟合「当前态 → 下一时刻态」的映射,相当于在状态空间里学习一个“带记忆”的有效 Lindbladian;
- 或用参数化的噪声核(memory kernel)+ NN 进行拟合。
路线 B:直接用 NN 参数化 Lindbladian¶
综述中明确写到:
“neural networks can directly capture the process by parameterizing the Lindbladian operators”[1]。
做法非常直接:
- 选一个 Lindblad 算子基,如: $ L_k(\phi) = \sum_j c_{kj}(\phi)\,F_j $
- \(F_j\) 是一组固定基(例如 Pauli 串);
-
系数 \(c_{kj}(\phi)\) 由 NN 输出(参数 \(\phi\) 是 NN 权重);
-
NN 的**输入**:
- 控制脉冲 / 时间 / 初态标签等实验条件;
- NN 的**输出**:
- 一组 \(L_k\) 的系数 + 可能还有 \(H\) 的参数;
- 用 Lindblad 方程数值积分得到 \(\rho(t)\),再预测测量值,与实验数据做 loss,反向传播更新 NN 权重 \(\phi\)。
此外,综述还提到一个更具体的例子:
“在给定噪声模型下,ML‑assisted characterization 能通过学习 Lindbladian 方程中的衰减参数,发现两能级系统”[1]。
也就是:
- 已知噪声结构的形式(比如只有退相干 / 弛豫),
- 但不知道具体衰减率 \(\gamma_k\),
- 用 ML 从实验测量中**估计这些衰减率**。
这个就是完完全全的“用 ML 学 Lindblad 参数”。
三、在“有限实验数据”条件下,AI 做了哪些关键设计?¶
综述文中反复强调两个现实约束:
- 量子实验**贵且慢**:每个数据点(一次设置 + 多次测量平均)都要时间;
- 噪声和不完美导致数据“脏”。
在这种前提下,哈密顿量 / 噪声学习要想可行,AI 主要做了三件事:
1. 主动选择“信息量最大”的实验(主动学习 / 贝叶斯优化)¶
- 不是盲目扫一大片参数空间,而是用贝叶斯方法 / 信息增益准则,
逐步选择**“当前最能缩小参数不确定性”的下一个实验设置**; - 这样在有限总测量预算下,尽量多“榨”到关于 \(\theta, L_k\) 的信息;
- 文献中提到已经有 Hamiltonian learning 方法“只需可行量级的量子输入数据”来表征噪声很大的 NISQ 设备[1][7]。
2. 引入“物理约束”,减少模型自由度¶
文中明确说:
“ML‑assisted characterization can be greatly simplified by the inclusion of relevant information, e.g., observable constraints, which combine physics equations to guide deep learning models”[1]。
也就是把“我们已知的物理规律”强行塞进模型:
- 强制哈密顿量 Hermitian:\(H = H^\dagger\);
- 对称性约束:如平移对称、局域相互作用、守恒量等;
- 已知的噪声类型约束:只允许某几种 Lindblad 通道(退相干、弛豫等)。
好处:
原本无限多可能的 H / L,被压缩到一个**低维、物理合理的参数空间**,所以少量数据就够了。
3. 迁移学习、预训练 + 少量真实数据微调¶
综述中提到“reverse cascade”和 transfer learning[1]:
- 在**理论上理解得很好的小系统**上,先用模拟/实验数据把模型预训练好;
- 再把模型迁移到结构相似、规模稍大或噪声更真实的系统上,用少量新数据微调;
- 比如先在理想的 spin chain 上学一个哈密顿量识别器,再迁移到实际超导/半导体阵列上。
这对于“有限数据 + 噪声重”的 NISQ 实验特别关键。
四、把闭系统 + 开放系统放在一起看:一句话图景¶
你可以这么总结:
- 闭系统(无耗散):
- 假定哈密顿量形式 \(H(\theta)\) 已知,只是不知道参数;
- 用主动设计的控制和测量,采集尽量“信息量大的”有限数据;
-
用带物理约束的 ML 模型去拟合这些数据,从而得到 \(\theta\)。
-
开放系统(有噪声):
- 在上面基础上,再为噪声部分引入参数化形式(Lindblad 算符)或时序 NN;
- 一并从数据中拟合 \((H, \{L_k\})\);
- 对于非马尔可夫,通常用“嵌入 + NN”或时序模型去学。
整个过程的本质:
把“量子系统识别”变成一个**带强物理先验的监督 / 半监督学习问题**:
模型结构来自量子力学,参数通过有限实验数据 + AI 优化来确定。
如果你接下来想进一步细化,我可以帮你把其中一条路线完全公式化,比如:
- “假设一个两比特 Ising 模型,具体写出:怎么选测量、怎么定义 loss、怎么优化 \(\theta\)?”
- 或者
- “给一个简单 Lindblad 方程例子,演示如何从 T1/T2 测量中用 NN 拟合噪声参数”。
你可以选一个你熟的体系(例如超导、量子点、自旋链),我帮你按这个体系写一套“可落地实现的”哈密顿量学习小方案。
References¶
[1] PAGE_3_LEARNING_MODELS_OF_QUANTUM_SYSTEMS. s41467-025-65836-3.pdf.
[2] PAGE_13_REFERENCES_HAMILTONIAN_LEARNING_AND_NON_MARKOVIAN. s41467-025-65836-3.pdf.
[7] PAGE_7_QUANTUM_DOT_AND_HAMILTONIAN_PARAMETER_LEARNING. s41467-025-65836-3.pdf.
[8] PAGE_13_LUCHNIKOV_NON_MARKOVIAN_EMBEDDING. s41467-025-65836-3.pdf.
[9] PAGE_13_BANCHI_RNN_FOR_NON_MARKOVIAN. s41467-025-65836-3.pdf.