跳转至

哈密顿量学习

一、闭系统:哈密顿量学习的基本套路

1. 问题形式化

假设你的系统是闭的,满足:

$ \dot\rho(t) = -i[H(\theta), \rho(t)] $

  • \(H(\theta)\) 是你要学的**有效哈密顿量**,通常事先知道“形式”(比如自旋链、Ising、Heisenberg 等),但不知道具体参数 \(\theta\)(耦合强度、局域磁场等);
  • 你能做的:
  • 准备若干初始态 \(\rho(0)\)(可能是基态、简单的纯态等);
  • 对系统施加控制脉冲(或设定演化时间 \(t\));
  • 在不同时间、不同测量基底下测量输出。

目标:从这些「(控制, 初态) → 测量结果」数据中**反推 \(\theta\)**。

2. 标准流程(抽象成 4 步)

  1. 参数化哈密顿量
    写成固定的算符展开:

$ H(\theta)=\sum_k \theta_k P_k $

  • \(P_k\) 是一组已知的 Hermitian 基(例如各种 Pauli 串 \(\sigma_i^\alpha\sigma_j^\beta\)),
  • \(\theta_k\) 是待估计的实参数(耦合常数、局域场等)。

  • 设计实验并采集数据

  • 选若干初态 \(\{\rho_j(0)\}\)
  • 对每个初态,施加控制 \(u\)(脉冲序列、演化时间)并测量一组可观测量 \(\{O_m\}\)
  • 得到数据集: $ \mathcal{D} = \left{ (u_j, t_j, \langle O_m\rangle_{j}) \right} $

  • 建模:从数据拟合 \(\theta\)
    这里 AI/ML 登场,有几种常用做法:

#### (1)“基于物理模型 + 参数拟合”的 ML

  • 先用参数化的 \(H(\theta)\) 做数值演化: $ \rho_{j}^{\text{pred}}(t_j;\theta) = e{-iH(\theta)t_j}\rho_j(0)e $
  • 预测测量值: $ \langle O_m \rangle_{j}^{\text{pred}} = \text{Tr}\left[O_m \rho_{j}^{\text{pred}}(t_j;\theta)\right] $
  • 用损失函数最小化“预测 vs 实验”的误差: $ \mathcal{L}(\theta) = \sum_{j,m} \left(\langle O_m \rangle_{j}^{\text{pred}} - \langle O_m \rangle_{j}{\text{exp}}\right)2 $
  • 优化器可以用:
    • 经典梯度下降 / Adam;
    • 或贝叶斯优化(高斯过程)——在「数据少、每点代价高」时特别合适。

AI 在这里的角色本质上是:

高效求解“反问题”的参数估计器,在复杂多参数、非凸的空间里找到那组 \(\theta\)

#### (2)用 NN 直接学习“控制 → 测量”再反推参数

  • 搭一个神经网络 \(f_\phi\),输入是实验条件(控制脉冲参数、时间、初态标签),输出是**预测测量结果**;
  • 训练好后,再对网络进行“反演”:
    • 要么给网络增加一个输出头专门输出 \(\theta\)
    • 要么通过对 \(\theta\) 的梯度优化,让 \(f_\phi(\theta)\) 拟合实验数据。

这种做法优点是: - 不必每次显式做昂贵的薛定谔演化,可以让 NN 学习一个“近似时间演化器”;
- 对实验噪声和未建模效应更鲁棒一些。

#### (3)RNN / 时序模型重构动力学

  • 给 RNN 输入一段时间序列测量结果(例如多时刻 \(\langle Z_i(t)\rangle\) 序列);
  • 让 RNN 输出**系统参数 \(\theta\)** 或下一时刻的预测;
  • 通过在大量模拟数据上训练,让模型学会“某种时间行为 ↔ 某种 \(\theta\)”的对应关系。

  • 验证与交叉检验

  • 用学到的 \(H(\theta^\*)\) 去预测**一批没参与训练的新实验设置**下的测量结果;

  • 比较误差,若在实验误差范围内一致,说明学到的哈密顿量是可信的“有效模型”;
  • 反之要么模型形式不对,要么数据不够 / 噪声建模有问题。

文献中把这整个方向称为 Hamiltonian learning[1][2][7],已经形成一个比较通用的框架,并被用于学习多种量子平台的小规模系统模型。


二、开放系统:如何从数据中学到噪声 / Lindblad 算符?

真实设备往往是**开放量子系统**,满足 Lindblad 主方程:

$ \dot\rho(t) = -i[H,\rho] + \sum_k \left(L_k\rho L_k^\dagger - \tfrac12{L_k^\dagger L_k,\rho}\right) $

这里 \(\{L_k\}\) 就是你问的**噪声算符 / 路径**,反映退相干、弛豫等过程。

1. 难点

  • 相比纯哈密顿量,多了大量自由度(每个 \(L_k\) 本身是算符);
  • 噪声可能是**非马尔可夫的**(带记忆),用简单 Lindblad 很难直接描述。

2. 两条主路线(综述中提到的)

路线 A:嵌入非马尔可夫 → 马尔可夫,再学习嵌入

思路:[8][9]

  1. 物理上把系统 + 环境扩展成更大 Hilbert 空间,使得整体演化是马尔可夫的;
  2. 在这个扩展空间上,用 ML 学习**等效的 Lindblad 算符和演化**;
  3. 再把环境自由度“迹出”,得到原系统的有效非马尔可夫动力学。

实操上:

  • 用 RNN / 时序 NN 去拟合「当前态 → 下一时刻态」的映射,相当于在状态空间里学习一个“带记忆”的有效 Lindbladian;
  • 或用参数化的噪声核(memory kernel)+ NN 进行拟合。

路线 B:直接用 NN 参数化 Lindbladian

综述中明确写到:

“neural networks can directly capture the process by parameterizing the Lindbladian operators”[1]。

做法非常直接:

  1. 选一个 Lindblad 算子基,如: $ L_k(\phi) = \sum_j c_{kj}(\phi)\,F_j $
  2. \(F_j\) 是一组固定基(例如 Pauli 串);
  3. 系数 \(c_{kj}(\phi)\) 由 NN 输出(参数 \(\phi\) 是 NN 权重);

  4. NN 的**输入**:

  5. 控制脉冲 / 时间 / 初态标签等实验条件;
  6. NN 的**输出**:
  7. 一组 \(L_k\) 的系数 + 可能还有 \(H\) 的参数;
  8. 用 Lindblad 方程数值积分得到 \(\rho(t)\),再预测测量值,与实验数据做 loss,反向传播更新 NN 权重 \(\phi\)

此外,综述还提到一个更具体的例子:

“在给定噪声模型下,ML‑assisted characterization 能通过学习 Lindbladian 方程中的衰减参数,发现两能级系统”[1]。

也就是:

  • 已知噪声结构的形式(比如只有退相干 / 弛豫),
  • 但不知道具体衰减率 \(\gamma_k\)
  • 用 ML 从实验测量中**估计这些衰减率**。

这个就是完完全全的“用 ML 学 Lindblad 参数”。


三、在“有限实验数据”条件下,AI 做了哪些关键设计?

综述文中反复强调两个现实约束:

  • 量子实验**贵且慢**:每个数据点(一次设置 + 多次测量平均)都要时间;
  • 噪声和不完美导致数据“脏”。

在这种前提下,哈密顿量 / 噪声学习要想可行,AI 主要做了三件事:

1. 主动选择“信息量最大”的实验(主动学习 / 贝叶斯优化)

  • 不是盲目扫一大片参数空间,而是用贝叶斯方法 / 信息增益准则,
    逐步选择**“当前最能缩小参数不确定性”的下一个实验设置**;
  • 这样在有限总测量预算下,尽量多“榨”到关于 \(\theta, L_k\) 的信息;
  • 文献中提到已经有 Hamiltonian learning 方法“只需可行量级的量子输入数据”来表征噪声很大的 NISQ 设备[1][7]。

2. 引入“物理约束”,减少模型自由度

文中明确说:

“ML‑assisted characterization can be greatly simplified by the inclusion of relevant information, e.g., observable constraints, which combine physics equations to guide deep learning models”[1]。

也就是把“我们已知的物理规律”强行塞进模型:

  • 强制哈密顿量 Hermitian:\(H = H^\dagger\)
  • 对称性约束:如平移对称、局域相互作用、守恒量等;
  • 已知的噪声类型约束:只允许某几种 Lindblad 通道(退相干、弛豫等)。

好处:

原本无限多可能的 H / L,被压缩到一个**低维、物理合理的参数空间**,所以少量数据就够了。

3. 迁移学习、预训练 + 少量真实数据微调

综述中提到“reverse cascade”和 transfer learning[1]:

  • 在**理论上理解得很好的小系统**上,先用模拟/实验数据把模型预训练好;
  • 再把模型迁移到结构相似、规模稍大或噪声更真实的系统上,用少量新数据微调;
  • 比如先在理想的 spin chain 上学一个哈密顿量识别器,再迁移到实际超导/半导体阵列上。

这对于“有限数据 + 噪声重”的 NISQ 实验特别关键。


四、把闭系统 + 开放系统放在一起看:一句话图景

你可以这么总结:

  1. 闭系统(无耗散)
  2. 假定哈密顿量形式 \(H(\theta)\) 已知,只是不知道参数;
  3. 用主动设计的控制和测量,采集尽量“信息量大的”有限数据;
  4. 用带物理约束的 ML 模型去拟合这些数据,从而得到 \(\theta\)

  5. 开放系统(有噪声)

  6. 在上面基础上,再为噪声部分引入参数化形式(Lindblad 算符)或时序 NN;
  7. 一并从数据中拟合 \((H, \{L_k\})\)
  8. 对于非马尔可夫,通常用“嵌入 + NN”或时序模型去学。

整个过程的本质:

把“量子系统识别”变成一个**带强物理先验的监督 / 半监督学习问题**:
模型结构来自量子力学,参数通过有限实验数据 + AI 优化来确定。


如果你接下来想进一步细化,我可以帮你把其中一条路线完全公式化,比如:

  • “假设一个两比特 Ising 模型,具体写出:怎么选测量、怎么定义 loss、怎么优化 \(\theta\)?”
  • 或者
  • “给一个简单 Lindblad 方程例子,演示如何从 T1/T2 测量中用 NN 拟合噪声参数”。

你可以选一个你熟的体系(例如超导、量子点、自旋链),我帮你按这个体系写一套“可落地实现的”哈密顿量学习小方案。


References

[1] PAGE_3_LEARNING_MODELS_OF_QUANTUM_SYSTEMS. s41467-025-65836-3.pdf.
[2] PAGE_13_REFERENCES_HAMILTONIAN_LEARNING_AND_NON_MARKOVIAN. s41467-025-65836-3.pdf.
[7] PAGE_7_QUANTUM_DOT_AND_HAMILTONIAN_PARAMETER_LEARNING. s41467-025-65836-3.pdf.
[8] PAGE_13_LUCHNIKOV_NON_MARKOVIAN_EMBEDDING. s41467-025-65836-3.pdf.
[9] PAGE_13_BANCHI_RNN_FOR_NON_MARKOVIAN. s41467-025-65836-3.pdf.