此论文并不是基于迁移学习,理论基础是扩散映射。扩散映射(Diffusion Maps)是由 Coifman 和 Lafon 于 2006 年提出的一种非线性降维和数据结构分析方法,其核心思想是通过模拟高维数据上的 “热扩散过程”,捕捉数据的内在几何结构(如流形结构),并将高维数据映射到低维空间以保留关键的拓扑和几何信息。
1. 基本符号与目标
设图像像素总数为
目标:通过扩散凝聚将
2. 亲和矩阵(Affinity Matrix)的构建
亲和矩阵用于衡量数据点(嵌入向量)之间的相似性,是扩散过程的基础。
文档中通过高斯核函数定义亲和矩阵
其中:
是数据矩阵 中的两个样本(嵌入向量) 是欧氏距离的平方,衡量两样本的差异 是带宽参数(bandwidth),控制邻域范围: 越大,更多远处的点会被视为"相似",邻域越广
3. 扩散算子(Diffusion Operator)的定义
扩散算子将亲和矩阵转换为"概率转移矩阵",模拟数据点之间的"扩散"过程(类似马尔可夫随机游走)。
首先定义度矩阵(degree matrix)
扩散算子
4. 扩散凝聚的迭代过程
扩散凝聚通过时变扩散过程(time-inhomogeneous diffusion)实现粗粒度化:随着迭代,数据点逐渐向"局部重心"聚集,小簇合并为大簇,形成从细到粗的粒度层次。
迭代步骤:
-
初始化:设初始数据矩阵为
(原始嵌入向量) -
迭代更新(对于
): - 计算当前数据
的亲和矩阵 (使用公式 3) - 计算度矩阵
(使用公式 4b) - 计算扩散算子
(使用公式 4a) - 更新数据矩阵:
- 计算当前数据
即:
5. 核心机制:从细粒度到粗粒度的演化
扩散凝聚的本质是交替执行"相似性计算"和"数据聚合":
每次迭代中:
重新计算当前数据点的相似性 将相似性转换为转移概率 使每个数据点向"相似点的加权平均"(局部重心)移动,实现"凝聚"
随着迭代次数
- 初始阶段(小
):仅最相似的点聚集,形成细粒度的小簇 - 后期阶段(大
):小簇逐渐合并为大簇,形成粗粒度的分割