发布时间2025-05-24 19:32:24 来源:小编 阅读次数:次
使用了stop-gradient操作(记为sg):这是为了避免「二阶反向传播」,从而减小优化的计算负担。
研究人员的关键见解是:可以对平均速度的定义公式进行数学变形,从而构造一个更易于训练的优化目标,即使在只能访问瞬时速度的前提下依然可行。
因此■◆,在采样阶段,无需再进行线性组合计算,只需直接网络调用即可完成一步采样(见算法2)■★◆◆★。
到目前为止,上述公式还没有涉及任何网络参数。现在引入可学习的模型u_θ,并希望它满足MeanFlow恒等式(公式(6))。
平均流(Mean Flows)的核心思想是:引入一个表示平均速度的新场(velocity field),而传统Flow Matching所建模的是瞬时速度◆◆。
05月14日,微视频|◆★■★■“改”革图强◆◆★■,无罪辩护是什么意思(刑事案件无罪辩护),澳门永利入口★◆,凯发娱乐手机网上登录,雷竞技登录■★★◆◆。
在CIFAR-10数据集(32×32)上★■◆,研究人员进行了无条件生成实验,结果列在表3中。
值得一提的是,作者共有5位★◆■■,其中4位是华人,均来自CMU和MIT两所顶校★★■◆。
这种轨迹的弯曲不仅仅是因为神经网络的近似误差,更是源于真实的边缘速度场本身。
为此★◆■■★■,研究者设计了新的损失函数★★◆★,引导网络去满足平均速度与瞬时速度之间的内在关系,无需引入额外的启发式方法◆◆★■。
换句话说,这种方法非常适合一步或少步数的生成任务,因为它在推理阶段不需要显式计算时间积分——这是传统建模瞬时速度方法所必须的步骤。
村人对柳树敬畏无比,发自真心的祭拜,是它守护住了石村★◆◆★★,每一个人都在口中称其为柳神★★★◆◆,在这里虔诚祈祷■■■。
训练信号来自于瞬时速度v,不需要积分操作,因此相比平均速度定义式(3)更容易实现。
当对这些弯曲轨迹使用粗粒度的时间离散化时◆◆★★★,数值ODE解法往往会产生较大的误差,从而导致生成结果不准确。
由于存在明确定义的目标速度场,理论上最优解与网络的具体结构无关,这种属性有助于训练过程更加稳健和稳定。
值得注意的是■■◆◆,即便条件流被设计为「直线流动」(即所谓「校正流」),最终得到的边缘速度场(公式(1))往往仍会诱导出弯曲的轨迹(见图2的示意)凯发k8娱乐会员登录。
图2:Flow Matching中的速度场示意图。左图■■★◆:条件流(ConditionalFlows)。同一个z_t可能由不同的(x,ϵ)组合生成★★,因此会对应不同的条件速度v_t◆◆◆。右图:边缘流(Marginal Flows)。通过对所有可能的条件速度进行边缘化(求平均)得到边缘速度场★★■★。这个边缘速度场被作为训练神经网络时的「真实目标速度场」
接着,对这个等式的两边关于t求导(把r当作常数)★★★◆◆,然后运用函数积的求导法则和微积分基本定理,得到■◆★:
★◆◆■■“别手软,虽然是一个孩子,但是他身上有宝具,很强大★★◆■,合力射杀他!”一个粗壮的汉子大吼道。
全新的生成模型MeanFlow,最大亮点在于它彻底跳脱了传统训练范式——无须预训练◆◆、蒸馏或课程学习★■,仅通过一次函数评估(1-NFE)即可完成生成。
Flow Matching本质上是在对所有可能情况的期望进行建模,这种平均后的速度称为边缘速度(marginal velocity)(见图2右侧):
平均速度被定义为两个时间点t和r之间的位移(通过对瞬时速度积分获得)■■■★★,再除以时间间隔。
需要说明的是,即使在优化中进行了这些近似■■◆,只要u_θ最终能够使损失为零,它就一定满足MeanFlow恒等式■★■■★,从而也满足最初的平均速度定义◆★。
这样做的优势显著:一旦平均速度被准确建模,就可以仅通过一次前向计算来近似整个流动路径■★◆■★。
不过,在实践中,直接使用公式(3)定义的平均速度作为训练网络的「真值」行不通◆■,因为这要求在训练时就对瞬时速度执行积分◆★★■■,计算成本高且不可行。
在MeanFlow恒等式中★■,公式右侧给出了可以作为训练目标的形式,可以利用它构建损失函数,来训练神经网络预测u(z_t◆■,r,t)。
虽然公式中出现了对u的偏导数★■,但实际训练中使用的是网络输出uθ的梯度(自动微分实现)。
使用MeanFlow模型进行采样非常简单■■:只需将时间积分项替换为平均速度即可,伪代码详见算法2。
【新智元导读】何恺明团队又一力作★■!这次他们带来的是「生成模型界的降维打击」——MeanFlow:无需预训练、无需蒸馏◆■◆、不搞课程学习,仅一步函数评估(1-NFE),就能碾压以往的扩散与流模型!
从概念上讲,就像在Flow Matching中,瞬时速度v是训练的「真实目标场」■■★,在MeanFlow中,平均速度u则扮演着类似的角色,是学习所依据的「真实速度场」。
在图1和表2(左侧)中,研究者将MeanFlow与现有的一步扩散/流模型进行了比较。
因此,借鉴Flow Matching已有的做法,使用条件速度(见图2左)来替代:
他热衷于研究动态系统■◆★■◆,致力于识别、理解并开发能够自组织形成复杂系统的动态机制◆★◆。
在ImageNet 256×256数据集上,MeanFlow在一次函数评估(1-NFE)下达到了3.43的FID分数★★◆◆,性能相比此前同类最佳方法有50%到70%的相对提升(见图1左)◆■。
在2-NFE(两次函数评估)设定下,新方法取得了2.20的FID分数(见表2左下角)。
此外★★◆★★,新方法还能自然地将「无分类器引导」(Classifier-Free Guidance,CFG)融入目标速度场■◆■★★◆,在采样阶段使用引导时不会带来额外的计算开销。
这个速度被称为条件速度(conditional velocity)。参见图2左侧部分◆★■★◆。
dz新闻信息服务许可证音像制品出版许可证广播电视节目制作经营许可证网络视听许可证网络文化经营许可证
05月14日,不同年龄段人群在冰雪运动中如何预防运动损伤?……权威解答来啦!,
要计算公式(6)右侧第二项全导数(total derivative),它可以用偏导数展开如下■■■■◆:
一旦得到了边缘速度场v(z_t■◆■★,t),就可以通过求解下面的常微分方程(ODE)来生成样本■■★:
,开云网站是什么,杏耀网页版地址★★■■◆,澳博在线日,台湾“首来族★■★”青年:要把宝贵的交流经验带回台湾,
其中◆★■★,类别条件速度(即对给定类别c条件下的边缘速度)■★★★、无条件边缘速度凯发k8娱乐会员登录■◆,定义如下:
05月14日,山西晋城古代彩塑壁画艺术展西宁开幕 《黑神话:悟空》取景彩塑亮相◆■■,
平均速度场u(z_t◆■★★,r,t)同时依赖于起始时间r和终止时间t■◆◆■,如图3所示。
这表明,MeanFlow在很大程度上缩小了一步与多步扩散/流模型之间的性能差距。
需要说明的是,公式(6)与之前的积分公式(4)是等价的(详见原文附录B■■■.3)。
与传统做法在采样阶段直接应用CFG不同,研究者将CFG视为底层「真实速度场」的一部分属性■★■。
05月14日,云南昭通市镇雄县凉水村发生山体滑坡 搜救工作紧张有序进行,
形式上◆■■,给定数据x∼pdata(x)和先验噪声ϵ∼pprior(ϵ)★★,可以构造一条流动路径★◆★◆■◆,
第二百六十八章 果决,aoa官网gi83*com■■,hth华体会竞彩官网,和记娱乐竞彩官网。
但由于式(1)中的边缘化过程难以直接计算,因此Flow Matching提出使用条件Flow Matching损失来代替:
需要注意的是◆■◆★,其他所有对比方法均使用了EDM风格的预处理器(pre-conditioner),而新方法没有使用任何预处理器。
平均速度是指「位移/时间间隔」的比值,本质上是对瞬时速度在时间轴上的积分★■◆◆。
仅基于这一定义,研究者推导出了平均速度与瞬时速度之间清晰且内在的数学关系,这为神经网络训练提供了理论依据。
stop-gradient操作用于阻断目标对网络参数的反向传播,避免二阶梯度计算。
表2:ImageNet-256×256上的类别条件生成实验,不同模型的参数、FID得分等统计数据
其中一作耿正阳,是CMU的博士生,在MIT访问时完成了这次研究的部分工作■◆■◆■。
其中iCT、Shortcut和MF都是一次函数评估(1-NFE),而IMM则使用了两次函数评估(2-NFE)的引导策略。
它们都采用了XL/2级别的骨干网络,且NFE达到250×2(见表2右侧)。
最终■★★■■,新在保留CFG效果的同时,依然维持了理想的单步采样性能(1-NFE),兼顾了效率与质量。
我们再次强调,vcfg和ucfg都是理论上的真实速度场◆★■★■,与神经网络参数无关◆◆■★★◆。
接着,学习由参数θ表示的神经网络v_θ,来拟合这个边缘速度场,其损失函数为:
周围的群山全部断掉了,似被人以大器横扫过◆◆◆,毁掉了整片山脉,所有山体都只剩下了下半截■■■。
“大哥哥★★★◆◆★,你怎么不讲道理?◆■”小不点上前,伸开小手臂,拦在了前方■◆,他同蛟鹏交过手,知道他的厉害,怕他伤到二猛与鼻涕娃等人。
在公式(10)中的v(z_t★★◆★■■,t)是Flow Matching中的边缘速度(见图2右),但它难以直接计算。
如果仅比较1-NFE(一次函数评估)的生成结果,MeanFlow相比此前的最优方法Shortcut(FID 10.60),相对提升接近70%。
图例说明:灰点表示从先验分布中采样得到的样本,红点表示来自真实数据分布的样本◆★。