Skip to content

Commit 441d9aa

Browse files
Update papers
1 parent 7e33055 commit 441d9aa

File tree

10 files changed

+1883
-181
lines changed

10 files changed

+1883
-181
lines changed

biorxiv.jsonl

Lines changed: 232 additions & 180 deletions
Large diffs are not rendered by default.
Lines changed: 22 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,22 @@
1+
# arxiv 2025-12-06
2+
3+
| 标题 | 作者 | PDF链接 | 摘要 |
4+
|------|------|--------|------|
5+
| 通用权重子空间假说 | Prakhar Kaushik | [PDF](https://arxiv.org/pdf/2512.05117v1) | 我们的研究表明,经过多样化任务训练的深度神经网络展现出高度相似的低维参数子空间。我们首次通过大规模实证证据证明:无论初始化方式、任务类型或应用领域如何,神经网络都会系统性地收敛到共享的谱子空间。通过对1100多个模型(包括500个Mistral-7B LoRA模型、500个视觉Transformer模型和50个LLaMA-8B模型)进行模态谱分析,我们发现仅需少数几个主方向构成的通用子空间即可捕捉大部分方差。
6+
7+
通过对不同架构神经网络在广泛任务和数据集上训练所得的权重矩阵进行谱分解,我们识别出稀疏的联合子空间——这些子空间在不同任务和数据集之间共享的架构中被持续利用。我们的发现为深度网络内部信息的内在组织机制提供了新见解,并引发重要思考:是否可能无需海量数据和计算资源即可发现这些通用子空间?此外,这种固有结构对模型复用性、多任务学习、模型融合以及训练与推理高效算法的开发具有重要影响,有望降低大规模神经模型的碳足迹。 |
8+
| 光-X:具备相机与光照控制的生成式4D视频渲染技术 | Tianqi Liu | [PDF](https://arxiv.org/pdf/2512.05115v1) | 光照控制领域的最新进展已将基于图像的方法扩展至视频处理,但仍面临光照保真度与时间一致性的权衡问题。超越单纯的重光照技术,实现真实场景生成建模的关键步骤在于相机轨迹与光照的联合控制,因为视觉动态本质上由几何结构与光照共同塑造。为此,我们提出Light-X视频生成框架,能够通过单目视频实现视角与光照的双重可控渲染。1)我们提出解耦式设计架构:通过沿用户定义相机轨迹投影的动态点云捕捉几何结构与运动信息,同时将经重光照处理的帧持续投影至相同几何空间以提供光照线索。这种显式细粒度线索设计实现了有效解耦,并引导高质量光照生成。2)针对多视角-多光照配对视频数据的缺失,我们开发了Light-Syn合成流程,采用基于退化与逆向映射的方法从真实单目影像中生成训练数据对。该策略构建了涵盖静态场景、动态场景及AI生成场景的数据集,确保模型训练的鲁棒性。大量实验表明,Light-X在相机-光照联合控制任务中优于基线方法,并在文本条件与背景条件设置下均超越现有视频重光照技术。 |
9+
| 流匹配对齐中的价值梯度引导 | Zhen Liu | [PDF](https://arxiv.org/pdf/2512.05116v1) | 尽管已有方法能够将流匹配模型——一类流行且高效的生成模型——与人类偏好对齐,但现有方法难以同时实现适应效率与概率意义上可靠的先验保持。本研究基于最优控制理论,提出VGG-Flow,一种基于梯度匹配的预训练流匹配模型微调方法。该算法的核心思想在于:微调后的速度场与预训练速度场之间的最优差异应当与价值函数的梯度场相匹配。此方法不仅融合了奖励模型的一阶信息,还通过价值函数的启发式初始化实现快速适应。实验表明,在主流文本到图像流匹配模型Stable Diffusion 3上,本方法能在有限计算资源下完成流匹配模型的微调,同时实现有效且保持先验的对齐效果。 |
10+
| 基于多对比度磁共振成像的婴儿大脑深度分割 | Malte Hoffmann | [PDF](https://arxiv.org/pdf/2512.05114v1) | 磁共振图像(MRI)分割通过勾画解剖结构,促进对人脑发育的分析。然而,由于发育和成像限制,婴幼儿的精确分割具有挑战性。儿科脑部MRI的获取尤为困难,成像模式可用性不一致、视野中存在大量非头部解剖结构以及频繁的运动伪影,这导致专门的分割模型往往局限于特定图像类型或狭窄年龄段,或对临床获取等更具变异性的图像表现脆弱。我们通过BabySeg解决这种方法的碎片化问题,这是一个针对婴幼儿的深度学习脑部分割框架,支持多样化的MRI协议,包括重复扫描和训练期间未见的图像类型。我们的方法基于最新的域随机化技术,通过合成远超现实边界的训练图像来增强数据集偏移不变性。我们还描述了一种机制,使模型能够灵活地汇集和交互来自任意数量输入扫描的特征。我们展示了最先进的性能,使用单一模型即可匹配或超越多种现有方法在不同年龄组和输入配置下的准确性,且所需运行时间仅为许多现有工具的一小部分。 |
11+
| 斯普兰尼金:利用双重检测溅射技术冻结单目人体模型挑战视频 | Hao-Jen Chien | [PDF](https://arxiv.org/pdf/2512.05113v1) | 从单目人体模型挑战(MC)视频中合成高保真度的冻结3D场景,是一个与标准动态场景重建截然不同的独特问题。我们的目标并非专注于运动建模,而是创建冻结场景的同时,策略性地保留细微动态以实现用户控制的瞬时选择。为实现这一目标,我们创新性地应用了动态高斯泼溅技术:通过动态建模场景以保留邻近时间的变化,并通过固定模型时间参数渲染静态场景。然而,在这种应用模式下,单目捕捉与稀疏时间监督会导致高斯元素在弱监督时间戳下因未被观测或被遮挡而产生重影、模糊等伪影。
12+
13+
我们提出Splannequin方法——一种与架构无关的正则化方案,通过检测高斯基元的两种状态(隐藏态与缺陷态)并实施时间锚定机制。在相机主要前向运动条件下,隐藏态被锚定至近期观测良好的历史状态,而缺陷态则锚定至具有更强监督信息的未来状态。该方法通过简单的损失项即可融入现有动态高斯流程,无需改变架构且不增加推理开销,从而显著提升视觉质量,实现高保真度、用户可选的冻结时刻渲染效果,用户偏好度达96%。项目页面:https://chien90190.github.io/splannequin/ |
14+
| DraCo:以草稿作为思维链,实现文本到图像的预览与罕见概念生成 | Dongzhi Jiang | [PDF](https://arxiv.org/pdf/2512.05112v1) | 近期统一的多模态大语言模型(MLLMs)展现出令人瞩目的能力,通过引入思维链(CoT)推理机制增强了文本到图像的生成效果。然而,现有方法仍存在局限:要么仅将模型视为独立生成器,要么依赖抽象的文本规划。为此,我们提出草稿式思维链(DraCo)——一种创新的交错推理范式,充分利用思维链中的文本与视觉内容进行更优的规划与验证。该方法首先生成低分辨率草稿图像作为预览,提供更具体、结构化的视觉规划指引;随后利用模型固有的理解能力,验证草稿与输入提示间潜在的语义偏差,并通过超分辨率选择性修正进行精细化调整。这一方案从本质上解决了两个关键挑战:文本规划的粗粒度特性,以及罕见属性组合的生成困难。为支持训练,我们构建了包含24万样本的DraCo-240K数据集,旨在提升通用修正、实例操控和布局重组三大基础能力。配合专为交错推理设计的无分类器引导策略DraCo-CFG,本方法在GenEval(+8%)、Imagine-Bench(+0.91)和GenEval++(+3%)评测中实现显著提升,其性能远超直接生成及其他基于思维链的生成方法。 |
15+
| ARM-Thinker:通过智能工具运用与视觉推理强化多模态生成奖励模型 | Shengyuan Ding | [PDF](https://arxiv.org/pdf/2512.05111v1) | 奖励模型对于使视觉-语言系统与人类偏好对齐至关重要,然而现有方法普遍存在幻觉问题、视觉基础薄弱且无法利用工具进行验证,这限制了其在复杂多模态推理任务中的可靠性。我们提出ARM-Thinker——一种能自主调用外部工具(如图像裁剪、文档页面检索)的**智能体化多模态奖励模型**,通过可验证证据支撑判断,取代了静态非交互式的奖励评分机制。该模型能够验证细粒度视觉细节、交叉引用多页面证据并检验推理主张,这些能力是现有奖励模型所缺失的。我们采用多阶段强化学习训练ARM-Thinker,同步优化工具调用决策与判断准确性。为评估智能体化奖励建模,我们构建了ARMBench-VL评测体系,包含三个基准测试:细粒度视觉基础(图像级工具)、多页面文档理解(检索工具)和指令遵循(文本级验证)。ARM-Thinker在奖励建模基准上实现平均16.2%的性能提升,在工具使用任务中提升9.6%,并在多模态数学与逻辑推理基准上超越基线模型。实验结果表明,智能体化能力显著提升了奖励模型的准确性与可解释性。 |
16+
| 阴影绘制:从任意物体到阴影绘画的组合艺术 | Rundong Luo | [PDF](https://arxiv.org/pdf/2512.05110v1) | 我们提出ShadowDraw框架,该框架能将普通三维物体转化为光影绘画的构图艺术。给定一个三维物体,我们的系统可预测包括物体姿态与光照在内的场景参数,同时生成局部线稿,使得投影阴影能够补全画面,形成可识别的图像。为此,我们通过优化场景配置来呈现富有意义的阴影,利用阴影笔触引导线稿生成,并采用自动评估机制确保光影与绘画的协调性及视觉品质。实验表明,ShadowDraw在处理多样化输入时均能产生引人入胜的结果——无论是真实世界扫描数据、精选数据集还是生成式素材,并能自然扩展到多物体场景、动画及实体化部署。本工作为光影绘画艺术的创作提供了实用流程,拓展了计算视觉艺术的设计空间,在算法设计与艺术叙事之间架起了桥梁。欢迎访问我们的项目页面https://red-fairy.github.io/ShadowDraw/,查看更多成果及端到端的真实场景演示! |
17+
| 神经重制:面向结构对齐生成的相位保持扩散技术 | Yu Zeng | [PDF](https://arxiv.org/pdf/2512.05106v1) | 标准扩散过程使用高斯噪声对数据进行破坏,其傅里叶系数具有随机幅值和随机相位。虽然这种方法在无条件生成或文本到图像生成中效果显著,但相位分量的破坏会瓦解空间结构,因此不适用于需要几何一致性的任务,如重渲染、仿真增强和图像到图像转换。我们提出相位保持扩散(φ-PD),这是一种与模型无关的扩散过程重构方法,在随机化幅值的同时保留输入相位,无需改变架构或增加参数即可实现结构对齐的生成。我们进一步提出频率选择性结构化(FSS)噪声,通过单一频率截止参数实现对结构刚度的连续控制。φ-PD不会增加推理时间成本,且兼容任何图像或视频扩散模型。在照片级真实感与风格化重渲染、以及驾驶规划器的仿真到现实增强任务中,φ-PD均能产生可控且空间对齐的结果。应用于CARLA仿真器时,φ-PD将CARLA到Waymo规划器的性能提升了50%。该方法与现有条件控制技术互补,可广泛应用于图像到图像及视频到视频生成。视频、补充示例及代码已发布于\href{https://yuzeng-at-tri.github.io/ppd-page/}{项目页面}。 |
18+
| 语义软引导:无需强化学习实现大语言模型的长上下文推理 | Purbesh Mitra | [PDF](https://arxiv.org/pdf/2512.05105v1) | 大语言模型(LLM)的长上下文推理能力通过思维链(CoT)推断机制,显著提升了其认知水平。在数学、编程等推理类问题中,这类模型通常采用可验证奖励的强化学习(RLVR)进行训练。然而,RLVR方法存在若干瓶颈:奖励信号稀疏、样本效率不足,导致后训练阶段需要消耗大量计算资源。为突破这些限制,本研究提出**语义软自举(SSB)**——一种自蒸馏技术,其核心在于让同一个基础语言模型同时扮演教师与学生的角色,但在训练阶段接收关于输出结果正确性的差异化语义上下文。
19+
20+
具体流程如下:首先向模型输入数学问题并生成多轮推理轨迹,从中筛选出正确答案与最常见错误答案,随后将二者作为上下文再次输入模型,使其生成包含验证最终答案的、更鲁棒的逐步推理过程。该流程能够从原始问题-答案数据中自动构建配对的教师-学生训练集,无需人工干预。此生成过程同时产生对数概率序列,学生模型在训练阶段仅基于原始问题即可学习匹配该序列。
21+
22+
实验中,我们采用参数高效微调方法,在GSM8K数据集上对Qwen2.5-3B-Instruct模型进行训练,并在MATH500和AIME2024基准测试中评估其准确率。实验结果表明:相较于常用的RLVR算法——群体相对策略优化(GRPO),本方法在两项测试中分别实现了10.6%和10%的准确率提升。相关代码已开源:https://github.com/purbeshmitra/semantic-soft-bootstrapping,模型及构建的数据集发布于:https://huggingface.co/purbeshmitra/semantic-soft-bootstrapping。 |
Lines changed: 14 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,14 @@
1+
# biorxiv 2025-12-06
2+
3+
| 标题 | 作者 | PDF链接 | 摘要 |
4+
|------|------|--------|------|
5+
| 整合蛋白质-蛋白质相互作用与RNA干扰筛选揭示蜱传黄病毒在人类宿主中的新型限制与依赖因子 | Sourisseau, M. | [PDF](https://doi.org/10.1101/2022.11.03.514869) | |
6+
| GTP酶激活蛋白DLC1时空调控Rho信号通路 | Hinderling, L. | [PDF](https://doi.org/10.1101/2023.06.19.545304) | |
7+
| 线粒体功能的发育编程限制了短寿命动物的寿命 | Castejon-Vega, B. | [PDF](https://doi.org/10.1101/2023.06.23.546283) | |
8+
| 入侵细胞驱动组织破裂的多尺度机制 | Wu, S. K. | [PDF](https://doi.org/10.1101/2023.09.25.559247) | |
9+
| IgLON5自身免疫抗体通过神经元过度活跃激活Tau蛋白 | Askin, B. | [PDF](https://doi.org/10.1101/2024.03.10.584272) | |
10+
| 挑战反向传播:大脑皮层目标学习的证据 | Aceituno, P. V. | [PDF](https://doi.org/10.1101/2024.04.10.588837) | |
11+
| 家族1糖苷酶的祖先与现代底物范围对比 | Gutierrez-Rus, L. I. | [PDF](https://doi.org/10.1101/2024.04.11.589065) | |
12+
| NCBP1应激信号通路驱动S6K1选择性剪接,从而抑制翻译过程。 | Chang, D. | [PDF](https://doi.org/10.1101/2024.05.12.593755) | |
13+
| 人口连接场建模揭示人类胎儿大脑中原型视网膜拓扑视觉皮层组织 | Yoo, S.-H. | [PDF](https://doi.org/10.1101/2024.07.08.602507) | |
14+
| 量化生物模式形成的复杂性:基于复杂性测度的新视角 | Riedel, J. H. R. | [PDF](https://doi.org/10.1101/2024.11.03.621719) | |
Lines changed: 14 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,14 @@
1+
# medrxiv 2025-12-06
2+
3+
| 标题 | 作者 | PDF链接 | 摘要 |
4+
|------|------|--------|------|
5+
| | | [PDF](https://doi.org/10.64898/2025.12.02.25341508) | |
6+
| | | [PDF](https://doi.org/10.1101/2025.10.20.25338428) | |
7+
| | | [PDF](https://doi.org/10.64898/2025.12.04.25341653) | |
8+
| | | [PDF](https://doi.org/10.64898/2025.12.03.25341607) | |
9+
| | | [PDF](https://doi.org/10.64898/2025.11.28.25340848) | |
10+
| | | [PDF](https://doi.org/10.64898/2025.12.04.25341605) | |
11+
| | | [PDF](https://doi.org/10.64898/2025.12.03.25341540) | |
12+
| | | [PDF](https://doi.org/10.64898/2025.12.04.25341650) | |
13+
| | | [PDF](https://doi.org/10.64898/2025.12.04.25341579) | |
14+
| | | [PDF](https://doi.org/10.64898/2025.12.03.25341596) | |

docs/index.md

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -659,6 +659,9 @@
659659

660660

661661

662+
663+
664+
662665

663666

664667

0 commit comments

Comments
 (0)