ICS Lab 研究成果被AAAI2026接收(Oral)
实验室在人体姿态分析方向的研究工作被人工智能领域国际顶级会议AAAI2026(CCF-A类)录用(Oral),论文题目为“Breaking the Passive Learning Trap: An Active Perception Strategy for Human Motion Prediction”。在主技术赛道第一阶段总审稿量为23,680篇,被接受量为4,167篇(总体接受率为17.6%)。该论文第一作者为实验室负责人吉林大学副教授胡俊成,通讯作者为吉林大学助理研究员吕克敌,主要合作者包括吉林大学助理教授张子健、助理研究员李莹姬、实验室21级博士生王国毓和大连民族大学王泽宇老师。
研究背景[]!(p1.png)
3D人体运动预测旨在通过高维、高随机性的历史姿态观测,精准推断未来人体运动轨迹,是人工智能对人类行为实现细粒度理解与认知的核心任务之一。然而,现有方法过度依赖时空关系与运动特征的隐式网络建模,普遍陷入 “被动学习陷阱”—— 不仅在 3D 坐标信息获取中存在冗余与单一化问题,更因缺乏主动引导的显式学习机制,严重制约预测精度。这类局限主要源于两方面:
1)数据感知局限:现有方法多直接在 3D 姿态空间进行动态建模,继承了人体运动固有的高维性与随机性等复杂特性,导致有效运动特征常处于耦合状态,且诸多隐式运动学特性难以在刚性 3D 表征中实现有效编码,网络被迫学习冗余的坐标系信息;
2)网络感知局限:当前方法多依赖静态架构进行被动信息聚合,缺乏显式、主动引导的学习机制,难以动态适配复杂的时空依赖关系,最终削弱了对复杂运动模式的建模能力,进而导致模型泛化能力不足,难以应对多样化运动模式。
为突破上述难题,研究团队提出面向人体运动预测的主动感知策略:一方面借助商空间表征对运动特性进行显式编码,另一方面引入辅助学习目标强化时空建模,通过这双重创新实现运动信息的主动解耦与时空依赖的动态学习,成功将传统“黑箱端到端拟合”范式升级为主动学习范式,有效规避被动学习陷阱的负面影响。
实验设计
为突破 3D 人体运动预测(HMP)领域的被动学习陷阱,论文提出主动感知策略(APS) ,该策略为模型无关框架,可集成于不同预测模型以增强主动感知能力,核心通过两大模块协同实现运动信息的高效处理与时空依赖的主动学习,同时设计复合损失函数保障训练效果。
核心框架设计APS 整体遵循 “数据预处理 - 主动学习 - 预测输出” 逻辑,先通过数据感知模块(DPM)优化输入数据质量,再由网络感知模块(NPM)强化模型学习能力,最终输出精准的未来运动轨迹预测结果,两大模块功能互补,共同解决传统方法的数据与网络感知局限。
DPM 旨在解决数据感知局限,通过商空间表征将高维 3D 姿态序列映射至低维空间:先借助切空间算子计算关节相邻帧间的速度向量并构建速度矩阵,将其转化为切向量以捕捉局部运动动态;再通过格拉斯曼流形算子将切向量投影至三个固定的 2 维子空间,计算切向量与投影的正交余弦以量化分布特征,最终形成包含姿态、切向量及正交余弦的商空间表征,实现运动几何与坐标冗余的解耦,同时完成几何降维、语义解耦与动态约束。
NPM 则用于突破网络感知局限,通过主动学习机制强化时空依赖建模:其时空增强组件(SEC)通过随机掩码关节坐标或注入高斯噪声生成扰动数据,设计坐标重构与噪声去除的辅助学习任务,迫使网络理解内在运动模式;时空学习组件(SLC)采用生成对抗 Transformer 架构,通过分离式的空间注意力与时间注意力机制,分别捕捉关节间的空间关联与关节运动的时间动态,动态整合局部关系与全局语义;同时搭配基于 WGAN-GP 的运动判别器,通过保真度判别器与连续性判别器分别保障预测姿态的真实性与时间连贯性,进一步提升模型对复杂运动模式的适配能力。
实验结果
方法在 H3.6M 等数据集上以平均关节位置误差(MPJPE)为核心指标,将 APS 与 AMHGCN、HMR、FDU、GA-MIN、SAGGB 等现有 SOTA 方法展开对比,实验基于 PyTorch 框架与 NVIDIA 3090Ti GPU,训练参数设置为15 个epoch、批次大小16,评估了80ms、160ms、320ms、400ms、560ms、1000ms等不同时效的预测性能。结果显示,APS 在短时效(80-400ms)和长时效(400-1000ms)预测中均显著优于对比方法:短时效预测平均较基线方法提升 7.3%-46.2%,对 SAGGB 的优势达 12.8%-39.5%,复杂动作场景下误差降低 29.8%-73.8%;长时效预测平均误差降低 17.1%-59.8%,1000ms 时平均误差降至 92.4mm,其中 “Directions” 动作误差仅 59.8mm(SAGGB 为 101.8mm),“Walking Dog” 动作误差 109.2mm(SAGGB 为 137.3mm),且在非周期性与周期性动作中均保持稳定优势,验证了其在建模长时时空依赖与复杂运动模式上的有效性。
AAAI 2026是人工智能领域的顶级学术会议,全称为Association for the Advancement of Artificial Intelligence。该会议将于2026年1月20日至27日在新加坡举行。AAAI是人工智能领域最具影响力的国际会议之一,与IJCAI和NeurIPS并列,是发表人工智能领域前沿研究的重要平台,也是中国计算机学会(CCF)推荐的A类国际学术会议。会议涵盖多个重要方向,包括机器人技术、知识表示与推理、多智能体系统等。