CAE解析

株式会社テラバイト

HyperWorks 統合CAEアプリケーションツールセット

  AnyBody 適用例

基于AI的姿态估计在骨骼肌肉分析中的应用

適用例

近年来,利用动作捕捉(Motion Capture,简称MoCap)技术获取动作数据的需求日益增长。这一趋势主要源于以下两个原因:
①传统运动捕捉技术存在诸多限制,例如需要专门的测量实验室、昂贵的设备、复杂的校准流程,以及在测量过程中可能出现的标记点或传感器脱落等问题;
②研究者希望在不干扰被测者自然动作的前提下完成数据采集。

歩行 在动作捕捉领域,数据获取方式包括使用深度传感器、雷达设备或图像数据等。近年来,随着机器学习和深度学习技术的进步,仅通过人工智能(AI)从图像中提取人体关键点(如关节中心位置)的姿态估计技术已能达到较高精度。例如,卡内基梅隆大学开发的“OpenPose”就是一款知名的开源姿态估计工具。
本案例分析展示了如何利用普通数码相机拍摄的视频,通过AI技术实现三维姿态估计,并将数据导入AnyBody软件进行骨骼肌肉分析。从AnyBody的角度来看,只要输入数据是能够唯一确定人体动作的三维运动数据,无论是通过传统运动捕捉还是AI技术获取的,均可用于分析。

未来,随着基于图像的姿态估计技术进一步成熟,骨骼肌肉分析的门槛有望显著降低。目前受限于测量场地、设备等因素而难以开展的研究,或将变得更加普及,甚至能够为个人用户提供便捷的分析服务。
本文主要探讨了人工智能技术在人体动作捕捉与分析中的应用前景,特别是在无需昂贵设备和复杂设置的条件下,如何通过图像数据实现姿态估计,并进一步支持骨骼肌肉分析研究。

VisionPose 姿态估计数据的应用

在本案例中,我们使用 NEXT-SYSTEM 公司开发的 VisionPose 的姿态估计数据进行骨骼肌肉分析。实验在 Terrabyte Lab 进行,测试人员执行了重物搬运动作。我们使用数码相机拍摄视频,同时为了对比验证,还使用 Vicon 系统采集了标记点数据。VisionPose 仅基于视频数据即可识别身体特征点(关节位置)。在 NEXT-SYSTEM 公司的协助下,我们获得了关节位置(特征点)的估计数据。

歩行 歩行 歩行

使用家用数码相机拍摄视频

从MP4视频(单一影像)中提取特征点

歩行

分析流程

1.使用 VisionPose 输出的 关节坐标数据,在 AnyBody 中驱动骨骼模型运动。
2.将动作数据与 AnyBody 内置的人体骨骼模型进行匹配,此时关节角度的时间历程数据决定了最终动作。
3.部分数据需要手动修正,具体包括:

歩行 歩行 歩行

在AnyBody中进行运动学骨骼匹配 


手动修正项:
① 骨骼长度的比例调整
② 空间内人体(骨盆)的倾斜度与位置的弱约束
③ 肩关节(内外旋)和肘关节(旋前旋后)的弱约束
④ 在深度信息缺失时,调整各部位的位置/动作
⑤ 双手施力的时间点调整
⑥ 足底与地面高度的固定

分析结果

我们对比了基于逆向动力学计算的 肌肉力/肌肉激活状态(动画) 以及 腰椎间关节受力(图表) 的结果。

左侧 使用 VisionPose 估计的关节坐标数据
右侧 使用同步采集的光学动作捕捉(Vicon)标记点数据

在搬运(旋转)过程中,VisionPose 的动作估计仍存在部分不自然的情况,但 腰椎间的关节压缩力 结果与光学动捕数据基本一致。这表明,在特定部位的观察中,VisionPose 仍能提供合理的肌肉活动和关节反力数据。

歩行 歩行
歩行 歩行

※開発元:AnyBody Technology A/S
Copyright © 2013 Terrabyte (Shanghai) Co.,Ltd.