功能介绍
对视频或图像中的行人进行智能分析,获取可描述人体行为动作的主要关节点,如:手腕、手肘、肩膀、头、胯部、膝盖和脚踝等。借助关节点的组合与追踪,实现对行人姿态动作的刻画,例如:走路、跳舞、打架、跑步等,进而开展人机交互和异常行为分析的应用。
功能演示
技术特色
算法领先
依托清华大学实验室领先的深度学习算法、丰富的优化和训练模型以及强大的自主研发能力,在国内处于领先地位。
精准度高
在实际应用场景中可实现高效而精准的人体主要关节点定位,准确率>99%,为各行业提供可靠数据支撑。
适应性强
适用于Windows、Linux、Android等操作系统,可根据操作系统定制;支持x86、x86_64、armv7a、armv8a等架构处理器。
稳定性强
通过真实场景下的测试,证明算法能很好的适应光照条件各异、视角多样性、背景复杂等诸多因素的影响。
应用场景
人机交互体感游戏
在虚拟现实游戏中,借助人体肢体动作识别技术,感知人体手脚动作,实现虚拟与现实动作的同步,完成了游戏中的人机交互应用。