研究背景
智能机器人不仅具有娱乐功能,还能够代替人高效地完成许多工作。随着机器人技术的发展,智能机器人或相应的智能产品越来越多地走进家庭、工厂和企业,为人类提供各种娱乐、生产等服务,使得人与机器人的交互活动变得越来越普遍。 人体动作是一种自然、直观、易于学习的人机交互手段,以人体直接作为计算机的输入设备,人机之间的通讯将不再需要多余的媒体,用户可以简单地定义几种适当的动作来对周围的机器进行控制。随着计算机视觉和图像处理技术的发展,基于机器视觉的手势与计算机交互的方式成为了新型人机交互方式的主流。2010年11月,微软公司推出的Kinect体感设备在人体跟踪以及姿态估计方面有着出色的表现。作为新一代自然人机交互技术的典范,Kinect实现了用户通过语音和手势等行为与计算机进行更自然的交互。为了发掘Kinect的更大潜力,微软公司推出了Kinect for Windows SDK开发工具包。配合此工具包可以利用Kinect的体感技术,获取的人体深度信息,通过识别人体动作和手势,来理解操作者的意图,从而利用计算机对机器人进行有效的操作。
手势是一-种重要的、含义丰富的人体动作,手势在人机交互中起着非常重要的作用,但是通过Kinect体感技术获取的人体深度信息并不包括手掌、手指的识别信息,而许多手势的识别又依赖于手形或手指信息。而且,虽然目前已有开发人员将Kinect应用到了机器人控制上,如杨东方等人将Kinect应用到机器人自主导航上,利用Kinect进行场景建模,解决了室内机器人的6自由度的定位问题,但是,利用Kinect 识别手势,并通过手势来控制机器人动作的这种人机交互方式目前还不多见。而本文的研究工作就是在Kinect 体感技术的基础.上增加了对手掌信息的处理来识别手势,并将识别出的静态和动态手势作为指令用于机器人控制中,以实现人与机器人之间的交互活动。