CN103324291A - 获取人体感兴趣区域相对于屏幕窗口位置的方法 - Google Patents
获取人体感兴趣区域相对于屏幕窗口位置的方法 Download PDFInfo
- Publication number
- CN103324291A CN103324291A CN2013102929003A CN201310292900A CN103324291A CN 103324291 A CN103324291 A CN 103324291A CN 2013102929003 A CN2013102929003 A CN 2013102929003A CN 201310292900 A CN201310292900 A CN 201310292900A CN 103324291 A CN103324291 A CN 103324291A
- Authority
- CN
- China
- Prior art keywords
- human body
- interest
- screen window
- obtaining
- body area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开一种获取人体感兴趣区域相对于屏幕窗口位置的方法,属于人机接口技术领域。本发明方法步骤是:首先建立背景模型;然后进行人体区域检测,摄像头采集包括人体的图像,采用背景差分和阈值法,获得人体区域;人体感兴趣区域的获取,通过机器学习获取人体感兴趣区域特征,对人体区域进行检测,得到感兴趣区域;人体感兴趣区域相对于屏幕窗口位置的获取,根据摄像头采集的视频窗口相对于屏幕窗口的位置及尺寸,采用坐标变换方法获得相对位置,视频窗口可根据应用需求位于屏幕窗口的不同位置并且能够进行尺寸缩放。本发明特别适合场景固定的室内环境使用。
Description
技术领域:
本发明属于人机接口技术领域,具体涉及获取人体感兴趣区域相对于屏幕窗口位置的方法。
背景技术:
人机接口技术领域中越来越重视获取人体感兴趣区域位置方法,传统的方法采用立体视觉或深度传感器,成本高和对传感器位置敏感,或需穿戴特殊装备,使用不方便。本发明采用单目摄像头,不需使用者穿戴特殊装备,即可获得人体感兴趣区域相对屏幕窗口位置。
发明内容:
本发明针对现有技术存在的上述问题,提供获取人体感兴趣区域相对于屏幕窗口位置的方法。
本发明所提供的获取人体感兴趣区域相对于屏幕窗口位置的方法具体步骤如下:
(1)背景建立步骤S1:
对摄像头采集到的图像序列建立背景,人体必须位于摄像头拍摄范围之外,场景中不存在运动物体,摄像头所采集的图像需经水平翻转;
(2)人体区域检测步骤S2:
摄像头采集包括人体的图像,采用背景差分和阈值法,获得人体区域,摄像头所采集的图像需经水平翻转;
(3)人体感兴趣区域的获取步骤S3:
通过机器学习获取人体感兴趣区域特征,对人体区域进行检测,得到人体感兴趣区域;
(4)人体感兴趣区域相对于屏幕窗口位置的获取步骤S4:
根据摄像头采集的视频窗口相对于屏幕窗口的位置及尺寸,采用坐标变换方法获得相对位置。
步骤(1)所述背景是采用高斯混合模型或平均法或最大概率法建立的。
步骤(3)所述人体感兴趣区域为手掌、手指、头部、膝盖、脚掌部位中的任意一种或者任意两种或两种以上的组合;所述人体感兴趣区域的穿戴服饰与人体其它部分的色彩差异明显,所述穿戴服饰为色彩单一。
步骤(4)中的所述视频窗口能够根据应用需求位于所述屏幕窗口的不同位置,并且所述视频窗口能够进行尺寸缩放。
本发明采用单目摄像头即可获得人体感兴趣区域相对屏幕位置,从而实现一些简单的人机交互,且人体不需要穿戴专用设备。本发明适合电视机、电脑,应用于体感交互游戏和人手控制电视。本发明要求摄像头位置固定,特别适合场景固定的室内环境使用。
附图说明:
图1 是本发明方法流程示意图;
图2 是视频窗口和屏幕窗口位置关系示意图。
图中:1:屏幕窗口;2:视频窗口。
具体实施方式:
下面将结合附图对本发明加以详细说明。
图1给出了本发明方法流程示意图。首先建立背景:采集背景图像时人体必须位于摄像头拍摄范围之外,场景中不能存在运动物体。采用高斯混合模型、平均法或最大概率法等经典算法获得背景模型。接着由当前输入图像与背景模型进行差分并进行二值化处理,然后经过形态学滤波得到人体区域。
人体感兴趣区域可为:手掌、手指、头部及膝盖和脚掌等部位;感兴趣区域可穿戴与人体其他部分色彩差异明显的服饰,该服饰特征为色彩单一,如红色手套、白色帽子等。首先通过机器学习获取人体感兴趣区域特征,主要是颜色特征,具体可采用人体感兴趣区域RGB三分量平均值。然后在人体区域检测人体感兴趣区域,具体方法为:人体区域像素RGB三分量与人体感兴趣区域RGB三分量平均值进行差分并进行二值化处理,然后经过形态学滤波得到人体感兴趣区域。
人体感兴趣区域位置用包含该区域的最小外接矩形表示。其相对于屏幕窗口位置的获取方式为:视频窗口可根据应用需求,位于屏幕窗口的不同位置及进行尺寸缩放。视频窗口位置与大小固定后,可获得视频窗口相对屏幕窗口位置和缩放比例,采用坐标变换方法获得感兴趣区域的最小外接矩形相对屏幕窗口位置。
为了方便用户使用,摄像头采集的图像需经水平翻转。
本发明特别适合电视机、电脑在室内应用。下面简单列举两例。
实施例1:应用于体感游戏。感兴趣区域为手掌,可穿戴单色手套,色彩要求与服饰和室内背景差异大,这样能准确快速获得手掌区域。视频窗口可与屏幕窗口重合,这样手掌可在整个屏幕范围内活动。游戏程序可根据手掌位置设置动作。当然身体任何一个部位都可以作为感兴趣区域,只要穿戴服饰的色彩与背景差异大即可。
实施例2:应用于人手控制电视。同上例,感兴趣区域为手掌。提取手掌特征为质心位置和最小外接矩形面积。手掌张开和紧握时,其对应的最小外接矩形面积差异巨大,可作为两种状态来识别。应用程序根据此两种状态,产生相应控制动作,如张开手掌表示选择,紧握表示执行。
Claims (4)
1.一种获取人体感兴趣区域相对于屏幕窗口位置的方法,其特征在于该方法具体步骤如下:
(1)背景建立步骤S1:
对摄像头采集到的图像序列建立背景,人体必须位于摄像头拍摄范围之外,场景中不存在运动物体,摄像头所采集的图像需经水平翻转;
(2)人体区域检测步骤S2:
摄像头采集包括人体的图像,采用背景差分和阈值法,获得人体区域,摄像头所采集的图像需经水平翻转;
(3)人体感兴趣区域的获取步骤S3:
通过机器学习获取人体感兴趣区域特征,对人体区域进行检测,得到人体感兴趣区域;
(4)人体感兴趣区域相对于屏幕窗口位置的获取步骤S4:
根据摄像头采集的视频窗口相对于屏幕窗口的位置及尺寸,采用坐标变换方法获得相对位置。
2.根据权利要求1所述的方法,其特征在于步骤(1)所述背景是采用高斯混合模型或平均法或最大概率法建立的。
3.根据权利要求1所述的方法,其特征在于步骤(3)所述人体感兴趣区域为手掌、手指、头部、膝盖、脚掌部位中的任意一种或者任意两种或两种以上的组合;所述人体感兴趣区域的穿戴服饰与人体其它部分的色彩差异明显,所述穿戴服饰为色彩单一。
4.根据权利要求1所述的方法,其特征在于步骤(4)中的所述视频窗口能够根据应用需求位于所述屏幕窗口的不同位置,并且所述视频窗口能够进行尺寸缩放。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013102929003A CN103324291A (zh) | 2013-07-12 | 2013-07-12 | 获取人体感兴趣区域相对于屏幕窗口位置的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013102929003A CN103324291A (zh) | 2013-07-12 | 2013-07-12 | 获取人体感兴趣区域相对于屏幕窗口位置的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103324291A true CN103324291A (zh) | 2013-09-25 |
Family
ID=49193090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013102929003A Pending CN103324291A (zh) | 2013-07-12 | 2013-07-12 | 获取人体感兴趣区域相对于屏幕窗口位置的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103324291A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150220158A1 (en) * | 2014-01-07 | 2015-08-06 | Nod Inc. | Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion |
CN106296684A (zh) * | 2016-08-10 | 2017-01-04 | 厦门多想互动文化传播股份有限公司 | 体感互动应用中多数据源人体位置快速配准方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719015A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 指示手势的手指尖定位方法 |
CN102012741A (zh) * | 2010-11-16 | 2011-04-13 | 吕文阁 | 一种基于摄像装置的多媒体人机交互方法及其系统 |
CN102221886A (zh) * | 2010-06-11 | 2011-10-19 | 微软公司 | 通过化身与用户界面交互 |
CN102841679A (zh) * | 2012-05-14 | 2012-12-26 | 乐金电子研发中心(上海)有限公司 | 一种非接触式人机互动方法与装置 |
-
2013
- 2013-07-12 CN CN2013102929003A patent/CN103324291A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719015A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 指示手势的手指尖定位方法 |
CN102221886A (zh) * | 2010-06-11 | 2011-10-19 | 微软公司 | 通过化身与用户界面交互 |
CN102012741A (zh) * | 2010-11-16 | 2011-04-13 | 吕文阁 | 一种基于摄像装置的多媒体人机交互方法及其系统 |
CN102841679A (zh) * | 2012-05-14 | 2012-12-26 | 乐金电子研发中心(上海)有限公司 | 一种非接触式人机互动方法与装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150220158A1 (en) * | 2014-01-07 | 2015-08-06 | Nod Inc. | Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion |
CN106296684A (zh) * | 2016-08-10 | 2017-01-04 | 厦门多想互动文化传播股份有限公司 | 体感互动应用中多数据源人体位置快速配准方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106598227B (zh) | 基于Leap Motion和Kinect的手势识别方法 | |
US9842433B2 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
CN103793060B (zh) | 一种用户交互系统和方法 | |
CN103345064B (zh) | 一种集成3d识别的帽子及帽子的3d识别方法 | |
CN106170978B (zh) | 深度图生成装置、方法和非短暂性计算机可读介质 | |
CN103136986B (zh) | 手语识别方法及系统 | |
CN202904582U (zh) | 一种基于体感识别装置的虚拟试衣系统 | |
CN106201173B (zh) | 一种基于投影的用户交互图标的交互控制方法及系统 | |
CN103399637A (zh) | 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法 | |
CN104391567A (zh) | 一种基于人眼跟踪的三维全息虚拟物体显示控制方法 | |
CN104050859A (zh) | 可交互数字化立体沙盘系统 | |
CN205581784U (zh) | 一种基于现实场景的可交互混合现实平台 | |
CN102831380A (zh) | 一种基于深度图像感应的肢体动作识别方法及系统 | |
DE102018103572A1 (de) | Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium | |
CN105068748A (zh) | 触屏智能设备的摄像头实时画面中用户界面交互方法 | |
CN102270037B (zh) | 徒手人机界面操作系统及其方法 | |
CN109839827B (zh) | 一种基于全空间位置信息的手势识别智能家居控制系统 | |
CN106598211A (zh) | 一种基于多摄像头的可穿戴式头盔的手势交互系统及识别方法 | |
CN106569591A (zh) | 基于计算机视觉跟踪和传感器跟踪的跟踪方法和跟踪系统 | |
CN105354812B (zh) | 基于多Kinect协同的深度阈值分割算法识别轮廓交互方法 | |
CN104656893A (zh) | 一种信息物理空间的远程交互式操控系统及方法 | |
CN102736728A (zh) | 三维立体虚拟物体的操控方法、操控系统及处理装置 | |
CN104199548B (zh) | 一种三维人机交互操作装置、系统及方法 | |
CN203773476U (zh) | 基于3d交互的虚拟现实系统 | |
CN108521594B (zh) | 一种基于体感相机手势识别的自由视点视频播放方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130925 |