CN104881122A - 一种体感交互系统激活方法、体感交互方法及系统 - Google Patents

一种体感交互系统激活方法、体感交互方法及系统 Download PDF

Info

Publication number
CN104881122A
CN104881122A CN201510307196.3A CN201510307196A CN104881122A CN 104881122 A CN104881122 A CN 104881122A CN 201510307196 A CN201510307196 A CN 201510307196A CN 104881122 A CN104881122 A CN 104881122A
Authority
CN
China
Prior art keywords
dimensional image
human body
interactive system
characteristic parameter
body sense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510307196.3A
Other languages
English (en)
Other versions
CN104881122B (zh
Inventor
黄源浩
肖振中
钟亮洪
许宏淮
林靖雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Obi Zhongguang Technology Group Co., Ltd
Original Assignee
Shenzhen Orbbec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Orbbec Co Ltd filed Critical Shenzhen Orbbec Co Ltd
Priority to CN201510307196.3A priority Critical patent/CN104881122B/zh
Publication of CN104881122A publication Critical patent/CN104881122A/zh
Priority to PCT/CN2016/076765 priority patent/WO2016192438A1/zh
Application granted granted Critical
Publication of CN104881122B publication Critical patent/CN104881122B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种体感交互系统激活方法、体感交互方法及系统。其中,体感交互方法包括:在体感交互系统激活状态下,采集人体部位的三维立体图像;对人体部位的三维立体图像进行处理,转化为操作指令,根据操作指令执行对应的操作。通过上述方式,本发明能够不需要依赖于外部输入设备,通过感应人体部位的空间动作,就能执行相应的操作,给用户更好的使用体验。

Description

一种体感交互系统激活方法、体感交互方法及系统
技术领域
本发明人机交互领域,具体涉及一种体感交互系统激活方法、体感交互方法及系统。
背景技术
人机交互技术是指通过输入输出设备,以有效的方式实现人与机器对话的技术。现有的人机交互的交互方式通常是通过鼠标、键盘、触摸屏或者手柄等外部设备与机器系统进行交互,机器系统再做出相应的响应。
但是,通过鼠标、键盘、触摸屏或者手柄等外部设备作为输入设备,存在明确局限性,这样的方式,用户必须与输入设备进行直接接触才能完成输入,使得交互的完成必须依赖于外部设备,束缚用户的行为方式,具体实现显得不自然,不真实。
发明内容
本发明主要解决的技术问题是提供一种体感交互系统激活方法、体感交互方法及系统,能够不需要依赖外部输入设备,通过感应人体部位的动作,就能执行相应的操作。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种体感交互方法,所述方法包括:在体感交互系统激活状态下,采集人体部位的三维立体图像;对所述人体部位的三维立体图像进行处理,转化为操作指令;根据所述操作指令执行对应的操作。
其中,所述对所述人体部位的三维立体图像进行处理,转化为操作指令包括:将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;将所述特征参数与预存的特征参数进行匹配;当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,以作为所述操作指令。
其中,所述方法还包括:激活所述体感交互系统。
其中,所述激活所述体感交互系统包括:采集三维立体图像;对所述三维立体图像进行处理,判断所述三维立体图像是否包含用于激活体感交互系统的人体部位的三维立体图像;当所述三维立体图像包含用于激活体感交互系统的人体部位立体图像时,对所述人体部位的三维立体图像进行处理,转化为激活指令;根据所述激活指令激活所述体感交互系统。
其中,所述对所述人体部位的三维立体图像进行处理,转化为激活指令包括:将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;将所述特征参数与预存的激活所述体感交互系统的特征参数进行匹配;当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,以作为所述激活指令。
其中,所述激活所述体感交互系统之后还包括:在屏幕上显示与所述人体部位同步移动的图标。
其中,所述激活所述体感交互系统之后,还包括:提示用户所述体感交互系统被激活。
其中,提示用户所述体感交互系统被激活包括:将屏幕预定区域以高亮状态进行显示以提示用户所述体感交互系统被激活。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种体感交互系统激活方法,所述方法包括:采集三维立体图像;对所述三维立体图像进行处理,判断所述三维立体图像是否包含用于激活体感交互系统的人体部位立体图像;当所述三维立体图像包含用于激活体感交互系统的人体部位立体图像时,对所述人体部位的三维立体图像进行处理,转化为激活指令;根据所述激活指令激活所述体感交互系统。
为解决上述技术问题,本发明采用的又一个技术方案是:提供一种体感交互系统,所述系统包括采集模块、转化模块以及处理模块,其中:所述采集模块用于在体感交互系统激活状态下,采集人体部位的三维立体图像;所述转化模块用于对所述人体部位的三维立体图形进行处理,转化为操作指令;所述处理模块用于根据所述操作指令执行对应的操作。
其中,所述转化模块包括特征提取单元、匹配单元以及获取单元,其中:所述特征提取单元用于将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;所述匹配单元用于将所述特征参数与预存的特征参数进行匹配;所述获取单元用于,当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,以作为所述操作指令。
其中,所述系统还包括激活模块,所述激活模块用于激活所述体感交互系统。
其中,所述激活模块包括采集单元、判断单元、转化单元以及激活单元,其中:采集单元用于采集人体部位的三维立体图像;判断单元用于对所述三维立体图像进行处理,判断所述三维立体图像是否包含用于激活体感交互系统的人体部位立体图像;所述转化单元用于,当所述三维立体图像包含用于激活体感交互系统的人体部位立体图像时,对所述人体部位的三维立体图像进行处理,转化为激活指令;所述激活单元用于根据所述激活指令激活所述体感交互系统。
其中,所述系统还包括显示模块,所述显示模块用于在屏幕上显示与所述人体部位同步移动的图标。
其中,所述系统还包括提示模块,所述提示模块用于提示用户所述体感交互系统被激活。
本发明的有益效果是:区别于现有技术的情况,本发明在激活体感交互系统的状态下,采集人体部位的三维立体图像,对人体部位的三维立体图像进行处理,转化为操作指令,根据操作指令执行对应的操作。通过这样的方式,不需要依赖于外部输入设备,通过感应人体部位的空间动作,就能执行相应的操作,给用户更好的使用体验。
附图说明
图1是本发明实施例提供的体感交互方法的流程图;
图2是本发明实施例提供的激活体感交互系统的流程图;
图3是本发明实施例提供的体感交互系统激活方法的流程图;
图4是本发明实施例提供的一种体感交互系统的结构示意图;
图5是本发明实施例提供的体感交互系统的激活模块的结构示意图;
图6是本发明实施例提供的体感交互系统的转化模块的结构示意图;
图7是本发明实施例提供的另一种体感交互系统的结构示意图。
具体实施方式
请参阅图1,图1是本发明实施例提供的一种体感交互方法的流程图,如图所示,本实施例的体感交互方法包括:
S101:在体感交互系统激活状态下,采集人体部位的三维立体图像;
在本发明实施例中,需要进行体感交互之前,需要先激活体感交互系统。
其中,请参阅图2,图2是本发明实施例提供的激活体感交互系统的流程图,本实施例的激活体感交互系统包括以下步骤:
S201:采集三维立体图像;
通过3D传感器采集预定空间范围内的三维立体图像。所采集的三维立体图像包括3D传感器镜头监控范围的所有物体。比如3D传感器镜头前包括桌子、椅子以及人,那么所采集的三维立体图像包括所有的这些物件。
S202:对三维立体图像进行处理,判断三维立体图像是否包含用于激活体感交互系统的人体部位的三维立体图像;
对3D体感器采集的三维立体图形进行处理,判断该三维立体图像中是否包含用于激活体感交互系统的人体部位的三维立体图像。比如预设的用于激活体感交互系统的人体部位为人手,则从采集的三维立体图像中识别是否包括人手。如果三维立体图像中包括用于激活体感交互系统的人体部位的三维立体图像,则执行步骤S203。
S203:对人体部位的三维立体图像进行处理,转化为激活指令;
其中,对人体部位的三维立体图像进行处理,转化为激活指令具体包括:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,将特征参数与预存的激活体感交互系统的特征参数进行匹配,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。
将采集的人体部位的三维立体图像进行特征提取,获取得到特征参数,特征参数包括位置参数以及动作轨迹参数。位置参数即人体部位所处的空间位置,用三维坐标表示,运动轨迹即人体部位在空间上的运动轨迹。比如一个手掌抓握的动作,其参数提取即包括手掌当前所处的实际三维坐标X、Y、Z的具体数值,以确定手掌与3D传感器的具体位置关系。还包括手掌的空间运动轨迹即抓握的动作轨迹。
在提取得到特征参数以后,将提取的特征参数与预存的用于激活体感交互系统的特征参数进行匹配。
比如通过一个手掌的动作来激活体感交互系统,预存的手掌的动作的特征参数包括A、B、C,当前采集到一个手掌的三维立体图像,提取得到的特征参数包括A'、B'、C',将A'、B'、C'与A、B、C进行匹配,并判断匹配度是否达到预定阈值。
当提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。预定阈值是预先设置的匹配程度的值,比如可以设置预定阈值为80%,当匹配度达到80%或以上,即获取与预存的特征参数对应的指令,以作为激活指令。
作为一种优选的实现方案,在提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,系统可以进一步判断所述三维立体图像中包含用于激活体感交互系统的人体部件的三维立体图像所持续的时间是否达到预定时间。在持续的时间达到预定时间时,才获取与预存的特征参数对应的指令,以作为激活指令。通过这样的方式,可以有效防止误触发激活体感交互系统。
比如预设的用于激活体感交行系统的人体部件为手掌。当3D体感器前面用户当前正与另一个人在聊天,过程中可能不经意的会做出一个手掌的动作,系统在采集并识别出这个手掌动作之后,进一步判断立体图像中包含该手掌是否持续预定时间,如果没有持续达到预定时间,可以判断到这只是一个误操作,则不会激活体感交互系统。其中,这里的预定时间可以根据需要预先设定,比如设定为10秒、30秒等等。
作为一种更进一步的优选方案,当系统采集并识别到人体部位且持续未达到预定时间之前,可以在屏幕上显示一个进度条,以提示体感交互系统激活状态。进度条可以实时的,以图片形式显示系统激活的速度,完成度,剩余未完成任务量的大小,和可能需要处理时间。作为一种可能的实现,进度条可以长方形条状显示。当进度条满时,即表示达到激活体感交互系统条件,激活体感交互系统。通过这样的方式,能够让用户对体感交互系统激活状态的有直观的了解,也能够让误操作的用户及时停止手势动作以避免误触发激活体感交互系统。
S204:根据激活指令激活体感交互系统。
根据获取的激活指令,激活体感交互系统,以进入体感交互状态。
其中,在激活体感交互系统之后,可以给用户相应的体感交互系统已被激活的提示。其中,可以通过将屏幕预定区域以高亮状态进行显示作为提示。这里的预定区域可以是预设的体感感应区域对应到屏幕上的平面区域,比如屏幕左侧的一定面积的区域,或屏幕右侧一定面积的区域等。当然,也可以是整个屏幕。
当然,也可以通过其他的方式给用户提示,比如通过弹出体感交互系统已激活的提示,或者通过语音提示等等,本发明对此不作限定。
另外,在体感交互系统被激活后,在屏幕上显示与人体部位同步移动的图标。其中,与人体部位同步移动的图标可以是跟所述人体部位相似的图标,比如人体部位是人手,该图标可以是一个手形状的图标。当然,也可以是其他形式的图标,比如三角图标,圆点图标等。该屏幕上的图标跟随人体部位的移动而在屏幕上对应移动。比如人手在空间上向右移动,图标也跟随在屏幕上向右移动。
在体感交互系统激活状态下,通过3D传感器采集预定空间范围内人体部位的三维立体图像。3D传感器能够采集空间位置上物件的三维立体图像,所采集的三维立体图像包括物件所处的空间位置坐标以及空间运动轨迹。
本发明实施例所述的空间运动轨迹,包括人体部件的姿势以及人体部件的具体动作。比如用户在3D体感器前面做一个握拳的姿势并在空间范围内滑动,那么3D体感器采集该用户手部的三维立体图像,对该手部的三维立体图像进行特征提取,即获取到该手部距离3D传感器的三维坐标,以及该手部的握拳姿势和滑动的动作。其他三维立体图像的处理与此类似,本实施例不一一举例进行说明。
其中,本发明实施例所提到的人体部位可以是人手。当然也可以是其他的用于操作的人体部位比如人脸、人脚等等。
S102:对人体部位的三维立体图像进行处理,转化为操作指令;
其中,对人体部位的三维立体图像进行处理,转化为操作指令具体包括:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,将特征参数与预存的特征参数进行匹配,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为操作指令。
将所采集的人体部位的三维立体图像进行特征提取,以获取该采集的三维立体空间的特征参数,其中,这些特征参数包括该人体部位所处的空间三维坐标以及人体部位的空间运动轨迹。通过特征提取,能够识别人体部位距离3D传感器的具体空间位置以及人体部位的动作。比如人手做的一个抓握的动作,通过采集该抓握的立体图像,并通过特征提取,就能根据该特征提取的参数确定这个人手的具体空间位置并识别出该动作为一个抓握的动作。
作为一种可能的实现方式,本发明对动作的识别之前,包括一个学习训练以建立一个训练数据库的过程。比如为识别一个人手抓握的动作,系统会采集各种不同的抓握动作的三维立体图像,对这些不同的抓握动作进行学习,以获取用于识别这个具体动作的具体特征参数。针对每个不同的动作,系统都会做这么一个学习训练过程,各种不同具体动作对应的具体特征参数,构成训练数据库。当系统获取到一个三维立体图像时,就会将该立体图像进行特征提取,到训练数据库中找到与之匹配的具体动作,以作为识别结果。
系统数据库预先存储特征参数与执行对应操作的操作指令。其中,预存特征参数与执行对应操作的操作指令包括:
采集用于执行某一操作的三维立体图像,从该三维立体图像中提取特征参数,比如需要设置握拳的动作对应执行屏幕滚动的操作,则预先采集一个握拳的三维立体图像,提取该握拳动作的特征参数,特征参数包括该拳头距离传感器的空间三维坐标以及握拳这个动作的各个手指间空间相对运动轨迹,将这些参数与屏幕滚动的操作指令进行绑定存储。在体感交互系统激活状态下采集到三维立体图像并提取得到特征参数后,将提取的特征参数与预存的特征参数进行匹配。
当提取的特征参数与预存的特征参数匹配度达到预定阈值时,即获取与预存的特征参数对应的指令,以作为操作指令。比如采集的三维立体图像为一个握拳的动作,则获取与之对应的滚动屏幕指令。
S103:根据操作指令执行对应的操作。
根据获取的操作指令,执行与操作指令对应的操作。比如获取的是滚动屏幕指令,则控制进行屏幕滚动。
当然,还可以通过预设不同的感应区域,并设置不同感应区不同的动作对应不同的操作。比如设置屏幕左侧预定区域感应区手掌向上运动控制音量调大,手掌向下运动控制音量调小,屏幕右侧预定感应区握拳动作向上移动屏幕亮度调大,握拳动作向下移动控制屏幕亮度调小。当在屏幕左侧预定感应区检测到手掌并且手掌向上运动时将音量调大,手掌向下运动控制音量调小。当在屏幕右侧的预定感应区检测到握拳动作向上移动控制屏幕变亮,当检测到握拳动作向下移动控制屏幕变暗。当然,在这样的设置条件下,如果在屏幕左侧预定区域检测到握拳的动作,或在屏幕右侧预定区域检测到手掌时,不进行响应。
在不设置预定区域对应不同的操作时,可以只设置不同的动作对应不同的操作,整个屏幕都是感应区,只要感应到动作,并且与预设的动作匹配达到预定阈值,即执行与动作对应的操作。
这里所提到预定阈值,是用于衡量匹配程度的阈值。可以根据需要自行设置阈值。比如当对匹配程度要求不高时,可以设定阈值为50%,也就是说,只要采集的三维立体图像所提取的特征参数与预存的特征参数匹配度达到50%或以上,即执行预存特征参数对应的操作。如果要求匹配程度较高才能执行动作,则可以相应将阈值调高,比如设置阈值为90%,则只有匹配度达到90%或以上,才会执行对应的操作。
当停止交互达到预定时间时,体感交互系统锁定,只有通过再次激活才能进行体感交互以此可以防止无意识动作对交互系统进行误操作。这里的感应区域可以是预设的预定空间区域范围,也可以是3D传感器所能采集到信号的整个区域范围。比如可以预设屏幕左侧对应的预定空间范围为感应区域,只有在该感应区域内的动作才进行识别并响应,在该感应区域外的动作不做响应。在不设置感应区域的情况下,默认3D传感器所能采集到信号的整个区域范围为感应区域。
本发明实施例所提供的体感交互方法,能够用于控制屏幕滚动、音量调节、亮度调节以及屏幕滚动速度调节等,当然,也并不局限于此。比如也可以通过体感控制而实现打开应用程序、文档缩放等。即通过采集空间上的手点击动作或手抓握伸缩动作来打开应用或进行文档缩放等等。本发明不一一进行举例说明。
以上本发明实施例提供的体感交互方法,在激活体感交互系统的状态下,采集人体部位的三维立体图像,根据人体部位的三维立体图像进行特征提取获取特征参数,将特征参数与预存的特征参数进行匹配,当匹配度达到预定阈值时,执行与预存的特征参数对应的操作。通过这样的方式,不需要依赖于外部输入设备,通过感应人体部位的空间动作,就能执行相应的操作,给用户更好的使用体验。
请参阅图3,图3是本发明实施例提供的一种体感交互系统激活方法的流程图,本实施例的体感交互系统激活方法包括:
S301:采集三维立体图像;
通过3D传感器采集预定空间范围内的三维立体图像。所采集的三维立体图像包括3D传感器镜头监控范围的所有物体。比如3D传感器镜头前包括桌子、椅子以及人,那么所采集的三维立体图像包括所有的这些物件。
S302:对三维立体图像进行处理,判断三维立体图像是否包含用于激活体感交互系统的人体部位的三维立体图像;
对3D体感器采集的三维立体图形进行处理,判断该三维立体图像中是否包含用于激活体感交互系统的人体部位的三维立体图像。比如预设的用于激活体感交互系统的人体部位为人手,则从采集的三维立体图像中识别是否包括人手。如果三维立体图像中包括用于激活体感交互系统的人体部位的三维立体图像,则执行步骤S303。
S303:对人体部位的三维立体图像进行处理,转化为激活指令;
其中,对人体部位的三维立体图像进行处理,转化为激活指令具体包括:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,将特征参数与预存的激活体感交互系统的特征参数进行匹配,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。
将采集的人体部位的三维立体图像进行特征提取,获取得到特征参数,特征参数包括位置参数以及动作轨迹参数。位置参数即人体部位所处的空间位置,用三维坐标表示,运动轨迹即人体部位在空间上的运动轨迹。比如一个手掌抓握的动作,其参数提取即包括手掌当前所处的实际三维坐标X、Y、Z的具体数值,以确定手掌与3D传感器的具体位置关系。还包括手掌的空间运动轨迹即抓握的动作轨迹。
在提取得到特征参数以后,将提取的特征参数与预存的用于激活体感交互系统的特征参数进行匹配。
比如通过一个手掌的动作来激活体感交互系统,预存的手掌的动作的特征参数包括A、B、C,当前采集到一个手掌的三维立体图像,提取得到的特征参数包括A'、B'、C',将A'、B'、C'与A、B、C进行匹配,并判断匹配度是否达到预定阈值。
当提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。预定阈值是预先设置的匹配程度的值,比如可以设置预定阈值为80%,当匹配度达到80%或以上,即获取与预存的特征参数对应的指令,以作为激活指令。
作为一种优选的实现方案,在提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,系统可以进一步判断所述三维立体图像中包含用于激活体感交互系统的人体部件的三维立体图像所持续的时间是否达到预定时间。在持续的时间达到预定时间时,才获取与预存的特征参数对应的指令,以作为激活指令。通过这样的方式,可以有效防止误触发激活体感交互系统。
比如预设的用于激活体感交行系统的人体部件为手掌。当3D体感器前面用户当前正与另一个人在聊天,过程中可能不经意的会做出一个手掌的动作,系统在采集并识别出这个手掌动作之后,进一步判断立体图像中包含该手掌是否持续预定时间,如果没有持续达到预定时间,可以判断到这只是一个误操作,则不会激活体感交互系统。其中,这里的预定时间可以根据需要预先设定,比如设定为10秒、30秒等等。
作为一种更进一步的优选方案,当系统采集并识别到人体部位且持续未达到预定时间之前,可以在屏幕上显示一个进度条,以提示体感交互系统激活状态。进度条可以实时的,以图片形式显示系统激活的速度,完成度,剩余未完成任务量的大小,和可能需要处理时间。作为一种可能的实现,进度条可以长方形条状显示。当进度条满时,即表示达到激活体感交互系统条件,激活体感交互系统。通过这样的方式,能够让用户对体感交互系统激活状态的有直观的了解,也能够让误操作的用户及时停止手势动作以避免误触发激活体感交互系统。
S304:根据激活指令激活体感交互系统。
根据获取的激活指令,激活体感交互系统,以进入体感交互状态。
其中,在激活体感交互系统之后,可以给用户相应的体感交互系统已被激活的提示。其中,可以通过将屏幕预定区域以高亮状态进行显示作为提示。这里的预定区域可以是预设的体感感应区域对应到屏幕上的平面区域,比如屏幕左侧的一定面积的区域,或屏幕右侧一定面积的区域等。当然,也可以是整个屏幕。
当然,也可以通过其他的方式给用户提示,比如通过弹出体感交互系统已激活的提示,或者通过语音提示等等,本发明对此不作限定。
另外,在体感交互系统被激活后,在屏幕上显示与人体部位同步移动的图标。其中,与人体部位同步移动的图标可以是跟所述人体部位相似的图标,比如人体部位是人手,该图标可以是一个手形状的图标。当然,也可以是其他形式的图标,比如三角图标,圆点图标等。该屏幕上的图标跟随人体部位的移动而在屏幕上对应移动。比如人手在空间上向右移动,图标也跟随在屏幕上向右移动。
本实施例的体感交互系统激活方法,能够通过采集预定空间范围内的三维立体图像,并识别出用于激活体感交互系统的人体部位,以获取激活指令而激活体感交互系统。激活方式灵活方便,给用户很好的激活体验。并且,在激活过程中,能够通过进度条以及持续时间的判断,有效防止误操作,也能让用户对激活进度有直观的了解。
请参阅图4,图4是本发明实施例提供的一种体感交互系统的结构示意图,本实施例的体感交互系统用于执行上述图1所示实施例的体感交互的方法,本实施例的体感交互系统100包括采集模块11、转化模块12以及处理模块13,其中:
采集模块11用于在体感交互系统激活状态下,采集人体部位的三维立体图像;
在本发明实施例中,需要进行体感交互之前,需要先激活体感交互系统。
因此,本实施例的体感交互系统进一步包括一激活模块14,激活模块14用于激活体感交互系统。
其中,请进一步参阅图5,图5是本发明实施例提供的激活模块的结构示意图,如图所示,激活模块14包括采集单元141、判断单元142、转化单元143以及激活单元144,其中:
采集单元141用于采集三维立体图像;
采集单元141通过3D传感器采集预定空间范围内的三维立体图像。所采集的三维立体图像包括3D传感器镜头监控范围的所有物体。比如3D传感器镜头前包括桌子、椅子以及人,那么所采集的三维立体图像包括所有的这些物件。
判断单元142用于对三维立体图像进行处理,判断三维立体图像是否包含用于激活体感交互系统的人体部位的三维立体图像,并将判断结果输出给转化单元143。
判断单元142对3D体感器采集的三维立体图形进行处理,判断该三维立体图像中是否包含用于激活体感交互系统的人体部位的三维立体图像。比如预设的用于激活体感交互系统的人体部位为人手,则从采集的三维立体图像中识别是否包括人手。
转化单元143用于对人体部位的三维立体图像进行处理,转化为激活指令。
其中,对人体部位的三维立体图像进行处理,转化为激活指令具体包括:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,将特征参数与预存的激活体感交互系统的特征参数进行匹配,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。
将采集的人体部位的三维立体图像进行特征提取,获取得到特征参数,特征参数包括位置参数以及动作轨迹参数。位置参数即人体部位所处的空间位置,用三维坐标表示,运动轨迹即人体部位在空间上的运动轨迹。比如一个手掌抓握的动作,其参数提取即包括手掌当前所处的实际三维坐标X、Y、Z的具体数值,以确定手掌与3D传感器的具体位置关系。还包括手掌的空间运动轨迹即抓握的动作轨迹。
在提取得到特征参数以后,提取的特征参数与预存的用于激活体感交互系统的特征参数进行匹配。
比如通过一个手掌的动作来激活体感交互系统,预存的手掌的动作的特征参数包括A、B、C,当前采集到一个手掌的三维立体图像,提取得到的特征参数包括A'、B'、C',将A'、B'、C'与A、B、C进行匹配,并判断匹配度是否达到预定阈值。
当提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。预定阈值是预先设置的匹配程度的值,比如可以设置预定阈值为80%,当匹配度达到80%或以上,即获取与预存的特征参数对应的指令,以作为激活指令。
作为一种优选的实现方案,在提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,系统可以进一步判断所述三维立体图像中包含用于激活体感交互系统的人体部件的三维立体图像所持续的时间是否达到预定时间。在持续的时间达到预定时间时,才获取与预存的特征参数对应的指令,以作为激活指令。通过这样的方式,可以有效防止误触发激活体感交互系统。
比如预设的用于激活体感交行系统的人体部件为手掌。当3D体感器前面用户当前正与另一个人在聊天,过程中可能不经意的会做出一个手掌的动作,系统在采集并识别出这个手掌动作之后,进一步判断立体图像中包含该手掌是否持续预定时间,如果没有持续达到预定时间,可以判断到这只是一个误操作,则不会激活体感交互系统。其中,这里的预定时间可以根据需要预先设定,比如设定为10秒、30秒等等。
作为一种更进一步的优选方案,当系统采集并识别到人体部位且持续未达到预定时间之前,可以在屏幕上显示一个进度条,以提示体感交互系统激活状态。进度条可以实时的,以图片形式显示系统激活的速度,完成度,剩余未完成任务量的大小,和可能需要处理时间。作为一种可能的实现,进度条可以长方形条状显示。当进度条满时,即表示达到激活体感交互系统条件,激活体感交互系统。通过这样的方式,能够让用户对体感交互系统激活状态的有直观的了解,也能够让误操作的用户及时停止手势动作以避免误触发激活体感交互系统。
激活单元144用于根据激活指令激活体感交互系统。
根据获取的激活指令,激活体感交互系统,以进入体感交互状态。
采集模块11在体感交互系统激活状态下,通过3D传感器采集预定空间范围内人体部位的三维立体图像。3D传感器能够采集空间位置上物件的三维立体图像,所采集的三维立体图像包括物件所处的空间位置坐标以及空间运动轨迹。
本发明实施例所述的空间运动轨迹,包括人体部件的姿势以及人体部件的具体动作。比如用户在3D体感器前面做一个握拳的姿势并在空间范围内滑动,那么3D体感器采集该用户手部的三维立体图像,对该手部的三维立体图像进行特征提取,即获取到该手部距离3D传感器的三维坐标,以及该手部的握拳姿势和滑动的动作。其他三维立体图像的处理与此类似,本实施例不一一举例进行说明。
其中,本发明实施例所提到的人体部位可以是人手。当然也可以是其他的用于操作的人体部位比如人脸、人脚等等。
转化模块12用于对人体部位的三维立体图像进行处理,转化为操作指令。
其中,请进一步参阅图6,图6是本发明实施例提供的转化模块12的结构示意图,如图所示,转化模块12还包括特征提取单元121、匹配单元122以及获取单元123,其中:
特征提取单元121用于将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹。
特征提取单元121将所采集的人体部位的三维立体图像进行特征提取,以获取该采集的三维立体空间的特征参数,其中,这些特征参数包括该人体部位所处的空间三维坐标以及人体部位的空间运动轨迹。通过特征提取,能够识别人体部位的动作。比如人手做的一个抓握的动作,通过采集该抓握的立体图像,并通过特征提取,就能根据该特征提取的参数识别该动作为一个抓握的动作。
作为一种可能的实现方式,本发明对动作的识别之前,包括一个学习训练以建立一个训练数据库的过程。比如为识别一个人手抓握的动作,系统会采集各种不同的抓握动作的三维立体图像,对这些不同的抓握动作进行学习,以获取用于识别这个具体动作的具体特征参数。针对每个不同的动作,系统都会做这么一个学习训练过程,各种不同具体动作对应的具体特征参数,构成训练数据库。当系统获取到一个三维立体图像时,就会将该立体图像进行特征提取,到训练数据库中找到与之匹配的具体动作,以作为识别结果。
匹配单元122用于将特征参数与预存的特征参数进行匹配;
系统数据库预先存储特征参数与执行对应操作的操作指令。其中,预存特征参数与执行对应操作的操作指令包括:
采集用于执行某一操作的三维立体图像,从该三维立体图像中提取特征参数,比如需要设置握拳的动作对应执行屏幕滚动的操作,则预先采集一个握拳的三维立体图像,提取该握拳动作的特征参数,特征参数包括该拳头距离传感器的空间三维坐标以及握拳这个动作的各个手指间空间相对运动轨迹,将这些参数与屏幕滚动的操作指令进行绑定存储。在体感交互系统激活状态下采集到三维立体图像并提取得到特征参数后,将提取的特征参数与预存的特征参数进行匹配。
获取单元123用于,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为操作指令。
当提取的特征参数与预存的特征参数匹配度达到预定阈值时,获取单元124即获取与预存的特征参数对应的指令,以作为操作指令。比如采集的三维立体图像为一个握拳的动作,则获取与之对应的滚动屏幕指令。
处理模块13用于根据操作指令执行对应的操作。
根据获取的操作指令,处理模块13控制执行与操作指令对应的操作。比如获取的是滚动屏幕指令,则控制进行屏幕滚动。
当然,还可以通过预设不同的感应区域,并设置不同感应区不同的动作对应不同的操作。比如设置屏幕左侧预定区域感应区手掌向上运动控制音量调大,手掌向下运动控制音量调小,屏幕右侧预定感应区握拳动作向上移动屏幕亮度调大,握拳动作向下移动控制屏幕亮度调小。当在屏幕左侧预定感应区检测到手掌并且手掌向上运动时将音量调大,手掌向下运动控制音量调小。当在屏幕右侧的预定感应区检测到握拳动作向上移动控制屏幕变亮,当检测到握拳动作向下移动控制屏幕变暗。当然,在这样的设置条件下,如果在屏幕左侧预定区域检测到握拳的动作,或在屏幕右侧预定区域检测到手掌时,不进行响应。
在不设置预定区域对应不同的操作时,可以只设置不同的动作对应不同的操作,3D体感器所能采集到立体图像的区域范围都是感应区,只要感应到动作,并且与预设的动作匹配达到预定阈值,即执行与动作对应的操作。
这里所提到预定阈值,是用于衡量匹配程度的阈值。可以根据需要自行设置阈值。比如当对匹配程度要求不高时,可以设定阈值为50%,也就是说,只要采集的三维立体图像所提取的特征参数与预存的特征参数匹配度达到50%或以上,即执行预存特征参数对应的操作。如果要求匹配程度较高才能执行动作,则可以相应将阈值调高,比如设置阈值为90%,则只有匹配度达到90%或以上,才会执行对应的操作。
当停止交互达到预定时间时,体感交互系统锁定,只有通过再次激活才能进行体感交互,以此可以防止无意识动作对交互系统进行误操作。这里的感应区域可以是预设的预定空间区域范围,也可以是3D传感器所能采集到信号的整个区域范围。比如可以预设屏幕左侧对应的预定空间范围为感应区域,只有在该感应区域内的动作才进行识别并响应,在该感应区域外的动作不做响应。在不设置感应区域的情况下,默认3D传感器所能采集到信号的整个区域范围为感应区域。
请继续参阅图4,本实施例的体感交互系统还包括显示模块15,显示模块15用于在体感交互系统被激活后,在屏幕上显示与人体部位同步移动的图标。
其中,与人体部位同步移动的图标可以是跟人体部位相似的图标,比如人体部位是人手,该图标可以是一个手形状的图标。当然,也可以是其他形式的图标,比如三角图标,圆点图标等。该屏幕上的图标跟随人体部位的移动而在屏幕上对应移动。比如人手在空间上向右移动,图标也跟随在屏幕上向右移动。
请继续参阅图4,本实施例的体感交互系统还包括提示模块16,提示模块16用于提示用户体感交互系统被激活。
其中,在激活体感交互系统之后,可以给用户相应的体感交互系统已被激活的提示。其中,可以通过将屏幕预定区域以高亮状态进行显示作为提示。这里的预定区域可以是预设的体感感应区域,比如屏幕左侧的一定面积的区域,或屏幕右侧一定面积的区域等。当然,也可以是整个屏幕。
当然,也可以通过其他的方式给用户提示,比如通过弹出体感交互系统已激活的提示,或者通过语音提示等等,本发明对此不作限定。
本发明实施例所提供的体感交互方法,能够用于控制屏幕滚动、音量调节、亮度调节以及屏幕滚动速度调节等,当然,也并不局限于此。比如也可以通过体感控制而实现打开应用程序、文档缩放等。即通过采集空间上的手点击动作或手抓握伸缩动作来打开应用或进行文档缩放等等。本发明不一一进行举例说明。
请参阅图7,图7是本发明实施例提供的另一种体感交互系统的结构示意图,本实施例的体感交互系统用于执行上述图3所示实施例的体感交互系统的激活方法,如图所示,本实施例的体感交互系统200包括采集模块21、判断模块22、转化模块23以及激活模块24,其中:
采集模块21用于采集三维立体图像;
采集模块21通过3D传感器采集预定空间范围内的三维立体图像。所采集的三维立体图像包括3D传感器镜头监控范围的所有物体。比如3D传感器镜头前包括桌子、椅子以及人,那么所采集的三维立体图像包括所有的这些物件。
判断模块22用于对三维立体图像进行处理,判断三维立体图像是否包含用于激活体感交互系统的人体部位立体图像,并将判断结果输出给转化模块23;
判断模块22对3D体感器采集的三维立体图形进行处理,判断该三维立体图像中是否包含用于激活体感交互系统的人体部位的三维立体图像。比如预设的用于激活体感交互系统的人体部位为人手,则从采集的三维立体图像中识别是否包括人手。
转化模块23用于,当三维立体图像包含用于激活体感交互系统的人体部位立体图像时,对人体部位的三维立体图像进行处理,转化为激活指令;
其中,转化模块23对人体部位的三维立体图像进行处理,转化为激活指令具体包括:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,将特征参数与预存的激活体感交互系统的特征参数进行匹配,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。
将采集的人体部位的三维立体图像进行特征提取,获取得到特征参数,特征参数包括位置参数以及动作轨迹参数。位置参数即人体部位所处的空间位置,用三维坐标表示,运动轨迹即人体部位在空间上的运动轨迹。比如一个手掌抓握的动作,其参数提取即包括手掌当前所处的实际三维坐标X、Y、Z的具体数值,以确定手掌与3D传感器的具体位置关系。还包括手掌的空间运动轨迹即抓握的动作轨迹。
在提取得到特征参数以后,将提取的特征参数与预存的用于激活体感交互系统的特征参数进行匹配。
比如通过一个手掌的动作来激活体感交互系统,预存的手掌的动作的特征参数包括A、B、C,当前采集到一个手掌的三维立体图像,提取得到的特征参数包括A'、B'、C',将A'、B'、C'与A、B、C进行匹配,并判断匹配度是否达到预定阈值。
当提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。预定阈值是预先设置的匹配程度的值,比如可以设置预定阈值为80%,当匹配度达到80%或以上,即获取与预存的特征参数对应的指令,以作为激活指令。
作为一种优选的实现方案,在提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,系统可以进一步判断所述三维立体图像中包含用于激活体感交互系统的人体部件的三维立体图像所持续的时间是否达到预定时间。在持续的时间达到预定时间时,才获取与预存的特征参数对应的指令,以作为激活指令。通过这样的方式,可以有效防止误触发激活体感交互系统。
比如预设的用于激活体感交行系统的人体部件为手掌。当3D体感器前面用户当前正与另一个人在聊天,过程中可能不经意的会做出一个手掌的动作,系统在采集并识别出这个手掌动作之后,进一步判断立体图像中包含该手掌是否持续预定时间,如果没有持续达到预定时间,可以判断到这只是一个误操作,则不会激活体感交互系统。其中,这里的预定时间可以根据需要预先设定,比如设定为10秒、30秒等等。
作为一种更进一步的优选方案,当系统采集并识别到人体部位且持续未达到预定时间之前,可以在屏幕上显示一个进度条,以提示体感交互系统激活状态。进度条可以实时的,以图片形式显示系统激活的速度,完成度,剩余未完成任务量的大小,和可能需要处理时间。作为一种可能的实现,进度条可以长方形条状显示。当进度条满时,即表示达到激活体感交互系统条件,激活体感交互系统。通过这样的方式,能够让用户对体感交互系统激活状态的有直观的了解,也能够让误操作的用户及时停止手势动作以避免误触发激活体感交互系统。
激活模块24根据激活指令激活体感交互系统。
激活模块24根据获取的激活指令,激活体感交互系统,以进入体感交互状态。
其中,请继续参阅图7,本实施例的体感交互系统可以进一步包括提示模块25,提示模块25用于在体感交互系统被激活之后,提示用户所述体感交互系统被激活。
其中,在激活体感交互系统之后,可以给用户相应的体感交互系统已被激活的提示。其中,可以通过将屏幕预定区域以高亮状态进行显示作为提示。这里的预定区域可以是预设的体感感应区域对应到屏幕上的平面区域,比如屏幕左侧的一定面积的区域,或屏幕右侧一定面积的区域等。当然,也可以是整个屏幕。
当然,也可以通过其他的方式给用户提示,比如通过弹出体感交互系统已激活的提示,或者通过语音提示等等,本发明对此不作限定。
请继续参阅图7,本实施例的体感交互系统还可以进一步包括显示模块26,显示模块26用于在体感交互系统被激活后,在屏幕上显示与人体部位同步移动的图标。
其中,与人体部位同步移动的图标可以是跟所述人体部位相似的图标,比如人体部位是人手,该图标可以是一个手形状的图标。当然,也可以是其他形式的图标,比如三角图标,圆点图标等。该屏幕上的图标跟随人体部位的移动而在屏幕上对应移动。比如人手在空间上向右移动,图标也跟随在屏幕上向右移动。
本实施例提供的体感交互系统,能够通过采集预定空间范围内的三维立体图像,并识别出用于激活体感交互系统的人体部位,以获取激活指令而激活体感交互系统。激活方式灵活方便,给用户很好的激活体验。并且,在激活过程中,能够通过进度条以及持续时间的判断,有效防止误操作,也能让用户对激活进度有直观的了解。
在本发明实施例所提供的体感交互系统的基础上,本发明实施例进一步提供一种电子设备,该电子设备包括上述实施例所述的体感交互系统。其中,电子设备可以但不限于是智能电视、智能手机、平板电脑、笔记本电脑等。
上述本发明实施例提供的体感交互的方法及系统,通过采集空间范围内的三维立体图像,并进行图像特征提取和匹配从而响应预定的操作。使得人机交互不再依赖于特定的输入设备,不需要用户与输入输出设备接触也能实现对智能设备的控制,从而使人机交互变得更加真实、更加方便,给用户更好的使用体验。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (14)

1.一种体感交互方法,其特征在于,所述方法包括:
在体感交互系统激活状态下,采集人体部位的三维立体图像;
对所述人体部位的三维立体图像进行处理,转化为操作指令;
根据所述操作指令执行对应的操作。
2.根据权利要求1所述的方法,其特征在于,所述对所述人体部位的三维立体图像进行处理,转化为操作指令包括:
将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
将所述特征参数与预存的特征参数进行匹配;
当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,以作为所述操作指令。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
激活所述体感交互系统。
4.根据权利要求3所述的方法,其特征在于,所述激活所述体感交互系统包括:
采集三维立体图像;
对所述三维立体图像进行处理,判断所述三维立体图像是否包含用于激活体感交互系统的人体部位的三维立体图像;
当所述三维立体图像包含用于激活体感交互系统的人体部位立体图像时,对所述人体部位的三维立体图像进行处理,转化为激活指令;
根据所述激活指令激活所述体感交互系统。
5.根据权利要求4所述的方法,其特征在于,所述对所述人体部位的三维立体图像进行处理,转化为激活指令包括:
将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
将所述特征参数与预存的激活所述体感交互系统的特征参数进行匹配;
当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,以作为所述激活指令。
6.根据权利要求3所述的方法,其特征在于,所述激活所述体感交互系统之后还包括:
在屏幕上显示与所述人体部位同步移动的图标。
7.根据权利要求3所述的方法,其特征在于,所述激活所述体感交互系统之后,还包括:
提示用户所述体感交互系统被激活。
8.一种体感交互系统激活方法,其特征在于,所述方法包括:
采集三维立体图像;
对所述三维立体图像进行处理,判断所述三维立体图像是否包含用于激活体感交互系统的人体部位立体图像;
当所述三维立体图像包含用于激活体感交互系统的人体部位立体图像时,对所述人体部位的三维立体图像进行处理,转化为激活指令;
根据所述激活指令激活所述体感交互系统。
9.一种体感交互系统,其特征在于,所述系统包括采集模块、转化模块以及处理模块,其中:
所述采集模块用于在体感交互系统激活状态下,采集人体部位的三维立体图像;
所述转化模块用于对所述人体部位的三维立体图形进行处理,转化为操作指令;
所述处理模块用于根据所述操作指令执行对应的操作。
10.根据权利要求9所述的系统,其特征在于,所述转化模块包括特征提取单元、匹配单元以及获取单元,其中:
所述特征提取单元用于将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
所述匹配单元用于将所述特征参数与预存的特征参数进行匹配;
所述获取单元用于,当匹配度达到预定阈值时,获取与所述预存的特征参数对应的指令,以作为所述操作指令。
11.根据权利要求9所述的系统,其特征在于,所述系统还包括激活模块,所述激活模块用于激活所述体感交互系统。
12.根据权利要求11所述的系统,其特征在于,所述激活模块包括采集单元、判断单元、转化单元以及激活单元,其中:
采集单元用于采集三维立体图像;
判断单元用于对所述三维立体图像进行处理,判断所述三维立体图像是否包含用于激活体感交互系统的人体部位立体图像;
所述转化单元用于,当所述三维立体图像包含用于激活体感交互系统的人体部位立体图像时,对所述人体部位的三维立体图像进行处理,转化为激活指令;
所述激活单元用于根据所述激活指令激活所述体感交互系统。
13.根据权利要求11所述的系统,其特征在于,所述系统还包括显示模块,所述显示模块用于在屏幕上显示与所述人体部位同步移动的图标。
14.根据权利要求11所述的系统,其特征在于,所述系统还包括提示模块,所述提示模块用于提示用户所述体感交互系统被激活。
CN201510307196.3A 2015-05-29 2015-06-05 一种体感交互系统激活方法、体感交互方法及系统 Active CN104881122B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510307196.3A CN104881122B (zh) 2015-05-29 2015-06-05 一种体感交互系统激活方法、体感交互方法及系统
PCT/CN2016/076765 WO2016192438A1 (zh) 2015-06-05 2016-03-18 一种体感交互系统激活方法、体感交互方法及系统

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2015102885343 2015-05-29
CN201510288534 2015-05-29
CN201510307196.3A CN104881122B (zh) 2015-05-29 2015-06-05 一种体感交互系统激活方法、体感交互方法及系统

Publications (2)

Publication Number Publication Date
CN104881122A true CN104881122A (zh) 2015-09-02
CN104881122B CN104881122B (zh) 2018-10-09

Family

ID=60022898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510307196.3A Active CN104881122B (zh) 2015-05-29 2015-06-05 一种体感交互系统激活方法、体感交互方法及系统

Country Status (2)

Country Link
CN (1) CN104881122B (zh)
WO (1) WO2016192438A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016192438A1 (zh) * 2015-06-05 2016-12-08 深圳奥比中光科技有限公司 一种体感交互系统激活方法、体感交互方法及系统
WO2016192440A1 (zh) * 2015-06-05 2016-12-08 深圳奥比中光科技有限公司 一种体感控制参数调整的方法、体感交互系统及电子设备
CN106933352A (zh) * 2017-02-14 2017-07-07 深圳奥比中光科技有限公司 三维人体测量方法和其设备及其计算机可读存储介质
CN106933342A (zh) * 2015-12-31 2017-07-07 北京数码视讯科技股份有限公司 体感系统、体感控制设备以及智能电子设备
CN107450717A (zh) * 2016-05-31 2017-12-08 联想(北京)有限公司 一种信息处理方法及穿戴式设备
CN107920203A (zh) * 2017-11-23 2018-04-17 乐蜜有限公司 图像采集方法、装置和电子设备
CN108153421A (zh) * 2017-12-25 2018-06-12 深圳Tcl新技术有限公司 体感交互方法、装置及计算机可读存储介质
CN110505405A (zh) * 2019-08-22 2019-11-26 上海乂学教育科技有限公司 基于体感技术的视频拍摄系统及方法
CN113849065A (zh) * 2021-09-17 2021-12-28 支付宝(杭州)信息技术有限公司 一种利用健身动作触发客户端操作指令的方法及装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111282261B (zh) * 2020-01-22 2023-08-08 京东方科技集团股份有限公司 人机交互方法及装置、体感游戏设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互系统和方法
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
CN203950270U (zh) * 2014-01-22 2014-11-19 南京信息工程大学 体感识别装置及通过其控制鼠标键盘操作的人机交互系统
CN104182132A (zh) * 2014-08-07 2014-12-03 天津三星电子有限公司 一种智能终端手势控制方法及智能终端

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102043320A (zh) * 2009-10-21 2011-05-04 陕西金合泰克信息科技发展有限公司 空中红外翻页影像书及其红外翻页方法
CN104915004A (zh) * 2015-05-29 2015-09-16 深圳奥比中光科技有限公司 一种体感控制屏幕滚动方法、体感交互系统及电子设备
CN104881122B (zh) * 2015-05-29 2018-10-09 深圳奥比中光科技有限公司 一种体感交互系统激活方法、体感交互方法及系统
CN104915003A (zh) * 2015-05-29 2015-09-16 深圳奥比中光科技有限公司 一种体感控制参数调整的方法、体感交互系统及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互系统和方法
CN203950270U (zh) * 2014-01-22 2014-11-19 南京信息工程大学 体感识别装置及通过其控制鼠标键盘操作的人机交互系统
CN104182132A (zh) * 2014-08-07 2014-12-03 天津三星电子有限公司 一种智能终端手势控制方法及智能终端

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016192438A1 (zh) * 2015-06-05 2016-12-08 深圳奥比中光科技有限公司 一种体感交互系统激活方法、体感交互方法及系统
WO2016192440A1 (zh) * 2015-06-05 2016-12-08 深圳奥比中光科技有限公司 一种体感控制参数调整的方法、体感交互系统及电子设备
CN106933342A (zh) * 2015-12-31 2017-07-07 北京数码视讯科技股份有限公司 体感系统、体感控制设备以及智能电子设备
CN107450717A (zh) * 2016-05-31 2017-12-08 联想(北京)有限公司 一种信息处理方法及穿戴式设备
CN106933352A (zh) * 2017-02-14 2017-07-07 深圳奥比中光科技有限公司 三维人体测量方法和其设备及其计算机可读存储介质
CN107920203A (zh) * 2017-11-23 2018-04-17 乐蜜有限公司 图像采集方法、装置和电子设备
CN108153421A (zh) * 2017-12-25 2018-06-12 深圳Tcl新技术有限公司 体感交互方法、装置及计算机可读存储介质
CN108153421B (zh) * 2017-12-25 2021-10-01 深圳Tcl新技术有限公司 体感交互方法、装置及计算机可读存储介质
CN110505405A (zh) * 2019-08-22 2019-11-26 上海乂学教育科技有限公司 基于体感技术的视频拍摄系统及方法
CN113849065A (zh) * 2021-09-17 2021-12-28 支付宝(杭州)信息技术有限公司 一种利用健身动作触发客户端操作指令的方法及装置

Also Published As

Publication number Publication date
WO2016192438A1 (zh) 2016-12-08
CN104881122B (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
CN104881122A (zh) 一种体感交互系统激活方法、体感交互方法及系统
CN104915003A (zh) 一种体感控制参数调整的方法、体感交互系统及电子设备
CN104915004A (zh) 一种体感控制屏幕滚动方法、体感交互系统及电子设备
US9785335B2 (en) Systems and methods for adaptive gesture recognition
CN105159505B (zh) 一种界面操作方法及终端
CN104035677B (zh) 提示信息的显示方法和装置
CN109074819A (zh) 基于操作-声音的多模式命令的优选控制方法及应用其的电子设备
CN105573536A (zh) 触控交互的处理方法、装置和系统
EP3557384A1 (en) Device and method for providing dynamic haptic playback for an augmented or virtual reality environments
CN110517685A (zh) 语音识别方法、装置、电子设备及存储介质
CN102830891A (zh) 一种非接触式手势控制设备及其锁定和解锁方法
CN206906843U (zh) 机器人的控制装置及机器人
CN103677251A (zh) 姿势识别装置及其控制方法、显示器
WO2018010021A1 (en) Pointer control in a handheld computer by way of hid commands
CN101976143A (zh) 一种触摸屏操作手势管理系统及方法
WO2015091638A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit.
CN109976553A (zh) 基于键盘的操作处理方法、装置、设备及介质
CN107463291A (zh) 基于触摸的具有人格化表现的机器人
CN109806590A (zh) 对象控制方法和装置、存储介质及电子装置
CN104915088B (zh) 一种信息处理方法和电子设备
CN104331195B (zh) 触控响应方法及电子设备
CN104898839A (zh) 一种终端设备及其控制方法
CN109032334B (zh) 一种基于指纹和手势识别的交互方法及交互系统
CN103809793B (zh) 一种信息处理方法和电子设备
CN112357703B (zh) 电梯的控制系统及电梯的控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 518057 11-12 / F, joint headquarters building, high tech Zone, 63 Xuefu Road, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: Obi Zhongguang Technology Group Co., Ltd

Address before: 518057 a808, Zhongdi building, industry university research base, China University of Geosciences, 8 Yuexing Third Road, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN ORBBEC Co.,Ltd.

CP03 Change of name, title or address