CN104915003A - 一种体感控制参数调整的方法、体感交互系统及电子设备 - Google Patents
一种体感控制参数调整的方法、体感交互系统及电子设备 Download PDFInfo
- Publication number
- CN104915003A CN104915003A CN201510307213.3A CN201510307213A CN104915003A CN 104915003 A CN104915003 A CN 104915003A CN 201510307213 A CN201510307213 A CN 201510307213A CN 104915003 A CN104915003 A CN 104915003A
- Authority
- CN
- China
- Prior art keywords
- human body
- described human
- interactive system
- induction region
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种体感控制参数调整的方法、系统及电子设备。体感控制参数调整的方法包括:在体感交互系统激活状态下,采集人体部位的三维立体图像;将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹;根据人体部位的三维坐标,判断人体部位是否进入预定感应区域;当人体部位进入预定感应区域时,控制根据人体部位的空间运动轨迹进行参数调整。通过上述方式,本发明能够不需要依赖外部输入设备,通过感应人体部位的动作,就能控制进行参数调整。
Description
技术领域
本发明人机交互领域,具体涉及一种体感控制屏幕滚动的方法、体感交互系统及电子设备。
背景技术
人机交互技术是指通过输入输出设备,以有效的方式实现人与机器对话的技术。现有的人机交互的交互方式通常是通过鼠标、键盘、触摸屏或者手柄等外部设备与机器系统进行交互,机器系统再做出相应的响应。比如当需要控制音量调节时,要么通过鼠标拖动实现音量调节,要么通过人体部位如手指等在触摸屏上进行滑动实现音量调节。
现有的控制参数调节的方式,都必须与输入设备比如鼠标、触摸屏进行直接接触才能完成参数调整操作,使得用户控制参数调整的操作必须依赖于外部设备,束缚用户的行为方式,具体实现显得不自然,不真实。
发明内容
本发明主要解决的技术问题是提供一种体感控制参数调整的方法、体感交互系统及电子设备,能够不需要依赖外部输入设备,通过感应人体部位的动作,就能控制进行参数调整。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种体感控制参数调整的方法,所述方法包括:在体感交互系统激活状态下,采集人体部位的三维立体图像;将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;根据所述人体部位的三维坐标,判断所述人体部位是否进入预定感应区域;当所述人体部位进入预定感应区域时,控制根据所述人体部位的空间运动轨迹进行参数调整。
其中,所述参数包括音量、亮度、屏幕滚动速度的至少一种。
其中,所述方法还包括:当所述人体部位进入预定感应区域时,在屏幕上显示与所述人体部位同步移动的图标。
其中,所述方法还包括:当所述人体部位进入预定感应区域时,屏幕显示相应的提示。
其中,所述人体部位为人手。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种体感交互系统,所述系统包括采集模块、特征提取模块、判断模块以及控制模块,其中:所述采集模块用于在体感交互系统激活状态下,采集人体部位的三维立体图像;所述特征提取模块用于将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;所述判断模块用于根据所述人体部位的三维坐标,判断所述人体部位是否进入预定感应区域;所述控制模块用于,当所述人体部位进入预定感应区域时,控制根据所述人体部位的空间运动轨迹进行参数调整。
其中,所述参数包括音量、亮度、屏幕滚动速度的至少一种。
其中,所述系统还包括显示模块,所述显示模块用于,当所述人体部位进入预定感应区域时,在屏幕上显示与所述人体部位同步移动的图标。
其中,所述显示模块还用于当所述人体部位进入预定感应区域时,在屏幕上显示相应的提示。
为解决上述技术问题,本发明提供的还有一种技术方案是:提供一种电子设备,所述电子设备包括上述的体感交互系统。
本发明的有益效果是:区别于现有技术的情况,本发明在激活体感交互系统的状态下,采集人体部位的三维立体图像,根据人体部位的三维立体图像进行特征提取获取特征参数,其中特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,根据人体部位的三维坐标,判断人体部位是否进入预定感应区域,当人体部位进入预定感应区域时,根据人体部位的空间运动轨迹控制进行参数调整。通过这样的方式,不需要依赖于外部输入设备,通过感应人体部位的空间动作,就能控制参数调整,给用户更好的使用体验。
附图说明
图1是本发明实施提供的体感控制参数调整的方法的流程图;
图2是本发明实施例提供的激活体感交互系统的流程图;
图3是本发明实施例提供的一种体感交互系统的结构示意图;
图4是本发明实施例提供的另一种体感交互系统的结构示意图;
图5是本发明实施例提供的体感交互系统中激活模块的结构示意图;
图6是本发明实施例提供的通过体感控制屏幕滚动速度调节的操作示意图;
图7是本发明实施例提供的通过体感控制屏幕亮度调节的操作示意图;
图8是本发明实施例提供的通过体感控制音量调节的操作示意图。
具体实施方式
请参阅图1,图1是本发明实施例提供的一种体感控制参数调整的方法,如图所示,本实施例的体感控制参数调整的方法包括:
S101:在体感交互系统激活状态下,采集人体部位的三维立体图像;
在本发明实施例中,需要进行体感交互之前,需要先激活体感交互系统。
其中,请进一步参阅图2,图2是本发明实施例提供的激活体感交互系统的流程图,如图所示,激活体感交互系统包括以下步骤:
S201:采集三维立体图像;
通过3D传感器采集预定空间范围内的三维立体图像。所采集的三维立体图像包括3D传感器镜头监控范围的所有物体。比如3D传感器镜头前包括桌子、椅子以及人,那么所采集的三维立体图像包括所有的这些物件。
S202:对三维立体图像进行处理,判断三维立体图像是否包含用于激活体感交互系统的人体部位的三维立体图像;
对3D体感器采集的三维立体图形进行处理,判断该三维立体图像中是否包含用于激活体感交互系统的人体部位的三维立体图像。比如预设的用于激活体感交互系统的人体部位为人手,则从采集的三维立体图像中识别是否包括人手。如果三维立体图像中包括用于激活体感交互系统的人体部位的三维立体图像,则执行步骤S203。
S203:对人体部位的三维立体图像进行处理,转化为激活指令;
其中,对人体部位的三维立体图像进行处理,转化为激活指令具体包括:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,将特征参数与预存的激活体感交互系统的特征参数进行匹配,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。
将采集的人体部位的三维立体图像进行特征提取,获取得到特征参数,特征参数包括位置参数以及动作轨迹参数。位置参数即人体部位所处的空间位置,用三维坐标表示,运动轨迹即人体部位在空间上的运动轨迹。比如一个手掌抓握的动作,其参数提取即包括手掌当前所处的实际三维坐标X、Y、Z的具体数值,以确定手掌与3D传感器的具体位置关系。还包括手掌的空间运动轨迹即抓握的动作轨迹。
在提取得到特征参数以后,将提取的特征参数与预存的用于激活体感交互系统的特征参数进行匹配。
比如通过一个手掌的动作来激活体感交互系统,预存的手掌的动作的特征参数包括A、B、C,当前采集到一个手掌的三维立体图像,提取得到的特征参数包括A'、B'、C',将A'、B'、C'与A、B、C进行匹配,并判断匹配度是否达到预定阈值。
当提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。预定阈值是预先设置的匹配程度的值,比如可以设置预定阈值为80%,当匹配度达到80%或以上,即获取与预存的特征参数对应的指令,以作为激活指令。
作为一种优选的实现方案,在提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,系统可以进一步判断所述三维立体图像中包含用于激活体感交互系统的人体部位的三维立体图像所持续的时间是否达到预定时间。在持续的时间达到预定时间时,才获取与预存的特征参数对应的指令,以作为激活指令。通过这样的方式,可以有效防止误触发激活体感交互系统。
比如预设的用于激活体感交行系统的人体部位为手掌。当3D体感器前面用户当前正与另一个人在聊天,过程中可能不经意的会做出一个手掌的动作,系统在采集并识别出这个手掌动作之后,进一步判断立体图像中包含该手掌是否持续预定时间,如果没有持续达到预定时间,可以判断到这只是一个误操作,则不会激活体感交互系统。其中,这里的预定时间可以根据需要预先设定,比如设定为10秒、30秒等等。
作为一种更进一步的优选方案,当系统采集并识别到人体部位且持续未达到预定时间之前,可以在屏幕上显示一个进度条,以提示体感交互系统激活状态。进度条可以实时的,以图片形式显示系统激活的速度,完成度,剩余未完成任务量的大小,和可能需要处理时间。作为一种可能的实现,进度条可以长方形条状显示。当进度条满时,即表示达到激活体感交互系统条件,激活体感交互系统。通过这样的方式,能够让用户对体感交互系统激活状态的有直观的了解,也能够让误操作的用户及时停止手势动作以避免误触发激活体感交互系统。
S204:根据激活指令激活体感交互系统。
根据获取的激活指令,激活体感交互系统,以进入体感交互状态。
其中,在激活体感交互系统之后,可以给用户相应的体感交互系统已被激活的提示。其中,可以通过将屏幕预定区域以高亮状态进行显示作为提示。这里的预定区域可以是预设的体感感应区域对应到屏幕上的平面区域,比如屏幕左侧的一定面积的区域,或屏幕右侧一定面积的区域等。当然,也可以是整个屏幕。
当然,也可以通过其他的方式给用户提示,比如通过弹出体感交互系统已激活的提示,或者通过语音提示等等,本发明对此不作限定。
另外,在体感交互系统被激活后,在屏幕上显示与人体部位同步移动的图标。其中,与人体部位同步移动的图标可以是跟所述人体部位相似的图标,比如人体部位是人手,该图标可以是一个手形状的图标。当然,也可以是其他形式的图标,比如三角图标,圆点图标等。该屏幕上的图标跟随人体部位的移动而在屏幕上对应移动。比如人手在空间上向右移动,图标也跟随在屏幕上向右移动。
在体感交互系统激活状态下,通过3D红外传感器采集预定空间范围内人体部位的三维立体图像。3D红外传感器能够采集空间位置上物件的三维立体图像,所采集的三维立体图像包括物件所处的空间位置坐标以及空间运动轨迹。
本发明实施例所述的空间运动轨迹,包括人体部件的姿势以及人体部件的具体动作。比如用户在3D体感器前面做一个握拳的姿势并在空间范围内滑动,那么3D体感器采集该用户手部的三维立体图像,对该手部的三维立体图像进行特征提取,即获取到该手部距离3D传感器的三维坐标,以及该手部的握拳姿势和滑动的动作。其他三维立体图像的处理与此类似,本实施例不一一举例进行说明。
其中,本发明实施例所提到的人体部位可以是人手。当然也可以是其他的用于操作的人体部位比如人脸、人脚等等。
S102:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹;
将所采集的人体部位的三维立体图像进行特征提取,以获取该采集的三维立体空间的特征参数,其中,这些特征参数包括该人体部位所处的空间三维坐标以及人体部位的空间运动轨迹。通过特征提取,能够识别人体部位距离3D传感器的具体空间位置以及人体部位的动作。比如人手做的一个抓握的动作,通过采集该抓握的立体图像,并通过特征提取,就能根据该特征提取的参数确定这个人手的具体空间位置并识别出该动作为一个抓握的动作。
作为一种可能的实现方式,本发明对动作的识别之前,包括一个学习训练以建立一个训练数据库的过程。比如为识别一个人手抓握的动作,系统会采集各种不同的抓握动作的三维立体图像,对这些不同的抓握动作进行学习,以获取用于识别这个具体动作的具体特征参数。针对每个不同的动作,系统都会做这么一个学习训练过程,各种不同具体动作对应的具体特征参数,构成训练数据库。当系统获取到一个三维立体图像时,就会将该立体图像进行特征提取,到训练数据库中找到与之匹配的具体动作,以作为识别结果。
S103:根据人体部位的三维坐标,判断人体部位是否进入预定感应区域;
从提取的特征参数中的人体部位的三维坐标,判断人体部位是否进入预定感应区域。其中,这里的预定感应区域可以是预先设置的一定空间范围。比如设置屏幕左侧预定面积对应的空间区域为预定感应区域,在该预定感应区域之外的空间范围的动作不做响应。或者当需要通过不同的体感动作执行不同的参数调整时,可以分别设置不同的预定感应区域对应不同的参数调整,比如设置屏幕上侧预定空间范围对应感应并响应进行亮度调节,屏幕下侧预定空间范围对应感应并响应音量调节等等。当然,也可以不做设定,这种情况下,3D体感器所能采集到立体图像的空间范围都为预定感应区域,只根据不同的动作响应进行不同的操作。
其中,当人体部位进入预定感应区域时,屏幕上显示相应的提示。其中,作为一种可能的提示方式,可以将预定感应区域以高亮状态进行显示以提示用户可以在该预定感应区域内执行控制动作。当然,预定感应区域也可以以别的方式提示用户。比如突出显示,闪动显示或者显示条纹等等。
当特征参数中的人体部位的三维坐标落入预定感应区域范围,则执行步骤S104。否则,不进行响应。
S104:控制根据人体部位的空间运动轨迹进行参数调整;
当人体部位进入预定感应区域时,根据特征提取参数中人体部位的空间运动轨迹进行参数调整。这里的参数调整可以但不限于是音量调节、屏幕亮度调节、屏幕滚动速度调节中的至少一种。
其中,根据人体部位的空间运动轨迹进行参数调整具体包括:将人体部位的空间运动轨迹与预存的空间运动轨迹进行匹配,当匹配达到预定匹配阈值时,控制执行与预存的空间运动轨迹对应的参数调整。
比如预先设置手掌向上推动的动作对应调高音量,手掌向下推动的动作对应调低音量,当采集到手掌向上推动的动作时即控制将音量调高,采集到手掌向下推动的动作即控制将音量调低。
当人体部位离开预定感应区域时,体感交互系统进入锁定状态,只有再次激活体感交互系统后才能进入体感控制参数调整的交互。
本发明实施例中,还可以通过预设不同的感应区域,并设置不同感应区不同的动作对应不同的参数调整。比如设置屏幕左侧预定区域感应区手掌向上运动控制音量调大,手掌向下运动控制音量调小,屏幕右侧预定感应区握拳动作向上移动屏幕亮度调大,握拳动作向下移动控制屏幕亮度调小。当在屏幕左侧预定感应区检测到手掌并且手掌向上运动时将音量调大,手掌向下运动控制音量调小。当在屏幕右侧的预定感应区检测到握拳动作向上移动控制屏幕变亮,当检测到握拳动作向下移动控制屏幕变暗。当然,在这样的设置条件下,如果在屏幕左侧预定区域检测到握拳的动作,或在屏幕右侧预定区域检测到手掌时,不进行响应。
在不设置预定区域对应不同的操作时,可以只设置不同的动作对应不同的操作,3D体感器所能采集到立体图像的区域范围都是感应区,只要人体部位进入感应区并感应到动作,并且与预设的动作匹配达到预定阈值,即执行与动作对应的操作。
请参阅图6,图6是本发明实施例提供的通过体感控制屏幕滚动速度的操作示意图,如图所示,当人手往左边滑动时控制屏幕滚动加快,当人手往右边滑动时控制屏幕滚动速度放慢。当然,这只是示例。也可以设置人手往右边滑动时控制屏幕滚动加快,人手往左边滑动时控制屏幕滚动速度放慢。
请参阅图7,图7是本发明实施例提供的通过体感控制屏幕亮度调节的操作示意图,如图所示,第一个示意图,示意出通过右手握拳向下移动的动作控制屏幕亮度降低,中间的示意图示意出通过右手握拳移动到中间的动作控制屏幕以正常亮度显示,第三个示意图,示意出通过右手握拳向上一定的动作控制屏幕亮度增加。
请参阅图8,图8是本发明实施例提供的通过体感控制音量调节的操作示意图,如图所示,第一个示意图,示意出通过左手握拳向下的动作控制音量降低,中间的示意图示意出通过左手握拳移动到中间的动作控制为正常音量,第三个示意图,示意出通过左手握拳向上的动作控制音量增加。
当然,以上的示意图只是示意性的,具体什么动作对应控制执行什么样的操作,可以根据需要设置。
本发明在激活体感交互系统的状态下,采集人体部位的三维立体图像,根据人体部位的三维立体图像进行特征提取获取特征参数,其中特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,根据人体部位的三维坐标,判断人体部位是否进入预定感应区域,当人体部位进入预定感应区域时,根据人体部位的空间运动轨迹控制进行参数调整。通过这样的方式,不需要依赖于外部输入设备,通过感应人体部位的空间动作,就能控制参数调整,给用户更好的使用体验。
请参阅图3,图3是本发明实施例提供的一种体感交互系统的结构示意图,本实施例的体感交互系统用于执行上述图1所示实施例的体感控制参数调整的方法,如图所示,本实施例的体感交互系统100包括采集模块11、特征提取模块12、判断模块13以及控制模块14,其中:
采集模块11用于,在体感交互系统激活状态下,采集人体部位的三维立体图像;
在本发明实施例中,需要通过体感控制参数调整时,需要先激活体感交互系统。
其中,请参阅图4,图4是本发明实施例提供的另一种体感交互系统的结构示意图,本实施例提供的体感交互系统包括与图3所示实施例提供的体感交互系统相同的功能模块之外,还进一步包括激活模块15,激活模块15用于控制激活体感交互系统。与图3所示相同的功能模块其具体功能实现也相同,具体请参见下述相关描述。
其中,请进一步参阅图5,图5是本发明实施例提供的激活模块的结构示意图,如图所示,激活模块15包括采集单元151、判断单元152、转化单元153以及激活单元154,其中:
采集单元151用于采集三维立体图像;
采集单元151通过3D传感器采集预定空间范围内的三维立体图像。所采集的三维立体图像包括3D传感器镜头监控范围的所有物体。比如3D传感器镜头前包括桌子、椅子以及人,那么所采集的三维立体图像包括所有的这些物件。
判断单元152用于对三维立体图像进行处理,判断三维立体图像是否包含用于激活体感交互系统的人体部位的三维立体图像,并将判断结果输出给转化单元153。
判断单元152对3D体感器采集的三维立体图形进行处理,判断该三维立体图像中是否包含用于激活体感交互系统的人体部位的三维立体图像。比如预设的用于激活体感交互系统的人体部位为人手,则从采集的三维立体图像中识别是否包括人手。
转化单元153用于对人体部位的三维立体图像进行处理,转化为激活指令。
其中,对人体部位的三维立体图像进行处理,转化为激活指令具体包括:将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,将特征参数与预存的激活体感交互系统的特征参数进行匹配,当匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。
将采集的人体部位的三维立体图像进行特征提取,获取得到特征参数,特征参数包括位置参数以及动作轨迹参数。位置参数即人体部位所处的空间位置,用三维坐标表示,运动轨迹即人体部位在空间上的运动轨迹。比如一个手掌抓握的动作,其参数提取即包括手掌当前所处的实际三维坐标X、Y、Z的具体数值,以确定手掌与3D传感器的具体位置关系。还包括手掌的空间运动轨迹即抓握的动作轨迹。
在提取得到特征参数以后,提取的特征参数与预存的用于激活体感交互系统的特征参数进行匹配。
比如通过一个手掌的动作来激活体感交互系统,预存的手掌的动作的特征参数包括A、B、C,当前采集到一个手掌的三维立体图像,提取得到的特征参数包括A'、B'、C',将A'、B'、C'与A、B、C进行匹配,并判断匹配度是否达到预定阈值。
当提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,获取与预存的特征参数对应的指令,以作为激活指令。预定阈值是预先设置的匹配程度的值,比如可以设置预定阈值为80%,当匹配度达到80%或以上,即获取与预存的特征参数对应的指令,以作为激活指令。
作为一种优选的实现方案,在提取的特征参数与预存的用于激活体感交互系统的特征参数的匹配度达到预定阈值时,系统可以进一步判断所述三维立体图像中包含用于激活体感交互系统的人体部件的三维立体图像所持续的时间是否达到预定时间。在持续的时间达到预定时间时,才获取与预存的特征参数对应的指令,以作为激活指令。通过这样的方式,可以有效防止误触发激活体感交互系统。
比如预设的用于激活体感交行系统的人体部件为手掌。当3D体感器前面用户当前正与另一个人在聊天,过程中可能不经意的会做出一个手掌的动作,系统在采集并识别出这个手掌动作之后,进一步判断立体图像中包含该手掌是否持续预定时间,如果没有持续达到预定时间,可以判断到这只是一个误操作,则不会激活体感交互系统。其中,这里的预定时间可以根据需要预先设定,比如设定为10秒、30秒等等。
作为一种更进一步的优选方案,当系统采集并识别到人体部位且持续未达到预定时间之前,可以在屏幕上显示一个进度条,以提示体感交互系统激活状态。进度条可以实时的,以图片形式显示系统激活的速度,完成度,剩余未完成任务量的大小,和可能需要处理时间。作为一种可能的实现,进度条可以长方形条状显示。当进度条满时,即表示达到激活体感交互系统条件,激活体感交互系统。通过这样的方式,能够让用户对体感交互系统激活状态的有直观的了解,也能够让误操作的用户及时停止手势动作以避免误触发激活体感交互系统。
激活单元154用于根据激活指令激活体感交互系统。
根据获取的激活指令,激活体感交互系统,以进入体感交互状态。采集模块11在体感交互系统激活状态下,采集进入感应区域的人体部位的三维立体图像。
在体感交互系统激活状态下,通过3D红外传感器采集预定空间范围内人体部位的三维立体图像。3D红外传感器能够采集空间位置上物件的三维立体图像,所采集的三维立体图像包括物件所处的空间位置坐标以及空间运动轨迹。
其中,本发明实施例所提到的人体部位可以是人手。当然也可以是其他的用于操作的人体部位比如人脸、人脚等等。
特征提取模块12用于将人体部位的三维立体图像进行特征提取获取特征参数,特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹;
特征提取模块12将所采集的人体部位的三维立体图像进行特征提取,以获取该采集的三维立体空间的特征参数,其中,这些特征参数包括该人体部位所处的空间三维坐标以及人体部位的空间运动轨迹。通过特征提取,能够识别人体部位距离3D传感器的具体空间位置以及人体部位的动作。比如人手做的一个抓握的动作,通过采集该抓握的立体图像,并通过特征提取,就能根据该特征提取的参数确定这个人手的具体空间位置并识别出该动作为一个抓握的动作。
判断模块13用于根据人体部位的三维坐标,判断人体部位是否进入预定感应区域;
判断模块13从提取的特征参数中的人体部位的三维坐标,判断人体部位是否进入预定感应区域。其中,这里的预定感应区域可以是预先设置的一定空间范围。比如设置屏幕左侧预定面积对应的空间区域为预定感应区域,在该预定感应区域之外的空间范围的动作不做响应。或者当需要通过不同的体感动作执行不同的参数调整时,可以分别设置不同的预定感应区域对应不同的参数调整,比如设置屏幕上侧预定空间范围对应感应并响应进行亮度调节,屏幕下侧预定空间范围对应感应并响应音量调节等等。当然,也可以不做设定,这种情况下,3D体感器所能采集到立体图像的空间范围都为预定感应区域,只根据不同的动作响应进行不同的操作。
控制模块14用于,当人体部位进入预定感应区域时,控制根据人体部位的空间运动轨迹进行参数调整。
当人体部位进入预定感应区域时,控制模块14根据特征提取参数中人体部位的空间运动轨迹进行参数调整。这里的参数调整可以但不限于是音量调节、屏幕亮度调节、屏幕滚动速度调节中的至少一种。
其中,根据人体部位的空间运动轨迹进行参数调整具体包括:将人体部位的空间运动轨迹与预存的空间运动轨迹进行匹配,当匹配达到预定匹配阈值时,控制执行与预存的空间运动轨迹对应的参数调整。
比如预先设置手掌向上推动的动作对应调高音量,手掌向下推动的动作对应调低音量,当采集到手掌向上推动的动作时即控制将音量调高,采集到手掌向下推动的动作即控制将音量调低。
当人体部位离开预定感应区域时,体感交互系统进入锁定状态,只有再次激活体感交互系统后才能进入体感控制参数调整的交互。
其中,请继续参阅图4,本实施例的体感交互系统还可以进一步包括显示模块16,显示模块16用于,当人体部位进入预定感应区域时,在屏幕上显示与人体部位同步移动的图标。
其中,与人体部位同步移动的图标可以是跟所述人体部位相似的图标,比如人体部位是人手,该图标可以是一个手形状的图标。当然,也可以是其他形式的图标,比如三角图标,圆点图标等。该屏幕上的图标跟随人体部位的移动而在屏幕上对应移动。比如人手在空间上向右移动,图标也跟随在屏幕上向右移动。
显示模块16还用于,当人体部位进入预定感应区域时,在屏幕上显示相应的提示。
其中,当人体部位进入预定感应区域时,可以给用户相应的提示。作为一种可能的实现方式,显示模块16可以将预定感应区域以高亮状态进行显示以提示用户可以在该预定感应区域内执行控制动作。当然,预定感应区域也可以以别的方式提示用户。比如突出显示,闪动显示或者显示条纹等等。
在本发明实施例中,还可以通过预设不同的感应区域,并设置不同感应区不同的动作对应不同的参数调整。比如设置屏幕左侧预定区域感应区手掌向上运动控制音量调大,手掌向下运动控制音量调小,屏幕右侧预定感应区握拳动作向上移动屏幕亮度调大,握拳动作向下移动控制屏幕亮度调小。当在屏幕左侧预定感应区检测到手掌并且手掌向上运动时将音量调大,手掌向下运动控制音量调小。当在屏幕右侧的预定感应区检测到握拳动作向上移动控制屏幕变亮,当检测到握拳动作向下移动控制屏幕变暗。当然,在这样的设置条件下,如果在屏幕左侧预定区域检测到握拳的动作,或在屏幕右侧预定区域检测到手掌时,不进行响应。
在不设置预定区域对应不同的操作时,可以只设置不同的动作对应不同的操作,3D体感器所能采集到立体图像的区域范围都是感应区,只要人体部位进入感应区并感应到动作,并且与预设的动作匹配达到预定阈值,即执行与动作对应的操作。
在本发明实施例所提供的体感交互系统的基础上,本发明实施例进一步提供一种电子设备,该电子设备包括上述实施例所述的体感交互系统。其中,电子设备可以但不限于是智能电视、智能手机、平板电脑、笔记本电脑等。
上述本发明实施例所提供的体感交互系统,在激活体感交互系统的状态下,采集人体部位的三维立体图像,根据人体部位的三维立体图像进行特征提取获取特征参数,其中特征参数包括人体部位的三维坐标以及人体部位的空间运动轨迹,根据人体部位的三维坐标,判断人体部位是否进入预定感应区域,当人体部位进入预定感应区域时,根据人体部位的空间运动轨迹控制进行参数调整。通过这样的方式,不需要依赖于外部输入设备,通过感应人体部位的空间动作,就能控制参数调整,给用户更好的使用体验。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种体感控制参数调整的方法,其特征在于,所述方法包括:
在体感交互系统激活状态下,采集人体部位的三维立体图像;
将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
根据所述人体部位的三维坐标,判断所述人体部位是否进入预定感应区域;
当所述人体部位进入预定感应区域时,根据所述人体部位的空间运动轨迹进行参数调整。
2.根据权利要求1所述的方法,其特征在于,所述参数包括音量、亮度、屏幕滚动速度的至少一种。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当所述人体部位进入预定感应区域时,在屏幕上显示与所述人体部位同步移动的图标。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当所述人体部位进入预定感应区域时,屏幕显示相应的提示。
5.根据权利要求1所述的方法,其特征在于,所述人体部位为人手。
6.一种体感交互系统,其特征在于,所述系统包括采集模块、特征提取模块、判断模块以及控制模块,其中:
所述采集模块用于在体感交互系统激活状态下,采集人体部位的三维立体图像;
所述特征提取模块用于将所述人体部位的三维立体图像进行特征提取获取特征参数,所述特征参数包括所述人体部位的三维坐标以及所述人体部位的空间运动轨迹;
所述判断模块用于根据所述人体部位的三维坐标,判断所述人体部位是否进入预定感应区域;
所述控制模块用于,当所述人体部位进入预定感应区域时,根据所述人体部位的空间运动轨迹进行参数调整。
7.根据权利要求6所述的系统,其特征在于,所述参数包括音量、亮度、屏幕滚动速度的至少一种。
8.根据权利要求6所述的系统,其特征在于,所述系统还包括显示模块,所述显示模块用于,当所述人体部位进入预定感应区域时,在屏幕上显示与所述人体部位同步移动的图标。
9.根据权利要求6所述的系统,其特征在于,所述显示模块还用于当所述人体部位进入预定感应区域时,在屏幕显示相应的提示。
10.一种电子设备,其特征在于,所述电子设备包括权利要求6-9任一项所述的体感交互系统。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510307213.3A CN104915003A (zh) | 2015-05-29 | 2015-06-05 | 一种体感控制参数调整的方法、体感交互系统及电子设备 |
PCT/CN2016/076777 WO2016192440A1 (zh) | 2015-06-05 | 2016-03-18 | 一种体感控制参数调整的方法、体感交互系统及电子设备 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510288447 | 2015-05-29 | ||
CN2015102884478 | 2015-05-29 | ||
CN201510307213.3A CN104915003A (zh) | 2015-05-29 | 2015-06-05 | 一种体感控制参数调整的方法、体感交互系统及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104915003A true CN104915003A (zh) | 2015-09-16 |
Family
ID=54084138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510307213.3A Pending CN104915003A (zh) | 2015-05-29 | 2015-06-05 | 一种体感控制参数调整的方法、体感交互系统及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104915003A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016192438A1 (zh) * | 2015-06-05 | 2016-12-08 | 深圳奥比中光科技有限公司 | 一种体感交互系统激活方法、体感交互方法及系统 |
WO2016192440A1 (zh) * | 2015-06-05 | 2016-12-08 | 深圳奥比中光科技有限公司 | 一种体感控制参数调整的方法、体感交互系统及电子设备 |
CN106710610A (zh) * | 2016-12-29 | 2017-05-24 | 北京工业大学 | 体感交互音乐播放器 |
CN106778474A (zh) * | 2016-11-14 | 2017-05-31 | 深圳奥比中光科技有限公司 | 3d人体识别方法及设备 |
CN107544673A (zh) * | 2017-08-25 | 2018-01-05 | 上海视智电子科技有限公司 | 基于深度图信息的体感交互方法和体感交互系统 |
CN111309151A (zh) * | 2020-02-28 | 2020-06-19 | 桂林电子科技大学 | 一种学校监控设备的控制方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互系统和方法 |
CN103415825A (zh) * | 2010-12-29 | 2013-11-27 | 汤姆逊许可公司 | 用于手势识别的系统和方法 |
CN103488296A (zh) * | 2013-09-25 | 2014-01-01 | 华为软件技术有限公司 | 体感交互手势控制方法及装置 |
CN103809846A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种功能调用方法及电子设备 |
US20140168166A1 (en) * | 2012-12-19 | 2014-06-19 | Lenovo (Beijing) Co., Ltd. | Information processing method and electronic device |
CN103902036A (zh) * | 2012-12-29 | 2014-07-02 | 鸿富锦精密工业(深圳)有限公司 | 电子装置及手势控制电子装置的方法 |
CN104461631A (zh) * | 2014-12-09 | 2015-03-25 | 广东欧珀移动通信有限公司 | 一种系统ota升级方法和装置 |
-
2015
- 2015-06-05 CN CN201510307213.3A patent/CN104915003A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103415825A (zh) * | 2010-12-29 | 2013-11-27 | 汤姆逊许可公司 | 用于手势识别的系统和方法 |
CN103809846A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种功能调用方法及电子设备 |
US20140168166A1 (en) * | 2012-12-19 | 2014-06-19 | Lenovo (Beijing) Co., Ltd. | Information processing method and electronic device |
CN103885571A (zh) * | 2012-12-19 | 2014-06-25 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN103902036A (zh) * | 2012-12-29 | 2014-07-02 | 鸿富锦精密工业(深圳)有限公司 | 电子装置及手势控制电子装置的方法 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互系统和方法 |
CN103488296A (zh) * | 2013-09-25 | 2014-01-01 | 华为软件技术有限公司 | 体感交互手势控制方法及装置 |
CN104461631A (zh) * | 2014-12-09 | 2015-03-25 | 广东欧珀移动通信有限公司 | 一种系统ota升级方法和装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016192438A1 (zh) * | 2015-06-05 | 2016-12-08 | 深圳奥比中光科技有限公司 | 一种体感交互系统激活方法、体感交互方法及系统 |
WO2016192440A1 (zh) * | 2015-06-05 | 2016-12-08 | 深圳奥比中光科技有限公司 | 一种体感控制参数调整的方法、体感交互系统及电子设备 |
CN106778474A (zh) * | 2016-11-14 | 2017-05-31 | 深圳奥比中光科技有限公司 | 3d人体识别方法及设备 |
CN106710610A (zh) * | 2016-12-29 | 2017-05-24 | 北京工业大学 | 体感交互音乐播放器 |
CN106710610B (zh) * | 2016-12-29 | 2019-03-22 | 北京工业大学 | 体感交互音乐播放器 |
CN107544673A (zh) * | 2017-08-25 | 2018-01-05 | 上海视智电子科技有限公司 | 基于深度图信息的体感交互方法和体感交互系统 |
CN111309151A (zh) * | 2020-02-28 | 2020-06-19 | 桂林电子科技大学 | 一种学校监控设备的控制方法 |
CN111309151B (zh) * | 2020-02-28 | 2022-09-16 | 桂林电子科技大学 | 一种学校监控设备的控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104881122A (zh) | 一种体感交互系统激活方法、体感交互方法及系统 | |
CN104915003A (zh) | 一种体感控制参数调整的方法、体感交互系统及电子设备 | |
CN104915004A (zh) | 一种体感控制屏幕滚动方法、体感交互系统及电子设备 | |
US9785335B2 (en) | Systems and methods for adaptive gesture recognition | |
CN105511608B (zh) | 基于智能机器人的交互方法及装置、智能机器人 | |
CN110377053B (zh) | 无人机的飞行控制方法和装置 | |
CN105573536A (zh) | 触控交互的处理方法、装置和系统 | |
CN103677251A (zh) | 姿势识别装置及其控制方法、显示器 | |
CN105204351B (zh) | 空调机组的控制方法及装置 | |
CN108920066B (zh) | 触摸屏滑动调整方法、调整装置及触控设备 | |
CN105320417A (zh) | 页面切换方法及客户端 | |
CN105335048A (zh) | 具有隐藏应用图标的电子设备及隐藏应用图标的方法 | |
CN102830891A (zh) | 一种非接触式手势控制设备及其锁定和解锁方法 | |
CN106393113A (zh) | 机器人和机器人的交互控制方法 | |
CN107463291A (zh) | 基于触摸的具有人格化表现的机器人 | |
CN101976143A (zh) | 一种触摸屏操作手势管理系统及方法 | |
CN109613836A (zh) | 电动床触摸控制方法、装置、设备及存储介质 | |
CN109976553A (zh) | 基于键盘的操作处理方法、装置、设备及介质 | |
CN104331195B (zh) | 触控响应方法及电子设备 | |
CN105116999A (zh) | 一种智能手表的控制方法及智能手表 | |
CN104898839A (zh) | 一种终端设备及其控制方法 | |
CN104346073B (zh) | 一种信息处理方法及电子设备 | |
CN109032334B (zh) | 一种基于指纹和手势识别的交互方法及交互系统 | |
CN105511673B (zh) | 一种触屏响应方法、装置及游戏操控方法、装置 | |
CN103218124B (zh) | 基于深度摄像头的菜单控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150916 |