CN101729808A - 一种电视遥控方法及用该方法遥控操作电视机的系统 - Google Patents
一种电视遥控方法及用该方法遥控操作电视机的系统 Download PDFInfo
- Publication number
- CN101729808A CN101729808A CN200810199144A CN200810199144A CN101729808A CN 101729808 A CN101729808 A CN 101729808A CN 200810199144 A CN200810199144 A CN 200810199144A CN 200810199144 A CN200810199144 A CN 200810199144A CN 101729808 A CN101729808 A CN 101729808A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- gesture
- dimensional
- dimensional motion
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种电视的遥控方法及用该方法遥控操作电视机的系统。这种电视遥控方法,其特征在于包括以下步骤:操作者对摄像头给出特定手势动作;摄像头获取的特定手势传输到电视内的三维运动识别模块,进行三维运动及动作识别;模块获得特定手势的三维运动坐标,输出控制信号;电视机内的执行装置根据控制信号执行相对应的程序。利用上述的方法,即可用手势来进行电视的遥控操作,并且借助于对应的遥控操作系统,使得电视的遥控操作变得更为简单和人性化。特别是可以借此为平台,不需要配置鼠标、键盘等计算机外围设备,就可以在电视上完成原本只有在计算机上才能进行的娱乐功能。
Description
技术领域
本发明涉及一种电视遥控技术,具体涉及一种电视的遥控方法及用该方法实现遥控操作电视机的系统。
背景技术
随着数字电视的逐渐普及,广大消费者更多地希望能与电视进行互动,既可以收看广播电视节目,又可以在不中断正在播放的电视节目的时同时,查看其他服务信息,如电子节目指南、股票行情、时事新闻、娱乐信息等;或者通过数字电视来与数字电视运营商提供的其他服务项目互动,如游戏、浏览网页、照片的播放、收发电子邮件、视频点播等只有在计算机上才能进行的娱乐活动,此时,应用于电视上的控制装置,尤其是遥控器就显得格外重要。然而,传统的利用红外线的遥控器已经越来越不适应数字电视的操作要求
目前,也可以通过计算机外围设备,如鼠标、键盘等来实现上述交互目的,而计算机外围设备虽然可以进行完善的人机交互,但该类设备需要借助于茶几或桌面的操作平台。此外,该类设备的便携性较差,也不符合消费者用遥控操作习惯。
另一方面,借助遥控器或其它外设输入装置,可以解决操作距离的问题,但无任使用哪种类型的操作设备都存在丢失、寻找不便的麻烦。
因此,提供一种利用手势进行遥控操作电视的方法及用该方法实现的遥控系统将是非常必要的。
发明内容
本发明要解决的技术问题是,提供一种利用手势进行遥控操作电视的方法。
利用手势进行遥控操作电视的方法包括以下步骤:
操作者对摄像头给出特定手势动作;
摄像头获取的特定手势传输到电视内的三维运动识别模块,进行三维运动及动作识别;
模块获得特定手势的三维运动坐标,输出控制信号;
判断手势的位置坐标是否与相应操作界面的菜单位置区域相对应,如是,进入下一个步骤;
电视机内的执行装置根据控制信号执行相对应的程序。
其中摄像头采集特定手势图像的参数包括手的肤色特征,或手的边缘方向特征,或手的纹理特征,或手的形状特征。
其中的三维运动及动作识别过程,包括以下的步骤:
1)在三维运动识别模块中以二维的坐标数据为基础建立物体姿态模板;
2)物体识别单元根据姿态模板对被识别物体进行姿态识别;
3)聚焦控制检测电路对被识别物体进行聚焦,获得被识别物体在成像空间上的图像二维坐标和焦距;
4)将该成像空间上的二维坐标和焦距参数进行转换,输出物体的三维空间坐标数据;
5)以三维坐标空间数据为基础构造得出物体三维运动及动作特征。
其中上述的步骤4)可以替换为:建立参数初始化模板,将成像空间上的二维坐标和焦距与参数初始化模板内数据进行比较和参数转换,输出物体的三维空间坐标数据。
上述步骤3)和4)可以替换为:建立参数初始化模板,将被识别物体在成像空间上的象素坐标和大小与参数初始化模板内数据进行比较和参数转换,输出物体的三维空间坐标数据。
所述的电视遥控方法采用一个或两个摄像头。
本发明要解决的另一个技术问题是提供一种利用手势遥控操作电视机的系统。
一种应用上述电视遥控方法实现遥控操作电视机的系统,其特征在于包括:
一个或一个以上用于获取操作者特定手势动作的摄像头;
一个接收摄像头获取的特定手势信息并进行三维运动及动作识别的三维运动识别模块;
一个将三维运动识别模块所获得的三维运动坐标转换成控制信号的转换器;
一个将手势的位置坐标与相应操作界面的菜单位置区域相比较、并输出控制信号的比较器;
一个根据控制信号来执行相对应的程序的执行装置。
所述三维运动识别模块包括:
一个以二维的坐标数据为基础建立的物体姿态模板;
一个根据姿态模板对被识别物体进行姿态识别的物体识别单元;
一个对被识别物体进行聚焦,获得被识别物体在成像空间上的图像二维坐标和焦距的聚焦控制检测电路;
一个将二维坐标和焦距参数进行转换,输出物体三维运动坐标数据的空间坐标输出模块。
本发明利用一种新的三维运动识别方法,从图像中检测运动目标并识别其三维运动和特定动作,首先通过对图像进行必要的预处理,从图像中提取出图像特征,根据特征的对应关系估计图像的二维运动特性,进行特征匹配;然后根据刚体运动方程和投影关系建立一组方程,求解物体的运动参数和结构。通过对该方法的利用,用手势来进行电视的遥控操作,并且借助于特定的遥控操作系统,使得电视的遥控操作变得更为简单和人性化。特别是可以借此最为平台,在电视上扩展原本只有在计算机上才能进行的娱乐功能,而且还不需要配置鼠标、键盘等计算机外围设备。
附图说明
图1为单个摄像头的二维识别图像处理单元的结构框图;
图2为手的二维坐标示意图;
图3为方法1中单个摄像头三维识别图像处理单元的结构框图;
图4为单个摄像头所形成的三维空间示意图;
图5为被识别物体的空间位置与成像坐标关系示意图;
图6为方法2中单个摄像头三维识别图像处理单元的结构框图;
图7为特定被识别物体的成像关系示意图;
图8为原始物体的空间位置与成像坐标关系示意图;
图9为方法3中两个摄像头三维识别图像处理单元的结构框图;
图10为两个摄像头所形成的三维坐标示意图;
图11为两个摄像头所形成的三维空间分区示意图;
图12为被识别物体在X轴上的成像关系示意图;
图13为被识别物体在Y轴和Z轴组成的平面上图像位置和实物的关系。
具体实施方式
图1表示目前摄像头识别特定物体二维运动时候的框架,例如要识别的特定物体是一个手,那么将手的姿势先存入到图1中的姿态模板中,然后启动摄像头对外部空间进行拍摄,如果不能发现姿态模板中具有相同外形的物体,则不进行后面动作的输出,如果发现有类似外形物体出现,则进行后面动作的输出。图2表述手的坐标,可以只选取其手指上一点,把这个图像的左下角的位置定义为坐标(0,0),因为这个图像的外形尺寸是已知的,那么很容易知道手指上那一点的对应在图像空间上的坐标(x,y)了。这样通过不断的识别手的形状在成像空间上的位置,就可以不断的输出其真实所在的位置,于是就可以识别物体的二维运动了。
利用手势遥控操作电视的一个前提是电视如何对手势的运动进行三维识别,而手势识别包括对手图像的识别及动作的识别两个部分,也就是说先要识别出什么是手,然后需要计算手的位置信息,最后才能根据位置信息执行手的动作所代表的指令要求,下面先对如何识别手的图像进行说明。
人手的检测与跟踪技术可采用如下个特征:1.人手的肤色特征;2.人手图像的边缘方向特征;3.人手的纹理特征;4.人手的形状特征。其中第1种利用艳色信息,后3种利用人手图像的形状信息。下面分别对其中的两个方法进行阐述。
人手的肤色特征提取方法如下,对于RGB格式的彩色图像,首先将其变换为HSV彩色空间,然后只采用色调成份(hue),作为人手检测与跟踪的特征,由RGB色彩计算色调H的方法如下:
人手图像的边缘方向特征提取方法采用两个核:
Gx(x,y)=Kx*I(x,y)
Gy(x,y)=Ky*I(x,y)
这样可以计算得到绝对值图像S(x,y)与方向信息图像Φ(x,y):
结合上面的两个量可以得到边缘信息向量:V(x,y)=S(x,y)ejΦ(x,y),这样就取得人手的图像信息。
下面结合附图在识别出手的图像的基础上对如何判断手的位置信息进行说明,共有三个方法,以便能更好的理解本发明利用手势遥控操作电视的方法及系统。
方法一:
请参阅图3,通过一个摄像头来识别物体三维运动特征的结构框图,摄像头有可控制聚焦的功能,‘被识别物体’的模板先存入到姿态模板中,这样就可以开始后面的识别动作的运行。
摄像头先对外部图像进行拍摄,成像结果经过‘物体识别’单元和‘姿态模板’的模板进行比对来判定是否在拍摄区域内出现事先被设定的‘被识别物体’,如果没有则没有后续的动作。如果发现‘被识别物体’,那么就启动‘聚焦控制检测电路’来对‘被识别物体’进行聚焦,聚焦完成后,我们就可以得到‘被识别物体’在成像空间上的XY坐标和焦距了,这三个参数经过转换得到实际的空间坐标XYZ。具体过程如下:
如附图4所示,根据摄像头确定了一个三维空间,Z轴方向就是摄像头拍摄方向的中轴线,XY则是一个与Z轴垂直的二维平面坐标,空间中一点A1的坐标是(x1,y1,z1),拍摄后形成的图像如左边的小图描述的那样,坐标是(X2,Y2),但是(X2,Y2)和(x1,y1,z1)的单位是不同的。假设(X2,Y2)是像素(pixel)数目为单位,(x1,y1,z1)以实际的距离mm为单位,而焦距假定为Z2,焦距的单位假设为T,其实成像面跟物体面以及XYZ三维空间坐标可以简化为附图5所示。这样就得出了(x1,y1,z1)同(X2,Y2,Z2)的关系了:
|Z2/Z1|=K1 |X2/X1|=|Y2/Y1|=K1*K2 公式1
公式1中的K1和K2都是常数,所以只要知道了K1和K2,又知道‘被识别物体’的像素坐标和焦距,就可以知道‘被识别物体’在图4中摄像头所描述的三维空间中的具体位置了。
K1和K2的获得可以通过以下方式:按图4的方式放置‘被识别物体’于拍摄空间中,当然该物体不能在Z轴上,通过实际测量得到了A1的实际物理坐标(x1,y1,z1),同时根据正确图像识别系统形成的图像坐标(X2,Y2,Z2),将两个坐标带入到(公式1)就可以得到两个参数K1和K2。这样图3中的‘空间XYZ坐标输出’模块在获得了‘被识别物体’的图像坐标和焦距参数(X2,Y2,Z2)之后,就可以通过K1和K2系数计算得到正确的x1y1z1坐标了。
如果被识别物体的空间关系与成像后的坐标关系不能如同图5所描述的那样,如果焦距和实际的距离比例关系不是常数K1,那就可以在距离摄像头不同的位置进行测量,即采用近似的方式来处理,那么只需要在摄像空间内设置多个测试点(距离摄像头远近不同的位置),获得其真实的空间坐标(x,y,z)和图像坐标以及焦距(X,Y,Z),这样就可以得到多组的K1和K2的系数,把这些系数放入到‘参数初始化’模块中。在实际的处理的时候,我们对空间中一个物体进行处理得到其像素坐标和焦距(xxyy,zz),只需要对查询‘参数初始化’模块中与该(xxyy,zz)那一组数据,得到其K1和K2并在‘空间XYZ坐标输出’对(xxyy,zz)和K1和K2进行处理就可以得到了该‘被识别物体’的空间近似坐标,如果想得到更精细的坐标,那么就在摄像空间内选取更多的点就可以了。
方法二:
请参阅图6与图7,其与方法一的区别在于,摄像头不具有可控制聚焦功能。不具有可控聚焦功能的摄像头进行三维识别的结构框图如图6所示,虽然摄像头没有可以控制聚焦功能,但是一个物体离摄像头的远近所成像是不同的,物体离摄像头近的时候图像上的物体就大一点,远的时候就小一点。那么如果要识别是一个特定的物体,还是很容易得到其空间坐标的。根据图7所示的成像关系,可以得到:
通过对特定‘被识别物体’的空间位置进行测量,以及对成像经过进行处理就可以得到公式2中的P、D、PP这三个数据,从而就可以知道了d,这样在后面如果知道P的时候,就可以得出距离D了。
同时根据图8所示,还可以得到一个原始物体的XY坐标和成像的关系,结合‘被识别物体’的大小和PP是已知的这个关系可以得到:
|PP/P|=|x1/X2|=|y2/Y2|=K2 公式3
那么当我们得到‘被识别物体’在成像空间上的像素坐标和大小的时候,就可以通过公式2和公式3得到其真实的空间坐标了。
如果成像关系不遵循图中的几何线性关系,那么就需要采用方法1中那样的方式,设置大批的已知位置的空间点,然后得到其成像后的坐标和成像大小,得到一批公式2和公式3所描述的K1和K2,这些数据存入到图6中的‘参数初始化’模块中,在实际测试的时候就可以根据‘被识别物体’的空间位置和事先测试过的已知位置的空间点来比较,利用最近距离的那个点的K1和K2就可以得到物体实际的空间位置了。
方法三:
方法三与方法一的区别在于利用两个都不具有可控制聚焦功能的摄像头来进行三维识别。
由于两个摄像头拍摄的时候两个拍摄空间可能是不一致的,那么就要确定一个有效的拍摄空间,图10中虚线圈定的空间范围就是两个摄像头都可以拍摄到的空间,一个‘被识别物体’的运动要在这个虚线空间中运动才能同时被两个摄像头捕捉到,这样才能保证后续的正确处理。
为了得到一个空间坐标,那么就得首先对空间进行定义。图10中两个摄像头A和B的拍摄方向可以不是严格一致,但是要尽量的保证两个拍摄方向在一个平面内,虽然很多的时候AB的拍摄方向不在一个平面内,但是经过近似也可以按图10的方式来处理:
首先把AB两个摄像头的中心点连线,从中心线的中点出发,在摄像头A和B的拍摄方向形成的平面内做垂直于中心线的线作为Z轴,那么AB的连线作为X轴,然后做一个同X轴和Z轴同时垂直的轴线Y轴,这样形成了一个三维坐标空间。
如附图11所示,根据摄像头的拍摄方向把原先的拍摄空间分成了C1,C2,C3三个空间,当‘被识别物体’在C1空间的时候,A和B摄像头成像之后,‘被识别物体’处于成像空间的左半部分,分别在A和B成像的左边阴影中。当‘被识别物体’在C2空间的时候,A和B摄像头成像之后,‘被识别物体’成像分布在A右边阴影中和B的左边阴影中。当‘被识别物体’在C3空间的时候,A和B摄像头成像之后,‘被识别物体’成像分布在A和B成像的右边阴影中。
对于一个空间的任意运动,都可以在任意一个投影平面内分解为一个二维动作,但是同一个运动在两个位置不同的平面上分解后的二维动作可能是不同的。
我们先根据附图12分析其在X轴上的成像关系。根据几何关系我们可以得到下面的公式:
公式4中的Xa+Xb实际近似就是两个摄像头A和B的距离,这个是可以测量的,而XA,XB则是图像分别在A和B上的成像X坐标的绝对值,这个可以从图像上计算得到,图中Zab是摄像头连线到物体在Z轴上的距离,这个也是可以测量的,那么公式4中只有ZA是未知的,而一旦知道了ZA,同时知道Xa+Xb和XA,XB的话,那么‘被识别物体’在Z轴上的距离就非常容易知道了。
那么可以通过在空间中实现放置一个物体,测量出Zab和Xa+Xb来,然后成像,通过对图像进行分析得到XA,XB,然后将这些数据带入公式4就可以得到ZA了。一旦一个识别系统确定的时候,ZA和Xa+Xb是不会变化的,变化的只有物体的空间位置以及其引起的XA,XB的变化,那么这个时候我们可以得到物体的空间Z坐标:
其X坐标也可以得到:
由公式6和公式7可以得到X坐标:Xab=Xa-Xb 公式8
现在分析物体三维运动在Y轴上的坐标:
图13为‘被识别物体’在Y轴和Z轴组成的平面上图像位置和实物的关系(仅表示了一个摄像头的成像关系),通过上图可以得到公式:
因为公式中的ZA是个常数,而Zab可以通过公式5得到,那么我们只需要通过图像得知YAB之后就知道Yab了,严格来说通过A和B摄像头得到的结果经过处理得到的Yab应该是相等的,但是由于计算的精度和实际摄像头装配的误差,A和B得到的两个Y坐标YabA和YabB是不严格一致的,这样我们可以通过公式10来得到一个相对准确的Yab:
这样就可以得出空间中‘被识别物体’的XYZ坐标(Xab、Yab、Zab)了。
根据上面列举的三种方法,在准确的获得了被检测物体的空间坐标(X,Y,Z)之后,就可以结合不同的需求来应用,下面是一个利用本发明物体三维运动及动作识别方法来实现手势遥控电视的应用举例:
如附图14所示,是一个装有两个摄像头的电视机,以及根据其摄像头位置所定义的识别空间坐标(XYZ)的示意图。
假设需要完成的动作流程是:‘打开电视’→‘打开控制菜单’→‘切换电视输入信号源’→‘退出菜单’一系列动作,假设电视的初始状态是待机模式。
通过在电视机内配置一个三维运动及动作识别的模块,在该模块的姿态模板上设置特定的一个手势或连续的姿势来代表‘打开电视’的动作,以及一个特定的手势来代表‘打开控制菜单’的动作(在这个步骤中我们只需要知道手势的姿态,并不需要知道其XYZ坐标),当摄像头获取我们所做出的相应手势时,物体识别单元根据姿态模板对被识别物体进行姿态识别,然后执行相应‘打开电视’、‘打开控制菜单’动作。出来的界面如附图15所示。
此时,我们为了实现切换电视输入信号源,需要移动图中箭头位置,这是,我们可以采用一个在姿态模板上预先设定的“手势A”,摄像头获取到上面的“手势A”之后,三维运动及动作识别的模块就可以采用前面描述的方法计算该手势的空间坐标XYZ。最初的时候我们把手势的初始位置定义在屏幕的中间,同时在屏幕上显示一个白色的箭头来表示该手势的位置,如图15所示。这样通过移动该“手势A”的位置(尽量在XY平面内移动),就可以使得屏幕上的白色箭头移动到“信号源”的菜单位置。保持白色箭头在“信号源”的菜单位置,同时将“手势A”沿Z方向向电视的方向移动一段距离,表示点击的动作,模块获得手的三维运动坐标,于是输出控制信号,在“信号源”菜单下出现一组二级菜单,如图16所示。然后尽量保持该手势的XY坐标,将“手势A”移动使得箭头的位置移到DVI的位置,同时沿Z方向向电视的方向移动该“手势A”,实现点击“DVI”菜单的动作。这样就可以完成信号源切换过程了。系统在执行指令的过程中,首先是判断手势A的XY位置是否在相应的菜单位置区域内,只有XY位置是保持在相应的菜单位置区域内,才判断Z方向的座标变化大小,并据此判定是否有指令输入。
利用上述的方法,即可用手势来进行电视的遥控操作,并且借助于上述的遥控操作系统,使得电视的遥控操作变得更为简单和人性化。特别是可以借此为平台,不需要配置鼠标、键盘等计算机外围设备,就可以在电视上完成原本只有在计算机上才能进行的娱乐功能。
同时利用本发明中所公开的遥控操作方法,即可以实现非接触性的操作各种设备,特别是在一些公用设备上,可以防止由于多人操作而引起的细菌的传播和交叉感染。
Claims (8)
1.一种电视遥控方法,其特征在于包括以下步骤:
1)操作者对摄像头给出特定手势,摄像头采集该特定手势图像;
2)将该手势图像传输到电视内的三维运动及动作识别模块,进行三维运动及动作识别,根据相应的手势输出操作界面;
3)操作者移动手势,摄像头采集手势的运动图像,经三维运动及动作识别模块处理获取手势类型及其空间位置座标;
4)判断手势的位置坐标是否与相应操作界面的菜单位置区域相对应,如是,进入下一个步骤;
5)电视机内的指令执行单元根据手势类型及其空间位置座标的变化判定手势指令的输入,执行相对应的程序。
2.根据权利要求1所述的电视遥控方法,其特征在于:步骤1)中的摄像头采集特定手势图像的参数包括手的肤色特征,或手的边缘方向特征,或手的纹理特征,或手的形状特征。
3.根据权利要求1所述的电视遥控方法,其特征在于:步骤2)中的三维运动及动作识别过程,包括以下的步骤:
1)在三维运动识别模块中以二维的坐标数据为基础建立物体姿态模板;
2)物体识别单元根据姿态模板对被识别物体进行姿态识别;
3)聚焦控制检测电路对被识别物体进行聚焦,获得被识别物体在成像空间上的图像二维坐标和焦距;
4)将该成像空间上的二维坐标和焦距参数进行转换,输出物体的三维空间坐标数据;
5)以三维坐标空间数据为基础构造得出物体三维运动及动作特征。
4.根据权利要求3所述的电视遥控方法,其特征在于:
步骤4)为:建立参数初始化模板,将成像空间上的二维坐标和焦距与参数初始化模板内数据进行比较和参数转换,输出物体的三维空间坐标数据。
5.根据权利要求3所述的电视遥控方法,其特征在于:
步骤3)和4)为:建立参数初始化模板,将被识别物体在成像空间上的象素坐标和大小与参数初始化模板内数据进行比较和参数转换,输出物体的三维空间坐标数据。
6.根据权利要求1至5任一项所述的电视遥控方法,其特征在于:所述方法采用一个或两个摄像头。
7.一种应用权利要求1所述电视遥控方法遥控操作电视机的系统,其特征在于包括:
一个或一个以上用于获取操作者特定手势动作的摄像头;
一个接收摄像头获取的特定手势信息并进行三维运动及动作识别的三维运动识别模块;
一个将三维运动识别模块所获得的三维运动坐标转换成控制信号的转换器;
一个将手势的位置坐标与相应操作界面的菜单位置区域相比较、并输出控制信号的比较器;
一个根据控制信号来执行相对应的程序的执行装置。
8.根据权利要求7所述遥控操作电视机的系统,其特征在于:所述三维运动识别模块包括:
一个以二维的坐标数据为基础建立的物体姿态模板;
一个根据姿态模板对被识别物体进行姿态识别的物体识别单元;
一个对被识别物体进行聚焦,获得被识别物体在成像空间上的图像二维坐标和焦距的聚焦控制检测电路;
一个将二维坐标和焦距参数进行转换,输出物体三维运动坐标数据的空间坐标输出模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101991449A CN101729808B (zh) | 2008-10-14 | 2008-10-14 | 一种电视遥控方法及用该方法遥控操作电视机的系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101991449A CN101729808B (zh) | 2008-10-14 | 2008-10-14 | 一种电视遥控方法及用该方法遥控操作电视机的系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101729808A true CN101729808A (zh) | 2010-06-09 |
CN101729808B CN101729808B (zh) | 2012-03-28 |
Family
ID=42449898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101991449A Active CN101729808B (zh) | 2008-10-14 | 2008-10-14 | 一种电视遥控方法及用该方法遥控操作电视机的系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101729808B (zh) |
Cited By (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101951474A (zh) * | 2010-10-12 | 2011-01-19 | 冠捷显示科技(厦门)有限公司 | 基于手势控制的电视技术 |
CN102200834A (zh) * | 2011-05-26 | 2011-09-28 | 华南理工大学 | 面向电视控制的指尖鼠标交互方法 |
CN102221975A (zh) * | 2010-06-22 | 2011-10-19 | 微软公司 | 使用运动捕捉数据的项目导航 |
CN102221885A (zh) * | 2011-06-15 | 2011-10-19 | 青岛海信电器股份有限公司 | 电视机及其控制方法和装置 |
CN102411477A (zh) * | 2011-11-16 | 2012-04-11 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其文本导读方法 |
CN102591447A (zh) * | 2010-10-29 | 2012-07-18 | 索尼公司 | 图像处理设备,方法和程序 |
CN102625067A (zh) * | 2012-02-21 | 2012-08-01 | 四川长虹电器股份有限公司 | 数字电视终端的菜单操作方法 |
CN102663364A (zh) * | 2012-04-10 | 2012-09-12 | 四川长虹电器股份有限公司 | 仿3d手势识别系统及方法 |
CN102682589A (zh) * | 2012-01-09 | 2012-09-19 | 西安智意能电子科技有限公司 | 一种用于对受控设备进行遥控的系统 |
CN102769802A (zh) * | 2012-06-11 | 2012-11-07 | 西安交通大学 | 一种智能电视机的人机交互系统及其交互方法 |
CN102790837A (zh) * | 2011-05-20 | 2012-11-21 | 夏普株式会社 | 图像处理装置以及指示受理装置 |
CN102880287A (zh) * | 2012-08-16 | 2013-01-16 | 深圳Tcl新技术有限公司 | 手势识别方法及手势识别装置 |
CN102999156A (zh) * | 2011-09-14 | 2013-03-27 | 杭州新锐信息技术有限公司 | 一种动作遥控装置、产品及方法 |
CN103135759A (zh) * | 2011-12-02 | 2013-06-05 | 深圳泰山在线科技有限公司 | 多媒体播放控制方法和系统 |
CN103150010A (zh) * | 2011-08-05 | 2013-06-12 | 三星电子株式会社 | 控制电子设备的方法和应用该方法的电子设备 |
CN103180803A (zh) * | 2012-10-30 | 2013-06-26 | 华为技术有限公司 | 界面切换的方法和装置 |
CN103294224A (zh) * | 2012-03-02 | 2013-09-11 | 联想(北京)有限公司 | 控制方法和电子设备 |
CN103324285A (zh) * | 2013-05-24 | 2013-09-25 | 深圳Tcl新技术有限公司 | 基于手势系统的摄像头调整方法及终端 |
CN103365402A (zh) * | 2012-03-31 | 2013-10-23 | 青岛海信电器股份有限公司 | 显示设备的控制方法和装置 |
CN103376916A (zh) * | 2012-04-30 | 2013-10-30 | 晶隼科技股份有限公司 | 三维指向装置及系统 |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
CN103809846A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种功能调用方法及电子设备 |
CN103809772A (zh) * | 2012-11-12 | 2014-05-21 | 扬州永利宁科技有限公司 | 电子系统及其相关方法 |
CN103888905A (zh) * | 2014-04-08 | 2014-06-25 | 江苏惠通集团有限责任公司 | 无线设备及其与控制设备的配对方法 |
CN103914133A (zh) * | 2012-12-28 | 2014-07-09 | 纬创资通股份有限公司 | 用于互动系统的座标转换方法及计算机系统 |
CN103914126A (zh) * | 2012-12-31 | 2014-07-09 | 腾讯科技(深圳)有限公司 | 一种多媒体播放器控制方法和装置 |
CN103974003A (zh) * | 2013-02-06 | 2014-08-06 | 瀚宇彩晶股份有限公司 | 遥控方法及遥控模块 |
WO2014172815A1 (zh) * | 2013-04-24 | 2014-10-30 | Li Min | 手势电视机遥控器 |
CN104268963A (zh) * | 2014-08-06 | 2015-01-07 | 成都百威讯科技有限责任公司 | 一种智能门锁系统及智能门锁、智能报警门 |
CN104935982A (zh) * | 2014-03-17 | 2015-09-23 | 欧姆龙株式会社 | 多媒体装置、及其控制方法、控制程序 |
CN105138131A (zh) * | 2015-09-01 | 2015-12-09 | 冯仕昌 | 一种通用的手势命令发射和操作装置及方法 |
CN105224090A (zh) * | 2010-12-27 | 2016-01-06 | 日立麦克赛尔株式会社 | 图像显示装置 |
CN105323619A (zh) * | 2014-08-04 | 2016-02-10 | 深圳市同方多媒体科技有限公司 | 基于模拟按键板的手势控制方法及手势控制电视机 |
WO2016029581A1 (zh) * | 2014-08-27 | 2016-03-03 | 华南理工大学 | 一种基于视觉手势的点读方法和装置 |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
CN105425954A (zh) * | 2015-11-04 | 2016-03-23 | 哈尔滨工业大学深圳研究生院 | 应用于智能家居中的人机交互方法及系统 |
CN105867599A (zh) * | 2015-08-17 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种手势操控方法及装置 |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
CN106030457A (zh) * | 2014-02-27 | 2016-10-12 | 微软技术许可有限责任公司 | 在过程期间跟踪对象 |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
CN106162277A (zh) * | 2015-03-31 | 2016-11-23 | 乐视致新电子科技(天津)有限公司 | 一种识别操作对象的方法和装置、智能终端 |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9733895B2 (en) | 2011-08-05 | 2017-08-15 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9945660B2 (en) | 2012-01-17 | 2018-04-17 | Leap Motion, Inc. | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US10139918B2 (en) | 2013-01-15 | 2018-11-27 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6931596B2 (en) * | 2001-03-05 | 2005-08-16 | Koninklijke Philips Electronics N.V. | Automatic positioning of display depending upon the viewer's location |
US20030001908A1 (en) * | 2001-06-29 | 2003-01-02 | Koninklijke Philips Electronics N.V. | Picture-in-picture repositioning and/or resizing based on speech and gesture control |
KR20060091310A (ko) * | 2003-09-30 | 2006-08-18 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐 |
-
2008
- 2008-10-14 CN CN2008101991449A patent/CN101729808B/zh active Active
Cited By (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
CN102221975A (zh) * | 2010-06-22 | 2011-10-19 | 微软公司 | 使用运动捕捉数据的项目导航 |
CN102221975B (zh) * | 2010-06-22 | 2013-11-20 | 微软公司 | 使用运动捕捉数据的项目导航 |
CN101951474A (zh) * | 2010-10-12 | 2011-01-19 | 冠捷显示科技(厦门)有限公司 | 基于手势控制的电视技术 |
CN102591447B (zh) * | 2010-10-29 | 2016-03-16 | 索尼公司 | 图像处理设备和方法 |
CN102591447A (zh) * | 2010-10-29 | 2012-07-18 | 索尼公司 | 图像处理设备,方法和程序 |
CN105224090A (zh) * | 2010-12-27 | 2016-01-06 | 日立麦克赛尔株式会社 | 图像显示装置 |
CN102790837A (zh) * | 2011-05-20 | 2012-11-21 | 夏普株式会社 | 图像处理装置以及指示受理装置 |
US9060137B2 (en) | 2011-05-20 | 2015-06-16 | Sharp Kabushiki Kaisha | Image processing apparatus detecting position between mobile device and reception areas and receiving an instruction of processes |
CN102200834B (zh) * | 2011-05-26 | 2012-10-31 | 华南理工大学 | 面向电视控制的指尖鼠标交互方法 |
CN102200834A (zh) * | 2011-05-26 | 2011-09-28 | 华南理工大学 | 面向电视控制的指尖鼠标交互方法 |
CN102221885A (zh) * | 2011-06-15 | 2011-10-19 | 青岛海信电器股份有限公司 | 电视机及其控制方法和装置 |
CN102221885B (zh) * | 2011-06-15 | 2013-06-19 | 青岛海信电器股份有限公司 | 电视机及其控制方法和装置 |
US9733895B2 (en) | 2011-08-05 | 2017-08-15 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
CN103150010A (zh) * | 2011-08-05 | 2013-06-12 | 三星电子株式会社 | 控制电子设备的方法和应用该方法的电子设备 |
CN102999156A (zh) * | 2011-09-14 | 2013-03-27 | 杭州新锐信息技术有限公司 | 一种动作遥控装置、产品及方法 |
CN102411477A (zh) * | 2011-11-16 | 2012-04-11 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其文本导读方法 |
CN103135759B (zh) * | 2011-12-02 | 2016-03-09 | 深圳泰山在线科技有限公司 | 多媒体播放控制方法和系统 |
CN103135759A (zh) * | 2011-12-02 | 2013-06-05 | 深圳泰山在线科技有限公司 | 多媒体播放控制方法和系统 |
CN102682589B (zh) * | 2012-01-09 | 2015-03-25 | 西安智意能电子科技有限公司 | 一种用于对受控设备进行遥控的系统 |
CN102682589A (zh) * | 2012-01-09 | 2012-09-19 | 西安智意能电子科技有限公司 | 一种用于对受控设备进行遥控的系统 |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9945660B2 (en) | 2012-01-17 | 2018-04-17 | Leap Motion, Inc. | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US9626591B2 (en) | 2012-01-17 | 2017-04-18 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US11782516B2 (en) | 2012-01-17 | 2023-10-10 | Ultrahaptics IP Two Limited | Differentiating a detected object from a background using a gaussian brightness falloff pattern |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US11308711B2 (en) | 2012-01-17 | 2022-04-19 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US10767982B2 (en) | 2012-01-17 | 2020-09-08 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US10699155B2 (en) | 2012-01-17 | 2020-06-30 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US10565784B2 (en) | 2012-01-17 | 2020-02-18 | Ultrahaptics IP Two Limited | Systems and methods for authenticating a user according to a hand of the user moving in a three-dimensional (3D) space |
US10410411B2 (en) | 2012-01-17 | 2019-09-10 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US10366308B2 (en) | 2012-01-17 | 2019-07-30 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9652668B2 (en) | 2012-01-17 | 2017-05-16 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US9672441B2 (en) | 2012-01-17 | 2017-06-06 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9153028B2 (en) | 2012-01-17 | 2015-10-06 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9934580B2 (en) | 2012-01-17 | 2018-04-03 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9436998B2 (en) | 2012-01-17 | 2016-09-06 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US9778752B2 (en) | 2012-01-17 | 2017-10-03 | Leap Motion, Inc. | Systems and methods for machine control |
US9767345B2 (en) | 2012-01-17 | 2017-09-19 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US9741136B2 (en) | 2012-01-17 | 2017-08-22 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9697643B2 (en) | 2012-01-17 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
CN102625067A (zh) * | 2012-02-21 | 2012-08-01 | 四川长虹电器股份有限公司 | 数字电视终端的菜单操作方法 |
CN103294224A (zh) * | 2012-03-02 | 2013-09-11 | 联想(北京)有限公司 | 控制方法和电子设备 |
CN103365402A (zh) * | 2012-03-31 | 2013-10-23 | 青岛海信电器股份有限公司 | 显示设备的控制方法和装置 |
CN102663364A (zh) * | 2012-04-10 | 2012-09-12 | 四川长虹电器股份有限公司 | 仿3d手势识别系统及方法 |
CN103376916A (zh) * | 2012-04-30 | 2013-10-30 | 晶隼科技股份有限公司 | 三维指向装置及系统 |
CN102769802A (zh) * | 2012-06-11 | 2012-11-07 | 西安交通大学 | 一种智能电视机的人机交互系统及其交互方法 |
CN102880287A (zh) * | 2012-08-16 | 2013-01-16 | 深圳Tcl新技术有限公司 | 手势识别方法及手势识别装置 |
CN102880287B (zh) * | 2012-08-16 | 2017-02-15 | 深圳Tcl新技术有限公司 | 手势识别方法及手势识别装置 |
WO2014067058A1 (zh) * | 2012-10-30 | 2014-05-08 | 华为技术有限公司 | 界面切换的方法和装置 |
CN103180803A (zh) * | 2012-10-30 | 2013-06-26 | 华为技术有限公司 | 界面切换的方法和装置 |
CN103180803B (zh) * | 2012-10-30 | 2016-01-13 | 华为技术有限公司 | 界面切换的方法和装置 |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
CN103809772A (zh) * | 2012-11-12 | 2014-05-21 | 扬州永利宁科技有限公司 | 电子系统及其相关方法 |
CN103809846B (zh) * | 2012-11-13 | 2019-07-26 | 联想(北京)有限公司 | 一种功能调用方法及电子设备 |
CN103809846A (zh) * | 2012-11-13 | 2014-05-21 | 联想(北京)有限公司 | 一种功能调用方法及电子设备 |
CN103914133B (zh) * | 2012-12-28 | 2017-04-26 | 纬创资通股份有限公司 | 用于互动系统的座标转换方法及计算机系统 |
CN103914133A (zh) * | 2012-12-28 | 2014-07-09 | 纬创资通股份有限公司 | 用于互动系统的座标转换方法及计算机系统 |
CN103914126A (zh) * | 2012-12-31 | 2014-07-09 | 腾讯科技(深圳)有限公司 | 一种多媒体播放器控制方法和装置 |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US10097754B2 (en) | 2013-01-08 | 2018-10-09 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US11353962B2 (en) | 2013-01-15 | 2022-06-07 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US11243612B2 (en) | 2013-01-15 | 2022-02-08 | Ultrahaptics IP Two Limited | Dynamic, free-space user interactions for machine control |
US10739862B2 (en) | 2013-01-15 | 2020-08-11 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US11740705B2 (en) | 2013-01-15 | 2023-08-29 | Ultrahaptics IP Two Limited | Method and system for controlling a machine according to a characteristic of a control object |
US10042430B2 (en) | 2013-01-15 | 2018-08-07 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11874970B2 (en) | 2013-01-15 | 2024-01-16 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US10139918B2 (en) | 2013-01-15 | 2018-11-27 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
CN103974003A (zh) * | 2013-02-06 | 2014-08-06 | 瀚宇彩晶股份有限公司 | 遥控方法及遥控模块 |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US11693115B2 (en) | 2013-03-15 | 2023-07-04 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
WO2014172815A1 (zh) * | 2013-04-24 | 2014-10-30 | Li Min | 手势电视机遥控器 |
US11099653B2 (en) | 2013-04-26 | 2021-08-24 | Ultrahaptics IP Two Limited | Machine responsiveness to dynamic user movements and gestures |
US10452151B2 (en) | 2013-04-26 | 2019-10-22 | Ultrahaptics IP Two Limited | Non-tactile interface systems and methods |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
CN103324285A (zh) * | 2013-05-24 | 2013-09-25 | 深圳Tcl新技术有限公司 | 基于手势系统的摄像头调整方法及终端 |
US11776208B2 (en) | 2013-08-29 | 2023-10-03 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11461966B1 (en) | 2013-08-29 | 2022-10-04 | Ultrahaptics IP Two Limited | Determining spans and span lengths of a control object in a free space gesture control environment |
US11282273B2 (en) | 2013-08-29 | 2022-03-22 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
CN106030457A (zh) * | 2014-02-27 | 2016-10-12 | 微软技术许可有限责任公司 | 在过程期间跟踪对象 |
CN104935982B (zh) * | 2014-03-17 | 2018-11-06 | 欧姆龙株式会社 | 多媒体装置、及其控制方法、计算机可读存储介质 |
CN104935982A (zh) * | 2014-03-17 | 2015-09-23 | 欧姆龙株式会社 | 多媒体装置、及其控制方法、控制程序 |
CN103888905A (zh) * | 2014-04-08 | 2014-06-25 | 江苏惠通集团有限责任公司 | 无线设备及其与控制设备的配对方法 |
CN105323619A (zh) * | 2014-08-04 | 2016-02-10 | 深圳市同方多媒体科技有限公司 | 基于模拟按键板的手势控制方法及手势控制电视机 |
CN104268963A (zh) * | 2014-08-06 | 2015-01-07 | 成都百威讯科技有限责任公司 | 一种智能门锁系统及智能门锁、智能报警门 |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
WO2016029581A1 (zh) * | 2014-08-27 | 2016-03-03 | 华南理工大学 | 一种基于视觉手势的点读方法和装置 |
US11087637B2 (en) | 2014-08-27 | 2021-08-10 | South China University Of Technology | Finger reading method and device based on visual gestures |
CN106162277A (zh) * | 2015-03-31 | 2016-11-23 | 乐视致新电子科技(天津)有限公司 | 一种识别操作对象的方法和装置、智能终端 |
CN105867599A (zh) * | 2015-08-17 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种手势操控方法及装置 |
CN105138131A (zh) * | 2015-09-01 | 2015-12-09 | 冯仕昌 | 一种通用的手势命令发射和操作装置及方法 |
CN105425954A (zh) * | 2015-11-04 | 2016-03-23 | 哈尔滨工业大学深圳研究生院 | 应用于智能家居中的人机交互方法及系统 |
CN105425954B (zh) * | 2015-11-04 | 2018-09-18 | 哈尔滨工业大学深圳研究生院 | 应用于智能家居中的人机交互方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN101729808B (zh) | 2012-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101729808B (zh) | 一种电视遥控方法及用该方法遥控操作电视机的系统 | |
US8442269B2 (en) | Method and apparatus for tracking target object | |
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
TWI397840B (zh) | 基於軌跡之控制方法及裝置 | |
US9158391B2 (en) | Method and apparatus for controlling content on remote screen | |
US20120293544A1 (en) | Image display apparatus and method of selecting image region using the same | |
CN104102336A (zh) | 提供非接触交互的便携式设备和方法 | |
CN102141839A (zh) | 图像处理设备和方法及其程序 | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
WO2012042390A2 (en) | User interface system and method of operation thereof | |
CN101869484A (zh) | 具有触摸屏的医疗诊断装置及其操控方法 | |
CN104656893A (zh) | 一种信息物理空间的远程交互式操控系统及方法 | |
Matlani et al. | Virtual mouse using hand gestures | |
KR20150106824A (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
CN112486394A (zh) | 信息处理方法、装置、电子设备及可读存储介质 | |
WO2018076720A1 (zh) | 单手操控方法及操控系统 | |
US11106278B2 (en) | Operation method for multi-monitor and electronic system using the same | |
CN111160308A (zh) | 手势动作识别方法、装置、设备及可读存储介质 | |
Wu et al. | An overview of gesture recognition | |
CN112270242B (zh) | 轨迹的显示方法、装置、可读介质和电子设备 | |
Goto et al. | Development of an Information Projection Interface Using a Projector–Camera System | |
CN104349197A (zh) | 一种数据处理方法及装置 | |
CN104914985A (zh) | 手势控制方法及系统与视频流处理装置 | |
US10410429B2 (en) | Methods and apparatus for three-dimensional image reconstruction | |
CN116301551A (zh) | 触控识别方法、触控识别装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |