CN103135453B - 家用电器控制方法及系统 - Google Patents

家用电器控制方法及系统 Download PDF

Info

Publication number
CN103135453B
CN103135453B CN201210025300.6A CN201210025300A CN103135453B CN 103135453 B CN103135453 B CN 103135453B CN 201210025300 A CN201210025300 A CN 201210025300A CN 103135453 B CN103135453 B CN 103135453B
Authority
CN
China
Prior art keywords
attitude
marked region
image
electrical appliance
household electrical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210025300.6A
Other languages
English (en)
Other versions
CN103135453A (zh
Inventor
周雷
雷敏娟
贺欢
师丹玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Taishan Sports Technology Co.,Ltd.
Original Assignee
SHENZHEN TOL TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN TOL TECHNOLOGY Co Ltd filed Critical SHENZHEN TOL TECHNOLOGY Co Ltd
Priority to CN201210025300.6A priority Critical patent/CN103135453B/zh
Publication of CN103135453A publication Critical patent/CN103135453A/zh
Application granted granted Critical
Publication of CN103135453B publication Critical patent/CN103135453B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种家用电器控制方法及系统,包括如下步骤:通过交互设备产生姿态;采集所述交互设备的图像,所述交互设备的图像中包含标记区域;识别标记区域的姿态;生成所述姿态对应的控制指令;通过所述控制指令对家用电器进行控制。所述系统包括:交互设备,用于产生姿态;图像采集模块,用于采集所述交互设备的图像,所述交互设备的图像中包含标记区域;姿态识别模块,用于识别标记区域的姿态;指令生成模块,用于生成所述姿态对应的控制指令;控制模块,用于通过所述控制指令对家用电器进行控制。采用本发明扩大了智能家居的应用范围。

Description

家用电器控制方法及系统
【技术领域】
本发明涉及智能家居技术,特别是涉及一种家用电器控制方法及系统。
【背景技术】
随着智能家居的不断发展和应用,实现家用电器的统一控制成为了智能家居的重要组成部分。传统的家用电器控制通常是采用遥控器通过红外学习的方式将每一个家用电器的红外遥控功能输入同一遥控器中,进而利用遥控器对多个家用电器进行控制。
然而,传统的家用电器控制中,由于控制端为遥控器,这便要求受控的家用电器必须具备红外遥控功能,对于没有红外遥控功能的家用电器,例如电灯,则无法应用于智能家居中,仍然需要用户进行手动控制,大大影响了智能家居的应用范围。
【发明内容】
基于此,有必要提供一种能扩大智能家居的应用范围的家用电器控制方法。
此外,还有必要提供一种能扩大智能家居的应用范围的家用电器控制系统。
一种家用电器控制方法,包括如下步骤:
通过交互设备产生姿态;
采集所述交互设备的图像,所述交互设备的图像中包含标记区域;
识别标记区域的姿态;
生成所述姿态对应的控制指令;
通过所述控制指令对家用电器进行控制。
优选地,所述图像为二维图像或三维图像,所述识别所述标记区域的姿态的步骤包括:
判断所述图像的类型;
所述图像的类型为二维图像时,则获取所述图像中与预设颜色模型匹配的像素,对所述获取的像素进行连通域检测,提取检测得到的连通域中的所述标记区域,获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态;
所述图像的类型为三维图像时,则对所述图像进行分割,提取所述图像中的连通域,计算所述连通域的属性值,将所述连通域的属性值与预设的标记区域属性值进行对比,所述标记区域为符合所述预设的标记区域属性值的连通域,以及获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态。
优选地,所述标记区域包括第一连续区域和第二连续区域;所述识别标记区域的姿态的步骤包括:
计算第一连续区域的重心和第二连续区域的重心,根据所述第一连续区域的重心的像素坐标和所述第二连续区域的重心像素坐标产生所述标记区域的姿态。
优选地,所述通过交互设备产生姿态的步骤之前还包括:
通过所述交互设备的指向选取家用电器;
展示控制所述家用电器对应的姿态。
优选地,所述展示控制所述家用电器对应的姿态的步骤包括:
根据家用电器中姿态与控制指令的映射关系得到控制所述家用电器的姿态;
在屏幕中演示控制所述家用电器的姿态。
优选地,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述通过所述控制指令对家用电器进行控制的步骤包括:
按照所述控制指令开启、关闭或调控所述家用电器。
优选地,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述通过所述控制指令对家用电器进行控制的步骤包括:
按照所述控制指令开启、关闭或调控所述家用电器。
一种家用电器控制系统,包括:
交互设备,用于产生姿态;
图像采集模块,用于采集所述交互设备的图像,所述交互设备的图像中包含标记区域;
姿态识别模块,用于识别标记区域的姿态;
指令生成模块,用于生成所述姿态对应的控制指令;
控制模块,用于通过所述控制指令对家用电器进行控制。
优选地,所述图像为二维图像或三维图像,所述姿态识别模块包括:
判断单元,用于判断所述图像的类型,所述图像的类型是二维图像时,则通知第一识别单元,所述图像的类型是三维图像时,则通知第二识别单元;
所述第一识别单元,用于获取所述图像中与预设颜色模型匹配的像素,对所述获取的像素进行连通域检测,提取检测得到的连通域中的所述标记区域,获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态;
所述第二识别单元,用于对所述图像进行分割,提取所述图像中的连通域,计算所述连通域的属性值,将所述连通域的属性值与预设的标记区域属性值进行对比,所述标记区域为符合所述预设的标记区域属性值的连通域,以及获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态。
优选地,所述标记区域包括第一连续区域和第二连续区域;所述第一识别单元还用于计算第一连续区域的重心和第二连续区域的重心,根据所述第一连续区域的重心的像素坐标和所述第二连续区域的重心像素坐标产生所述标记区域的姿态。
优选地,还包括:
选取模块,用于通过所述交互设备的指向选取家用电器;
展示模块,用于展示控制所述家用电器对应的姿态。
优选地,所述展示模块包括:
展示姿态获取单元,用于根据家用电器中姿态与控制指令的映射关系得到控制所述家用电器的姿态;
演示单元,用于在屏幕中演示控制所述家用电器的姿态。
优选地,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述控制模块还用于按照所述控制指令开启、关闭或调控所述家用电器。
优选地,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述控制模块还用于按照所述控制指令开启、关闭或调控所述家用电器。
上述家用电器控制方法及系统,通过交互设备产生姿态,采集交互设备的图像,进而根据采集到的交互设备的图像识别出交互设备中标记区域所产生的姿态,并生成控制指令,通过姿态对应的控制指令对家用电器进行控制,因此,通过交互设备产生姿态即可实现家用电器的控制,不需要所有的家用电器均拥有红外遥控功能,扩大了智能家居的应用范围。
上述家用电器控制方法及系统,通过交互设备产生的姿态进行家用电器的控制,需要在交互设备中设置按键,简化了操作上的方便性。
上述家用电器控制方法及系统,通过交互设备的指向实现家用电器的选取,并在屏幕中展示控制家用电器所对应的姿态,使得用户能够直观并且便捷地进行交互,更为方便地实现家用电器的控制。
【附图说明】
图1为本发明中家用电器控制方法的流程示意图;
图2为另一个实施例中家用电器控制方法的流程示意图;
图3为一个实施例中步骤S230的流程示意图;
图4为一个实施例中步骤S30的流程示意图;
图5为一个实施例中交互设备的结构示意图;
图6为一个实施例中构建坐标系的示意图;
图7为另一个实施例中的交互设备的结构示意图;
图8为另一个实施例中的交互设备的结构示意图;
图9为另一个实施例中构建坐标系的示意图;
图10为一个实施例中步骤S40的流程示意图;
图11为另一个实施例中步骤S40的流程示意图;
图12为本发明中家用电器控制系统的结构示意图;
图13为另一个实施例中家用电器控制系统的结构示意图;
图14为一个实施例中展示模块的结构示意图;
图15为一个实施例中姿态识别模块的结构示意图;
图16为一个实施例中指令生成模块的结构示意图;
图17为另一个实施例中指令生成模块的结构示意图。
【具体实施方式】
在一个实施例中,如图1所示,一种家用电器控制方法,包括如下步骤:
步骤S10,通过交互设备产生姿态。
步骤S20,采集交互设备的图像,交互设备的图像中包含标记区域。
本实施例中,标记区域是采集的图像中的一个区域,该区域可由交互设备形成。
具体的,在一个实施例中,交互设备可以是手持装置,可将手持装置的一部分或全部设定为指定的颜色或形状,采集手持装置的图像,图像中的手持装置中的该指定颜色或形状的部分形成标记区域。另外,交互设备还可以是带标记的手持装置,即在手持装置上附带指定颜色或形状的标记(如反光材料),采集手持装置的图像,图像中的手持装置上所附带的指定颜色或形状的标记形成标记区域。
在另一个实施例中,交互设备还可以是人体部位(例如人脸、手掌、手臂等),采集人体部位的图像,图像中的人体部位形成标记区域。另外,交互设备还可以是带标记的人体部位,即在人体部位上附带指定颜色或形状的标记(如反光材料),采集人体部位的图像时,图像中的该指定颜色或形状的标记形成标记区域。
步骤S30,识别标记区域的姿态。
本实施例中,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标产生标记区域的姿态。所谓姿态,是指标记区域在图像中所形成的姿势状态。进一步的,在二维图像中,姿态为二维图像中的标记区域与预设位置之间的角度,即姿态角;在三维图像中,姿态为二维图像中的标记区域与预设位置之间的多个姿态角所组成的矢量,即姿态向量。本发明中说的“标记区域产生的姿态”,“标记区域的姿态”、“姿态”都是指所述姿态,也就是不同实施例的姿态角与姿态向量。
步骤S40,生成姿态对应的控制指令。
本实施例中,预先设定标记区域的姿态与控制指令之间的映射关系,并将该映射关系存储在数据库中。在识别出标记区域的姿态后,可根据识别出的姿态从数据库中查找与姿态对应的控制指令。
步骤S50,通过控制指令对家用电器进行控制。
本实施例中,将查找到的控制指令发送到家用电器,家用电器按照控制指令执行相应的开启、关闭或调控操作,例如,控制指令为开启操作,则相应的家用电器将在控制指令的触发下启动运行。
具体的,通过控制指令,可对与产生控制指令的控制端处于同一居室的家用电器进行统一控制,也可以通过远程传输将控制指令传输到远端的的家用电器,以对远端的家用电器进行控制。
由于可生成与识别出的姿态相对应的控制指令,只要交互设备产生姿态就能生成控制指令,不需要在所有的家用电器中设置红外遥控功能,扩大了智能家居的应用范围。
在一个实施例中,控制指令包括家用电器的开启、关闭以及调控指令,上述步骤S50的具体过程包括:按照控制指令开启、关闭或调控家用电器。
本实施例中,家用电器的调控指令包括了媒体播放设备的音量调节、媒体切换;空调的温度调节以及电灯的亮度调节等控制指令,在此不逐一列举。例如,家用电器为空调,为实现用户的姿态控制空调运行,根据标记区域中识别得到的姿态生成对应的控制指令,若姿态为向左旋转预设角度,则生成升高温度的控制指令,若姿态为向右旋转预设角度,则生成降低温度的控制指令,若姿态为旋转超出180度,则开启处于关闭状态的空调或关闭处于开启状态的空调;家用电器为电视,若姿态为向左旋转预设角度,则生成调高音量的控制指令,若姿态为向右旋转预设角度,则生成调低音量的控制指令,若姿态为旋转超出180度,则开启处于关闭状态的电视或关闭处于开启状态的电视。
在一个实施例中,如图2所示,上述步骤S10之前还包括如下步骤:
步骤S210,通过交互设备的指向选取家用电器。
本实施例中,家用电器包括了视频播放设备、音频播放设备、空调、电灯等。具体地,可在屏幕中以图标的形式表示每一家用电器,进而通过交互设备对图标的指向来实现家用电器的选取;此外,也可通过交互设备在活动空间中对某一家用电器的指向来实现家用电器的选取。用户手持交互设备方便而自然地指向并选取家用电器的交互操作更为直观便捷。
步骤S230,展示控制家用电器对应的姿态。
本实施例中,任一家用电器均有与其对应的姿态,存在着姿态与控制指令之间的映射关系。例如,家用电器为电视,则电视的开启、关闭、音量的调控以及节目的切换均有对应的姿态,进而通过姿态所对应的控制指令实现电视的控制。因此,获取选取的家用电器对应的姿态,并在屏幕中演示用户控制家用电器所需要执行的姿态,使得用户能够直观而便捷地实现家用电器的控制。
在一个实施例中,如图3所示,上述步骤S230的具体过程包括:
步骤S231,根据家用电器中姿态与控制指令的映射关系得到控制家用电器的姿态。
本实施例中,根据家用电器中姿态与控制指令的映射关系可以获知对家用电器进行控制用户所需要产生的姿态。
步骤S233,在屏幕中演示控制家用电器的姿态。
在一个实施例中,如图4所示,步骤S30中识别标记区域的姿态具体包括:
步骤S301,判断采集的图像的类型,所述图像的类型为二维图像时,则进入步骤S302,否则进入步骤S304。
本实施例中,图像的类型包括了二维图像和三维图像,对应不同的图像类型将采用不同的姿态识别过程来实现用户所产生的姿态的识别。
步骤S302,获取图像中的与预设颜色模块匹配的像素,对获取的像素进行连通域检测,提取检测得到的连通域中的标记区域。
具体的,可通过摄像机采集包含标记区域的图像,得到的图像为二维可见光图像。优选的,还可在摄像机的镜头前加入红外滤光片,用于滤去除红外波段的其他波段光线,则采集的图像为二维红外图像。由于可见光图像中,场景中的物体会对标记区域的识别形成干扰,而红外图像因滤除掉了可见光信息,干扰较少,因此二维红外图像更有利于提取标记区域。对获取的像素进行连通域检测,得到多个连通域,连通域是若干个连续的像素组成的集合。
本实施例中,预先建立颜色模型。例如标记区域的色彩为红色,则预先建立红色模型,该模型中像素的RGB值分量可在200到255之间,G、B分量可接近于零;获取采集的图像中满足该红色模型的RGB值的像素即为红色像素。
由于标记区域的大小和形状应大致是固定不变的,在对获取的像素进行连通域检测时,可计算得到获取的像素中的所有连通域的周长和/或面积。具体的,连通域的周长可为连通域边界像素的个数,连通域的面积可为连通域中的全部像素的个数。进一步的,可将获取的连通域的周长和/或面积与预设标记区域的周长和/或面积进行对比,获取满足预设标记区域的周长和/或面积的连通域即为标记区域。优选的,还可将周长的平方与面积的比值作为判断准则,连通域的该比值满足预设标记区域的该比值,则该连通域为标记区域。
步骤S303,获取标记区域中的像素坐标,根据像素坐标产生标记区域的姿态。
在一个实施例中,如图5所示,标记设有一个,则采集到的图像中的标记区域为一个连续区域,则根据像素坐标产生标记区域的姿态的过程为:计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态,该标记区域的姿态为一个姿态角。
具体的,如图6所示,构建二维图像坐标系,对于该坐标系上的两个点A(u1,v1)和B(u2,v2),其形成的姿态角则为斜率的反正切,即arctan((v2-v1)/(u2-u1))。具体的,本实施例中,计算提取的标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,该特征向量的方向即为标记区域长轴所在直线的方向。如图6所示,标记区域长轴所在直线方向为A、B两点所在直线的方向,设特征向量为[dir_u,dir_v]T,其中,dir_u描述标记区域长轴的方向在u轴上的投影,其绝对值正比于从A指向B的向量在u坐标轴方向上的投影(即u2-u1);dir_v描述标记区域长轴的方向在v轴上的投影,其绝对值正比于从A指向B的向量在v坐标轴方向上的投影(即v2-v1)。若dir_u或dir_v小于0,则修正为[-dir_u,-dir_v]T,则标记区域的姿态角为:arctan(dir_v/dir_u)。
在另一个实施例中,如图7和图8所示,标记设有两个,分别为标记1和标记2,则采集到的图像中的标记区域为两个,包括第一连续区域和第二连续区域,则根据所述像素坐标产生标记区域的姿态的具体过程为:根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标产生标记区域的姿态。具体的,计算连续区域中的全部像素坐标的平均值,所得到的像素坐标即为连续区域的重心。如图6所示,计算得到的两个连续区域的重心分别为A(u1,v1)和B(u2,v2),则标记区域的姿态角为斜率的反正切,即arctan((v2-v1)/(u2-u1))。
步骤S304,对图像进行分割,提取图像中的连通域,计算连通域的属性值,将连通域的属性值与预设的标记区域属性值进行对比,标记区域则为符合预设的标记区域属性值的连通域。
具体的,当三维深度图像中两个相邻的像素深度相差小于预先设定的阈值时,例如5厘米,则认为两个像素连通,对整个图像进行连通域检测,可得到包含标记区域的一系列连通域。
本实施例中,连通域的属性值包括连通域的尺寸和形状。具体的,计算连通域的尺寸/形状,与预设的标记区域的尺寸/形状进行对比,得到符合预设的标记区域的尺寸/形状的连通域即为标记区域。以矩形标记为例,即交互设备上的反光材料在采集的图像中为矩形,预先设定好标记的长度和宽度,计算连通域对应的物理区域的长度和宽度,该长度和宽度与标记的长度和宽度越接近,则连通域与标记区域越相似。
进一步的,计算连通域对应的物理区域的长度和宽度的过程如下:计算连通域像素的三维坐标的协方差矩阵,采用如下公式计算连通域对应的物理区域的长度和宽度:其中,k为预先设定的系数,例如设为4,当λ为协方差矩阵最大特征值时,则l为连通域的长度,当λ为协方差矩阵第二大的特征值时,则l为连通域的宽度。
进一步的,还可预先设定矩形标记的长宽比,例如长宽比为2,则连通域对应的物理区域的长宽比越接近于预设设定的矩形标记的长宽比,则连通域与标记区域越相似,具体的,采用如下公式计算连通域对应的物理区域的长宽比:其中,r为连通域的长宽比,λ0为协方差矩阵的最大特征值,λ1为协方差矩阵的第二大特征值。
步骤S305,获取标记区域中的像素坐标,根据像素坐标产生标记区域的姿态。
具体的,本实施例中,标记区域的姿态为姿态向量。如图9所示,构建三维图像坐标系,该坐标系为右手坐标系。在该坐标系中,设空间向量OP,P在平面XOY的投影为p,则用极坐标表示向量OP的姿态向量为[α,θ]T,α为角XOp,即X轴到Op角,取值范围为0到360度,θ为角pOP,即OP与XOY平面的夹角,取值范围为-90度到90度。设该坐标系中的空间射线上的两点为A(x1,y1,z1)和B(x2,y2,z2),则这两点的姿态向量[α,θ]T可用如下公式唯一确定:
cos ( α ) = x 2 - x 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2
( 1 )
sin ( α ) = y 2 - y 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2
θ = arctan ( z 2 - z 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2 ) - - - ( 2 )
本实施例中,提取标记区域后,计算得到标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,并将该特征向量转换为姿态向量。具体的,设得到的姿态向量为[dirx,diry,dirz]T,其中,dirx表示两点在x轴方向上的距离,diry表示两点在y轴方向上的距离,dirz表示两点在z轴方向上的距离。可认为该姿态向量描述的射线上有两个点,即(0,0,0)和(dirx,diry,dirz),即射线从原点触发,指向(dirx,diry,dirz),则姿态角需满足上述公式(1)和(2),令上述公式(1)和(2)中的x1=0,y1=0,z1=0,x2=dirx,y2=diry,z2=dirz,即可得到姿态向量[α,θ]T
在一个实施例中,如图5所示,标记设有一个,则采集到的图像中的标记区域为一个连续区域,则根据像素坐标产生标记区域的姿态的过程为:计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态。如上所述,该标记区域的姿态为一个姿态向量。
在另一个实施例中,如图7和图8所示,标记设有两个,分别为标记1和标记2,则采集到的图像中的标记区域为两个,包括第一连续区域和第二连续区域,则根据所述像素坐标产生标记区域的姿态的具体过程为:根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标计算标记区域的姿态。如图9所示,本实施例中,标记区域中的像素坐标为三维坐标,具体的,可根据计算得到的两个连续区域的重心的像素坐标产生标记区域的姿态,该姿态为一个姿态向量。
应当说明的是,在其他实施例中,也可设定只采集交互设备的二维图像或三维图像,即设定交互方法只处理二维图像或者只处理三维图像,则上述步骤S 302可不执行,而直接对二维图像或三维图像进行处理。具体的,若设定只处理二维图像,可采用普通摄像机采集二维图像。识别二维图像中的标记区域的姿态的过程如上所述,在此则不再赘述。若设定只处理三维图像,可利用传统的立体视觉系统(由两台空间位置已知的摄像机及相关数据处理设备组成)、结构光系统(右一台摄像机、一台光源以及相关数据处理设备组成)或TOF(timeof flight,飞行时间)深度相机采集三维图像(即三维深度图像)。识别三维图像中的标记区域的姿态如上所述,在此也不再赘述。
此外,无论采集到的是二维图像还是三维图像,在标记区域为一个连续区域的实施例中,交互设备可以是不包含指定颜色和/或形状的区域的人体部位,即完全将人体部位作为交互设备,所采集到的图像中的标记区域即人体部位所形成的区域。该实施例中,则可获取采集的图像中与预设肤色模型匹配的像素,得到人体部位所形成的标记区域,然后进入识别标记区域的姿态的步骤。
如图10所示,在一个实施例中,上述步骤S40的具体过程包括:
步骤S402,获取当前帧图像中的所述标记区域的姿态。
如上所述,步骤S402中获取的姿态可以是当前帧的二维图像中的标记区域的姿态(即姿态角),也可以是当前帧的三维深图像中的标记区域的姿态(即姿态向量)。本实施例中,预先设定了姿态与控制指令之间的映射关系。该姿态也可称为绝对姿态。
步骤S404,根据预设的姿态与控制指令之间的映射关系生成与姿态对应的控制指令。
例如,控制指令为家用电器的开启指令和关闭指令。以二维图像为例,姿态角的取值范围为-180度到180度。可预先设定当前帧图像中的姿态角在(a,b)的范围内,则触发开启指令,当前帧图像中的姿态角在(c,d)的范围内,则触发关闭指令。其中,a、b、c、d都为预先设定的角度,满足a<b,c<d,且集合[a,b]和集合[c,d]的交集为空。
另外,在三维图像中,所识别出的姿态包含两个姿态角,可以使用其中的一个姿态角来获取控制指令,也可以使用两个姿态角来获取控制指令。使用其中一个姿态角的方法原理与二维图像类似,在此则不再赘述。使用两个姿态角时,可设置若两个姿态角均在预先设定的指令触发范围内时,才触发控制指令。
如图11所示,在另一个实施例中,采集的包含标记区域的图像为图像序列,上述步骤S40的具体过程包括:
步骤S410,获取当前帧图像中的标记区域的姿态与上一帧图像中的标记区域的姿态之间的相对姿态。
本实施例中,可实时采集由多个包含标记区域的图像组成的图像序列。如上所述,步骤S410中获取的姿态可以是当前帧图像和上一帧图像中的标记区域的姿态角,也可以是当前帧图像和上一帧图像中的标记区域的姿态向量。当前帧图像中的姿态与上一帧图像中的姿态之间的相对姿态为两者的差值。
步骤S420,根据预设的相对姿态与控制指令之间的映射关系生成与相对姿态对应的控制指令。
例如,以二维图像为例,相对姿态为相对姿态角,可预先设定当前帧图像的姿态角比上一帧的姿态角增加大于30度,即相对姿态角大于30度时,则触发家用电器的开启指令,当前帧图像的姿态角比上一帧的姿态角减少大于40度时,即相对姿态角小于-40度时,则触发家用电器的关闭指令。三维图像的原理与其类似,在此则不再赘述。
在三维图像中,所识别出的姿态包含两个姿态角,可以使用其中的一个姿态角来获取控制指令,也可以使用两个姿态角来获取控制指令。使用其中一个姿态角的方法原理与二维图像类似,在此则不再赘述。使用两个姿态角时,可设置若两个姿态角变化均满足预设条件时,例如第一个姿态角变化大于预先设定的第一阈值,第二个姿态角变化大于预先设定的第二阈值,则触发控制指令。
在一个实施例中,如图12所示,一种家用电器控制系统,包括交互设备10、图像采集模块20、姿态识别模块30指令生成模块40以及控制模块50。
交互设备10,用于产生姿态。
图像采集模块20,用于采集交互设备的图像,交互设备的图像中包含标记区域。
本实施例中,标记区域是采集的图像中的一个区域,该区域可由交互设备10形成。具体的,在一个实施例中,交互设备10可以是手持装置,可将手持装置的一部分或全部设定为指定的颜色或形状,采集手持装置的图像,图像中的手持装置中的该指定颜色或形状的部分形成标记区域。另外,交互设备10还可以是带标记的手持装置,即在手持装置上附带指定颜色或形状的标记(如反光材料),采集手持装置的图像,图像中的手持装置上所附带的指定颜色或形状的标记形成标记区域。
在另一个实施例中,交互设备10还可以是人体部位(例如人脸、手掌、手臂等),采集人体部位的图像,图像中的人体部位形成标记区域。另外,交互设备10还可以是带标记的人体部位,即在人体部位上附带指定颜色或形状的标记(如反光材料),采集人体部位的图像时,图像中的该指定颜色或形状的标记形成标记区域。
姿态识别模块30,用于识别标记区域的姿态。
具体的,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标获取标记区域的姿态。所谓姿态,是指标记区域在图像中所形成的姿势状态。进一步的,在二维图像中,姿态为二维图像中的标记区域与预设位置之间的角度,即姿态角;在三维图像中,姿态为三维图像中的标记区域与预设位置之间的多个姿态角所组成的矢量,即姿态向量。本发明中说的“标记区域产生的姿态”,“标记区域的姿态”都是指所述姿态,也就是不同实施例的姿态角与姿态向量。
指令生成模块40,用于生成姿态对应的控制指令。
本实施例中,预先设定标记区域的姿态与控制指令之间的映射关系,并将该映射关系存储在数据库中(图中未示出)。在识别出标记区域的姿态后,指令生成模块40可用于根据姿态识别模块30识别出的姿态从数据库中查找与姿态对应的控制指令。
控制模块50,用于通过控制指令对家用电器进行控制。
本实施例中,指令生成模块40将查找到的控制指令发送到控制模块50,控制模块50按照控制指令控制家用电器执行相应的开启或关闭操作,例如,控制指令为开启操作,则相应的家用电器将在控制指令的触发下启动运行。
具体的,控制模块50通过控制指令,可对与产生控制指令的控制端处于同一居室的家用电器进行统一控制,也可以通过远程传输将控制指令传输到远端的的家用电器,以对远端的家用电器进行控制。
由于可生成与识别出的姿态相对应的控制指令,只要交互设备产生姿态就能生成控制指令,不需要在所有的家用电器中设置红外遥控功能,扩大了智能家居的应用范围。
在一个实施例中,控制指令包括家用电器的开启、关闭以及调控指令,上述控制模块50还用于按照控制指令开启、关闭或调控家用电器。
本实施例中,家用电器的调控指令包括了媒体播放设备的音量调节、媒体切换;空调的温度调节以及电灯的亮度调节等控制指令,在此不逐一列举。例如,家用电器为空调,为实现用户的姿态控制空调运行,根据标记区域中识别得到的姿态生成对应的控制指令,若姿态为向左旋转预设角度,则生成升高温度的控制指令,若姿态为向右旋转预设角度,则生成降低温度的控制指令,若姿态为旋转超出180度,则控制模块50开启处于关闭状态的空调或关闭处于开启状态的空调;家用电器为电视,若姿态为向左旋转预设角度,则生成调高音量的控制指令,若姿态为向右旋转预设角度,则生成调低音量的控制指令,若姿态为旋转超出180度,则控制模块50开启处于关闭状态的电视或关闭处于开启状态的电视。
如图13所示,在一个实施例中,上述家用电器控制系统还包括选取模块70以及展示模块90。
选取模块70,用于通过交互设备的指向选取家用电器。
本实施例中,家用电器包括了视频播放设备、音频播放设备、空调、电灯等。具体地,可在屏幕中以图标的形式表示每一家用电器,进而通过交互设备对图标的指向来实现家用电器的选取;此外,也可通过交互设备在活动空间中对某一家用电器的指向来实现家用电器的选取。用户手持交互设备方便而自然地指向并选取家用电器的交互操作更为直观便捷。
展示模块90,用于展示控制家用电器对应的姿态。
本实施例中,任一家用电器均有与其对应的姿态,存在着姿态与控制指令之间的映射关系。例如,家用电器为电视,则电视的开启、关闭、音量的调控以及节目的切换均有对应的姿态,进而通过姿态所对应的控制指令实现电视的控制。因此,展示模块90获取选取的家用电器对应的姿态,并在屏幕中演示用户控制家用电器所需要执行的姿态,使得用户能够直观而便捷地实现家用电器的控制。
如图14所示,在一个实施例中,上述展示模块90包括展示姿态获取单元910以及演示单元930。
展示姿态获取单元901,用于根据家用电器中姿态与控制指令的映射关系得到控制家用电器的姿态。
本实施例中,展示姿态获取单元901根据家用电器中姿态与控制指令的映射关系可以获知对家用电器进行控制用户所需要产生的姿态。
演示单元930,用于在屏幕中演示控制家用电器的姿态。
如图15所示,在一个实施例中,图像的类型为二维图像或三维图像,上述姿态识别模块30包括判断单元310、第一识别单元330以及第二识别单元350。
判断单元310,用于判断图像的类型,所述图像的类型是二维图像时,则通知第一识别单元,所述图像的类型是三维图像时,则通知第二识别单元。
本实施例中,图像的类型包括了二维图像和三维图像,对应不同的图像类型将采用不同的姿态识别过程来实现用户所产生的姿态的识别。
第一识别单元330,用于获取图像中与预设颜色模型匹配的像素,对获取的像素进行连通域检测,提取检测得到的连通域中的标记区域,获取标记区域中的像素坐标,根据像素坐标产生标记区域的姿态。
具体的,可通过摄像机采集包含标记区域的图像,得到的图像为二维可见光图像。优选的,还可在摄像机的镜头前加入红外滤光片,用于滤去除红外波段的其他波段光线,则采集的图像为二维红外图像。由于可见光图像中,场景中的物体会对标记区域的识别形成干扰,而红外图像因滤除掉了可见光信息,干扰较少,因此二维红外图像更有利于提取标记区域。第一识别单元330对获取的像素进行连通域检测,得到多个连通域,连通域是若干个连续的像素组成的集合。
本实施例中,预先建立颜色模型。例如标记区域的色彩为红色,则预先建立红色模型,该模型中像素的RGB值分量可在200到255之间,G、B分量可接近于零;获取采集的图像中满足该红色模型的RGB值的像素即为红色像素。
由于标记区域的大小和形状应大致是固定不变的,第一识别单元330在对获取的像素进行连通域检测时,可计算得到获取的像素中的所有连通域的周长和/或面积。具体的,连通域的周长可为连通域边界像素的个数,连通域的面积可为连通域中的全部像素的个数。进一步的,第一识别单元330可将获取的连通域的周长和/或面积与预设标记区域的周长和/或面积进行对比,获取满足预设标记区域的周长和/或面积的连通域即为标记区域。优选的,第一识别单元330还可将周长的平方与面积的比值作为判断准则,连通域的该比值满足预设标记区域的该比值,则该连通域为标记区域。
在一个实施例中,如图5所示,标记设有一个,则采集到的图像中的标记区域为一个连续区域,则第一识别单元330计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态,该标记区域的姿态为一个姿态角。
具体的,如图6所示,构建二维图像坐标系,对于该坐标系上的两个点A(u1,v1)和B(u2,v2),其形成的姿态角则为斜率的反正切,即arctan((v2-v1)/(u2-u1))。具体的,本实施例中,第一识别单元330计算提取的标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,该特征向量的方向即为标记区域长轴所在直线的方向。如图6所示,标记区域长轴所在直线方向为A、B两点所在直线的方向,设特征向量为[dir_u,dir_v]T,其中,dir_u描述标记区域长轴的方向在u轴上的投影,其绝对值正比于从A指向B的向量在u坐标轴方向上的投影(即u2-u1);dir_v描述标记区域长轴的方向在v轴上的投影,其绝对值正比于从A指向B的向量在v坐标轴方向上的投影(即v2-v1)。若dir_u或dir_v小于0,则修正为[-dir_u,-dir_v]T,则标记区域的姿态角为:arctan(dir_v/dir_u)。
在另一个实施例中,如图7和图8所示,标记设有两个,分别为标记1和标记2,则采集到的图像中的标记区域为两个,包括第一连续区域和第二连续区域,则第一识别单元330根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标产生标记区域的姿态。具体的,第一识别单元330计算连续区域中的全部像素坐标的平均值,所得到的像素坐标即为连续区域的重心。如图6所示,计算得到的两个连续区域的重心分别为A(u1,v1)和B(u2,v2),则标记区域的姿态角为斜率的反正切,即arctan((v2-v1)/(u2-u1))。
第二识别单元350,用于对图像进行分割,提取所述图像中的连通域,计算连通域的属性值,将连通域的属性值与预设的标记区域属性值进行对比,标记区域为符合预设的标记区域属性值的连通域,以及获取标记区域中的像素坐标,根据像素坐标产生标记区域的姿态。
具体的,当三维深度图像中两个相邻的像素深度相差小于预先设定的阈值时,例如5厘米,则认为两个像素连通,对整个图像进行连通域检测,可得到包含标记区域的一系列连通域。
本实施例中,连通域的属性值包括连通域的尺寸和形状。具体的,第二识别单元350计算连通域的尺寸/形状,与预设的标记区域的尺寸/形状进行对比,得到符合预设的标记区域的尺寸/形状的连通域即为标记区域。以矩形标记为例,即交互设备上的反光材料在采集的图像中为矩形,预先设定好标记的长度和宽度,第二识别单元350计算连通域对应的物理区域的长度和宽度,该长度和宽度与标记的长度和宽度越接近,则连通域与标记区域越相似。
进一步的,第二识别单元350计算连通域像素的三维坐标的协方差矩阵,采用如下公式计算连通域对应的物理区域的长度和宽度:其中,k为预先设定的系数,例如设为4,当λ为协方差矩阵最大特征值时,则l为连通域的长度,当λ为协方差矩阵第二大的特征值时,则l为连通域的宽度。
进一步的,还可预先设定矩形标记的长宽比,例如长宽比为2,则连通域对应的物理区域的长宽比越接近于预设设定的矩形标记的长宽比,则连通域与标记区域越相似,具体的,第二识别单元350采用如下公式计算连通域对应的物理区域的长宽比:其中,r为连通域的长宽比,λ0为协方差矩阵的最大特征值,λ1为协方差矩阵的第二大特征值。
具体的,本实施例中,标记区域的姿态为姿态向量。如图9所示,构建三维图像坐标系,该坐标系为右手坐标系。在该坐标系中,设空间向量OP,P在平面XOY的投影为p,则用极坐标表示向量OP的姿态向量为[α,θ]T,α为角XOp,即X轴到Op角,取值范围为0到360度,θ为角pOP,即OP与XOY平面的夹角,取值范围为-90度到90度。设该坐标系中的空间射线上的两点为A(x1,y1,z1)和B(x2,y2,z2),则这两点的姿态向量[α,θ]T可用如下公式唯一确定:
cos ( α ) = x 2 - x 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2
( 1 )
sin ( α ) = y 2 - y 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2
θ = arctan ( z 2 - z 1 ( x 2 - x 1 ) 2 + ( y 2 - y 1 ) 2 ) - - - ( 2 )
本实施例中,提取标记区域后,第二识别单元350计算得到标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,并将该特征向量转换为姿态向量。具体的,设得到的姿态向量为[dirx,diry,dirz]T,其中,dirx表示两点在x轴方向上的距离,diry表示两点在y轴方向上的距离,dirz表示两点在z轴方向上的距离。可认为该姿态向量描述的射线上有两个点,即(0,0,0)和(dirx,diry,dirz),即射线从原点触发,指向(dirx,diry,dirz),则姿态角需满足上述公式(1)和(2),令上述公式(1)和(2)中的x1=0,y1=0,z1=0,x2=dirx,y2=diry,z2=dirz,即可得到姿态向量[α,θ]T
在一个实施例中,如图5所示,标记设有一个,则采集到的图像中的标记区域为一个连续区域,则第二识别单元350计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态。如上所述,该标记区域的姿态为一个姿态向量。
在另一个实施例中,如图7和图8所示,标记设有两个,分别为标记1和标记2,则采集到的图像中的标记区域为两个,包括第一连续区域和第二连续区域,则第二识别单元350根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标计算标记区域的姿态。如图9所示,本实施例中,标记区域中的像素坐标为三维坐标,具体的,可根据计算得到的两个连续区域的重心的像素坐标产生标记区域的姿态,该姿态为一个姿态向量。
如图16所示,在一个实施例中,指令生成模块40包括第一姿态获取模块402和第一指令查找模块404,其中:
第一姿态获取模块402,用于从姿态识别模块30中获取当前帧图像中的标记区域的姿态。
具体的,该姿态可以是当前帧的二维图像中的标记区域的姿态角,也可以是当前帧的三维深度图像中的标记区域的姿态向量。本实施例中,预先设定了姿态与控制指令之间的映射关系。该姿态也可称为绝对姿态。
第一指令查找模块404,用于根据预设的姿态与控制指令之间的映射关系生成与姿态对应的控制指令。
本实施例中,所采集的包含标记区域的图像可以是图像序列。第一姿态获取模块402还用于从姿态识别模块30中获取当前帧图像中的标记区域的姿态与上一帧图像中的标记区域的姿态之间的相对姿态。第一指令查找模块404还用于根据预设的相对姿态与控制指令之间的映射关系生成与相对姿态对应的控制指令。
在另一个实施例中,所采集的包含标记区域的图像可以是图像序列,如图17所示,指令生成模块40包括第二姿态获取模块410和第二指令查找模块420,其中:
第二姿态获取模块410,用于从姿态识别模块30中获取当前帧图像中的标记区域的姿态与上一帧图像中的标记区域的姿态之间的相对姿态。
第二指令查找模块420,用于根据预设的相对姿态与控制指令之间的映射关系生成与相对姿态对应的控制指令。
上述家用电器控制方法及系统,通过交互设备产生姿态,采集交互设备的图像,进而根据采集到的交互设备的图像识别出交互设备中标记区域所产生的姿态,并生成控制指令,通过姿态对应的控制指令对家用电器进行控制,因此,通过交互设备产生姿态即可实现家用电器的控制,不需要所有的家用电器均拥有红外遥控功能,扩大了智能家居的应用范围。
上述家用电器控制方法及系统,通过交互设备产生的姿态进行家用电器的控制,需要在交互设备中设置按键,简化了操作上的方便性。
上述家用电器控制方法及系统,通过交互设备的指向实现家用电器的选取,并在屏幕中展示控制家用电器所对应的姿态,使得用户能够直观并且便捷地进行交互,更为方便地实现家用电器的控制。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (12)

1.一种家用电器控制方法,包括如下步骤:
通过交互设备产生姿态;
采集所述交互设备的图像,所述交互设备的图像中包含标记区域;
识别标记区域的姿态;
生成所述姿态对应的控制指令;
通过所述控制指令对家用电器进行控制;
所述图像的类型为二维图像或三维图像,所述识别所述标记区域的姿态的步骤包括:
判断所述图像的类型;
所述图像的类型为二维图像时,则获取所述图像中与预设颜色模型匹配的像素,对所述获取的像素进行连通域检测,提取检测得到的连通域中的所述标记区域,获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态;
所述图像的类型为三维图像时,则对所述图像进行分割,提取所述图像中的连通域,计算所述连通域的属性值,将所述连通域的属性值与预设的标记区域属性值进行对比,所述标记区域为符合所述预设的标记区域属性值的连通域,以及获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态。
2.根据权利要求1所述的家用电器控制方法,其特征在于,所述标记区域包括第一连续区域和第二连续区域;所述识别标记区域的姿态的步骤包括:
计算第一连续区域的重心和第二连续区域的重心,根据所述第一连续区域的重心的像素坐标和所述第二连续区域的重心像素坐标产生所述标记区域的姿态。
3.根据权利要求1或2所述的家用电器控制方法,其特征在于,所述通过交互设备产生姿态的步骤之前还包括:
通过所述交互设备的指向选取家用电器;
展示控制所述家用电器对应的姿态。
4.根据权利要求3所述的家用电器控制方法,其特征在于,所述展示控制所述家用电器对应的姿态的步骤包括:
根据家用电器中姿态与控制指令的映射关系得到控制所述家用电器的姿态;
在屏幕中演示控制所述家用电器的姿态。
5.根据权利要求1、2或4所述的家用电器控制方法,其特征在于,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述通过所述控制指令对家用电器进行控制的步骤包括:
按照所述控制指令开启、关闭或调控所述家用电器。
6.根据权利要求3所述的家用电器控制方法,其特征在于,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述通过所述控制指令对家用电器进行控制的步骤包括:
按照所述控制指令开启、关闭或调控所述家用电器。
7.一种家用电器控制系统,其特征在于,包括:
交互设备,用于产生姿态;
图像采集模块,用于采集所述交互设备的图像,所述交互设备的图像中包含标记区域;
姿态识别模块,用于识别标记区域的姿态;
指令生成模块,用于生成所述姿态对应的控制指令;
控制模块,用于通过所述控制指令对家用电器进行控制;
所述图像的类型为二维图像或三维图像,所述姿态识别模块包括:
判断单元,用于判断所述图像的类型,所述图像的类型是二维图像时,则通知第一识别单元,所述图像的类型是三维图像时,则通知第二识别单元;
所述第一识别单元,用于获取所述图像中与预设颜色模型匹配的像素,对所述获取的像素进行连通域检测,提取检测得到的连通域中的所述标记区域,获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态;
所述第二识别单元,用于对所述图像进行分割,提取所述图像中的连通域,计算所述连通域的属性值,将所述连通域的属性值与预设的标记区域属性值进行对比,所述标记区域为符合所述预设的标记区域属性值的连通域,以及获取所述标记区域中的像素坐标,根据所述像素坐标产生所述标记区域的姿态。
8.根据权利要求7所述的家用电器控制系统,其特征在于,所述标记区域包括第一连续区域和第二连续区域;所述第一识别单元还用于计算第一连续区域的重心和第二连续区域的重心,根据所述第一连续区域的重心的像素坐标和所述第二连续区域的重心像素坐标产生所述标记区域的姿态。
9.根据权利要求7或8所述的家用电器控制系统,其特征在于,还包括:
选取模块,用于通过所述交互设备的指向选取家用电器;
展示模块,用于展示控制所述家用电器对应的姿态。
10.根据权利要求9所述的家用电器控制系统,其特征在于,所述展示模块包括:
展示姿态获取单元,用于根据家用电器中姿态与控制指令的映射关系得到控制所述家用电器的姿态;
演示单元,用于在屏幕中演示控制所述家用电器的姿态。
11.根据权利要求7、8或10所述的家用电器控制系统,其特征在于,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述控制模块还用于按照所述控制指令开启、关闭或调控所述家用电器。
12.根据权利要求9所述的家用电器控制系统,其特征在于,所述控制指令包括家用电器的开启、关闭以及调控指令;
所述控制模块还用于按照所述控制指令开启、关闭或调控所述家用电器。
CN201210025300.6A 2011-12-02 2012-02-06 家用电器控制方法及系统 Active CN103135453B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210025300.6A CN103135453B (zh) 2011-12-02 2012-02-06 家用电器控制方法及系统

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201110396235 2011-12-02
CN2011103962353 2011-12-02
CN201110396235.3 2011-12-02
CN201210025300.6A CN103135453B (zh) 2011-12-02 2012-02-06 家用电器控制方法及系统

Publications (2)

Publication Number Publication Date
CN103135453A CN103135453A (zh) 2013-06-05
CN103135453B true CN103135453B (zh) 2015-05-13

Family

ID=48488552

Family Applications (12)

Application Number Title Priority Date Filing Date
CN201110451741.8A Active CN103135755B (zh) 2011-12-02 2011-12-29 交互系统及方法
CN201110451724.4A Active CN103135754B (zh) 2011-12-02 2011-12-29 采用交互设备实现交互的方法
CN201110453879.1A Active CN103135756B (zh) 2011-12-02 2011-12-29 生成控制指令的方法和系统
CN201210011346.2A Active CN103135882B (zh) 2011-12-02 2012-01-13 控制窗口图片显示的方法和系统
CN201210011308.7A Active CN103135881B (zh) 2011-12-02 2012-01-13 显示控制方法及系统
CN201210023419XA Pending CN103139508A (zh) 2011-12-02 2012-02-02 控制电视画面显示的方法和系统
CN201210024483.XA Active CN103135883B (zh) 2011-12-02 2012-02-03 控制窗口的方法及系统
CN201210024389.4A Active CN103127717B (zh) 2011-12-02 2012-02-03 控制操作游戏的方法及系统
CN201210025300.6A Active CN103135453B (zh) 2011-12-02 2012-02-06 家用电器控制方法及系统
CN201210031595.8A Active CN103136986B (zh) 2011-12-02 2012-02-13 手语识别方法及系统
CN201210032932.5A Active CN103135758B (zh) 2011-12-02 2012-02-14 实现快捷功能的方法及系统
CN201210032934.4A Active CN103135759B (zh) 2011-12-02 2012-02-14 多媒体播放控制方法和系统

Family Applications Before (8)

Application Number Title Priority Date Filing Date
CN201110451741.8A Active CN103135755B (zh) 2011-12-02 2011-12-29 交互系统及方法
CN201110451724.4A Active CN103135754B (zh) 2011-12-02 2011-12-29 采用交互设备实现交互的方法
CN201110453879.1A Active CN103135756B (zh) 2011-12-02 2011-12-29 生成控制指令的方法和系统
CN201210011346.2A Active CN103135882B (zh) 2011-12-02 2012-01-13 控制窗口图片显示的方法和系统
CN201210011308.7A Active CN103135881B (zh) 2011-12-02 2012-01-13 显示控制方法及系统
CN201210023419XA Pending CN103139508A (zh) 2011-12-02 2012-02-02 控制电视画面显示的方法和系统
CN201210024483.XA Active CN103135883B (zh) 2011-12-02 2012-02-03 控制窗口的方法及系统
CN201210024389.4A Active CN103127717B (zh) 2011-12-02 2012-02-03 控制操作游戏的方法及系统

Family Applications After (3)

Application Number Title Priority Date Filing Date
CN201210031595.8A Active CN103136986B (zh) 2011-12-02 2012-02-13 手语识别方法及系统
CN201210032932.5A Active CN103135758B (zh) 2011-12-02 2012-02-14 实现快捷功能的方法及系统
CN201210032934.4A Active CN103135759B (zh) 2011-12-02 2012-02-14 多媒体播放控制方法和系统

Country Status (1)

Country Link
CN (12) CN103135755B (zh)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104349197B (zh) * 2013-08-09 2019-07-26 联想(北京)有限公司 一种数据处理方法及装置
JP5411385B1 (ja) * 2013-08-12 2014-02-12 株式会社 ディー・エヌ・エー ゲームを提供するサーバ及び方法
CN104801042A (zh) * 2014-01-23 2015-07-29 鈊象电子股份有限公司 根据玩家挥手范围切换游戏画面的方法
CN103810922B (zh) * 2014-01-29 2016-03-23 上海天昊信息技术有限公司 手语翻译系统
CN103902045A (zh) * 2014-04-09 2014-07-02 深圳市中兴移动通信有限公司 通过非接触式姿势操作壁纸的方法及装置
CN105094785A (zh) * 2014-05-20 2015-11-25 腾讯科技(深圳)有限公司 一种配色文件生成方法及装置
CN104391573B (zh) * 2014-11-10 2017-05-03 北京华如科技股份有限公司 一种基于单姿态传感器识别投掷动作的方法及装置
CN104460988B (zh) * 2014-11-11 2017-12-22 陈琦 一种智能手机虚拟现实设备的输入控制方法
KR101608172B1 (ko) 2014-12-22 2016-03-31 주식회사 넥슨코리아 객체를 제어하는 방법 및 장치
CN106139590B (zh) * 2015-04-15 2019-12-03 乐线韩国股份有限公司 控制对象的方法和装置
US10543427B2 (en) * 2015-04-29 2020-01-28 Microsoft Technology Licensing, Llc Game controller function remapping via external accessory
CN105204354A (zh) 2015-09-09 2015-12-30 北京百度网讯科技有限公司 智能家居设备的控制方法及装置
CN108027654B (zh) * 2015-09-28 2021-01-12 日本电气株式会社 输入设备、输入方法和程序
CN105892638A (zh) * 2015-12-01 2016-08-24 乐视致新电子科技(天津)有限公司 一种虚拟现实交互方法、装置和系统
CN106896732B (zh) * 2015-12-18 2020-02-04 美的集团股份有限公司 家用电器的展示方法和装置
CN105592367A (zh) * 2015-12-23 2016-05-18 青岛海信电器股份有限公司 一种图像显示参数调节方法和系统
JP6370820B2 (ja) * 2016-02-05 2018-08-08 株式会社バンダイナムコエンターテインメント 画像生成システム、ゲーム装置及びプログラム。
CN105760106B (zh) * 2016-03-08 2019-01-15 网易(杭州)网络有限公司 一种智能家居设备交互方法和装置
CN105930050B (zh) * 2016-04-13 2018-01-26 腾讯科技(深圳)有限公司 行为确定方法及装置
CN106682593A (zh) * 2016-12-12 2017-05-17 山东师范大学 一种基于手势识别的手语会议方法及系统
CN108431872A (zh) * 2016-12-27 2018-08-21 华为技术有限公司 一种共享虚拟现实数据的方法和设备
CN108668042B (zh) * 2017-03-30 2021-01-15 富士施乐实业发展(中国)有限公司 一种复合机系统
CN109558000B (zh) * 2017-09-26 2021-01-22 京东方科技集团股份有限公司 一种人机交互方法及电子设备
CN107831996B (zh) * 2017-10-11 2021-02-19 Oppo广东移动通信有限公司 人脸识别启动方法及相关产品
CN107861682A (zh) * 2017-11-03 2018-03-30 网易(杭州)网络有限公司 虚拟对象的移动控制方法和装置
CN108228251B (zh) * 2017-11-23 2021-08-27 腾讯科技(上海)有限公司 游戏应用中控制目标对象的方法和装置
CN108036479A (zh) * 2017-12-01 2018-05-15 广东美的制冷设备有限公司 空调器的控制方法、系统、视觉控制器和存储介质
CN110007748B (zh) * 2018-01-05 2021-02-19 Oppo广东移动通信有限公司 终端的控制方法、处理装置、存储介质及终端
WO2019153971A1 (zh) * 2018-02-06 2019-08-15 广东虚拟现实科技有限公司 视觉交互装置及标记物
CN108765299B (zh) * 2018-04-26 2022-08-16 广州视源电子科技股份有限公司 立体图形标记系统及方法
CN108693781A (zh) * 2018-07-31 2018-10-23 湖南机电职业技术学院 智能家居控制系统
JP7262976B2 (ja) * 2018-11-02 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
TWI681755B (zh) * 2018-12-24 2020-01-11 山衛科技股份有限公司 脊椎側彎量測系統與方法
CN109711349B (zh) * 2018-12-28 2022-06-28 百度在线网络技术(北京)有限公司 用于生成控制指令的方法和装置
CN109816650B (zh) * 2019-01-24 2022-11-25 强联智创(北京)科技有限公司 一种基于二维dsa图像的目标区域识别方法及其系统
CN111665727A (zh) * 2019-03-06 2020-09-15 北京京东尚科信息技术有限公司 用于控制家居设备的方法、装置和家居设备控制系统
CN111803930B (zh) * 2020-07-20 2024-09-10 网易(杭州)网络有限公司 多平台交互方法、装置以及电子设备
CN115623254A (zh) * 2021-07-15 2023-01-17 北京字跳网络技术有限公司 视频效果的添加方法、装置、设备及存储介质
CN113326849B (zh) * 2021-07-20 2022-01-11 广东魅视科技股份有限公司 一种可视化数据采集方法及系统
CN113499585B (zh) * 2021-08-09 2024-07-09 网易(杭州)网络有限公司 游戏中交互方法、装置、电子设备和存储介质
CN113822186B (zh) * 2021-09-10 2024-09-17 阿里巴巴达摩院(杭州)科技有限公司 手语翻译、客服、通信方法、设备和可读介质
CN113822187B (zh) * 2021-09-10 2024-09-17 阿里巴巴达摩院(杭州)科技有限公司 手语翻译、客服、通信方法、设备和可读介质

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JPH0918708A (ja) * 1995-06-30 1997-01-17 Omron Corp 画像処理方法およびその方法を用いた画像入力装置,制御装置,画像出力装置,ならびに画像処理システム
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
CN1860429A (zh) * 2003-09-30 2006-11-08 皇家飞利浦电子股份有限公司 定义内容窗口在显示器上的位置、尺寸和/或内容的姿势
JP4708422B2 (ja) * 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
JP2006068315A (ja) * 2004-09-02 2006-03-16 Sega Corp ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
CN100345085C (zh) * 2004-12-30 2007-10-24 中国科学院自动化研究所 基于玩家姿势和语音的电子游戏场景和角色控制方法
JP2009514106A (ja) * 2005-10-26 2009-04-02 株式会社ソニー・コンピュータエンタテインメント コンピュータプログラムとインタフェースするためのシステムおよび方法
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
CN101388138B (zh) * 2007-09-12 2011-06-29 原相科技股份有限公司 互动图像系统、互动装置及其运作方法
CN101398896B (zh) * 2007-09-28 2012-10-17 三星电子株式会社 用于成像设备的提取有强识别力的颜色特征的设备和方法
JP4938617B2 (ja) * 2007-10-18 2012-05-23 幸輝郎 村井 オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法
CN101483005A (zh) * 2008-01-07 2009-07-15 致伸科技股份有限公司 多媒体文件播放遥控装置
JP5174492B2 (ja) * 2008-03-05 2013-04-03 公立大学法人首都大学東京 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
CN101551700B (zh) * 2008-03-31 2012-03-28 联想(北京)有限公司 电子游戏输入装置、电子游戏设备及电子游戏输入方法
EP2266016A4 (en) * 2008-04-02 2014-10-29 Oblong Ind Inc GESTURE BASED CONTROL USING EXTENDED THREE-DIMENSIONAL INFORMATION THROUGH AN EXTENDED SHARPNESS
KR100978929B1 (ko) * 2008-06-24 2010-08-30 한국전자통신연구원 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말
CN101504728B (zh) * 2008-10-10 2013-01-23 深圳泰山在线科技有限公司 一种电子设备的遥控系统及其遥控方法
CN101729808B (zh) * 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
CN101465116B (zh) * 2009-01-07 2013-12-11 北京中星微电子有限公司 一种显示设备控制方法及一种显示设备
CN101504586A (zh) * 2009-03-25 2009-08-12 中国科学院软件研究所 一种基于笔尾手势的指令方法
CN101527092A (zh) * 2009-04-08 2009-09-09 西安理工大学 特定会话场景下的计算机辅助手语交流方法
CN101539994B (zh) * 2009-04-16 2012-07-04 西安交通大学 一种手语语音互译系统及手语语音互译方法
CN101763515B (zh) * 2009-09-23 2012-03-21 中国科学院自动化研究所 一种基于计算机视觉的实时手势交互方法
CN101673094A (zh) * 2009-09-23 2010-03-17 曾昭兴 一种家电控制装置和控制方法
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
CN101799717A (zh) * 2010-03-05 2010-08-11 天津大学 基于手部行为捕捉的人机交互方法
CN101833653A (zh) * 2010-04-02 2010-09-15 上海交通大学 低分辨率视频中的人物识别方法
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
CN201750431U (zh) * 2010-07-02 2011-02-16 厦门万安智能股份有限公司 智能家居集控装置
CN102179048A (zh) * 2011-02-28 2011-09-14 武汉市高德电气有限公司 基于动作分解和行为分析实现实景游戏的方法
CN102226880A (zh) * 2011-06-03 2011-10-26 北京新岸线网络技术有限公司 一种基于虚拟现实的体感操作方法及系统

Also Published As

Publication number Publication date
CN103135758B (zh) 2016-09-21
CN103135759B (zh) 2016-03-09
CN103135755B (zh) 2016-04-06
CN103135882A (zh) 2013-06-05
CN103135754A (zh) 2013-06-05
CN103135755A (zh) 2013-06-05
CN103139508A (zh) 2013-06-05
CN103135883B (zh) 2016-07-06
CN103136986B (zh) 2015-10-28
CN103135756A (zh) 2013-06-05
CN103127717A (zh) 2013-06-05
CN103135453A (zh) 2013-06-05
CN103135759A (zh) 2013-06-05
CN103135754B (zh) 2016-05-11
CN103135881B (zh) 2016-12-14
CN103135883A (zh) 2013-06-05
CN103136986A (zh) 2013-06-05
CN103127717B (zh) 2016-02-10
CN103135882B (zh) 2016-08-03
CN103135881A (zh) 2013-06-05
CN103135756B (zh) 2016-05-11
CN103135758A (zh) 2013-06-05

Similar Documents

Publication Publication Date Title
CN103135453B (zh) 家用电器控制方法及系统
US5594469A (en) Hand gesture machine control system
Van den Bergh et al. Combining RGB and ToF cameras for real-time 3D hand gesture interaction
CN102375542B (zh) 一种肢体遥控电视的方法及电视遥控装置
CN102253713B (zh) 面向三维立体影像显示系统
EP2615523A1 (en) Image recognition apparatus, operation evaluation method, and program
US20120056989A1 (en) Image recognition apparatus, operation determining method and program
Caputo et al. 3D Hand Gesture Recognition Based on Sensor Fusion of Commodity Hardware.
CN105528082A (zh) 三维空间及手势识别追踪交互方法、装置和系统
CN106020478A (zh) 一种智能终端操控方法、装置和智能终端
CN101504728A (zh) 一种电子设备的遥控系统及其遥控方法
CN103150020A (zh) 一种三维指控操作方法及系统
CN106468917B (zh) 一种可触摸现场实时视频图像的远程呈现交互方法和系统
JP2021520577A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
CN106814963A (zh) 一种基于3d传感器定位技术的人机互动系统及方法
CN107145822A (zh) 偏离深度相机的用户体感交互标定的方法和系统
CN105138131B (zh) 一种通用的手势命令发射和操作方法
CN109583404B (zh) 一种基于特征图案识别的平面手势控制系统及控制方法
CN109218833A (zh) 控制电视画面显示的方法和系统
CN206741449U (zh) 一种新型激光屏幕控制设备
CN106599812A (zh) 一种用于智能家居系统的3d动态手势识别方法
Shanmugapriya et al. Gesture Recognition using a Touch less Feeler Machine
Halodová¹ et al. Check for updates Adaptive Image Processing Methods for Outdoor Autonomous Vehicles
CN202018629U (zh) 一种交互式电子白板系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C56 Change in the name or address of the patentee
CP01 Change in the name or title of a patent holder

Address after: 518000 Shenzhen, Nanshan District Province, science and technology, South Road, the building of the big square, building 02, room 4,

Patentee after: SHENZHEN TAISHAN SPORTS TECHNOLOGY CORP., LTD.

Address before: 518000 Shenzhen, Nanshan District Province, science and technology, South Road, the building of the big square, building 02, room 4,

Patentee before: Shenzhen Tol Technology Co., Ltd.

CP01 Change in the name or title of a patent holder

Address after: 518000 room 02, 4th floor, Fangda building, Keji South 12th Road, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Taishan Sports Technology Co.,Ltd.

Address before: 518000 room 02, 4th floor, Fangda building, Keji South 12th Road, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN TAISHAN SPORTS TECHNOLOGY Corp.,Ltd.

CP01 Change in the name or title of a patent holder