CN109218833A - 控制电视画面显示的方法和系统 - Google Patents
控制电视画面显示的方法和系统 Download PDFInfo
- Publication number
- CN109218833A CN109218833A CN201710515302.6A CN201710515302A CN109218833A CN 109218833 A CN109218833 A CN 109218833A CN 201710515302 A CN201710515302 A CN 201710515302A CN 109218833 A CN109218833 A CN 109218833A
- Authority
- CN
- China
- Prior art keywords
- image
- posture
- marked region
- control instruction
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4854—End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
Abstract
本发明提供了一种控制电视画面显示的方法和系统,方法包括以下步骤:采集包含标记区域的图像;识别标记区域的姿态;生成所述姿态对应的控制指令;根据所述控制指令控制电视画面显示。本发明通过使得标记区域产生姿态,根据姿态的不同来控制电视画面显示,提高了使用的便利性。此外,还提供了一种控制电视画面显示的系统。
Description
技术领域
本发明涉及人机交互技术领域,尤其涉及一种控制电视画面显示的方法和系统。
背景技术
随着电子设备的迅速发展,人们越来越多的使用电视进行工作、娱乐、学习等。往往需要对电视显示画面的进行调节。
传统的控制电视画面显示的方法,通常是使用电视遥控或对电视上的键盘进行操控来控制电视画面的显示。然而,使用遥控需要遥控采集信号并发送到显示设备,遥控必须具有按键和供电装置才可使用,对于用户来说,必须借助于有源(电源)的遥控才能对电视显示画面进行控制,因此十分不方便。而直接操控电视上的键盘,用户必须接触电视,不能实现远距离控制,也给用户带来不便。
发明内容
基于此,有必要提供一种更方便的控制电视画面显示的方法。
一种控制电视画面显示的方法,包括以下步骤:采集包含标记区域的图像;识别标记区域的姿态;具体为,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标产生标记区域的姿态;生成所述姿态对应的控制指令;根据所述控制指令控制电视画面显示。
优选的,所述生成姿态对应的控制指令的步骤包括:获取当前帧图像中的所述标记区域的绝对姿态;根据预设的绝对姿态与控制指令之间的映射关系生成与所述绝对姿态对应的控制指令。
优选的,所述图像为图像序列;生成姿态对应的控制指令的步骤还包括:获取当前帧图像中的所述标记区域的姿态与上一帧图像中的所述标记区域的姿态之间的相对姿态;根据预设的相对姿态与控制指令之间的映射关系生成与所述相对姿态对应的控制指令。
优选的,所述控制指令包括电视画面调节指令;所述根据控制指令控制电视画面显示的步骤包括:获取与所述绝对姿态或所述相对姿态对应的显示参数;根据所述显示参数对电视画面进行调节。
优选的,所述控制指令包括数据源选择/切换指令;所述根据控制指令控制电视画面显示的步骤包括:获取与所述绝对姿态或所述相对姿态对应的数据源类型;根据所述数据源类型选择/切换电视的数据源。
此外,还有必要提供一种更方便的控制电视画面显示的系统。
一种控制电视画面显示的系统,包括:图像采集模块,用于采集包含标记区域的图像;姿态识别模块,用于识别标记区域的姿态;具体为,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标产生标记区域的姿态;指令生成模块,用于生成所述姿态对应的控制指令;控制模块,用于根据所述控制指令控制电视画面显示。
优选的,所述指令生成模块包括:第一姿态获取模块,用于从所述姿态识别模块中获取当前帧图像中的所述标记区域的绝对姿态;第一指令查找模块,用于根据预设的绝对姿态与控制指令之间的映射关系生成与所述绝对姿态对应的控制指令。
优选的,所述指令生成模块包括:第二姿态获取模块,用于从所述姿态识别模块中获取当前帧图像中的所述标记区域的姿态与上一帧图像中的所述标记区域的姿态之间的相对姿态;第二指令查找模块,用于根据预设的相对姿态与控制指令之间的映射关系生成与所述相对姿态对应的控制指令。
优选的,所述控制指令包括电视画面调节指令;所述控制模块用于获取与所述绝对姿态或所述相对姿态对应的显示参数,根据所述显示参数对电视画面进行调节。
优选的,所述控制指令包括数据源选择/切换指令;所述控制模块用于获取与所述绝对姿态或所述相对姿态对应的数据源类型,根据所述数据源类型对选择/切换电视的数据源。
优选的,所述控制指令包括数据源锁定/解锁指令;所述控制模块用于根据所述数据源锁定/解锁指令锁定/解锁电视的数据源。
上述控制电视画面显示的方法和系统,根据采集到的包含标记区域的图像识别出标记区域所产生的姿态,并生成姿态对应的控制指令,然后根据控制指令控制电视画面显示。只要标记区域产生姿态就能控制电视画面显示,无需在遥控上设置按键和电源,也无需用户接触电视,因此使得控制电视画面显示更方便。
附图说明
图1为本发明中控制电视画面显示的方法的流程示意图;
图2为一个实施例中识别标记区域的姿态的流程示意图;
图3为一个实施例中交互设备的示意图;
图4为一个实施例中构建的二维坐标系的示意图;
图5为另一实施例中交互设备的示意图;
图6为又一实施例中交互设备的示意图;
图7为一个实施例中构建的三维坐标系的示意图;
图8为一个实施例中生成姿态对应的控制指令的流程示意图;
图9为另一个实施例中生成姿态对应的控制指令的流程示意图;
图10为一个实施例中根据控制指令控制电视画面显示的流程示意图;
图11为另一个实施例中根据控制指令控制电视画面显示的流程示意图;
图12为本发明提供的控制电视画面显示的系统的示意图;
图13为一个实施例中姿态识别模块的示意图;
图14为一个实施例中指令生成模块的示意图;
图15为另一个实施例中指令生成模块的示意图。
具体实施方式
如图1所示,本发明提供的控制电视画面显示的方法,包括以下步骤:
步骤S10,采集包含标记区域的图像。
标记区域是采集的图像中的一个区域,该区域可由交互设备形成。
具体的,在一个实施例中,交互设备可以是手持装置,可将手持装置的一部分或全部设定为指定的颜色或形状,采集手持装置的图像,图像中的手持装置中的该指定颜色或形状的部分形成标记区域。
另外,交互设备还可以是带标记的手持装置,即在手持装置上附带指定颜色或形状的标记(如反光材料),采集手持装置的图像,图像中的手持装置上所附带的指定颜色或形状的标记形成标记区域。
在另一个实施例中,交互设备还可以是人体部位(例如人脸、手掌、手臂等),采集人体部位的图像,图像中的人体部位形成标记区域。另外,交互设备还可以是带标记的人体部位,即在人体部位上附带指定颜色或形状的标记(如反光材料),采集人体部位的图像时,图像中的该指定颜色或形状的标记形成标记区域。
步骤S20,识别标记区域的姿态;具体的,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标产生标记区域的姿态。
所谓姿态,是指标记区域在图像中所形成的姿势状态。进一步的,在二维图像中,姿态为二维图像中的标记区域与预设位置之间的角度,即姿态角;在三维图像中,姿态为二维图像中的标记区域与预设位置之间的多个姿态角所组成的矢量,即姿态向量。本发明中说的“标记区域产生的姿态”,“标记区域的姿态”、“姿态”都是指所述姿态,也就是不同实施例的姿态角与姿态向量。
步骤S30,生成姿态对应的控制指令。
可预先设定标记区域的姿态与控制指令之间的映射关系,并将该映射关系存储在数据库中。在识别出标记区域的姿态后,可根据识别出的姿态从数据库中查找与姿态对应的控制指令。进一步的,还可将查找到的控制指令发送到被控装置。
步骤S40,根据控制指令控制电视画面显示。
在一个实施例中,采集的图像包括二维图像和/或三维图像。如图2所示,识别标记区域的姿态的具体过程包括:
步骤S201,判断采集的图像是二维图像还是三维图像,若是二维图像,则进入步骤S202,否则进入步骤S204。
步骤S202,获取图像中的与预设颜色模块匹配的像素,对获取的像素进行连通域检测,提取检测得到的连通域中的标记区域。
具体的,可通过摄像机采集包含标记区域的图像,得到的图像为二维可见光图像。优选的,还可在摄像机的镜头前加入红外滤光片,用于滤去除红外波段的其他波段光线,则采集的图像为二维红外图像。由于可见光图像中,场景中的物体会对标记区域的识别形成干扰,而红外图像因滤除掉了可见光信息,干扰较少,因此二维红外图像更有利于提取标记区域。对获取的像素进行连通域检测,得到多个连通域,连通域是若干个连续的像素组成的集合。
本实施例中,预先建立颜色模型。例如标记区域的色彩为红色,则预先建立红色模型,该模型中像素的RGB值分量可在200到255之间,G、B分量可接近于零;获取采集的图像中满足该红色模型的RGB值的像素即为红色像素。
由于标记区域的大小和形状应大致是固定不变的,在对获取的像素进行连通域检测时,可计算得到获取的像素中的所有连通域的周长和/或面积。具体的,连通域的周长可为连通域边界像素的个数,连通域的面积可为连通域中的全部像素的个数。进一步的,可将获取的连通域的周长和/或面积与预设标记区域的周长和/或面积进行对比,获取满足预设标记区域的周长和/或面积的连通域即为标记区域。优选的,还可将周长的平方与面积的比值作为判断准则,连通域的该比值满足预设标记区域的该比值,则该连通域为标记区域。
步骤S203,获取标记区域中的像素坐标,根据像素坐标产生标记区域的姿态。
具体的,在一个实施例中,如图3所示,交互设备包括手持部分和附着于手持部分的标记,其中,标记可为长条形状的反光材料,优选的,可以为椭圆或矩形形状。在其他实施例中,交互设备还可为人体部位,如脸、手掌、手臂等,则采集到的图像中的标记区域即为人体部位的区域。
本实施例中,标记区域为一个连续区域,则根据像素坐标产生标记区域的姿态的过程为:计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态,该标记区域的姿态为一个姿态角。
具体的,如图4所示,构建二维图像坐标系,对于该坐标系上的两个点A(u1,v1)和B(u2,v2),其形成的姿态角则为斜率的反正切,即arctan((v2-v1)/(u2-u1))。具体的,本实施例中,计算提取的标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,该特征向量的方向即为标记区域长轴所在直线的方向。如图4所示,标记区域长轴所在直线方向为A、B两点所在直线的方向,设特征向量为,其中,dir_u描述标记区域长轴的方向在u轴上的投影,其绝对值正比于从A指向B的向量在u坐标轴方向上的投影(即u2-u1);dir_ v描述标记区域长轴的方向在v轴上的投影,其绝对值正比于从A指向B的向量在v坐标轴方向上的投影(即v2-v1)。若或小于0,则修正为,则标记区域的姿态角为:arctan(/)。
在另一个实施例中,标记区域包括第一连续区域和第二连续区域,则根据所述像素坐标产生标记区域的姿态的具体过程为:根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标产生标记区域的姿态。具体的,计算连续区域中的全部像素坐标的平均值,所得到的像素坐标即为连续区域的重心。如图4所示,计算得到的两个连续区域的重心分别为A(u1,v1)和B(u2,v2),则标记区域的姿态角为斜率的反正切,即arctan((v2-v1)/(u2-u1))。
如图5所示,标记为两个,分别附着在手持部分前端,标记的形状可以为椭圆形或矩形。优选的,标记可以为位于手持部位前端的两个圆点。此外,如图6所示,还可将标记设置在手持部分的两端。在其他实施例中,还可将标记设置在人体部位上,例如设置在人脸、手掌或手臂上。应当说明的是,所设置的两个标记可以大小、形状、颜色等特征上不一致。
步骤S204,对图像进行分割,提取图像中的连通域,计算连通域的属性值,将连通域的属性值与预设的标记区域属性值进行对比,标记区域则为符合预设的标记区域属性值的连通域。
具体的,当三维深度图像中两个相邻的像素深度相差小于预先设定的阈值时,例如5厘米,则认为两个像素连通,对整个图像进行连通域检测,可得到包含标记区域的一系列连通域。
本实施例中,连通域的属性值包括连通域的尺寸和形状。具体的,计算连通域的尺寸/形状,与预设的标记区域的尺寸/形状进行对比,得到符合预设的标记区域的尺寸/形状的连通域即为标记区域。以矩形标记为例,即交互设备上的反光材料在采集的图像中为矩形,预先设定好标记的长度和宽度,计算连通域对应的物理区域的长度和宽度,该长度和宽度与标记的长度和宽度越接近,则连通域与标记区域越相似。
进一步的,计算连通域对应的物理区域的长度和宽度的过程如下:计算连通域像素的三维坐标的协方差矩阵,采用如下公式计算连通域对应的物理区域的长度和宽度:,其中,为预先设定的系数,例如设为4,当为协方差矩阵最大特征值时,则为连通域的长度,当为协方差矩阵第二大的特征值时,则为连通域的宽度。
进一步的,还可预先设定矩形标记的长宽比,例如长宽比为2,则连通域对应的物理区域的长宽比越接近于预设设定的矩形标记的长宽比,则连通域与标记区域越相似,具体的,采用如下公式计算连通域对应的物理区域的长宽比:,其中,为连通域的长宽比,为协方差矩阵的最大特征值,为协方差矩阵的第二大特征值。
步骤S205,获取标记区域中的像素坐标,根据像素坐标产生标记区域的姿态。
具体的,本实施例中,标记区域的姿态为姿态向量。如图7所示,构建三维图像坐标系,该坐标系为右手坐标系。在该坐标系中,设空间向量OP,P在平面XOY的投影为p,则用极坐标表示向量OP的姿态向量为,为角XOp,即X轴到Op角,取值范围为0到360度,为角pOP,即OP与XOY平面的夹角,取值范围为-90度到90度。设该坐标系中的空间射线上的两点为A(x1,y1,z1)和B(x2,y2,z2),则这两点的姿态向量可用如下公式唯一确定:
(1)
(2)
本实施例中,提取标记区域后,计算得到标记区域中的像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,并将该特征向量转换为姿态向量。具体的,设得到的姿态向量为,其中,表示两点在x轴方向上的距离,表示两点在y轴方向上的距离,表示两点在z轴方向上的距离。可认为该姿态向量描述的射线上有两个点,即(0,0,0)和,即射线从原点触发,指向,则姿态角需满足上述公式(1)和(2),令上述公式(1)和(2)中的x1=0,y1=0,z1=0,,即可得到姿态向量。
在一个实施例中,采集到的图像中的标记区域为一个连续区域,则根据像素坐标产生标记区域的姿态的过程为:计算得到像素坐标的协方差矩阵,获取协方差矩阵最大特征值对应的特征向量,根据特征向量产生标记区域的姿态。如上所述,该标记区域的姿态为一个姿态向量。
在另一个实施例中,采集到的图像中的标记区域为两个,包括第一连续区域和第二连续区域,则根据所述像素坐标产生标记区域的姿态的具体过程为:根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标计算标记区域的姿态。如图7所示,本实施例中,标记区域中的像素坐标为三维坐标,具体的,可根据计算得到的两个连续区域的重心的像素坐标产生标记区域的姿态,该姿态为一个姿态向量。
应当说明的是,在其他实施例中,也可设定只采集交互设备的二维图像或三维图像,即设定只处理二维图像或者只处理三维图像,则上述步骤S201可不执行,而直接对二维图像或三维图像进行处理。具体的,若设定只处理二维图像,可采用普通摄像机采集二维图像。识别二维图像中的标记区域的姿态的过程如上所述,在此则不再赘述。若设定只处理三维图像,可利用传统的立体视觉系统(由两台空间位置已知的摄像机及相关数据处理设备组成)、结构光系统(右一台摄像机、一台光源以及相关数据处理设备组成)或TOF(time offlight,飞行时间)深度相机采集三维图像(即三维深度图像)。识别三维图像中的标记区域的姿态如上所述,在此也不再赘述。
此外,无论采集到的是二维图像还是三维图像,在标记区域为一个连续区域的实施例中,交互设备可以是不包含指定颜色和/或形状的区域的人体部位,即完全将人体部位作为交互设备,所采集到的图像中的标记区域即人体部位所形成的区域。该实施例中,则可获取采集的图像中与预设肤色模型匹配的像素,得到人体部位所形成的标记区域,然后进入识别标记区域的姿态的步骤。
如图8所示,在一个实施例中,生成姿态对应的控制指令的过程包括:
步骤S310,获取当前帧图像中的标记区域的绝对姿态。
如上所述,步骤S310中获取的绝对姿态可以是当前帧的二维图像中的标记区域的姿态(即姿态角),也可以是当前帧的三维深图像中的标记区域的姿态(即姿态向量)。本实施例中,预先设定了姿态与控制指令之间的映射关系。
步骤S320,根据预设的绝对姿态与控制指令之间的映射关系生成与绝对姿态对应的控制指令。
例如,控制指令为鼠标左键指令和右键指令。以二维图像为例,姿态角的取值范围为-180度到180度。可预先设定当前帧图像中的姿态角在(a,b)的范围内,则触发左键指令,当前帧图像中的姿态角在(c,d)的范围内,则触发右键指令。其中,a、b、c、d都为预先设定的角度,满足a<b,c<d,且集合[a,b]和集合[c,d]的交集为空。。
另外,在三维图像中,所识别出的绝对姿态包含两个姿态角,可以使用其中的一个姿态角来获取控制指令,也可以使用两个姿态角来获取控制指令。使用其中一个姿态角的方法原理与二维图像类似,在此则不再赘述。使用两个姿态角时,可设置若两个姿态角均在预先设定的指令触发范围内时,才触发控制指令。
在本实施例或另一个实施例中,采集到的图像为图像序列。如图9所示,生成姿态对应的控制指令的过程包括:
步骤S311,获取当前帧图像中的标记区域的姿态与上一帧图像中的标记区域的姿态之间的相对姿态。
本实施例中,可实时采集由多个包含标记区域的图像组成的图像序列。如上所述,步骤S311中获取的姿态可以是当前帧图像和上一帧图像中的标记区域的姿态角,也可以是当前帧图像和上一帧图像中的标记区域的姿态向量。当前帧图像中的姿态与上一帧图像中的姿态之间的相对姿态为两者的差值。
步骤S321,根据预设的相对姿态与控制指令之间的映射关系生成与相对姿态对应的控制指令。
例如,以二维图像为例,相对姿态为相对姿态角,可预先设定当前帧图像的姿态角比上一帧的姿态角增加大于30度,即相对姿态角大于30度时,则触发鼠标的左键指令,当前帧图像的姿态角比上一帧的姿态角减少大于40度时,即相对姿态角小于-40度时,则触发鼠标的右键指令。三维图像的原理与其类似,在此则不再赘述。
在三维图像中,所识别出的相对姿态包含两个姿态角,可以使用其中的一个姿态角来获取控制指令,也可以使用两个姿态角来获取控制指令。使用其中一个姿态角的方法原理与二维图像类似,在此则不再赘述。使用两个姿态角时,可设置若两个姿态角变化均满足预设条件时,例如第一个姿态角变化大于预先设定的第一阈值,第二个姿态角变化大于预先设定的第二阈值,则触发控制指令。
在一个实施例中,控制指令包括电视画面调节指令。如图10所示,根据控制指令控制电视画面显示的具体过程包括:
步骤S410,获取与姿态或相对姿态对应的显示参数。
本实施例中,预先存储了绝对姿态或相对姿态与显示参数的对应关系。
步骤S420,根据显示参数对电视画面进行调节。
例如,生成的与绝对姿态或相对姿态对应的电视画面调节指令为亮度调节指令。例如,以二维图像为例,相对姿态为相对姿态角。相对姿态角大于30度时,则生成亮度调节指令,在电视上显示亮度调节菜单,相对姿态角越大,则调节电视画面的亮度越高。本实施例中,可以不借助传统的遥控装置,也无需用户接触电视,就能对电视的显示画面进行调节,提高了用户操作的便利性。
在另一个实施例中,控制指令包括数据源选择/切换指令。如图11所示,根据控制指令控制电视画面显示的具体过程包括:
步骤S411,获取与绝对姿态或相对姿态对应的数据源类型。
数据源类型包括来自USB接口的数据源、光驱(DVD)数据源、互联网端口的数据源、广播电视信号数据源等。本实施例中,预先存储了绝对姿态或相对姿态与数据源类型的对应关系。所述的相对姿态为当前帧图像中的姿态与上一帧图像中的姿态之间的差值。
步骤S421,根据数据源类型对选择/切换电视的数据源。
例如,以二维图像为例,相对姿态为相对姿态角。相对姿态角大于30度时,则生成数据源切换指令,切换为下一数据源,例如切换为互联网端口的数据源。
本实施例中,在设置电视的数据源类型时,可以不借助于传统的电视遥控,也不需要用户接触电视,就能进行数据源类型的选择/切换,因此能提高用户操作的便利性。
在一个实施例中,控制指令可包括数据源锁定/解锁指令,则根据控制指令控制电视画面显示的步骤包括:根据数据源锁定/解锁指令锁定/解锁电视的数据源。
如上所述,不同的绝对姿态或相对姿态对应了不同的控制指令,以二维图像为例,例如,可设置绝对姿态角为90度或相对姿态角为360度时,对应数据源锁定/解锁指令。当检测到绝对姿态角为90或相对姿态角为360度时,则生成数据源锁定/解锁指令,对当前电视所使用的数据源进行锁定/解锁。
本实施例中,在对电视的数据源类型进行锁定/解锁时,无需借助于传统的电视遥控,也不需要用户接触电视,就能进行数据源类型的选择/切换,因此能提高用户操作的便利性。
如图12所示,本发明提供的控制电视画面显示的系统,包括图像采集模块10、姿态识别模块20、指令生成模块30和控制模块40,其中:图像采集模块10用于采集包含标记区域的图像。姿态识别模块20用于识别标记区域的姿态。指令生成模块30用于生成所述姿态对应的控制指令。控制模块40用于根据所述控制指令控制电视画面显示。
在一个实施例中,图像采集模块10采集的图像为二维图像和/或三维图像。优选的,所述二维图像为二维红外图像。如图13所示,在一个实施例中,姿态识别模块20包括判断模块201、第一图像处理模块202、第一姿态产生模块203、第一图像处理模块204和第二图像处理模块205,其中:
判断模块201用于采集的图像是二维图像还是三维图像。
第一图像处理模块202用于若图像为二维图像,则获取图像中与预设颜色模型匹配的像素,对获取的像素进行连通域检测,提取检测得到的连通域中的所述标记区域。
第一姿态产生模块203用于获取第一图像处理模块202得到的标记区域中的像素坐标,根据像素坐标产生标记区域的姿态。
第二图像处理模块204用于若图像为三维图像,则对图像进行分割,提取图像中的连通域,计算连通域的属性值,将连通域的属性值与预设的标记区域属性值进行对比,该标记区域为符合预设的标记区域属性值的连通域。
第二姿态产生模块205用于获取第二图像处理模块204得到的标记区域中的像素坐标,根据所像素坐标产生所述标记区域的姿态。
在一个实施例中,标记区域为两个,包括第一连续区域和第二连续区域。第一姿态产生模块203还用于根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和第二连续区域的重心的像素坐标产生标记区域的姿态。
第二姿态产生模块205还用于根据像素坐标计算第一连续区域的重心和第二连续区域的重心,根据第一连续区域的重心的像素坐标和所述第二连续区域的重心的像素坐标产生标记区域的姿态。
在其他实施例中,姿态识别模块20还可只包括第一图像处理模块202和第一姿态产生模块203,或者只包括第二图像处理模块204和第二姿态产生模块205。
在一个实施例中,如图14所示,指令生成模块30包括第一姿态获取模块302和第一指令查找模块304,其中:
第一姿态获取模块302用于从姿态识别模块20中获取当前帧图像中的标记区域的绝对姿态。第一指令查找模块304用于根据预设的绝对姿态与控制指令之间的映射关系生成与绝对姿态对应的控制指令。
在另一个实施例中,如图15所示,指令生成模块30包括第二姿态获取模块310和第二指令查找模块320,其中:
第二姿态获取模块310用于从姿态识别模块20中获取当前帧图像中的标记区域的姿态与上一帧图像中的标记区域的姿态之间的相对姿态。第二指令查找模块320用于根据预设的相对姿态与控制指令之间的映射关系生成与相对姿态对应的控制指令。
在其他实施例中,指令生成模块30还可以同时包括第一姿态获取模块302、第一指令查找模块304、第二姿态获取模块310和第二指令查找模块320。
在一个实施例中,控制指令包括电视画面调节指令。控制模块40还用于获取与绝对姿态或相对姿态对应的显示参数,根据显示参数对电视画面进行调节。
在另一个实施例中,控制指令包括数据源选择/切换指令,控制模块40用于获取与绝对姿态或相对姿态对应的数据源类型,根据该数据源类型对选择/切换电视的数据源。
在另一个实施例中,控制指令包括数据源锁定/解锁指令。控制模块40用于根据该数据源锁定/解锁指令对电视的数据源进行锁定/解锁。
本发明除了可以采用手持的交互设备外,还可以直接将人体部位作为交互设备,使用起来十分方便,根据标记区域的不同姿态就能生成不同的控制指令,不需要在交互设备上设置按键和供电装置,能够实现交互设备的完全无源,也就是说,可以采用无源的交互设备就能控制电视画面显示。
本发明无需用户接触电视,通过远距离操控交互设备就能对电视画面显示进行控制,用户操作便利,使用简单。由于交互设备可以做到完全无源,因此减少了电池的重量,降低了成本。用户可通过手持装置或人体部位进行简单的操控就能对电视画面进行调节,因此提高了用户操作的便利性,大大满足了用户的体验需求。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种控制电视画面显示的方法,包括以下步骤:
采集包含标记区域的图像;
识别标记区域的姿态;具体为,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标产生标记区域的姿态;
生成所述姿态对应的控制指令;
根据所述控制指令控制电视画面显示。
2.根据权利要求1所述的方法,其特征在于,所述生成姿态对应的控制指令的步骤包括:
获取当前帧图像中的所述标记区域的绝对姿态;
根据预设的绝对姿态与控制指令之间的映射关系生成与所述绝对姿态对应的控制指令。
3.根据权利要求1或2所述的方法,其特征在于,所述图像为图像序列;所述生成姿态对应的控制指令的步骤包括:
获取当前帧图像中的所述标记区域的姿态与上一帧图像中的所述标记区域的姿态之间的相对姿态;
根据预设的相对姿态与控制指令之间的映射关系生成与所述相对姿态对应的控制指令。
4.根据权利要求3所述的方法,其特征在于,所述控制指令包括电视画面调节指令;所述根据控制指令控制电视画面显示的步骤包括:
获取与所述绝对姿态或所述相对姿态对应的显示参数;
根据所述显示参数对电视画面进行调节。
5.根据权利要求3所述的方法,其特征在于,所述控制指令包括数据源选择/切换指令;所述根据控制指令控制电视画面显示的步骤包括:
获取与所述绝对姿态或所述相对姿态对应的数据源类型;
根据所述数据源类型对选择/切换电视的数据源。
6.一种控制电视画面显示的系统,其特征在于,包括:
图像采集模块,用于采集包含标记区域的图像;
姿态识别模块,用于识别标记区域的姿态;
指令生成模块,用于生成所述姿态对应的控制指令;具体为,对采集到的图像进行处理,提取图像中的标记区域,然后根据标记区域中的像素在构建的图像坐标系中的像素坐标产生标记区域的姿态;
控制模块,用于根据所述控制指令控制电视画面显示。
7.根据权利要求7所述的系统,其特征在于,所述指令生成模块包括:
第一姿态获取模块,用于从所述姿态识别模块中获取当前帧图像中的所述标记区域的绝对姿态;
第一指令查找模块,用于根据预设的绝对姿态与控制指令之间的映射关系生成与所述绝对姿态对应的控制指令。
8.根据权利要求6或7所述的系统,其特征在于,所述指令生成模块包括:
第二姿态获取模块,用于从所述姿态识别模块中获取当前帧图像中的所述标记区域的姿态与上一帧图像中的所述标记区域的姿态之间的相对姿态;
第二指令查找模块,用于根据预设的相对姿态与控制指令之间的映射关系生成与所述相对姿态对应的控制指令。
9.根据权利要求8所述的系统,其特征在于,所述控制指令包括电视画面调节指令;所述控制模块用于获取与所述绝对姿态或所述相对姿态对应的显示参数,根据所述显示参数对电视画面进行调节。
10.根据权利要求8所述的系统,其特征在于,所述控制指令包括数据源选择/切换指令;所述控制模块用于获取与所述绝对姿态或所述相对姿态对应的数据源类型,根据所述数据源类型对选择/切换电视的数据源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710515302.6A CN109218833A (zh) | 2017-06-29 | 2017-06-29 | 控制电视画面显示的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710515302.6A CN109218833A (zh) | 2017-06-29 | 2017-06-29 | 控制电视画面显示的方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109218833A true CN109218833A (zh) | 2019-01-15 |
Family
ID=64976591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710515302.6A Pending CN109218833A (zh) | 2017-06-29 | 2017-06-29 | 控制电视画面显示的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109218833A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816650A (zh) * | 2019-01-24 | 2019-05-28 | 强联智创(北京)科技有限公司 | 一种基于二维dsa图像的目标区域识别方法及其系统 |
-
2017
- 2017-06-29 CN CN201710515302.6A patent/CN109218833A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816650A (zh) * | 2019-01-24 | 2019-05-28 | 强联智创(北京)科技有限公司 | 一种基于二维dsa图像的目标区域识别方法及其系统 |
CN109816650B (zh) * | 2019-01-24 | 2022-11-25 | 强联智创(北京)科技有限公司 | 一种基于二维dsa图像的目标区域识别方法及其系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103139508A (zh) | 控制电视画面显示的方法和系统 | |
US9129155B2 (en) | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map | |
US9734393B2 (en) | Gesture-based control system | |
US9092665B2 (en) | Systems and methods for initializing motion tracking of human hands | |
Davison et al. | Real-time localization and mapping with wearable active vision | |
US9111135B2 (en) | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera | |
US20120170804A1 (en) | Method and apparatus for tracking target object | |
Caputo et al. | 3D hand gesture recognition based on sensor fusion of commodity hardware | |
TW201142745A (en) | Information processing apparatus, information processing system, and information processing method | |
Hongyong et al. | Finger tracking and gesture recognition with kinect | |
CN105892633A (zh) | 手势识别方法及虚拟现实显示输出设备 | |
US11729367B2 (en) | Wide viewing angle stereo camera apparatus and depth image processing method using the same | |
CN107145822A (zh) | 偏离深度相机的用户体感交互标定的方法和系统 | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
CN109218833A (zh) | 控制电视画面显示的方法和系统 | |
CN111179341A (zh) | 一种增强现实设备与移动机器人的配准方法 | |
CN113778233B (zh) | 一种操控显示设备的方法、装置及可读介质 | |
CN103995586B (zh) | 基于虚拟触摸屏的非穿戴指势人机交互方法 | |
CN102289328A (zh) | 一种基于手持摄像头的人机交互方法及装置 | |
KR102430273B1 (ko) | 광시야각의 스테레오 카메라 기반 1인칭 비전 시스템 및 이를 이용한 영상 처리 방법 | |
CN109740587B (zh) | 输电线路增强现实智能巡检系统及方法 | |
HoonKwon et al. | Multiple RGB-D camera-based user intent position and object estimation | |
CN106203236A (zh) | 一种基于视觉的手势识别方法和系统 | |
Irie et al. | Construction of an intelligent room using distributed camera system | |
Yasumoto et al. | Estimating the Direction of Pointing Gestures using Spatial Positions of the Eye and Fingertip |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190115 |
|
WD01 | Invention patent application deemed withdrawn after publication |