CN106105247B - 显示装置及其控制方法 - Google Patents
显示装置及其控制方法 Download PDFInfo
- Publication number
- CN106105247B CN106105247B CN201580013392.8A CN201580013392A CN106105247B CN 106105247 B CN106105247 B CN 106105247B CN 201580013392 A CN201580013392 A CN 201580013392A CN 106105247 B CN106105247 B CN 106105247B
- Authority
- CN
- China
- Prior art keywords
- action
- state
- display
- motion
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
提供了一种显示装置及其控制方法。显示装置的控制方法包括:显示模式转换用户界面(UI),该UI提供进入动作任务模式的指导;识别与所述指导相对应的第一动作;在所述指导显示在显示装置上时,响应于识别出第一动作,进入支持第二动作控制显示装置的功能的动作任务模式;以及显示用于执行动作任务模式的动作任务UI。
Description
技术领域
根据示例性实施例的设备和方法涉及一种由通过动作识别单元输入的用户动作控制的显示设备及其控制方法。
背景技术
随着电子技术的发展,已开发并发布了各种类型的电子设备。具体地,在普通家庭中已经广泛使用各种显示装置,例如TV、移动电话、PC、笔记本PC、PDA和平板PC。
对用于使用显示装置的各种功能的有效且交互式输入方法的需求不断增长。例如,提供遥控、鼠标控制、触摸板控制、键盘控制,作为显示装置的输入方法。
然而,使用这些简单输入方法难以有效地使用显示装置的各种功能。例如,如果显示装置的所有功能由遥控器控制,则应当增加遥控器上按钮的数目,这使得用户难以学习如何使用遥控器。
为了解决以上问题,动作识别技术已经引起注意且得到发展,从而允许用户更加方便地且直观地控制显示装置。
然而,现有动作识别技术在识别出用户动作时立即显示用于控制显示装置的图形用户界面(GUI)。因此,GUI会干扰用户观看内容,因为GUI会在用户正享受内容时弹出。
发明内容
示例性实施例至少解决上述问题和/或缺点以及以上未描述的其他缺点。此外,示例性实施例不需要克服上述缺点,并且可以不解决任何一个上述问题。
一个或多个示例性实施例提供一种能够通过动作识别的两个步骤执行动作任务的显示装置及其控制方法。
根据示例性实施例的一方面,提供了一种显示装置的控制方法,包括:显示模式转换用户界面(UI),该UI提供进入动作任务模式的指导;识别与所述指导相对应的第一动作;在所述指导显示在显示装置上时,响应于识别出第一动作,进入支持第二动作控制显示装置的功能的动作任务模式;以及显示用于执行动作任务模式的动作任务UI。显示模式转换UI可以在中间模式下操作,并且所述方法还包括:在初始模式下识别用于激活所述中间模式的触发输入。
所述触发输入可以是以下项中的至少一个:对象的出现、对象的动作、以及激活所述中间模式的语音命令。
动作转换UI可以包括被配置为激活动作任务模式的模式转换图标和被配置为根据第一动作朝模式转换图标移动的指示器。
进入动作任务模式可以包括:响应于指示器根据第一动作移动到且放置在模式转换图标上,进入动作任务模式。
所述指导可以指示被设置为激活动作任务模式的预定动作样式。
进入动作任务模式可以包括:响应于与所述预定动作样式相对应的第一动作,进入动作任务模式。
所述方法还可以包括:在模式转换UI显示之前在普通驱动模式下操作,并且响应于模式转换UI被显示,将普通驱动模式转换为功率驱动模式。
所述方法还可以包括:响应于在模式转换UI显示之后的预定时间内没有识别出第二动作,将功率驱动模式转换为普通驱动模式。
所述方法还可以包括:识别对象,其中显示模式转换UI包括:响应于识别出对象而显示模式转换UI,并且其中,通过跟踪所识别对象的动作来控制动作任务模式。
对象可以是用户的手、手指、手臂和脸部之一或无生命物体。
根据示例性实施例的另一方面,提供了一种显示装置,包括:动作识别单元,被配置为识别用户的第一动作和第二动作;显示器,被配置为显示对于激活动作任务模式的预定动作的指导;以及控制器,被配置为控制显示器显示提供所述指导的模式转换用户界面(UI),在显示所述指导时响应于第一动作与预定动作相对应且识别出第一动作而进入支持第二动作控制显示器功能的动作任务模式,并且控制显示器显示动作任务UI以执行动作任务模式。
控制器还可以被配置为控制显示器显示被配置为激活动作任务模式的模式转换图标和被配置为根据第一动作朝模式转换图标移动的指示器。
控制器还可以被配置为响应于指示器根据第一动作移动到且放置在模式转换图标上而进入动作任务模式。
控制器还可以被配置为控制显示器通过动作样式引导UI显示所述指导,其中,所述动作样式引导UI引导用户进行预定动作以进入动作任务模式。
控制器还可以被配置为响应于识别出与动作样式引导UI相对应的第一动作的样式而进入动作任务模式。
控制器还可以被配置为在显示模式转换UI之前在普通驱动模式下驱动显示器,并且响应于模式转换UI被显示,将普通驱动模式转换为功率驱动模式。
控制器还可以被配置为响应于在显示模式转换UI之后的预定时间内没有识别到所述预定动作而将功率驱动模式转换为普通驱动模式。
控制器还可以被配置为识别对象,并响应于识别出对象而控制显示器显示模式转换UI,并且其中通过跟踪所识别对象的动作来控制动作任务模式。
对象可以是用户的手、手指、手臂和脸部之一或无生命物体。根据示例性实施例的另一方面,提供了一种显示装置的控制方法,包括:在初始模式下识别触发输入;响应于识别出所述触发输入,进入中间模式,以显示对于激活动作任务模式的动作输入的指导;在所述中间模式下识别与所述动作输入相对应的第一动作;在所述指导显示在显示装置上时响应于识别出第一动作,进入动作任务模式;以及响应于识别出第二动作,在动作任务模式下控制显示装置的功能。
所述方法还可以包括:确定是否在覆盖所显示的指导区域的预定大小的区域内执行第一动作。
所述方法还可以包括:响应于显示装置在预定时间段内没有识别出第一动作,将所述中间模式切换为初始模式。
所述方法还可以包括:在第一动作正被识别和处理时,改变所述指导的视觉指示器。
改变所述指导的视觉指示器包括:在第一动作正被识别和处理时,改变所述指导的字体或颜色。
改变所述指导的视觉指示器包括:在第一动作正被识别和处理时,保持视觉指示器闪烁。
根据上述各种示例性实施例,用户可以通过动作识别的两个步骤执行显示装置的动作任务,而不会由于误识别造成不便。因此,可以提供用户能够方便地使用的显示装置的控制功能。
附图说明
通过参照附图描述特定示例性实施例,上述和/或其他方面将更加显然,在附图中:
图1和图2是用于解释根据各种示例性实施例的显示装置的配置的框图;
图3A和图3B是用于解释根据示例性实施例的由显示装置识别对象的示图;
图4A至图4C是用于解释根据示例性实施例的使用动作转换图标和指示器转换到动作任务模式的方法的示图;
图5A至图6C是用于解释根据示例性实施例的使用动作样式引导用户界面(UI)和与样式相对应的用户动作转换到动作任务模式的方法的示图;以及
图7和图8是用于解释根据各种示例性实施例的显示装置的控制方法的流程图。
具体实施方式
示例性实施例可以改变,并且可以提供在不同示例性实施例中。将参考附图和详细说明来描述具体示例性实施例。
图1是示出了根据示例性实施例的显示装置100的配置的框图。如图1所示,显示装置100包括动作识别单元110、显示器120、控制器130和语音识别单元111。显示装置可以是智能TV,但这仅是示例。显示装置100可以实现为具有显示单元的各种装置,例如智能电话、平板PC、笔记本PC、监视器、电子相册、信息亭等,但是不限于此。
动作识别单元110拍摄对象并识别用户动作。具体地,动作识别单元110使用拍摄装置(例如,相机等)拍摄并识别对象,并且可以通过跟踪所识别对象的动作来识别用户动作。
显示器120在控制器130的控制下显示图像数据或各种用户界面(UI)。具体地,显示器120可以显示模式转换UI和动作任务UI。模式转换UI可以表示用于将当前模式切换到允许用户控制显示装置100的各种功能(例如,音量和频道控制)的动作任务模式的UI。动作任务UI可以表示用于在动作任务模式下控制显示装置110的各种控制功能的UI。
控制器130控制显示装置100的整体配置。如果通过动作识别单元110识别出对象,则控制器130控制显示器120显示动作转换UI。动作识别单元110还可以检测对象的动作,并且控制器130可以使显示器120能够基于所识别的对象和动作来显示动作转换UI。备选地或与动作识别单元110结合地,语音识别单元111可以检测激活动作转换UI所需的语音命令。
转而,如果动作识别单元110在动作转换UI显示在显示器120上时检测到用户动作,则动作识别单元110可以确定检测到的用户动作是否与被设置为激活动作任务模式的预定用户动作相对应。如果动作识别单元110确定检测到的用户动作与预定用户动作相对应,则控制器130可以将显示装置100的当前模式转换为动作任务模式。另外,控制器130可以控制显示器120显示动作任务UI,并基于通过动作任务UI接收到的输入执行动作任务模式。
具体地,如果通过动作识别单元110识别出预定形状的对象(例如,用户紧握的拳头)或动作(例如,用户的手挥动),则控制器130可以控制显示器120显示动作转换UI,并响应于通过动作转换UI接收到的输入将显示装置100的当前模式转换为动作任务模式。根据示例性实施例,控制器130可以控制显示器120显示用于转换到动作任务模式的模式转换图标以及根据用户动作而移动的指示器。根据另一示例性实施例,控制器130可以控制显示器120显示用于引导用户预定动作样式(例如,左右挥动手的动作样式)的动作样式引导UI。
同时,控制器130可以在动作识别单元110识别出对象之前在普通驱动模式下操作显示装置100,并在动作识别单元110识别出对象之后将普通驱动模式转换为功率驱动模式。在这种情况下,功率驱动模式可以是控制器130使用与普通驱动模式相比更多的功率(例如,增大控制器130的时钟率)控制动作识别单元110的模式。
如果动作识别单元110通过模式转换UI识别出预定用户动作,则控制器130可以将显示装置100的当前模式转换为动作任务模式。接着,控制器130能够利用用户动作来控制显示装置100。例如,如果模式转换图标和指示器显示在显示器120上,指示器根据第一用户动作而移动到动作转换图标,并且识别出选择模式转换图标的第二用户动作,则控制器130可以基于第二用户动作将显示装置100的当前模式转换为动作任务模式。此外,显示器120可以显示动作样式引导UI以便进入动作任务模式,该动作样式引导UI提供期望用户完成的关联的预定动作的信息。如果动作识别单元110识别出关联的动作样式,则控制器130可以将显示装置100的当前模式转换为动作任务模式。
当显示装置100处于动作任务模式时,控制器130可以控制显示器120显示用于执行动作任务模式的动作任务UI。在这种情况下,动作任务UI可以包括用于音量控制、频道改变、互联网搜索引擎等的图标。
同时,如果动作识别单元110在显示模式转换UI之后的特定时间段内没有识别出预定用户动作,则控制器130可以将功率驱动模式转换为普通驱动模式。
因此,显示装置100可以防止可能由用户动作误识别而引起的无意的模式改变。
图2是详细示出了显示装置100的配置的框图。如图2所示,显示装置100包括动作识别单元110、语音识别单元111、显示器120、控制器130、存储器140、图像接收器150、图像处理器160、音频处理器170、音频输出单元180和接口单元190。
在显示装置100的初始模式下,动作识别单元110拍摄对象并识别用户动作。具体地,动作识别单元110使用拍摄装置(例如,相机等)拍摄并识别对象,并且可以通过跟踪所识别对象的动作来识别用户动作。另外,动作识别单元110接收所拍摄的用户动作和对象的图像信号(例如,连续帧),并将图像信号提供给控制器130。例如,动作识别单元110可以实现为包括镜头和图像传感器的相机单元。动作识别单元110可以与显示装置100一体地实现,或者与显示装置100分开地实现。与显示装置100分开的动作识别单元110可以经由线缆或无线地连接。在这种情况下,如图3A和图3B所示,对象可以是人手或棒状的对象。另外,不同于包括手指、手臂和脸部在内的各身体部位的物体可以被识别为对象。另外,动作识别单元110可以预先确定并存储能够识别的对象。如果使用预定对象,则对动作识别单元110分析对象的形状和动作是有利的。例如,如果使用预定形状的对象来识别用户动作,则动作识别单元110需要较少的时间分析动作的形状。
显示器120显示从各种源输入的图像信号。例如,显示器120可以显示与通过图像接收器接收的图像信号相对应的图像。另外,显示器120可以显示通过外部终端输入单元所输入的图像数据(例如,运动图像)。
具体地,如果显示装置100的动作识别单元110识别出预定对象(例如,两个手指展开的用户的手),则显示器120可以显示用于转换到动作任务模式的模式转换UI。例如,动作转换UI可以包括模式转换图标和根据用户动作而移动的指示器。此外,动作转换UI可以包括用于引导用户的预定动作样式的动作样式引导UI。
如果显示装置100的动作识别单元110在显示动作转换UI时识别出预定用户动作,则显示器120可以显示用于执行动作任务模式的动作任务UI。显示动作转换UI的显示装置100的状态可以称为中间模式。动作任务UI可以包括用于控制显示装置100的各种功能的图标。例如,如果显示装置100是智能TV,则动作任务UI可以包括用于执行以下至少一项的图标:频道改变、音量控制、互联网浏览、存储内容(例如,运动图像、音乐、照片等)的搜索和播放、以及连接的外部设备的搜索等。
存储器140存储显示装置100的操作必需的各种程序和数据。另外,存储器140可以包括随机存取存储器(RAM)和只读存储器(ROM)。如相关领域中公知的,ROM单向地将数据和命令发送到CPU,RAM通常用于双向地发送数据和命令。
图像接收器150接收流信号,并将流信号发送到控制器130或图像处理器160。
图像处理器160处理关于构成内容的图像信息的信号。一旦接收到流信号,图像处理器160可以通过对该流进行解复用,将该信号划分成图像信号、声音信号和数据信号。如果解复用的图像信号是编码的图像信号,则图像处理器160使用解码器执行解码。例如,图像处理器160可以使用MPEG-2解码器以MPEG-2标准对编码的图像信号进行解码,并使用H.264解码器以数字多媒体广播(DMB)或DVB-H的H.264标准对图像信号进行解码。另外,图像处理器160可以处理图像信号的亮度、色度、色调等。
音频处理器170通过对每个内容的音频数据执行诸如音频解码、噪声滤除、放大等的各种音频信号处理来生成音频信号。由音频处理器170生成的音频信号提供给音频输出单元180。
音频输出单元180输出由音频处理器170生成的音频信号。音频输出单元180可以与显示装置100一体地实现,或者与显示装置100分开地实现。与显示装置100分开的音频输出单元180经由线缆或无线地连接到显示装置100。
接口单元190允许显示装置100与用户交换命令。例如,接口单元190可以包括键区、触摸屏、遥控器、鼠标等。
控制器130控制显示装置100的其他元件,例如动作识别单元110、显示器120等。控制器130可以包括用于存储控制CPU和显示装置100的模块和数据的只读存储器(ROM)和随机存取存储器(RAM)。
动作识别单元110可以实现在控制器130中作为动作检测模块和动作数据库,控制器130的动作检测模块可以从由连接到控制器130的相机捕获的用户动作和对象的图像中识别对象和用户动作。控制器130可以使用动作识别模块将与用户动作输入相对应的图像(例如,连续帧)划分为背景区域和对象区域,并识别对象的连续动作。控制器130存储接收到的图像的连续帧,并从所存储的帧检测对象和用户动作。控制器130通过检测帧中所包括的对象的形状、颜色和动作中的至少一个来检测对象。控制器130可以使用连续帧中包括的每个对象的位置来跟踪检测到的对象的动作。在这种情况下,控制器130可以确定检测到的动作是否与被设置为激活动作任务模式的预定用户动作相对应。
控制器130根据跟踪的对象的形状和动作来确定动作。例如,控制器130通过使用对象的变化、速度、位置和方向中的至少一个来确定用户动作。用户动作包括:手合上的抓取,用手移动所显示的光标的指向移动,手以比预定速度快的速度沿一个方向移动的拍击,手左右或上下摇晃的摇动,以及手转动的转动。另外,还可以包括合上的手伸展开的展开动作。
控制器130确定在预定时间(例如,800ms)内对象是否超出预定区域(例如,40cm×40cm的方形),以确定用户动作是指向移动还是拍击。如果在预定时间内对象没有超出预定区域,则控制器130可以确定用户动作是指向移动。然而,如果在预定时间内对象超出预定区域,则控制器130可以确定用户动作是拍击。此外,如果确定对象的速度等于或小于预定速度(例如,30cm/s),则控制器130确定用户动作是指向移动。然而,如果对象的速度超过了预定速度,则控制器130确定用户动作是拍击。
如上所述,控制器130使用识别出的动作来执行显示装置100中的动作任务功能。
更具体地,如果在动作识别单元110中识别出预定形状的对象,则控制器130控制显示器120显示用于转换到动作任务模式的动作转换UI。如果使用所显示的动作转换UI通过动作识别单元110识别出预定用户动作,则控制器130将显示装置100的模式转换为动作任务模式以使用用户动作来控制显示装置100。另外,控制器130控制显示器120显示用于执行动作任务模式的动作任务UI。
根据示例性实施例,控制器130可以控制显示器120显示用于转换到动作任务模式的模式转换图标以及根据用户动作而移动的指示器。在这种情况下,如果指示器根据第一用户动作移动到模式转换图标并且识别出用于选择模式转换图标的第二用户动作,则控制器130可以控制显示装置100进入动作任务模式。
具体地,如果在动作识别单元110中识别出对象,则如图4A所示,控制器130可以控制显示器120在屏幕的一部分上显示模式转换图标和根据用户动作而移动的指示器。在这种情况下,模式转换图标和指示器可以是透明的或半透明的,以最小化对用户观看的干扰。同时,模式转换图标可以包括以下消息:该消息指示了期望用户完成的动作或动作序列以激活动作任务模式。例如,如果需要抓取模式转换图标的动作,则如图4A所示,可以将消息“抓取这里”插入图标中。通过这样的消息,用户可以更加直观地控制显示装置100。当动作识别单元110检测到抓取的动作时,动作识别单元110可以确定该动作是否发生在模式转换图标周围的特定区域内。例如,如果动作识别单元110确定检测到的动作发生在图4A的虚线区域内,则动作识别单元110可以将检测到的动作识别为与用于激活动作任务模式的动作相对应。
如图4B所示,指示器可以根据所识别的用户动作而移动到模式转换图标。当指示器被放置在模式转换图标上时,控制器130激活动作任务模式。用于选择模式转换图标并激活动作任务模式的用户动作不限于抓取,可以包括点击、拖动、摇动等。另外,显示器120可以不显示指示器,并可以使用其他视觉指示来指示用户动作被识别出并正被处理。例如,在用户动作正被识别和处理时,模式转换图标可以开始闪烁,或者图标的外观(例如,字体、颜色等)可以改变。
如果显示装置100进入动作任务模式,则如图4C所示,控制器130可以控制显示器120显示动作任务UI。另外,控制器130可以根据通过跟踪识别的对象所识别出的用户动作,通过动作任务UI控制显示装置100的各种功能。例如,控制器130可以执行音量控制、频道改变等,如图4C的左侧和右侧所示。另外,控制器130可以使用图4C的右上侧的图标执行互联网浏览、媒体内容搜索、预约设置等。
根据另一示例性实施例,控制器130可以控制显示器120显示用于引导用户预定动作样式的动作样式引导UI以转换到动作任务模式。在这种情况下,如果识别出具有与动作样式引导UI相对应的样式的用户动作,则控制器130可以激活动作任务模式。
具体地,如果在动作识别单元110中识别出对象,则如图5A所示,控制器130可以控制显示器120在屏幕的一部分上显示动作样式引导UI。在这种情况下,动作样式UI可以是透明的或半透明的,以最小化对用户观看内容的干扰。例如,动作样式引导UI可以表示为具有简单箭头的引导消息以告知用户应当进行的用户动作。如图5A所示,控制器130可以在显示器120上显示具有双向箭头的消息“摇动手”,以引导用户执行摇动手的动作,使得用户可以直观地理解要进行的动作。另外,如图5B所示,如果识别出具有与动作样式引导UI相对应的模式的用户动作,则控制器130将显示装置100的模式转换为动作任务模式。在这种情况下,控制器130可以控制显示器120附加地显示根据用户动作而移动的指示器,以允许用户检查识别出用户动作的状态。例如,如果用户根据用于引导挥手动作的动作样式引导UI而挥手,则控制器130可以控制显示器120在屏幕的一部分上显示根据挥手的用户动作而左右移动的指示器。如果显示装置100处于动作任务模式,则如图5C所示,控制器130控制显示器120显示动作任务UI。另外,控制器130可以根据通过跟踪识别的对象所识别出的用户动作,使用动作任务UI上的图标来控制执行显示装置100的各种功能。例如,控制器130可以执行诸如音量控制、频道改变等的功能,如图5C的左侧和右侧所示。此外,控制器10还可以使用在图5C的右上侧显示的图标来执行互联网浏览、媒体内容搜索、预约设置等。
根据在动作识别单元110中识别对象的另一示例性实施例,如图6A所示,控制器130可以控制显示器120在屏幕的一部分上显示动作样式引导UI。在这种情况下,动作样式引导UI可以是透明的或半透明的,以最小化对用户观看内容的干扰。例如,动作样式引导UI可以包括用于向用户告知要进行的动作的引导消息或动画引导。如图6A所示,控制器130可以显示消息“点击”以及示出了使用手指进行点击操作的动画,以引导用户使用手指执行点击操作,使得用户可以直观地理解要进行的动作。另外,如图6B所示,如果识别出具有与动作样式引导UI相对应的样式的用户动作,则控制器130将显示装置100的当前模式转换为动作任务模式。例如,如果用户使用手指,根据用于引导点击操作的动作样式引导UI执行点击操作,则显示装置100的模式转换为动作任务模式。如果显示装置100的模式转换为动作任务模式,则如图6C所示,控制器130控制显示器120显示动作任务UI。另外,控制器130可以根据通过跟踪识别的对象所识别出的用户动作,使用动作任务UI上的图标来执行显示装置100的各种功能。例如,控制器130可以执行音量控制和频道改变,如图6C的左侧和右侧所示。另外,控制器130可以使用在图6C的右上侧显示的图标来执行互联网浏览、媒体内容搜索、预约设置等。
根据示例性实施例,控制器130可以在识别对象之前在普通驱动模式下驱动显示装置100,并在动作识别单元110识别对象之后将普通驱动模式转换为功率驱动模式。在这种情况下,功率驱动模式是控制器130控制动作识别单元110所需的资源(例如,功耗)与普通驱动模式相比增加的模式。
具体地,显示装置100执行各种功能,因此,对显示装置100必需的是,有效地使用显示装置100的电力和资源。同样地,对执行识别用户动作的功能的动作识别单元110也是这样。因此,控制器130可以控制显示装置100在识别对象之前在普通驱动模式下操作,以减少控制动作识别单元110所需的资源的分配。例如,控制器130可以在普通驱动模式下降低时钟率、功耗、可用存储容量等。然而,如果通过动作识别单元110识别出对象,则控制器130可以将普通驱动模式转换为功率驱动模式,以提高用户动作的识别精度。如果显示装置100处于功率驱动模式,则控制器130可以增加控制动作识别单元110所需的资源的分配,暂时提高时钟率、功耗、可用存储容量等,使得用户动作能够被更加快速准确地识别。另外,如果显示装置100处于功率驱动模式,则控制器130可以提高拍摄的图像帧或构成动作识别单元110的相机的分辨率等,或者增加用于识别用户动作的相机的数目。根据上述特征,可以实现具有低功耗和高效率的显示装置100,其可以确定是否优选地需要动作识别。
根据另一示例性实施例,如果在显示模式转换UI之后的预定时间内没有识别出预定用户动作,则控制器130可以将显示装置100的驱动模式从功率驱动模式转换为普通驱动模式。例如,如果用户展开手并举起手呼叫在不同地方的某人,则动作识别单元110将用户展开的手识别为对象,并且控制器130可以控制显示器120显示模式转换UI且将显示装置100的驱动模式转换为功率驱动模式。当发生这种误识别时,直至经过预定时间,也无法识别出用户的预定动作,所以控制器130可以再将功率驱动模式转换为普通驱动模式。
在功率驱动模式下,可以快速准确地识别用户动作,但是长时间地保持功率驱动模式对于显示装置100将是低效的,因为其需要高功耗。因此,控制器130可以在显示模式转换UI之后将功率驱动模式仅保持预定时间段。即使当由于对象的可能误识别而致使显示装置100的驱动模式转换为功率驱动模式时,控制器130在预定时间逝去之后再将显示装置100的驱动模式转换为普通驱动模式。因此,可以防止由于对象的误识别而引起的CPU资源、电力等的不必要消耗。
根据另一示例性实施例,在显示装置100处于动作任务模式时,控制器130可以根据通过跟踪识别的对象所识别出的用户动作来控制显示装置100。具体地,在动作任务模式下,控制器130可以控制显示器120在动作任务UI上显示用于执行一些功能的图标,并使用指示器等选择图标,其中,指示器根据用户动作而移动以执行每个图标所表示的显示装置的相应功能。
同时,在动作任务模式下,控制器130可以根据通过选择性动作跟踪仅跟踪所选对象而识别出的用户动作,来控制显示装置100。具体地,为了将显示装置100的模式转换为动作任务模式,首先应当在动作识别单元110中识别对象。在这种情况下,控制器130可以使用关于所识别对象的形状、位置等的信息,控制动作识别单元110仅识别在近距离内具有相似形状的对象。例如,在动作任务模式下,控制器130可以通过移动识别的对象来控制显示装置100,以将显示装置100的模式转换为动作任务模式。这里,如果选择性地处理用于将显示装置100的模式转换为动作任务模式的关于所识别对象的动作识别,则可以有效地使用显示装置100的资源。然而,在动作任务模式下跟踪的识别对象不限于所识别的将显示装置100的模式转换为动作任务模式的对象。
根据上述显示装置100,用户可以通过动作识别的两个步骤执行显示装置的动作任务,而不会由于误识别造成任何不便。
下文中,将参考图7和图8来描述显示装置的控制方法。
如图7所示,显示装置100识别对象(S710)。在这种情况下,对象可以是手、手指、手臂、脸部和物体之一。
转而,显示装置100显示用于将显示装置100的当前模式转换为动作任务模式的模式转换UI(S720)。在这种情况下,模式转换UI可以是指用于显示模式转换图标和根据用户动作而移动的指示器的UI。模式转换UI还可以是指用于显示动作样式引导UI的UI。
显示装置100确定是否识别出使用模式转换UI的预定用户动作(S730)。在这种情况下,预定用户动作可以是以下用户动作:在指示器根据用户动作而移动到模式转换图标之后选择模式转换图标。预定用户动作还可以是具有与动作样式引导UI相对应的样式的用户动作。
如果识别出预定用户动作(S730-是),则显示装置100的模式转换为动作任务模式(S740)。之后,显示装置100显示动作任务UI以执行动作任务模式。
根据显示装置100的上述控制方法,用户可以防止由于用户动作的误识别而引起的无意的模式转换。
如图8所示,显示装置100在识别对象之前在普通驱动模式下操作(S810)。
显示装置100识别对象(S820),并且显示装置100将普通驱动模式转换为功率驱动模式。与普通驱动模式相比,功率驱动模式是识别用户动作所需的资源(例如,功耗)增加的模式。例如,功率驱动模式可以是以下驱动模式:识别用户动作所需的诸如时钟率、功耗等的资源暂时增加,用于识别用户动作的相机的数目增加,或者相机或图像帧的分辨率增加。
显示装置100显示模式转换UI(S840)。在模式转换UI显示之后,显示装置100确定在预定时间内是否识别出预定用户动作(S850)。
如果在预定时间内识别出预定用户动作(S850-是),则显示装置100的当前模式转换为动作任务模式(S860),并且显示装置100显示动作任务UI(S870)。
如果在预定时间内没有识别出预定用户动作(S850-否),则显示装置100的驱动模式从功率驱动模式转换为普通驱动模式(S880)。具体地,如果显示装置100的驱动模式由于对象的误识别而转换为功率驱动模式,则在预定时间逝去之后,功率驱动模式再转换为普通驱动模式,因此,可以防止CPU资源和电力的不必要消耗。
根据示例性实施例,可以根据通过跟踪识别的对象所识别出的用户动作来控制动作任务模式。具体地,如果显示装置的模式转换为动作任务模式,则动作任务UI可以显示用于执行各种功能的图标,并且用户可以使用根据用户动作而移动的指示器执行由每个图标表示的相应功能来控制显示装置100。同时,如果执行用于选择性地处理关于这种对象的动作识别的方法,则可以有效地使用显示装置100的资源。
可以在各种类型的记录介质中存储用于执行根据上述各种示例性实施例的控制方法的程序代码。具体地,程序代码可以存储在可由终端读取的各种类型的记录介质中,例如随机存取存储器(RAM)、闪存、只读存储器(ROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPORM)、寄存器、硬盘、可移除盘、存储卡、USB存储器、CD-ROM等。
上述实施例和优点仅是示例并不应视为限制本发明。本发明的教导易于应用于其他类型的设备。此外,示例性实施例的描述意在说明性的,而不是为了限制权利要求的范围,并且本领域技术人员将清楚多种替代、改进和变化。
Claims (6)
1.一种显示装置的控制方法,包括:
响应于在显示装置正在普通驱动状态下操作时由显示装置的相机识别出具有预定形状的对象,将显示装置的状态从所述普通驱动状态切换为功率驱动状态并在显示装置的显示器上显示状态转换用户界面UI,其中状态转换UI提供用于将显示装置的状态切换为动作任务状态的指导;
响应于在显示器上显示状态转换UI时在预定时间内相机识别出与所述对象相关的预定用户动作,将显示装置的状态切换为所述动作任务状态并在显示器上显示用于基于所述对象的动作控制显示装置的功能的动作任务UI;以及
响应于在显示器上显示状态转换UI时在所述预定时间内相机未识别出与所述对象相关的所述预定用户动作,将显示装置的状态从所述功率驱动状态切换为所述普通驱动状态,
其中,所述功率驱动状态不同于所述普通驱动状态以使用更多资源识别与所述对象相关的所述预定用户动作而不是所述预定形状。
2.根据权利要求1所述的方法,其中,显示状态转换UI包括:显示如下状态转换UI之一:
第一状态转换UI,包括将显示装置的状态切换到动作任务状态的状态转换图标和根据用户动作而移动的指示器;以及
第二状态转换UI,包括用于引导用户的预定动作样式的动作样式引导UI,以便将显示装置的状态切换为动作任务状态。
3.根据权利要求1所述的方法,其中,所述对象是以下项之一:用户的手、手指、手臂或脸部。
4.一种显示装置,包括:
相机;
显示器;以及
控制器,被配置为:
响应于在显示装置正在普通驱动状态下操作时由相机识别出具有预定形状的对象,将显示装置的状态从所述普通驱动状态切换为功率驱动状态并在显示器上显示状态转换用户界面UI,其中状态转换UI提供用于将显示装置的状态切换为动作任务状态的指导,
响应于在显示器上显示状态转换UI时在预定时间内相机识别出与所述对象相关的预定用户动作,将显示装置的状态切换为所述动作任务状态并在显示器上显示用于基于所述对象的动作控制显示装置的功能的动作任务UI,以及
响应于在显示器上显示状态转换UI时在所述预定时间内相机未识别出与所述对象相关的所述预定用户动作,将显示装置的状态从所述功率驱动状态切换为所述普通驱动状态,
其中,所述功率驱动状态不同于所述普通驱动状态以使用更多资源识别与所述对象相关的所述预定用户动作而不是所述预定形状。
5.根据权利要求4所述的显示装置,其中,所述状态转换UI包括如下状态转换UI之一:
第一状态转换UI,包括将显示装置的状态切换到动作任务状态的状态转换图标和根据用户动作而移动的指示器;以及
第二状态转换UI,包括用于引导用户的预定动作样式的动作样式引导UI,以便将显示装置的状态切换为动作任务状态。
6.根据权利要求4所述的装置,其中,所述对象是以下项之一:用户的手、手指、手臂或脸部。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210154577.2A CN114578951A (zh) | 2014-03-14 | 2015-03-12 | 显示装置及其控制方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2014-0030414 | 2014-03-14 | ||
KR1020140030414A KR102171817B1 (ko) | 2014-03-14 | 2014-03-14 | 디스플레이 장치 및 제어 방법 |
PCT/KR2015/002385 WO2015137742A1 (en) | 2014-03-14 | 2015-03-12 | Display apparatus and controlling method thereof |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210154577.2A Division CN114578951A (zh) | 2014-03-14 | 2015-03-12 | 显示装置及其控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106105247A CN106105247A (zh) | 2016-11-09 |
CN106105247B true CN106105247B (zh) | 2022-03-08 |
Family
ID=54068835
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580013392.8A Active CN106105247B (zh) | 2014-03-14 | 2015-03-12 | 显示装置及其控制方法 |
CN202210154577.2A Pending CN114578951A (zh) | 2014-03-14 | 2015-03-12 | 显示装置及其控制方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210154577.2A Pending CN114578951A (zh) | 2014-03-14 | 2015-03-12 | 显示装置及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10191554B2 (zh) |
EP (2) | EP3117622B1 (zh) |
KR (1) | KR102171817B1 (zh) |
CN (2) | CN106105247B (zh) |
WO (1) | WO2015137742A1 (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD758441S1 (en) * | 2013-11-22 | 2016-06-07 | Lg Electronics Inc. | Multimedia terminal with graphical user interface |
USD755244S1 (en) * | 2013-12-30 | 2016-05-03 | Samsung Electronics Co., Ltd. | Display screen with animated icon |
USD755245S1 (en) * | 2013-12-30 | 2016-05-03 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with icon |
USD757818S1 (en) * | 2013-12-30 | 2016-05-31 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with icon |
KR102215072B1 (ko) * | 2014-01-03 | 2021-02-10 | 삼성전자주식회사 | 디스플레이 장치 및 이의 제어 방법 |
KR101899924B1 (ko) | 2014-08-04 | 2018-09-18 | 주식회사 엘지화학 | 고흡수성 수지 및 이의 제조 방법 |
FR3065545B1 (fr) * | 2017-04-25 | 2019-06-28 | Thales | Procede de detection d'un signal d'un utilisateur pour generer au moins une instruction de commande d'un equipement avionique d'un aeronef, programme d'ordinateur et dispositif electronique associes |
US10388322B1 (en) | 2018-10-29 | 2019-08-20 | Henry M. Pena | Real time video special effects system and method |
US10404923B1 (en) | 2018-10-29 | 2019-09-03 | Henry M. Pena | Real time video special effects system and method |
US11641439B2 (en) * | 2018-10-29 | 2023-05-02 | Henry M. Pena | Real time video special effects system and method |
KR20200109467A (ko) * | 2019-03-13 | 2020-09-23 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681659A (zh) * | 2011-01-06 | 2012-09-19 | 三星电子株式会社 | 通过动作控制的显示设备及其动作控制方法 |
EP2626929A1 (en) * | 2012-02-10 | 2013-08-14 | Mixartron Ltd. | Battery external connection device for use with mobile phone and flip cover having the device |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0844490A (ja) * | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
US20100117959A1 (en) * | 2008-11-10 | 2010-05-13 | Samsung Electronics Co., Ltd. | Motion sensor-based user motion recognition method and portable terminal using the same |
US20120131520A1 (en) * | 2009-05-14 | 2012-05-24 | Tang ding-yuan | Gesture-based Text Identification and Selection in Images |
KR101623007B1 (ko) | 2009-11-11 | 2016-05-20 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어방법 |
KR101194883B1 (ko) | 2010-03-19 | 2012-10-25 | 김은주 | 비접촉식 스크린 제어 시스템 및 그 시스템에서의 비접촉식 스크린 제어 방법 |
KR101736177B1 (ko) * | 2010-09-13 | 2017-05-29 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 제어 방법 |
EP2421251A1 (en) * | 2010-08-17 | 2012-02-22 | LG Electronics | Display device and control method thereof |
KR101858531B1 (ko) * | 2011-01-06 | 2018-05-17 | 삼성전자주식회사 | 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법 |
KR101795574B1 (ko) * | 2011-01-06 | 2017-11-13 | 삼성전자주식회사 | 모션에 의해 제어되는 전자기기 및 그 제어 방법 |
KR101896947B1 (ko) | 2011-02-23 | 2018-10-31 | 엘지이노텍 주식회사 | 제스쳐를 이용한 입력 장치 및 방법 |
JP2012194915A (ja) | 2011-03-17 | 2012-10-11 | Seiko Epson Corp | 画像表示システム |
CN102830891A (zh) * | 2011-06-15 | 2012-12-19 | 康佳集团股份有限公司 | 一种非接触式手势控制设备及其锁定和解锁方法 |
WO2013022222A2 (en) * | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same |
KR101262700B1 (ko) * | 2011-08-05 | 2013-05-08 | 삼성전자주식회사 | 음성 인식 및 모션 인식을 이용하는 전자 장치의 제어 방법 및 이를 적용한 전자 장치 |
WO2013022218A2 (en) * | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for providing user interface thereof |
KR20130047890A (ko) | 2011-11-01 | 2013-05-09 | 삼성전기주식회사 | 원격 조정 장치 및 원격 조정 장치의 제스처 인식 방법 |
US20130194173A1 (en) * | 2012-02-01 | 2013-08-01 | Ingeonix Corporation | Touch free control of electronic systems and associated methods |
US9225891B2 (en) | 2012-02-09 | 2015-12-29 | Samsung Electronics Co., Ltd. | Display apparatus and method for controlling display apparatus thereof |
KR102066564B1 (ko) * | 2012-02-09 | 2020-01-15 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
JP2014109885A (ja) * | 2012-11-30 | 2014-06-12 | Toshiba Corp | 表示装置及び通知方法 |
CN103295028B (zh) * | 2013-05-21 | 2018-09-04 | 深圳Tcl新技术有限公司 | 手势操作控制方法、装置及智能显示终端 |
CN103295029A (zh) * | 2013-05-21 | 2013-09-11 | 深圳Tcl新技术有限公司 | 手势控制终端的交互方法及装置 |
-
2014
- 2014-03-14 KR KR1020140030414A patent/KR102171817B1/ko active IP Right Grant
-
2015
- 2015-03-12 CN CN201580013392.8A patent/CN106105247B/zh active Active
- 2015-03-12 EP EP15760639.3A patent/EP3117622B1/en active Active
- 2015-03-12 EP EP19196490.7A patent/EP3598765A1/en not_active Ceased
- 2015-03-12 CN CN202210154577.2A patent/CN114578951A/zh active Pending
- 2015-03-12 WO PCT/KR2015/002385 patent/WO2015137742A1/en active Application Filing
- 2015-03-13 US US14/657,462 patent/US10191554B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102681659A (zh) * | 2011-01-06 | 2012-09-19 | 三星电子株式会社 | 通过动作控制的显示设备及其动作控制方法 |
EP2626929A1 (en) * | 2012-02-10 | 2013-08-14 | Mixartron Ltd. | Battery external connection device for use with mobile phone and flip cover having the device |
Also Published As
Publication number | Publication date |
---|---|
EP3117622A4 (en) | 2017-11-15 |
EP3598765A1 (en) | 2020-01-22 |
US20150261305A1 (en) | 2015-09-17 |
WO2015137742A1 (en) | 2015-09-17 |
CN114578951A (zh) | 2022-06-03 |
EP3117622A1 (en) | 2017-01-18 |
CN106105247A (zh) | 2016-11-09 |
KR20150107452A (ko) | 2015-09-23 |
EP3117622B1 (en) | 2023-04-26 |
US10191554B2 (en) | 2019-01-29 |
KR102171817B1 (ko) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106105247B (zh) | 显示装置及其控制方法 | |
US11093045B2 (en) | Systems and methods to augment user interaction with the environment outside of a vehicle | |
CN105229582B (zh) | 基于近距离传感器和图像传感器的手势检测 | |
US10126826B2 (en) | System and method for interaction with digital devices | |
US8666115B2 (en) | Computer vision gesture based control of a device | |
KR102337682B1 (ko) | 디스플레이 장치 및 그의 제어 방법 | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
US20140040828A1 (en) | Method and system for tagging information about image, apparatus and computer-readable recording medium thereof | |
US20040196400A1 (en) | Digital camera user interface using hand gestures | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
US20130293460A1 (en) | Computer vision based control of an icon on a display | |
KR102250720B1 (ko) | 디스플레이 장치 및 제어 방법 | |
KR101491648B1 (ko) | 촬영부를 이용한 원격 제어 시스템 및 방법 | |
EP2919096B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
KR20130053739A (ko) | 제스처모드 전환방법 및 이를 이용한 멀티미디어 기기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |