CN103686269A - 图像显示装置及其操作方法 - Google Patents
图像显示装置及其操作方法 Download PDFInfo
- Publication number
- CN103686269A CN103686269A CN201310128638.9A CN201310128638A CN103686269A CN 103686269 A CN103686269 A CN 103686269A CN 201310128638 A CN201310128638 A CN 201310128638A CN 103686269 A CN103686269 A CN 103686269A
- Authority
- CN
- China
- Prior art keywords
- user
- menu
- hand
- image display
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000004044 response Effects 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims 2
- 230000004048 modification Effects 0.000 claims 1
- 238000012986 modification Methods 0.000 claims 1
- 230000036544 posture Effects 0.000 description 63
- 210000003811 finger Anatomy 0.000 description 29
- 230000005236 sound signal Effects 0.000 description 12
- 239000011521 glass Substances 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 7
- 230000000712 assembly Effects 0.000 description 6
- 238000000429 assembly Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000001144 postural effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013475 authorization Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 208000012802 recumbency Diseases 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
- G06F3/04855—Interaction with scrollbars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4227—Providing Remote input by a user located remotely from the client device, e.g. at work
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06398—Performance of employee with respect to a job function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明涉及图像显示装置及其操作方法。根据实施方式,该方法包括以下步骤:识别步骤,该识别步骤通过所述图像显示装置将利用用户的手做出的特定姿势识别为第一姿势;以及显示步骤,该显示步骤根据识别的所述第一姿势,在所述显示器的屏幕上,显示在所述屏幕的、与所述用户的手的位置相对应的位置处的菜单。
Description
技术领域
本发明涉及图像显示装置及其操作方法,更具体地,涉及可以增加用户便利的图像显示装置及其操作方法。
背景技术
电子装置根据用户的操纵,处理电信号并且基于所处理电信号来操作。在电子装置当中,图像显示装置具有向用户显示图像的功能。图像显示装置可以在显示器上显示用户在从广播台发送的广播节目当中选定的广播节目。广播方面的近期趋势是世界范围的从模拟广播向数字广播转变。
由于发送数字音频和视频信号,因而数字广播提供相对于模拟广播的许多优点,如针对噪声的坚固性、很少数据丢失、容易纠错,以及用于提供高分辨率的、清晰图像的能力。与模拟广播相比,数字广播还允许交互式的观看者服务。
发明内容
因此,鉴于与现有技术相关联的上述问题和其它局限性而做出本发明,并且本发明的目的是提供一种可以增加用户便利的图像显示装置及其操作方法。
本发明的另一目的是提供一种可以根据用户姿势显示菜单的图像显示装置及其操作方法。
根据本发明的一方面,上述和其它目的可以通过提供用于操作图像显示装置的方法来实现,该方法包括以下步骤:识别利用用户的手做出的第一姿势,根据识别的所述第一姿势在与所述用户的手的位置相对应的位置处显示菜单,并且如果所述用户的手未被识别或者由所述用户的手做出的第二姿势被识别,则终止显示所述菜单。
根据本发明的另一方面,提供了一种用于操作图像显示装置的方法,该方法包括以下步骤:识别用户的面部,识别利用所述用户的手做出的第一姿势,以及根据识别的所述用户的面部和识别的所述第一姿势,在与所述用户的手的位置相对应的位置处显示菜单。
根据本发明的另一方面,提供了一种图像显示装置,该图像显示装置包括:显示器,用于拍摄图像的相机,以及控制器,该控制器用于从拍摄的所述图像中识别利用用户的手做出的第一姿势,并且根据识别的所述第一姿势控制在与所述用户的手的位置相对应的位置处显示菜单。如果所述用户的手未被识别或者由所述用户的手做出的第二姿势被识别,则所述控制器控制终止显示所述菜单。
根据本发明的另一方面,提供了一种用于操作包括显示器的图像显示装置的方法,该方法包括以下步骤:识别步骤,该识别步骤通过所述图像显示装置将利用用户的手做出的特定姿势识别为第一姿势;以及显示步骤,该显示步骤根据识别的所述第一姿势,在所述显示器的屏幕上,显示在所述屏幕的、与所述用户的手的位置相对应的位置处的菜单。
根据本发明的另一方面,提供了一种图像显示装置,该图像显示装置包括:包括屏幕的显示器;和控制器,该控制器被构造为:将利用用户的手做出的特定姿势识别为第一姿势,以及根据识别的所述第一姿势,在所述显示器的所述屏幕上,在所述屏幕的、与所述用户的手的位置相对应的位置处显示菜单。
附图说明
根据下面结合附图的详细描述,本发明的上述和其它目的、特征以及其它优点将更清楚地理解,其中:
图1例示了根据本发明的实施方式的图像显示装置和该图像显示装置的外观;
图2是根据本发明的实施方式的、图1所示的图像显示装置的框图;
图3是根据本发明的实施方式的、图2所示的控制器的框图;
图4是例示根据本发明的实施方式的、用于操作图像显示装置的方法的流程图;以及
图5A至16C是涉及用于描述根据本发明的实施方式的、图4所示的用于操作图像显示装置的方法的各种示例的视图。
具体实施方式
下面,参照附图,对本发明的实施方式进行描述。
为表示组件而使用的术语“模块”和“单元”在此被用于帮助理解这些组件,并因此,它们不应被视为具有特定含义或任务。因此,术语“模块”和“单元”可以互换地使用。
图1例示了根据本发明的实施方式的图像显示装置和该图像显示装置的外观。
参照图1,根据本发明的实施方式的图像显示装置100能够识别各种用户姿势。为识别用户姿势,该图像显示装置100可以包括相机190或另一姿势/图像拍摄单元。在另一个示例中,该图像显示装置还可以包括多个相机190。
虽然在图1中将相机190示为设置在图像显示装置100的顶部,但相机190可以按各种方式定位。相机190可以拍摄用户的图像,并将所拍摄的图像发送至图像显示装置100中的控制器170(图2)。
不同于图1所示图像显示装置100的构造,相机190可以与图像显示装置100分离地构造。相机190还可以与控制器170无线地通信。
根据本发明的实施方式,图像显示装置100识别利用用户的手做出的第一姿势,并且在显示器180(图2)上,根据识别的第一姿势,在与用户的手的位置相对应的位置处显示菜单。
例如,如果用户做出抬起右手的姿势,则图像显示装置100可以根据由图1的相机190拍摄的图像将该姿势识别为有效,即,作为第一姿势。接着,图像显示装置100在显示器180上的、与用户的手相对应的位置处显示特定菜单。因为该菜单可以按这种方式显示在用户希望的区域中,所以可以增加用户便利。
稍后,将参照图4至16C,对根据本发明的显示与用户姿势相对应的菜单进行更详细描述。
图像显示装置100可以处理所接收的广播信号、外部输入信号,或者流信号,并因此可以在显示器180上显示所处理的视频信号,同时输出所处理的音频信号。
图像显示装置100可以是或者包括:TV、监视器、计算机、膝上型计算机、平板PC、移动终端、智能装置等,只要它们可以显示广播信号即可。下面的描述仅通过示例的方式,以图像显示装置100是TV的认知来进行,但本发明不限于此。
图2是根据本发明的实施方式的图像显示装置的框图。参照图2,根据本发明的实施方式的图像显示装置100包括:广播接收器105、外部装置接口130、存储器140、用户输入接口150、传感器单元(未示出)、控制器170、显示器180、相机190、音频输出单元185和遥控器200。图像显示装置100的所有组件可操作地耦接和构造。
广播接收器105可以包括:调谐器单元110、解调制器120和网络接口135。如需要的话,广播接收器105可以被构造为仅包括调谐器单元110和解调制器120,或者仅包括网络接口135。
调谐器单元110从通过天线接收到的多个射频(RF)广播信号当中选择与用户选择的频道相对应的RF广播信号或者与每一个预先存储的频道相对应的RF广播信号,并将所选择的RF广播信号降频转换成数字中频(IF)信号或模拟基带音频/视频(A/V)信号。
更具体地,如果所选择的RF广播信号是数字广播信号,则调谐器单元110将所选择RF广播信号降频转换成数字IF信号,DIF。另一方面,如果所选择的RF广播信号是模拟广播信号,则调谐器单元110将所选择的RF广播信号降频转换成模拟基带A/V信号,CVBS/SIF。即,调谐器单元110可以是不仅能够处理数字广播信号而且能够处理模拟广播信号的混合调谐器。模拟基带A/V信号CVBS/SIF可以直接输入至控制器170。
调谐器单元110能够从先进电视系统委员会(ATSC)单载波系统或者从数字视频广播(DVB)多载波系统接收RF广播信号。
调谐器单元110可以从通过天线接收到的多个RF信号当中顺序地选择与通过频道添加功能预先存储在图像显示装置100中的所有广播频道相对应的多个RF广播信号,并且可以将所选择的RF广播信号降频转换成IF信号或基带A/V信号。
调谐器单元110可以包括用于接收在多个频道上的广播信号的多个调谐器。可选地,调谐器单元110可以被实现成用于同时或者顺序地接收在多个频道上的广播信号的单一调谐器。
解调制器120从调谐器单元110接收数字IF信号DIF,并且解调制该数字IF信号DIF。解调制器120可以对数字IF信号DIF执行解调制和频道解码,由此获取流信号TS。流信号TS可以是其中复用视频信号、音频信号以及数据信号的信号。
流信号TS可以输入至控制器170,并由此经受解复用和A/V信号处理。经处理的视频和音频信号被分别输出至显示器180和音频输出单元185。
外部装置接口130可以向连接至图像显示装置100的或者与图像显示装置100通信的外部装置发送数据或者从其接收数据。针对数据发送和接收,外部装置接口130可以包括A/V输入/输出(I/O)单元和/或无线通信模块。
外部装置接口130可以无线地或者通过导线连接至一个或更多个外部装置,如数字万用盘(DVD)播放器、蓝光(Blu-ray)播放器、游戏机、相机、摄像放像机、计算机(例如,膝上型计算机)、移动终端、智能电话、智能家电或置顶盒。接着,外部装置接口130向外部装置发送信号和从外部装置接收信号。
外部装置接口130的A/V I/O单元可以接收来自外部装置的视频、音频和/或数据信号。外部装置接口130的无线通信模块可以与其它电子装置执行短距无线通信。
网络接口135用作在图像显示装置100与诸如因特网、家庭网络、外联网、内联网等的有线/无线网络之间的接口。针对交互连接,网络接口135可以包括有线通信单元和/或无线通信单元。
例如,网络接口135可以通过网络接收来自因特网的或者来自由内容提供方(CP)或网络提供方(NP)所提供的服务器的内容或数据。网络接口135可以与网络路由器进行数据通信,并且在网络路由器下在网络中交换数据。
存储器140可以存储用于供控制器170处理和控制信号的各种程序,并且还可以存储一个或更多个经处理的视频、音频以及数据信号。存储器140可以临时存储从外部装置接口130接收到的视频、音频和/或数据信号。存储器140可以通过诸如频道映射表这样的频道添加功能存储与广播频道有关的信息。
虽然在图2中将存储器140示出为与控制器170分离地构造(本发明不限于此),但存储器140例如可以并入控制器170。
用户输入接口150将从用户接收到的信号发送至控制器170和/或将从控制器170接收到的信号发送至用户。
例如,用户输入接口150可以接收来自遥控器200的各种用户输入信号,如开机/关机信号、频道选择信号以及屏幕设置信号,向控制器170提供从本地键接收到的用户输入信号,如电源键、频道键、音量键以及设置键的输入,向控制器170发送从用于感测用户姿势的传感器单元接收到的控制信号,以及向传感器单元发送从控制器170接收到的信号。
控制器170可以将从调谐器单元110、解调制器120或外部装置接口130接收到的流信号TS解复用成多个信号,并将经解复用的信号处理成音频和视频数据。
通过控制器170处理的视频信号可以作为图像被显示在显示器180上。通过控制器170处理的视频信号还可以通过外部装置接口130向外部输出装置发送。
通过控制器170处理的音频信号可以输出至诸如扬声器这样的音频输出单元185。而且,通过控制器170处理的音频信号可以通过外部装置接口130向外部输出装置发送。
虽然图2中未示出,但控制器170可以包括解复用器(DEMUX)和视频处理器,后面将参照图3对其进行描述。
另外,控制器170可以向图像显示装置100提供总体控制。例如,控制器170可以控制调谐器110以调谐至与用户选择的频道或预存储频道相对应的RF广播信号。控制器170可以根据通过用户输入接口150接收到的用户命令或根据内部程序来控制图像显示装置100。
控制器170还可以控制显示器180以显示图像。显示在显示器180上的图像可以是二维(2D)或三维3D静止图像或运动图片。
控制器170可以从通过相机190拍摄的图像识别用户的姿势。具体地,控制器170利用已知技术,从拍摄的图像识别用户的面部和手。在用户的面部和手按比预定值低的高度定位的情形中,如果用户从该高度抬起手,则控制器170可以确定抬起手为向上姿势并且有效。接着,控制器170可以根据该姿势控制在与用户的手的抬起位置相对应的(显示器180的)区域中显示特定菜单。
图像显示装置100还可以包括用于生成与频道信号或外部输入信号相对应的缩略图图像的频道浏览处理器。频道浏览处理器可以提取从解调制器120接收到的流信号TS或从外部装置接口130接收到的流信号中的每一个流信号的一些视频帧,并将提取的视频帧作为缩略图图像显示在显示器180上。缩略图图像可以在与经解码的图像编码在一起之后输出至控制器170。控制器170可以在显示器180上显示包括多个接收的缩略图图像的缩略图列表。
缩略图列表可以显示在显示器180(该显示器180上显示了图像)的一部分上,例如,作为紧凑视图,或者缩略图列表可以在显示器180上全屏显示。缩略图列表的缩略图图像可以顺序地更新。
显示器180通过转换从控制器170接收到的经处理的视频信号、经处理的数据信号、屏幕显示(OSD)信号和控制信号或从外部装置接口130接收到的视频信号、数据信号和控制信号来生成驱动信号。
显示器180可以是各种类型的显示器,如等离子体显示板(PDP)、液晶显示器(LCD)、有机发光二极管(OLED)显示器,以及柔性显示器。显示器180还能够显示3D图像。
针对3D可视化,显示器180可以被构造自动立体3D显示器(无眼镜)或传统立体3D显示器(带眼镜)。
自动立体视觉是在不需要任何附加显示器(例如,用户身体部位上的专用眼镜)的情况下显示3D图像的任何方法。由此,显示器180在其本身上显示3D图像。柱镜光栅式透镜(Renticular)和视差光栅(parallax barrier)是自动立体3D成像的示例。
传统立体视觉除了显示器180以外还需要附加显示器,以便显示3D图像。附加显示器可以是头戴式显示器(HMD)型、眼镜型等。
作为专用3D眼镜。偏光眼镜按被动方式操作,而快门眼镜按主动方式操作。而且,HMD型可以被分类成被动型和主动型。
观看装置可以是使得用户能够佩戴和观看3D图像(例如,显示在显示器180上的3D图像)的3D眼镜。3D眼镜可以是被动型偏光眼镜、主动型快门眼镜,或HMD型。
观看装置可以是不同用户可以用来观看不同图像的眼镜。例如,由第一用户佩戴的第一观看装置可以是仅允许观看第一图像的眼镜,而由第二用户佩戴的第二观看装置可以是仅允许观看第二图像的眼镜。如此,利用这些观看装置,不同的用户可以同时观看显示器180上的相同或不同的图像。
显示器180还可以是触摸屏,该触摸屏不仅可以被用作输出装置而且可以被用作输入装置。
音频输出单元185可以接收来自控制器170的经处理的音频信号,并输出接收到的音频信号作为语音或其它声音。
相机190拍摄位于相机190前面或附近的用户的图像。可以使用单个相机190,本发明不限于此。由此,还可以使用多个相机190。相机190可以嵌入在图像显示装置100中的显示器180上方,或者可以分离地构造。由相机190拍摄的用户的图像信息可以提供给控制器170。
控制器170可以单独或者组合地根据从相机190接收到的拍摄的图像信息或者根据从装置100的传感器单元接收到的信号来感测用户的姿势。
遥控器200向用户输入接口150发送用户输入。针对用户输入的发送,遥控器200可以依照各种通信标准(如蓝牙、RF、红外线(IR)、超宽带(UWB)、ZigBee等)来操作。另外,遥控器200可以接收来自用户输入接口150的视频信号、音频信号和/或数据信号,并且输出接收到的信号作为图像或声音。
上述图像显示装置100可以是固定或移动数字广播接收器。
图2中所示的图像显示装置100的框图是本发明的示例性实施方式。在图2中,图像显示装置100被示为具有采用指定构造的大量组件。然而,图像显示装置100可以在可选的实施方式中包括比图2所示的组件更少的组件或更多的组件。而且,在可选的实施方式中,图像显示装置100的两个或更多个组件可以组合成单个组件,或者其单个组件可以被分离成两个或更多个组件。如在此阐述的图像显示装置100的组件的功能实质上是例示性的,并且例如可以修改,以满足指定应用的需求。
不同于图2中所示的构造,图像显示装置100可以被构造为通过网络接口135或外部装置接口130接收和回放视频内容,而不需要调谐器单元110和解调制器120。
图3是根据本发明的实施方式的在图2中所示的控制器170的框图。
参照图3,根据本发明的实施方式,控制器170可以包括DEMUX310、音频处理器315、视频处理器320、处理器330、屏上数据(OSD)生成器340和混合器345。此外,控制器170还可以包括数据处理器和其它已知组件。
DEMUX310解复用输入流。例如,DEMUX310可以将MPEG-2TS解复用成视频信号、音频信号和数据信号。输入流信号可以从调谐器单元110、解调制器120或外部装置接口130接收。
音频处理器315可以处理经解复用的音频信号。针对音频信号处理,音频处理器315可以具有多个解码器。为了向外部装置有效发送音频数据,音频处理器315可以包括编码器。音频处理器315可以调节音频信号的低音、高音以及音量。
视频处理器320可以处理经解复用的视频信号。针对视频信号处理,视频处理器320可以包括视频解码器325和缩放器335。视频解码器325解码经解复用的视频信号,并且缩放器335缩放经解码的视频信号的分辨率,使得视频信号可以显示在显示器180上。
处理器330可以向图像显示装置100或控制器170提供总体控制。例如,处理器330可以控制调谐器单元110以调谐至与用户所选择的频道或预存储频道相对应的RF广播。处理器330还可以根据通过用户输入接口150接收到的用户命令或内部程序来控制图像显示装置100。处理器330可以通过网络接口135或外部装置接口130控制数据发送。处理器330可以控制控制器170中的DEMUX310、视频处理器320以及OSD生成器340的操作。
根据本发明的实施方式,处理器330可以从通过相机190拍摄的图像识别用户的姿势。具体地,处理器330利用已知面部识别和图像识别技术,从拍摄的图像识别用户的面部和手。在用户的面部和手按比预定值低的高度定位的情况下,如果用户从该高度抬起手,则控制器170可以确定抬起手为向上姿势并且有效。接着,处理器330可以根据该姿势控制在与用户的手的抬起位置相对应的(显示器180的)区域中显示特定菜单。
OSD生成器340自发地或根据用户输入生成OSD信号。例如,OSD生成器340可以根据用户输入信号生成如下的信号,即,根据该信号,将多种信息显示为显示器180上的图形或文本。OSD信号可以包括各种数据,如用户接口(UI)、多种菜单、窗口小部件、图标等。而且,OSD信号可以包括2D对象和/或3D对象。
而且,OSD生成器340可以基于从遥控器200接收的指示信号,生成要显示在显示器180上的指针。尤其是,该指针可以从可以位于OSD生成器240中的指示信号处理器生成。显见的是,指示信号处理器可以与OSD生成器340分离地构造。
同时,OSD生成器340可以生成与通过处理器330识别的姿势相对应的菜单。OSD生成器340可以针对不同的姿势、用户或用户的右手和左手生成不同菜单。
混合器345可以混合通过视频处理器320处理的经解码的视频信号与从OSD生成器340生成的OSD信号。
混合器345可以混和从视频处理器320接收的经解码的视频信号和由OSD生成器340生成的与用户的姿势相对应的菜单。该菜单可以显示在根据用户的手的位置的可变位置处。即,该菜单的显示位置可以根据用户的手的位置确定,并且可以根据用户的手的改变的位置对应地改变。
控制器170的数据处理器可以处理通过解复用所输入的流信号而获取的数据信号。例如,如果经解复用的数据信号是经编码的数据信号,则数据处理器可以解码该经编码的数据信号。该经编码的数据信号可以是EPG(电子节目指南),该EPG包括指定已安排的广播TV或无线电节目的开始时间、结束时间等的广播消息。
图3所示的图像显示装置100的框图完全是示例性的。根据实际实现中的图像显示装置100的规格,图像显示装置100的组件可以组合或省略或者可以添加新组件。即,若需要的话,将两个或更多个组件合并为一个组件或者可以将一个组件构造为分离的组件。
图4是例示根据本发明的实施方式的、用于操作图像显示装置的方法的流程图,而图5A至16C是涉及用于描述用于操作图4所示的图像显示装置的方法的各种示例的视图。图4的方法和在此描述的本发明的任何其它方法可以利用图1到图3的图像显示装置或者利用其它合适装置来实现。而且,在一些示例中,使用右手来讨论。然而,本发明不限于此,并且使用左手可同等应用。例如,取决于用户决定使用哪只手来做出用于本发明的应用的姿势/移动。而且,结合图5A到图16C中的每一个图描述的任何一个或更多个特征都可以应用至图5A到图16C中的任何其它图。
参照图4,图像显示装置100的控制器170确定用户是否已经利用他或她的手做出了第一姿势(S405)。如果用户已经利用他或她的手做出了第一姿势,则控制器170将其识别为第一姿势(S410)。
图5A例示了其中用户500做出将用户的右手505抬起至位置Pa的姿势,同时用户500正在观看图像显示装置100的显示器180上的特定频道(例如,CH9)的广播图像510的示例。
图像显示装置100的相机190拍摄用户500的图像。图5B例示了由相机190拍摄的示例性图像520。在图5B中,在用户抬起右手505的时刻拍摄图像520。
相机190可以拍摄用户的连续图像,并将所拍摄的图像提供给控制器170。
控制器170可以接收在用户抬起右手505之前由相机190拍摄的图像。在这种情况下,控制器170可以处理图像,确定还没有做出任何特定姿势。同时,控制器170可以仅识别用户的面部(图5B中的面部515)。
接着,控制器170可以从相机190接收在用户抬起右手505的时刻的图像520,如图5B所示。
控制器170可以测量用户的面部515与右手505之间的距离D1,并且比较该距离D1与基准距离Dref。该基准距离Dref可以存储在存储器140。如果距离D1等于或小于基准距离Dref,则控制器170可以将当前检测到的姿势识别为预定的第一姿势。作为另一示例中的变型例,如果拍摄了用户的面部和手两者(如图5B的相机图像中所示),则控制器170将当前检测到的姿势识别为预定的第一姿势。
接着,图像显示装置100根据第一姿势在显示器180上,在与用户的手的位置相对应的位置处显示特定菜单(S415)。即,当识别出第一姿势时,控制器170控制在与用户的手的位置相对应的位置处显示该特定菜单。短语“在与用户的手的位置相对应的位置处”出于在显示器上显示菜单的目的,优选地意指在所拍摄的图像(图5B)中的手的位置与显示器的图像/屏幕的位置之间出现映射(或关联)。
具体地,控制器170的OSD生成器340可以生成与通过处理器330识别的姿势相对应的菜单。如图5C中所示,OSD生成器340或控制器170可以在屏幕上的、与识别的抬起右手的第一姿势相对应的位置处生成菜单。
控制器170的混合器345可以混和由视频处理器320处理的广播视频信号和与第一姿势相对应的菜单,其中,该菜单可以由OSD生成器340生成。该菜单在显示器180上的显示位置可以根据用户的手的检测位置来确定。
如图5A和5C中所示,如果用户的右手505处于位置Pa,则该菜单可以显示于在显示器180上的与位置Pa相对应的第一位置P1处。例如,控制器170可以确定并使用图5B的拍摄的图像中的、用户的手的位置Pa,以生成可以显示菜单的第一位置P1,其将对应于或映射至位置Pa。而且,如果用户将右手505移动至另一位置,则该菜单可以对应地移动至显示器180上的另一位置。
图5C是例示菜单550连同显示器180上的广播图像510的显示的示例性视图,该菜单550包括处于与用户500的右手505的位置Pa相对应的第一位置处的多个项。因为按这种方式在显示器180上与用户的手的位置相对应地显示菜单,所以可以在用户希望区域中显示菜单,由此,增加用户便利。
在图5C的例示情况下,菜单550包括:用于调节音量的音量控制项551和552、用于切换频道的频道切换项553和554、用于将图像显示装置100关机的关机项555以及用于允许用户观看外部输入图像的外部输入项556。菜单550还可以包括有关用户在观看的图像的信息,例如,在通过频道9接收的广播图像的情况下的频道信息DTV9-1。
可以将指示用户的手的位置的指针509显示在菜单550上。虽然指针509采取手的形式,但其可以按各种方式来配置。而且,指针509可以不显示,或者可以按任何已知方式选择性地显示。
图6A例示了其中用户500将右手505抬起至位置Pb,同时观看图像显示装置100上的特定频道CH9的广播图像510的示例。
控制器170可以接收在用户抬起右手505的时刻由相机190拍摄的图像520,如图6B所示。
接着,根据所拍摄的图像,控制器170可以测量用户的面部515与用户的右手505之间的距离D2,并且比较该距离D2与基准距离Dref。如果距离D2等于或小于基准距离Dref,则控制器170可以将当前抬手姿势识别为预定的第一姿势。
参照图6A,用户的右手位于位置Pb处,与图5A中的位置Pa相比,其更加远离用户的面部。在这种情况下,如图6C所示,控制器170可以在显示器180上,在与位置Pb相对应的第二位置P2处显示菜单550。
更具体地,如图6C中所示,连同显示器180上的广播图像510一起,包括多个项的菜单550显示在与用户500的右手的位置Pb相对应的第二位置P2处。因为按这种方式在显示器上与用户的手的当前位置相对应地显示菜单,所以可以在用户希望区域中显示菜单,由此,增加用户便利。
在图6C的例示情况下,菜单550包括:用于调节音量的音量控制项551和552、用于切换频道的频道切换项553和554、用于将图像显示装置100关机的关机项555以及用于允许用户观看外部输入图像的外部输入项556。菜单550还可以包括有关用户在观看的图像的信息,例如,在广播图像的情况下的频道信息DTV9-1。指针509也显示在与用户的手505的当前位置相对应的位置处。
返回至图4,于在步骤S415因第一姿势检测而在显示器180上显示菜单之后,图像显示装置100继续监视相机190的拍摄图像,并且基于该监视,确定是否不再识别到用户的手或者已经做出预定的第二姿势(例如,将右手降下至无姿势位置)(S420)。如果不再识别到用户的手,或者已经做出诸如降下右手的第二姿势(指示用户的意图是不向菜单键入任何输入),则图像显示装置100中断显示菜单550,以使菜单550从显示器180消失(S425)。
例如,在显示菜单550的同时,如果在由相机190拍摄的图像中不再识别到用户的手或者已经从由相机190拍摄的图像中检测到降下用户的手的第二姿势,则控制器170控制中断显示菜单550。
当用户通过降下右手505而做出第二姿势时,控制器170可以控制中断显示菜单550,确定用户当前没有向菜单550应用用户输入的意图。即,在该情况下,可以仅显示广播图像510,如图6A所示。
作为变型例,如果相机190因故障而无法拍摄图像,则控制器170可以因用户输入无法通过用户的姿势来提供而中断显示菜单550。
在步骤S415之后,图像显示装置100还可以确定右手是否已经移动至另一姿势位置(S430)。如果用户将右手505移动至另一姿势位置,则图像显示装置100将所显示的菜单移动至与右手的移动相对应的改变的位置(S435)。
更具体地,控制器170监视用户的手的移动。如果手已经移动,则控制器170可以控制在与手的移位相对应的新位置处显示菜单。参照图7A到7C对该示例进行讨论。
图7A是例示响应于将右手505抬起至位置Pa的识别的第一姿势而在显示器180的第一位置P1处显示菜单550的示例性视图。
图7B是例示用户500现在已经将右手505从位置Pa移动至位置Pc的示例性视图。由此,控制器170基于由相机190拍摄的图像,感测用户的手505的这种移动,并且可以将菜单550显示在与用户的手的移位相对应的移位的位置处(P3)。
在图7B中,显示器180上的菜单550响应于用户的右手505从位置Pa至位置Pc的移位而从第一位置P1移位至第三位置P3。即,用户可以相应地通过移动右手505而将显示在显示器180上的菜单550移动至任何用户优选位置。因此,可以在用户希望区域中显示菜单,由此,增加用户便利。
图7C是例示响应于用户的右手从位置Pa至位置Pc的移位,菜单550的某些项570从第一位置P1移位至第三位置P3,同时菜单550的其它项580仍保持在第一位置P1的示例性视图。
例如,如图7C中所示,频繁使用的音量控制项551和552以及频道切换项553和554可以从第一位置P1移位至第三位置P3,而不频繁使用的关机项555和外部输入项556可以保持在第一位置P1。根据该变型例,因为菜单可以按这种方式显示在用户希望区域中,所以可以进一步增加用户便利。
除了图7C中的设置以外的许多其它设置也是可用的。
在步骤S415之后,图像显示装置100还可以确定是否已经做出手指姿势(S440)。如果用户已经利用手指做出姿势,则图像显示装置100关注菜单中的、与该手指相对应的特定项(S445)。
在菜单被显示在显示器180上的情况下,控制器170监视手指姿势的输入。如果用户已经利用手指做出姿势,则控制器170关注菜单中的、与该手指姿势相对应的特定项。参照图8A到图8D对该操作进行讨论。
图8A是例示响应于将用户的右手505抬起至特定位置的识别的第一姿势而在显示器180上显示菜单550的示例性视图。结合步骤S405到S415对该操作进行了讨论。
图8B是例示在将菜单550显示在显示器180上的同时,用户利用右手505的第四个手指(无名指)506做出姿势的示例性视图。
接着,控制器170可以根据由相机190拍摄的图像,感测通过右手做出的该手指姿势。具体地,在这个示例中,控制器170可以识别出五个手指当中的、已经做出最大移动的手指,并由此确定用户已经利用第四个手指506做出姿势。该第四指姿势还可以通过指针509显示在显示器180上。
参照图8B,当用户已经利用第四个手指(无名指)506做出姿势时,控制器170可以响应于第四个手指506控制关注菜单550的特定项(例如,频道加项553)。因此,用户可以利用手指容易地关注所显示的菜单中的特定项。该手指姿势可以是手指的移动,如手指快速弯曲。
为了指示通过手指姿势关注于所显示的菜单中的特定项,该特定项的亮度、颜色或尺寸中的至少一个可以在显示器180上改变,使得用户可以识别出关注于哪个项。
在一个示例中,手的不同手指可以被设置成对应于菜单中的不同项。例如,在菜单550中,音量减项552和音量加项551可以分别对应于右手的第一个手指(拇指)和第二个手指(食指)。关机项555或外部输入项556可以对应于右手的第三个手指(中指)。频道加项553和频道减项554可以分别对应于右手的第四个手指和第五个手指(小指)。
图8C是例示当关注于所显示的菜单中的项时,显示姿势向导805以引导动作的示例性视图。
当在步骤S445关注于所显示的菜单中的项(例如,频道加项553)时,控制器170可以控制显示姿势向导805,以向用户提供引导。该姿势向导可以在控制器170的OSD生成器340中生成。
作为变型例,一旦显示该菜单并且在关注于该菜单的任何项之前,可以将该姿势向导显示在显示装置180上。即,当如图8A所示显示菜单550时,可以显示姿势向导805,以向用户提供该姿势引导,如图8C所示,但这在关注于/选择任何项之前出现。
利用菜单中关注的项(例如,项目553),图像显示装置100确定是否已经做出抓握姿势(S450)。如果已经做出了抓握姿势,则图像显示装置100响应于该抓握姿势选择所关注的项(S455)。接着,图像显示装置100执行与所选择的项相对应的动作(S460)。
即,当利用菜单中关注的项检测到抓握姿势时,控制器170响应于该抓握姿势,选择所关注的项,并且控制执行与所选择的项相对应的动作。
图8D是例示用户的右手的抓握姿势508的示例性视图。当用户在如图8B或图8C中所示地菜单中的频道加项553被关注的同时抓握右手时,选择频道加项553,并且执行频道向上切换。在显示器180上,指针509还可以显示由用户做出的抓握姿势,并将指针509显示在与用户的手的位置相对应的位置处。
即,当检测到抓握姿势时,控制器170因根据抓握姿势选择并执行频道加项553而执行从当前频道起的频道向上切换(从CH9至CH10)。因而,在图8D中,因为从CH9到CH10切换广播图像的频道,所以显示CH10的广播图像。如此,用户可以仅利用抓握姿势而容易地执行希望动作。在抓握姿势之后,菜单550仍可以针对另一用户输入而被显示。
如果通过用户的手指姿势和抓握姿势从菜单连续选择特定项(即,执行连续选择特定项),则可以显示滚动条,以允许快速搜索该项。例如,如果另一抓握姿势接着频道加项553的一个抓握姿势所致选择,则可以连续选择频道加项553。在这种情况下,可以在显示器180上显示频道滚动条,以通过重复抓握姿势执行快速频道加切换。结果,可以通过重复操作更容易地选择项。
即,如果用户用紧握拳头保持该抓握达预定时段或者如果用户重复抓握该项(在任一情况下,已经做出项的连续选择),则在屏幕上示出针对该项的滚动条。该滚动条允许用户移动该条,以利用手势快速移动至希望频道。
同时,当用户通过抬起右手做出第一姿势时,可以根据观看者在观看的图像的类型(例如,所显示的图像的属性)显示不同菜单。参照图9A到图10B对该示例进行讨论。
图9A是例示用户在观看广播图像510的同时,通过将右手505抬起至位置Pa而做出的第一姿势的示例性视图。图9B是例示作为第一姿势的结果在与右手505的位置相对应的位置处显示菜单(第一菜单)550的示例性视图,包括音量控制项551和552、频道切换项553和554、关机项555以及外部输入项556。已经结合先前图对这个操作进行了讨论。
图10A是例示用户在观看视频点播(VoD)图像1010的同时,通过抬起右手505而做出的第一姿势的示例性视图。图10B是例示作为第一姿势的结果显示第二菜单1050的示例性视图,包括音量控制项1051和1052、前进/后退项1053和1054、暂停项1055以及停止项1056。按这种方式,响应于用户姿势,根据用户在观看的内容的属性显示不同菜单。根据显示器180上显示的内容的类型,可以响应于用户的第一姿势(例如,将手抬起至特定水平/位置的姿势),在显示器180上显示适于该内容的不同菜单。因此,可以增加用户便利。
而且,如果用户在响应于抬起右手的第一姿势而显示特定菜单之后,通过旋转手来做出旋转姿势,则可以显示另一菜单。结合图11A到图11B对该示例进行描述。
图11A是例示作为第一姿势的结果而显示第一菜单550的示例性视图,包括音量控制项551和552、频道切换项553和554、关机项555以及外部输入项556。
图11B是例示在图11A的情况下,当用户在显示第一菜单550的情况下通过在同一位置将右手向左或向右旋转来做出旋转姿势时,响应于该旋转姿势而显示第三菜单1150的示例性视图。第三菜单1150可以包括:用于移动至主屏幕的主屏幕项1151、用于观看3D图像的3D项1152、用于记录进行中图像的记录项1153、用于观看诸如EPG(电子节目指南)的广播信息的广播信息项1154、用于移动至社交网络的社交网络项1155以及用于向另一用户的推荐的推荐项1156。因此,因为可以通过简单旋转姿势来显示另外的用户希望的菜单,所以可以增加用户便利。
在图4的步骤S415之后,图像显示装置100还可以确定用户是否已经利用另一只手做出了第一姿势(S470)。如果用户已经利用另一只手做出了第一姿势,则与另一只手的移位相对应地移位菜单(S475)。
即,当检测到利用同一用户的另一只手做出的第一姿势时,控制器170可以根据另一只手的位置控制移动菜单。参照图12A到图12C对该示例进行描述。
图12A是例示在用户正观看广播图像510的同时,响应于抬起用户右手的第一姿势,在与用户500的右手505的位置Pa相对应的第一位置P1处显示包括多个项的菜单550的示例性视图。先前已经对其进行了讨论。
接着,如图12B所示,用户降下右手,并接着立即通过将左手503抬起至位置Pc而做出第一姿势。控制器170识别由用户利用左手503做出的第三姿势。因为左手处于位置Pc,所以考虑到左手503的位置Pc,控制器170可以控制菜单550的移动并将所显示的菜单550从显示器180上的第一位置P1移动至第三位置P3(对应于位置Pc)。左手的图像中的指针509还可以显示在显示器180上的、与位置Pc相对应的位置P3处。结果,用户可以容易且快速地切换成在不同希望区域显示菜单,因而增加用户便利。
另外或者作为变型例,当检测到同一用户用另一只手做出的第一姿势时,控制器170可以与另一只手的位置相对应地控制除了所显示的菜单以外的菜单的移动。图12C中示出了该示例。
图12C是例示当用户降下右手并接着立即通过抬起左手做出第一姿势时,在显示器180上显示处于不同位置处的不同菜单的另一示例性视图。
如图12C中所示,控制器170识别由用户利用左手503做出的第一姿势。如果左手处于位置Pc,则考虑到左手的位置Pc,控制器170可以显示第三菜单(1150),并且控制将第三菜单1150移动至第三位置P3。即,从图12A的情形开始,如果用户降下右手并接着将左手503抬起至位置Pc,则控制器170去除所显示的第一菜单550,同时将第三菜单1150显示在与位置Pc相对应的位置P3处,如图12C所示。
如前所述,第三菜单1150包括:主屏幕项1151、3D项1152、记录项1153、广播信息项1154、社交网络项1155以及推荐项1156。第三菜单1150的项可以按除了图12C所示方式以外的其它各种方式来修改。
同时,当在响应于用户的第一姿势而显示菜单的情况下检测到由另一用户做出的第一姿势时,控制器170可以控制连续显示该菜单,而不管另一用户的姿势。即,控制器170可以向已经首先做出姿势的用户授权进行控制。这将参照图13A到图13B进行更详细描述。
图13A是例示在观看显示器180上的广播图像510期间,响应于第一用户500通过将右手505抬起至位置Pa而做出的第一姿势,在与第一用户500的右手505的位置Pa相对应的第一位置P1处显示包括多个项的菜单550的示例性视图。
接着,如图13B中所示,第二用户1300正在通过抬起他或她的右手1305来做出第一姿势,而不管第一用户500。
在图13B的示例中,因为第一用户500是已经首先做出了第一姿势并由此触发菜单550的显示的用户,所以图像显示装置100可以在同一位置保持显示菜单550,而不管第二用户1300的姿势。在另一个示例中,控制器170可以识别第二用户1300的姿势,并且可以根据第二用户1300的所识别的姿势执行菜单显示操作。
同时,控制器170可以根据图像显示装置100与用户之间的距离,响应于用户的姿势,控制改变显示在显示器180上的菜单的尺寸、亮度或者颜色中的至少一个。这将参照图14A到图14D进行更详细描述,其例示了改变尺寸的示例。然而,根据本发明,菜单的尺寸、亮度和/或颜色可以改变。
图14A是例示用户500与图像显示装置100之间的第一距离Za的示例性视图,而图14C是例示用户500与图像显示装置100之间的第二距离Zb的示例性视图。第二距离Zb小于第一距离Za。
如图14A中所示,如果用户500通过抬起右手做出第一姿势(其按远离图像显示装置100的第一距离Za定位),则控制器170按如图14B所示的第一尺寸控制显示第一菜单550。
另一方面,如图14C中所示,如果用户500通过抬起右手做出第一姿势(其按远离图像显示装置100的第二距离Zb定位),则控制器170控制显示相同的第一菜单550,但采用大于第一菜单550的第一尺寸的第二尺寸,如图14D中所示。如此,采用第二尺寸的第一菜单的项与采用第一尺寸的第一菜单的项相比,在显示器180上显示得更大。还可以将指示用户的手的位置的指针509放大,如图14D中所示。
即,由于用户500更靠近图像显示装置100定位,因而可以响应于用户的姿势来显示更大的菜单。因此,用户500可以容易察觉到图像显示装置100的距离。而且,通过将手从特定姿势位置起朝着或远离图像显示装置100移动,可以改变根据该姿势在显示器180上显示的菜单的尺寸。如此,用户可以选择所显示的菜单的尺寸,从而适于用户的观看偏好。
同时,作为变型例,由于用户500更远离图像显示装置100定位,因而可以响应于用户的姿势显示更大的菜单,以便防止菜单因增加距离而不太清楚。
根据实施方式,控制器170可以根据用户的第一姿势,在经历很少变化的图像区域处,控制将菜单显示在与用户的手的位置相对应的位置处。这将参照图15A到图15D进行更详细描述。
图15A是例示用户500正在与图像显示装置100有关的位置Pa处利用右手505做出第一姿势的示例性视图。如果所显示的广播图像510响应于第一姿势与将(例如,在位置P1)显示的菜单部分交叠或将要部分交叠,则控制器170可以基于每一帧的运动矢量而考虑到广播图像510中的很少变化的区域和用户的手的位置,来确定将显示菜单的不同位置,以使用户可以观看广播图像510和菜单,而不需要中断。在一个示例中,当要显示的菜单与图像(例如,在电影中显示的人)交叠时,控制器170自动移动菜单并将菜单显示在屏幕上的恰当位置处。这可以利用现有技术来进行,如自动内容识别(ACR)或分析像素值之间的亮度差等。
在这点上,如果希望将菜单显示在广播图像内的对象上或者经历较大变化的区域中,则控制器170可以控制显示向用户提示移动手的对象或符号,图15B中例示了其示例。
图15B是例示向用户提示移动手的对象1510的示例性视图。对象1510可以指示要显示的菜单的新位置,其不会影响显示在显示器180上的广播图像510。当观看对象1510时,如果用户希望将菜单显示在新位置处,则该用户可以将右手从位置Pa移动至不同位置(例如,图15C中的Pd)。
如果用户在如图15C所示的位置Pd处利用右手做出第一姿势,则可以将菜单1550显示在广播图像510的很少变化的区域中,即,显示在如图15D所示的第四位置P4处。广播图像510的很少变化的区域可以指这样的屏幕区域,即,与显示器180的其它屏幕区域相比,显示在该屏幕区域处的广播图像很少改变。因此,用户可以观看希望菜单,而不需要中断进行中的广播图像。
而且,根据本发明的该实施方式,即使用户在躺着的同时观看TV100,也可以按相同方式响应于姿势来显示菜单。这将参照图16A到图16C进行更详细描述。
图16A是例示正在通过图像显示装置100观看广播图像510的同时,用户500通过在如上所述的位置Pa处抬起右手505而做出第一姿势的示例性视图。
相机190拍摄包括用户的面部和手的图像,并将所拍摄的图像提供给控制器170。
如图16B中所示,根据所拍摄的图像,控制器170可以测量用户的面部515与用户的右手505之间的距离Da,并且比较该距离Da与基准距离Dref或者任何其它预定的基准距离。
因此,连同所显示的广播图像510一起,包括多个项的菜单550可以显示在与用户500的右手的位置Pa相对应的第一位置P1处,如图16C所示。因为与用户的手的位置相对应地,将菜单显示在显示器上的用户希望区域中,所以可以增加用户便利。
即使将图像显示装置100关机时,用户也可以用手做出第一姿势。例如,当用户抬起右手,由此做出与关机的图像显示装置100有关的第一姿势时,尽管图像因该装置100的关机状态而未显示在显示器180上,但等待状态下的相机190和控制器170仍操作。
即,相机190拍摄用户的面部和手,并将所拍摄的图像提供给控制器170。控制器170测量用户的面部与用户的右手之间的距离。如果该距离等于或小于基准距离Dref,则控制器170可以将该姿势识别为预定的第一姿势。
接着,控制器170可以基于第一姿势来控制图像显示装置100的开机。例如,控制器170可以响应于所检测的姿势完全开启图像显示装置100。而且,控制器170可以控制在显示器180上显示特定图像。因此,可以增加用户便利。
而且,根据本发明的示例,用户可以同时抬起两只手,以使在屏幕上显示多个菜单。在该情况下,每一只手都可以对应于不同菜单,以使分别对应于两只手的两个或更多个不同菜单可以显示在分别与两只手的位置相对应的位置处。
如根据上面的描述清楚的是,因为图像显示装置识别由用户利用手做出的第一姿势,并且响应于该第一姿势在显示器上的、与用户的手的位置相对应的位置处显示菜单,所以该图像显示装置可以在用户希望区域中显示该菜单。由此,可以增加用户便利。
而且,根据用户的姿势显示的菜单可以根据手的移动或其它姿势来移动,由此,进一步增加用户便利。
如果用户利用另一只手做出姿势,则可以改变所显示的菜单。因此,可以容易地显示用户希望的菜单。
当在响应于第一用户的先前手势而正在显示菜单的同时第二用户做出手势时,则向第一用户赋予优先级,并且因此,所显示的菜单保持按其原始状态显示在显示器上。因此,可以防止姿势导致的故障。
当用户做出有关显示在显示器上的菜单的手指姿势时,可以关注菜单中的、与该手指相对应的菜单项。因此,用户可以容易地关注希望的项。
如果用户在关注特定项的同时做出抓握姿势,则容易地选择和/或执行该项。
根据前述示例性实施方式的图像显示装置和用于操作该图像显示装置的方法不限于在此阐述的示例性实施方式。因此,在此阐述的示例性实施方式的变型例和组合可以落入本发明的范围内。
根据前述示例性实施方式的、用于操作图像显示装置的方法可以实现为代码,其可以在计算机可读记录介质上写入并由此通过便携式终端和/或图像显示装置中的处理器读取。该计算机可读记录介质可以是其中按计算机可读方式存储数据的任何类型的记录装置。该计算机可读记录介质的示例包括:ROM、RAM、CD-ROM、磁带、软盘、光学数据存储部以及载波(例如,通过因特网传送数据)。计算机可读记录介质可以在连接至网络的多个计算机系统上分布,使得按分散方式向其写入计算机可读代码和从其执行计算机可读代码。本领域技术人员可以理解用于实现在此描述的实施方式的程序、代码以及代码段。
虽然本发明已经参照其示例性实施方式进行了具体说明和描述,但本领域技术人员应当明白,在不脱离随附权利要求书所定义的、本发明的精神和范围的情况下,可以在形式和细节上对本发明进行各种改变。
本申请要求在2012年9月24日在韩国知识产权局提交的韩国专利申请No.10-2012-0106033的优先权,其内容通过引用合并入于此。
Claims (20)
1.一种用于操作包括显示器的图像显示装置的方法,该方法包括以下步骤:
识别步骤,该识别步骤通过所述图像显示装置将利用用户的手做出的特定姿势识别为第一姿势;以及
显示步骤,该显示步骤根据识别的所述第一姿势,在所述显示器的屏幕上,在所述屏幕的、与所述用户的手的位置相对应的位置处显示菜单。
2.根据权利要求1所述的方法,所述方法还包括以下步骤:
通过所述图像显示装置的相机单元来获取所述用户的图像,
其中,所述识别步骤在获取的所述图像包括所述用户的手和所述用户的面部时识别所述第一姿势,并且
其中,所述显示步骤在所述屏幕的、与在获取的所述图像中的所述用户的手的所述位置相对应的所述位置处显示所述菜单。
3.根据权利要求1所述的方法,所述方法还包括以下步骤:
当所述用户的手不再被所述图像显示装置识别时或者当通过所述图像显示装置识别由所述用户的手做出的第二姿势时,中断所述菜单的显示。
4.根据权利要求1所述的方法,所述方法还包括以下步骤:
当所述用户的手在所述第一姿势被识别之后移动至新位置时,将整个所述菜单或者所述菜单中的多个项中的至少一个项移动至所述屏幕上的新位置,
所述屏幕上的所述新位置对应于所述用户的手的所述新位置。
5.根据权利要求1所述的方法,所述方法还包括在所述屏幕上显示内容,
其中,在所述内容被显示在所述屏幕上的同时,显示所述菜单的所述显示步骤在所述屏幕的如下的区域显示所述菜单,即,在该区域中,显示的所述内容的图像改变最小或小于特定程度,或者不存在在所述内容中显示的对象。
6.根据权利要求1所述的方法,所述方法还包括在所述屏幕上显示内容,
其中,显示所述菜单的所述显示步骤包括根据显示的所述内容的属性显示不同的菜单。
7.根据权利要求1所述的方法,其中,所述菜单包括多个项,并且
其中,所述方法还包括以下步骤:
指定所述多个项对应于所述用户的手的不同手指。
8.根据权利要求1所述的方法,所述方法还包括以下步骤:
根据所述用户的手指姿势,通过所述图像显示装置关注在显示的所述菜单中的多个项中的一个项。
9.根据权利要求8所述的方法,所述方法还包括以下步骤:
当在所述一个项被关注的同时接收到由所述用户做出的抓握姿势时,响应于所述抓握姿势选择被关注的所述一个项,并且执行与选择的所述项相关联的功能。
10.根据权利要求1所述的方法,所述方法还包括以下步骤:
根据在所述用户的手和所述图像显示装置之间的距离,改变在所述显示器上显示的所述菜单的尺寸、亮度和颜色中的至少一个。
11.根据权利要求1所述的方法,所述方法还包括以下步骤:
当在所述菜单被显示在所述显示器上的同时所述用户通过旋转所述用户的手来做出旋转姿势时,显示与显示的所述菜单不同的另一菜单。
12.根据权利要求1所述的方法,所述方法还包括以下步骤:
当连续选择在显示的所述菜单中的特定项时,在所述显示器上显示与所述特定项相关联的滚动条,以利用由所述用户的手做出的姿势前进至希望的对象。
13.根据权利要求1所述的方法,所述方法还包括以下步骤:
当所述用户利用另一只手做出特定姿势时,将利用另一只手做出的所述特定姿势识别为第三姿势;以及
基于利用另一只手做出的所述第三姿势,在所述显示器上显示与显示的所述菜单不同的另一菜单。
14.根据权利要求1所述的方法,所述方法还包括以下步骤:
当所述用户利用另一只手做出特定姿势时,将利用另一只手做出的所述特定姿势识别为第三姿势;以及
基于利用另一只手做出的所述第三姿势,将在所述显示器上显示的所述菜单移动至与另一只手的位置相对应的新位置。
15.根据权利要求1所述的方法,所述方法还包括以下步骤:
当在所述菜单被显示在所述屏幕上的同时不同的用户利用该不同的用户的手做出特定姿势时,将利用所述不同的用户的手做出的所述特定姿势识别为第二姿势,
其中,将显示的所述菜单保持在所述屏幕上的相同位置处,而不管识别的所述第二姿势。
16.一种图像显示装置,该图像显示装置包括:
包括屏幕的显示器;以及
控制器,该控制器被构造为执行以下步骤:
将利用用户的手做出的特定姿势识别为第一姿势,以及
根据识别的所述第一姿势,在所述显示器的所述屏幕上,在所述屏幕的、与所述用户的手的位置相对应的位置处显示菜单。
17.根据权利要求16所述的图像显示装置,所述图像显示装置还包括:
相机单元,该相机单元被构造为获取所述用户的图像,
其中,所述控制器在获取的所述图像包括所述用户的手和所述用户的面部时识别所述第一姿势,并且
其中,所述控制器在所述屏幕的、与在获取的所述图像中的所述用户的手的所述位置相对应的所述位置处显示所述菜单。
18.根据权利要求16所述的图像显示装置,其中,当所述控制器在所述屏幕上显示内容时,根据识别的所述第一姿势在所述屏幕的、与所述用户的手的位置相对应的位置处显示菜单的所述步骤包括根据显示的所述内容的属性显示不同的菜单。
19.根据权利要求16所述的图像显示装置,其中,所述菜单包括多个项,并且其中,所述控制器还被构造为指定所述多个项对应于所述用户的手的不同手指。
20.根据权利要求16所述的图像显示装置,其中,所述控制器还被构造为,根据在所述用户的手和所述图像显示装置之间的距离,改变在所述显示器上显示的所述菜单的尺寸、亮度和颜色中的至少一个。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0106033 | 2012-09-24 | ||
KR1020120106033A KR102035134B1 (ko) | 2012-09-24 | 2012-09-24 | 영상표시장치, 및 그 동작방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103686269A true CN103686269A (zh) | 2014-03-26 |
CN103686269B CN103686269B (zh) | 2017-08-08 |
Family
ID=48050373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310128638.9A Active CN103686269B (zh) | 2012-09-24 | 2013-04-15 | 图像显示装置及其操作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9250707B2 (zh) |
EP (1) | EP2711807B1 (zh) |
KR (1) | KR102035134B1 (zh) |
CN (1) | CN103686269B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104571823A (zh) * | 2015-01-12 | 2015-04-29 | 济南大学 | 一种基于智能电视的非接触式虚拟人机交互方法 |
CN104918085A (zh) * | 2015-06-01 | 2015-09-16 | 天脉聚源(北京)传媒科技有限公司 | 一种切换频道的方法及装置 |
CN104954829A (zh) * | 2014-03-27 | 2015-09-30 | Lg电子株式会社 | 显示装置及其操作方法 |
CN106484287A (zh) * | 2016-09-27 | 2017-03-08 | 北京小米移动软件有限公司 | 显示设备控制方法、装置和显示设备 |
WO2019033957A1 (zh) * | 2017-08-14 | 2019-02-21 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、系统、存储介质和智能终端 |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104756065B (zh) * | 2012-11-09 | 2018-11-13 | 索尼公司 | 信息处理装置、信息处理方法以及计算机可读记录介质 |
KR20140087787A (ko) * | 2012-12-31 | 2014-07-09 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
US9307386B2 (en) | 2013-03-22 | 2016-04-05 | Global Tel*Link Corporation | Multifunction wireless device |
WO2014162762A1 (ja) * | 2013-04-02 | 2014-10-09 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9829984B2 (en) * | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
US10152136B2 (en) | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US9740296B2 (en) | 2013-12-16 | 2017-08-22 | Leap Motion, Inc. | User-defined virtual interaction space and manipulation of virtual cameras in the interaction space |
US9304674B1 (en) * | 2013-12-18 | 2016-04-05 | Amazon Technologies, Inc. | Depth-based display navigation |
US10503357B2 (en) * | 2014-04-03 | 2019-12-10 | Oath Inc. | Systems and methods for delivering task-oriented content using a desktop widget |
KR20150082963A (ko) * | 2014-01-08 | 2015-07-16 | 삼성전자주식회사 | 모션 인식을 이용한 서비스 실행 방법 및 이를 적용한 디스플레이 장치 |
US9971490B2 (en) * | 2014-02-26 | 2018-05-15 | Microsoft Technology Licensing, Llc | Device control |
US20150277570A1 (en) * | 2014-03-31 | 2015-10-01 | Google Inc. | Providing Onscreen Visualizations of Gesture Movements |
JP6282188B2 (ja) * | 2014-07-04 | 2018-02-21 | クラリオン株式会社 | 情報処理装置 |
EP2988192A1 (en) * | 2014-08-20 | 2016-02-24 | Posterfy Oy | Apparatus for providing touchless user interface |
US9836130B2 (en) | 2014-12-26 | 2017-12-05 | Nextedge Technology K.K. | Operation input device, operation input method, and program |
KR102310870B1 (ko) * | 2015-01-12 | 2021-10-12 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
TWI610198B (zh) * | 2015-04-17 | 2018-01-01 | 鈺立微電子股份有限公司 | 遙控裝置與根據至少一靜態手勢產生控制指令的方法 |
JP6455310B2 (ja) * | 2015-05-18 | 2019-01-23 | 本田技研工業株式会社 | 動作推定装置、ロボット、及び動作推定方法 |
US9990078B2 (en) * | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
JP6175209B1 (ja) * | 2016-03-08 | 2017-08-02 | 楽天株式会社 | 表示制御システム、表示制御方法及び表示制御プログラム |
US10176641B2 (en) * | 2016-03-21 | 2019-01-08 | Microsoft Technology Licensing, Llc | Displaying three-dimensional virtual objects based on field of view |
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US10477277B2 (en) * | 2017-01-06 | 2019-11-12 | Google Llc | Electronic programming guide with expanding cells for video preview |
US10721624B2 (en) | 2017-02-17 | 2020-07-21 | Global Tel*Link Corporation | Security system for inmate wireless devices |
JP2018151851A (ja) * | 2017-03-13 | 2018-09-27 | セイコーエプソン株式会社 | 透過型表示装置、表示制御方法、およびコンピュータープログラム |
US11880493B2 (en) | 2017-03-27 | 2024-01-23 | Global Tel*Link Corporation | Wearable devices in a controlled environment |
US9892242B1 (en) | 2017-04-28 | 2018-02-13 | Global Tel*Link Corporation | Unified enterprise management of wireless devices in a controlled environment |
US10068398B1 (en) | 2017-08-03 | 2018-09-04 | Global Tel*Link Corporation | Release monitoring through check-in and tethering system |
KR102656447B1 (ko) * | 2018-02-27 | 2024-04-12 | 삼성전자주식회사 | 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치 |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
US10579153B2 (en) * | 2018-06-14 | 2020-03-03 | Dell Products, L.P. | One-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications |
CN108960109B (zh) * | 2018-06-26 | 2020-01-21 | 哈尔滨拓博科技有限公司 | 一种基于两个单目摄像头的空间手势定位装置及定位方法 |
US20200027297A1 (en) * | 2018-07-23 | 2020-01-23 | Dominion Voting Systems, Inc. | Voting techniques using virtual or augmented reality |
KR101962464B1 (ko) * | 2018-10-31 | 2019-07-17 | 주식회사 드림한스 | 손동작 매크로 기능을 이용하여 다중 메뉴 및 기능 제어를 위한 제스처 인식 장치 |
DE102019210912A1 (de) * | 2019-07-23 | 2021-01-28 | Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg | Verstellvorrichtung und Verfahren für die fremdkraftbetätigte Verstellung eines Verstellteils an einem Fahrzeug auf Basis wenigstens eines Bedienereignisses |
EP4199503A4 (en) | 2021-01-29 | 2024-03-06 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND CONTROL METHOD THEREOF |
US11798201B2 (en) | 2021-03-16 | 2023-10-24 | Snap Inc. | Mirroring device with whole-body outfits |
US11809633B2 (en) | 2021-03-16 | 2023-11-07 | Snap Inc. | Mirroring device with pointing based navigation |
US11978283B2 (en) | 2021-03-16 | 2024-05-07 | Snap Inc. | Mirroring device with a hands-free mode |
US11734959B2 (en) | 2021-03-16 | 2023-08-22 | Snap Inc. | Activating hands-free mode on mirroring device |
US11908243B2 (en) * | 2021-03-16 | 2024-02-20 | Snap Inc. | Menu hierarchy navigation on electronic mirroring devices |
KR20220149191A (ko) * | 2021-04-30 | 2022-11-08 | 삼성전자주식회사 | 손 제스처에 기반하여 기능을 실행하는 전자 장치 및 그 작동 방법 |
US11947728B2 (en) | 2021-04-30 | 2024-04-02 | Samsung Electronics Co., Ltd. | Electronic device for executing function based on hand gesture and method for operating thereof |
CN113325987A (zh) * | 2021-06-15 | 2021-08-31 | 深圳地平线机器人科技有限公司 | 引导操作体进行隔空操作的方法和装置 |
CN115202530B (zh) * | 2022-05-26 | 2024-04-09 | 当趣网络科技(杭州)有限公司 | 一种用户界面的手势交互方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101566914A (zh) * | 2008-04-22 | 2009-10-28 | 株式会社日立制作所 | 输入装置 |
CN101874404A (zh) * | 2007-09-24 | 2010-10-27 | 格斯图尔泰克股份有限公司 | 用于语音和视频通信的增强接口 |
US20110280441A1 (en) * | 2010-05-17 | 2011-11-17 | Hon Hai Precision Industry Co., Ltd. | Projector and projection control method |
US20120113223A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
US20120120015A1 (en) * | 2010-02-25 | 2012-05-17 | Bradley Neal Suggs | Representative image |
WO2012093394A2 (en) * | 2011-01-06 | 2012-07-12 | Pointgrab Ltd. | Computer vision based two hand control of content |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3968477B2 (ja) | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
AU5145400A (en) * | 1999-05-19 | 2000-12-18 | James J. Nicholas | Cursor movable interactive message |
US7646372B2 (en) * | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
KR100824380B1 (ko) * | 2002-08-08 | 2008-04-22 | 삼성전자주식회사 | 영상 기록/재생 장치 및 그 메뉴안내 표시방법 |
US7814439B2 (en) * | 2002-10-18 | 2010-10-12 | Autodesk, Inc. | Pan-zoom tool |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
JP2008146243A (ja) | 2006-12-07 | 2008-06-26 | Toshiba Corp | 情報処理装置、情報処理方法、及びプログラム |
US8352881B2 (en) * | 2007-03-08 | 2013-01-08 | International Business Machines Corporation | Method, apparatus and program storage device for providing customizable, immediate and radiating menus for accessing applications and actions |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US20090225026A1 (en) | 2008-03-06 | 2009-09-10 | Yaron Sheba | Electronic device for selecting an application based on sensed orientation and methods for use therewith |
KR101541561B1 (ko) | 2008-09-29 | 2015-08-03 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | 유저 인터페이스 장치, 유저 인터페이스 방법, 및 기록 매체 |
US8321802B2 (en) * | 2008-11-13 | 2012-11-27 | Qualcomm Incorporated | Method and system for context dependent pop-up menus |
US8112719B2 (en) * | 2009-05-26 | 2012-02-07 | Topseed Technology Corp. | Method for controlling gesture-based remote control system |
KR101698212B1 (ko) * | 2010-08-27 | 2017-01-19 | 엘지전자 주식회사 | 그래픽 유저 인터페이스(gui)표시 방법 및 그를 이용한 휴대용 단말기 |
JP5653206B2 (ja) | 2010-12-27 | 2015-01-14 | 日立マクセル株式会社 | 映像処理装置 |
US9360943B2 (en) * | 2010-12-27 | 2016-06-07 | Lg Electronics Inc. | Display device and method of providing feedback for gestures thereof |
TW201237773A (en) | 2011-03-15 | 2012-09-16 | Wistron Corp | An electronic system, image adjusting method and computer program product thereof |
US20120320080A1 (en) * | 2011-06-14 | 2012-12-20 | Microsoft Corporation | Motion based virtual object navigation |
US20130067392A1 (en) * | 2011-09-12 | 2013-03-14 | Microsoft Corporation | Multi-Input Rearrange |
CN104246682B (zh) * | 2012-03-26 | 2017-08-25 | 苹果公司 | 增强的虚拟触摸板和触摸屏 |
TWI454966B (zh) * | 2012-04-24 | 2014-10-01 | Wistron Corp | 手勢控制方法及手勢控制裝置 |
-
2012
- 2012-09-24 KR KR1020120106033A patent/KR102035134B1/ko active IP Right Grant
-
2013
- 2013-03-14 US US13/828,921 patent/US9250707B2/en active Active
- 2013-03-18 EP EP13001374.1A patent/EP2711807B1/en active Active
- 2013-04-15 CN CN201310128638.9A patent/CN103686269B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101874404A (zh) * | 2007-09-24 | 2010-10-27 | 格斯图尔泰克股份有限公司 | 用于语音和视频通信的增强接口 |
CN101566914A (zh) * | 2008-04-22 | 2009-10-28 | 株式会社日立制作所 | 输入装置 |
US20120120015A1 (en) * | 2010-02-25 | 2012-05-17 | Bradley Neal Suggs | Representative image |
US20110280441A1 (en) * | 2010-05-17 | 2011-11-17 | Hon Hai Precision Industry Co., Ltd. | Projector and projection control method |
US20120113223A1 (en) * | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
WO2012093394A2 (en) * | 2011-01-06 | 2012-07-12 | Pointgrab Ltd. | Computer vision based two hand control of content |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104954829A (zh) * | 2014-03-27 | 2015-09-30 | Lg电子株式会社 | 显示装置及其操作方法 |
CN104954829B (zh) * | 2014-03-27 | 2018-06-29 | Lg电子株式会社 | 显示装置及其操作方法 |
CN104571823A (zh) * | 2015-01-12 | 2015-04-29 | 济南大学 | 一种基于智能电视的非接触式虚拟人机交互方法 |
CN104918085A (zh) * | 2015-06-01 | 2015-09-16 | 天脉聚源(北京)传媒科技有限公司 | 一种切换频道的方法及装置 |
CN104918085B (zh) * | 2015-06-01 | 2018-02-09 | 天脉聚源(北京)传媒科技有限公司 | 一种切换频道的方法及装置 |
CN106484287A (zh) * | 2016-09-27 | 2017-03-08 | 北京小米移动软件有限公司 | 显示设备控制方法、装置和显示设备 |
WO2019033957A1 (zh) * | 2017-08-14 | 2019-02-21 | 深圳市国华识别科技开发有限公司 | 交互位置确定方法、系统、存储介质和智能终端 |
US11163426B2 (en) | 2017-08-14 | 2021-11-02 | Guohua Liu | Interaction position determination method and system, storage medium and smart terminal |
Also Published As
Publication number | Publication date |
---|---|
US9250707B2 (en) | 2016-02-02 |
KR102035134B1 (ko) | 2019-10-22 |
EP2711807B1 (en) | 2018-09-19 |
EP2711807A1 (en) | 2014-03-26 |
KR20140039641A (ko) | 2014-04-02 |
CN103686269B (zh) | 2017-08-08 |
US20140089849A1 (en) | 2014-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103686269A (zh) | 图像显示装置及其操作方法 | |
CN107925791B (zh) | 图像显示设备和移动终端 | |
US10474322B2 (en) | Image display apparatus | |
US10031637B2 (en) | Image display apparatus and method for operating the same | |
US9432739B2 (en) | Image display apparatus and method for operating the same | |
CN102883204B (zh) | 图像显示设备和操作该图像显示设备的方法 | |
CN108886632B (zh) | 数字装置以及在所述数字装置中处理数据的方法 | |
CN107295378A (zh) | 图像显示装置 | |
EP2424264A2 (en) | Method for operating image display apparatus | |
CN104145481A (zh) | 图像显示设备和用于操作其的方法 | |
CN102375681A (zh) | 显示设备及其控制方法 | |
KR20140038799A (ko) | 영상표시장치, 서버 및 그 동작방법 | |
CN102598678A (zh) | 图像显示设备及其操作方法 | |
KR20120099328A (ko) | 적어도 하나 이상의 아이템을 북마킹 하는 네트워크 tv의 제어 방법 및 상기 네트워크 tv | |
EP3236643B1 (en) | Content transmission device and mobile terminal | |
EP2566075A1 (en) | Image display device and method for operating same | |
KR20150008769A (ko) | 영상표시장치 및 그 동작방법 | |
KR20140094132A (ko) | 영상표시장치 및 그 동작 방법 | |
KR20170017606A (ko) | 디지털 디바이스 및 상기 디지털 디바이스에서 데이터 처리 방법 | |
KR102243213B1 (ko) | 영상표시장치 및 영상표시장치 동작방법 | |
KR20210135851A (ko) | 영상표시장치 및 그 동작방법 | |
US20230247247A1 (en) | Image display apparatus | |
KR20140089794A (ko) | 영상표시장치 및 그 동작방법 | |
KR102049861B1 (ko) | 멀티미디어 디바이스 및 멀티미디어 디바이스에서 채널 리스트를 디스플레이하는 방법 | |
KR20130030603A (ko) | 영상표시장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |