CN103529947A - 显示装置及其控制方法、手势识别方法 - Google Patents

显示装置及其控制方法、手势识别方法 Download PDF

Info

Publication number
CN103529947A
CN103529947A CN201310529219.6A CN201310529219A CN103529947A CN 103529947 A CN103529947 A CN 103529947A CN 201310529219 A CN201310529219 A CN 201310529219A CN 103529947 A CN103529947 A CN 103529947A
Authority
CN
China
Prior art keywords
user
virtual
control interface
display unit
bore hole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310529219.6A
Other languages
English (en)
Inventor
冷长林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201310529219.6A priority Critical patent/CN103529947A/zh
Publication of CN103529947A publication Critical patent/CN103529947A/zh
Priority to PCT/CN2014/078074 priority patent/WO2015062251A1/zh
Priority to US14/426,012 priority patent/US20160041616A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种显示装置及其控制方法、手势识别方法,属于手势识别技术领域,其可解决现有的手势识别中选择和确定操作须分别进行的问题。本发明的显示装置控制方法包括:裸眼3D显示单元显示虚拟3D控制画面,其中,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;图像采集单元采集用户对虚拟3D控制画面的点击动作的图像;手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。本发明可用于显示装置的控制,尤其适用于电视的控制。

Description

显示装置及其控制方法、手势识别方法
技术领域
本发明属于手势识别技术领域,具体涉及一种显示装置及其控制方法、手势识别方法。
背景技术
随着技术发展,用手势对显示单元(电视、显示器等)进行控制已成为可能。具有手势识别功能的显示装置包括用于进行显示的显示单元,以及用于采集手势的图像采集单元(摄像头、相机等);通过对所采集的图像进行分析,即可确定用户要进行的操作。
目前的手势识别技术中,“选择”和“确定”操作必须通过不同手势分别进行,操作麻烦,例如要通过手势为电视换台,则先要通过第一手势(如从左向右挥手)选台,每挥手一次台号变一次,当选到正确台号时,再通过第二手势(如从上向下挥手)进入该台。也就是说,现有显示装置的手势识别技术不能实现“选择”与“确定”合一的操作,即不能像平板电脑一样通过“点击(Touch)”多个候选图标中的某个,一次性选出要执行的指令并执行该指令。之所以如此,是因为“点击”操作必须准确判断点击位置。对平板电脑,手直接点在屏幕上,故通过触控技术确定点击位置是可行的。但对手势识别技术,手通常不能接触显示单元(尤其对电视,正常使用时用户离其很远),而只能“指向”显示单元的某位置(如显示单元显示的某图标),但这种远距离的“指向”准确度很差,在指向显示单元的同一位置时,不同用户的手势可能不同,有人指的偏左,有人指的偏右,故无法确定用户到底想指哪里,也就不能实现“点击”操作。
发明内容
本发明所要解决的技术问题包括,针对现有的手势识别中“选择”和“确定”操作必须分别进行的问题,提供一种可通过手势识别实现“选择”和“确定”操作一步完成的显示装置及其控制方法、手势识别方法。
解决本发明技术问题所采用的技术方案是一种显示装置的控制方法,其包括:
裸眼3D显示单元显示虚拟3D控制画面,其中,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;
图像采集单元采集用户对虚拟3D控制画面的点击动作的图像;
手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
优选的,所述第一距离小于等于用户手臂的长度。
优选的,所述第一距离小于等于0.5米且大于等于0.25米。
优选的,所述虚拟3D控制画面为整个显示画面;或,所述虚拟3D控制画面为显示画面的一部分。
优选的,所述虚拟3D控制画面分为至少两个区域,每个区域对应1个控制指令。
优选的,在手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置之前,还包括:定位单元判断用户相对裸眼3D显示单元的位置;手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置包括:手势识别单元根据图像采集单元所采集的图像,以及用户相对裸眼3D显示单元的位置判断用户对虚拟3D控制画面的点击位置。
进一步优选的,定位单元判断用户相对裸眼3D显示单元的位置包括:定位单元判断用户相对裸眼3D显示单元的位置包括:定位单元对由图像采集单元采集的图像进行分析,从而判断用户相对裸眼3D显示单元的位置。
解决本发明技术问题所采用的技术方案是一种显示装置,其包括:
裸眼3D显示单元,其用于显示虚拟3D控制画面,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;
图像采集单元,其用于采集用户对虚拟3D控制画面的点击动作的图像;
手势识别单元,其用于根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
优选的,所述裸眼3D显示单元为电视或电脑显示屏。
优选的,所述裸眼3D显示单元为光栅式3D显示单元、棱镜膜式3D显示单元、指向光源式3D显示单元中的任意一种。
优选的,所述显示装置还包括:定位单元,其用于判断用户相对裸眼3D显示单元的位置。
进一步优选的,所述定位单元用于对由图像采集单元采集的图像进行分析,从而判断用户相对裸眼3D显示单元的位置。
解决本发明技术问题所采用的技术方案是一种手势识别方法,其包括:
裸眼3D显示单元显示虚拟3D控制画面,其中,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;
图像采集单元采集用户对虚拟3D控制画面的点击动作的图像;
手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
其中,裸眼3D显示单元是指能在不使用3D眼镜的情况下,使用户裸眼即能看到有立体感的3D图像的显示单元。
其中,“虚拟3D控制画面”是指由裸眼3D显示单元显示的有立体感的控制画面,其用于实现对显示装置的控制。
其中,“虚拟距离”是指用户感到的虚拟3D控制画面与自己的距离;距离感是立体感的一部分,其是由左右眼所看到的图像的差别引起的,故只要裸眼3D显示单元显示特定的内容,即可使用户感到虚拟3D控制画面位于自己前方一定距离处,即使用户远离或靠近裸眼3D显示单元,其感觉到的虚拟3D控制画面与自己的距离始终不变。
其中,“执行单元”是指可执行相应控制指令的任何单元,例如,对换台指令,执行单元就是裸眼3D显示单元,而对改变音量的指令,执行单元就是发声单元。
本发明的显示装置及其控制方法、手势识别方法中,裸眼3D显示单元可为用户呈现虚拟3D控制画面,且虚拟3D控制画面与用户的距离小于裸眼3D显示单元与用户的距离,故用户会感觉虚拟3D控制画面离自己很近,就在面前,可直接伸手准确“点击”虚拟3D控制画面,这样不同用户点击虚拟3D控制画面同一位置时动作是相同或相似的,从而手势识别单元可准确判断用户希望的点击位置,进而实现“选择”与“确定”合一的“点击”操作。
本发明用于显示装置的控制,尤其适用于电视的控制。
附图说明
图1为本发明的实施例1的显示装置的控制方法的流程图;
图2为本发明的实施例1的显示装置显示虚拟3D控制画面时的示意图;
其中附图标记为:1、裸眼3D显示单元;2、用户的眼睛;3、用户的手;4、虚拟3D控制画面;5、图像采集单元。
具体实施方式
为使本领域技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明作进一步详细描述。
实施例1:
如图1所示,本实施例提供一种显示装置的控制方法,该方法适用的显示装置包括裸眼3D显示单元1、图像采集单元5、手势识别单元,优选还包括定位单元。
其中,裸眼3D显示单元1是指任何能在不使用3D眼镜的情况下,使用户裸眼即能看到有立体感的3D图像的显示单元。
优选的,裸眼3D显示单元1为光栅式3D显示单元、棱镜膜式3D显示单元、指向光源式3D显示单元中的任意一种。
以上3种显示单元都是已知的裸眼3D显示单元1。
其中,光栅式3D显示单元是在2D显示设备外设置光栅,对用户的左眼和右眼,光栅可分别挡住显示设备的不同区域,这样用户的左眼和右眼看到的是显示设备的不同区域,即双眼看到的内容不同,从而达到3D显示的效果。
对于棱镜膜式3D显示单元,其是在2D显示设备外设置棱镜片,通过棱镜片中小棱镜的折射作用,将来自显示设备不同位置的光分别射向用户左眼和右眼,从而使双眼看到不同内容,达到3D效果。
而指向光源式3D显示单元中,其显示模组具有特殊结构,不同位置的发光光源(里如背光源)的出光方向不同,分别射向用户的左眼和右眼,从而使左眼和右眼看到不同内容,达到3D效果。
图像采集单元5则用于采集用户的图像,其可为CCD(电荷耦合元件)摄像头、相机等已知器件。从方便的角度说,图像采集单元5可设在裸眼3D显示单元1附近(如固定在裸眼3D显示单元1上方或侧面),或与裸眼3D显示单元1设计成一体结构。
具体的,上述控制方法包括以下步骤:
S01、裸眼3D显示单元1显示虚拟3D控制画面4,虚拟3D控制画面4与用户眼睛2间的虚拟距离等于第一距离,第一距离小于裸眼3D显示单元1与用户眼睛2间的距离。
其中,虚拟3D控制画面是指专门用于对显示装置进行控制操作的画面,其中包括对裸眼3D显示单元1的各种控制指令,用户通过选择不同控制指令即可实现对显示装置的控制。
如图2所示,用户会感觉到虚拟3D控制画面4即位于自己前方一定距离(第一距离)处,而该第一距离小于裸眼3D显示单元1与用户间的距离。由于用户感觉到虚拟3D控制画面4与自己的距离较近,故可伸手3做出准确“点击”该画面某位置的动作,从而显示装置也可更准确的判断用户要进行什么操作,实现“点击”控制。
优选的,第一距离小于等于用户手臂的长度。在第一距离小于等于用户手臂的长度时,用户感觉自己伸手即可“接触”虚拟3D控制画面4,这样可最大程度的保证点击动作的准确性。
优选的,第一距离小于等于0.5米且大于等于0.25米。按照以上第一距离的范围,绝大多数人既不用伸直手臂努力去“够”虚拟3D控制画面4,也不会觉得虚拟3D控制画面4离自己太近。
优选的,虚拟3D控制画面4是整个显示画面。也就是说,当显示虚拟3D控制画面4时,显示虚拟3D控制画面4就是全部的显示内容,用户只能看到虚拟3D控制画面4,从而该虚拟3D控制画面4面积较大,可容纳较多的待选控制指令,且点击准确性较高。
优选的,作为本实施例的另一种方式,虚拟3D控制画面4也可以是整个显示画面的一部分。也就是说,显示虚拟3D控制画面4与常规画面(如3D电影)一同显示,其可以位于显示画面的边上或角落,从而用户可同时看到常规画面和虚拟3D控制画面4,以便随时进行控制(如调整音量、换台等)。
其中,当虚拟3D控制画面4是整个显示画面时,则其优选在满足一定条件(如用户发出指令)时才显示,其他情况下仍显示常规画面。而当虚拟3D控制画面4是显示画面的一部分时,其可以一直持续显示。
优选的,虚拟3D控制画面4分为至少两个区域,每个区域对应1个控制指令。也就是说,虚拟3D控制画面4可分为多个不同区域,点击每个区域可执行不同控制指令,从而通过一个虚拟3D控制画面4可进行多种不同操作。例如,可如图2所示,虚拟3D控制画面4等分为3行×3列共9个矩形区域,每个矩形对应一个控制指令(如改变音量、改变台号、改变亮度、退出虚拟3D控制画面4等)。
当然,若虚拟3D控制画面4只对应一个控制指令(如虚拟3D控制画面4为显示画面的一部分,其对应的指令为“进入全屏控制画面”)也是可行的。
S02、图像采集单元5采集用户对虚拟3D控制画面4的点击动作的图像。
也就是说,当裸眼3D显示单元1显示虚拟3D控制画面4时,图像采集单元5开启,从而采集用户的动作的图像,具体是用户伸手3对虚拟3D控制画面4进行点击的动作的图像。
当然,在未显示显示虚拟3D控制画面4时时,图像采集单元5也可开启,从而用于采集用户其他手势的图像或用于确定用户位置。
S03、可选的,定位单元判断用户相对裸眼3D显示单元1的位置(距离和/或角度)。
显然,当用户与裸眼3D显示单元1的相对位置不同时,虽然对用户来说其做出的控制动作并无变化(都是点击自己面前的虚拟3D控制画面4);但对图像采集单元5来说,其所采集到的图像却不相同;为此,最好能预先判断出用户与裸眼3D显示单元1的相对位置关系,从而在手势识别过程中进行更准确的识别。
具体的,作为一种优选方式,定位单元可通过对由图像采集单元5采集的图像进行分析来判断用户相对裸眼3D显示单元1的位置。例如,当开始显示虚拟3D控制画面4时,可将图像采集单元5采集的第一幅图像用于判断用户相对裸眼3D显示单元1的位置,之后采集的图像再用于手势分析。根据图像判断用户相对裸眼3D显示单元1的位置的方法也是多样的,如可通过轮廓线分析得到用户形体或用户眼睛2的轮廓,进而判断用户位置。
当然,判断用户相对裸眼3D显示单元1的位置的方法还有很多,如可在两不同位置设置红外测距器,通过两个红外测距器分别测得的与用户间的距离计算出用户位置。
当然,如果不进行上述定位判断也是可行的,因为对裸眼3D显示单元1,为保证观看效果,用户通常是位于裸眼3D显示单元1前特定位置处的,故也可默认用户位置。
S04、手势识别单元根据图像采集单元5所采集的图像(以及用户相对裸眼3D显示单元1的位置)判断用户对虚拟3D控制画面4的点击位置,并将点击位置所对应的控制指令发给相应的执行单元。
如前所述,用户与裸眼3D显示单元1的相对位置是已知的,且虚拟3D控制画面4位于用户之前一定距离处,因此,如图2所示,手势识别单元可确认虚拟3D控制画面4相对裸眼3D显示单元1的空间位置(因虚拟3D控制画面4必然位于裸眼3D显示单元1与用户间的连线上),同时,当用户伸手3点击虚拟3D控制画面4时,手势识别单元也可根据图像(图像采集单元5相对裸眼3D显示单元1的位置显然也已知)确认其所点击的空间位置(即手3的位置),进而确认与点击位置对应的虚拟3D控制画面4的位置,也就是确定与用户手势对应的控制指令;这样,手势识别单元即可将该控制指令发送给相应的执行单元,使该执行单元执行响应指令,实现控制。
其中,“执行单元”是指可执行相应控制指令的任何单元,例如,对换台指令,执行单元就是裸眼3D显示单元1,而对改变音量的指令,执行单元就是发声单元。
如前所述,若用户与裸眼3D显示单元1的相对位置不确定(即未进行步骤S03),则可以按照默认位置判断用户位置;或者,也可通过判断用户的手与其身体的相对位置关系判断用户要点击什么位置(因为虚拟3D控制画面4与用户的相对位置关系是已知的)。
本实施例还提供一种可使用上述的方法进行控制的显示装置,其包括:
用于进行显示的裸眼3D显示单元1,其用于显示虚拟3D控制画面4,所述虚拟3D控制画面4与用户眼睛2间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元1与用户眼睛2间的距离;
图像采集单元5,其用于采集用户对虚拟3D控制画面4的点击动作的图像;
手势识别单元,其用于根据图像采集单元5所采集的图像判断用户对虚拟3D控制画面4的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
优选的,裸眼3D显示单元1为电视或电脑显示屏。
优选的,裸眼3D显示单元1为光栅式3D显示单元、棱镜膜式3D显示单元、指向光源式3D显示单元中的任意一种。
优选的,显示装置还包括:定位单元,用于判断用户相对裸眼3D显示单元1的位置。
进一步优选的,定位单元用于对由图像采集单元5采集的图像进行分析,从而判断用户相对裸眼3D显示单元1的位置。
实施例2:
本实施例提供一种手势识别方法,其包括:
裸眼3D显示单元显示虚拟3D控制画面,其中,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;
图像采集单元采集用户对虚拟3D控制画面的点击动作的图像;
手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
也就是说,上述的手势识别方法并不限于控制显示装置,其也可用于控制其他装置,只要手势识别单元将控制指令发送(如通过无线方式)给相应的装置即可;例如,可通过一套专门的手势识别系统对电视、电脑、空调、洗衣机等许多装置进行统一控制。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。

Claims (13)

1.一种显示装置的控制方法,其特征在于,包括:
裸眼3D显示单元显示虚拟3D控制画面,其中,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;
图像采集单元采集用户对虚拟3D控制画面的点击动作的图像;
手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
2.根据权利要求1所述的显示装置的控制方法,其特征在于,
所述第一距离小于等于用户手臂的长度。
3.根据权利要求1所述的显示装置的控制方法,其特征在于,
所述第一距离小于等于0.5米且大于等于0.25米。
4.根据权利要求1所述的显示装置的控制方法,其特征在于,
所述虚拟3D控制画面为整个显示画面;
所述虚拟3D控制画面为显示画面的一部分。
5.根据权利要求1所述的显示装置的控制方法,其特征在于,
所述虚拟3D控制画面分为至少两个区域,每个区域对应1个控制指令。
6.根据权利要求1至5中任意一项所述的显示装置的控制方法,其特征在于,
在手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置之前,还包括:定位单元判断用户相对裸眼3D显示单元的位置;
手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置包括:手势识别单元根据图像采集单元所采集的图像,以及用户相对裸眼3D显示单元的位置判断用户对虚拟3D控制画面的点击位置。
7.根据权利要求6所述的显示装置的控制方法,其特征在于,定位单元判断用户相对裸眼3D显示单元的位置包括:
定位单元对由图像采集单元采集的图像进行分析,从而判断用户相对裸眼3D显示单元的位置。
8.一种显示装置,其特征在于,包括:
裸眼3D显示单元,其用于显示虚拟3D控制画面,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;
图像采集单元,其用于采集用户对虚拟3D控制画面的点击动作的图像;
手势识别单元,其用于根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
9.根据权利要求8所述的显示装置,其特征在于,
所述裸眼3D显示单元为电视或电脑显示屏。
10.根据权利要求8所述的显示装置,其特征在于,
所述裸眼3D显示单元为光栅式3D显示单元、棱镜膜式3D显示单元、指向光源式3D显示单元中的任意一种。
11.根据权利要求8至10中任意一项所述的显示装置,其特征在于,还包括:
定位单元,其用于判断用户相对裸眼3D显示单元的位置。
12.根据权利要求11所述的显示装置,其特征在于,
所述定位单元用于对由图像采集单元采集的图像进行分析,从而判断用户相对裸眼3D显示单元的位置。
13.一种手势识别方法,其特征在于,包括:
裸眼3D显示单元显示虚拟3D控制画面,其中,所述虚拟3D控制画面与用户眼睛间的虚拟距离等于第一距离,所述第一距离小于裸眼3D显示单元与用户眼睛间的距离;
图像采集单元采集用户对虚拟3D控制画面的点击动作的图像;
手势识别单元根据图像采集单元所采集的图像判断用户对虚拟3D控制画面的点击位置,并将点击位置所对应的控制指令发送给相应的执行单元。
CN201310529219.6A 2013-10-31 2013-10-31 显示装置及其控制方法、手势识别方法 Pending CN103529947A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201310529219.6A CN103529947A (zh) 2013-10-31 2013-10-31 显示装置及其控制方法、手势识别方法
PCT/CN2014/078074 WO2015062251A1 (zh) 2013-10-31 2014-05-22 显示装置及其控制方法、和手势识别方法
US14/426,012 US20160041616A1 (en) 2013-10-31 2014-05-22 Display device and control method thereof, and gesture recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310529219.6A CN103529947A (zh) 2013-10-31 2013-10-31 显示装置及其控制方法、手势识别方法

Publications (1)

Publication Number Publication Date
CN103529947A true CN103529947A (zh) 2014-01-22

Family

ID=49932020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310529219.6A Pending CN103529947A (zh) 2013-10-31 2013-10-31 显示装置及其控制方法、手势识别方法

Country Status (3)

Country Link
US (1) US20160041616A1 (zh)
CN (1) CN103529947A (zh)
WO (1) WO2015062251A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015062251A1 (zh) * 2013-10-31 2015-05-07 京东方科技集团股份有限公司 显示装置及其控制方法、和手势识别方法
WO2015062248A1 (zh) * 2013-10-31 2015-05-07 京东方科技集团股份有限公司 显示装置及其控制方法、和手势识别方法
CN109961478A (zh) * 2017-12-25 2019-07-02 深圳超多维科技有限公司 一种裸眼立体显示方法、装置及设备
CN112089589A (zh) * 2020-05-22 2020-12-18 未来穿戴技术有限公司 一种颈部按摩仪的控制方法、颈部按摩仪及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613384B (zh) * 2020-12-18 2023-09-19 安徽鸿程光电有限公司 手势识别方法、手势识别装置及交互显示设备的控制方法
CN112613389A (zh) * 2020-12-18 2021-04-06 上海影创信息科技有限公司 眼部手势控制方法和系统及其vr眼镜

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101465957A (zh) * 2008-12-30 2009-06-24 应旭峰 一种虚拟三维场景中实现遥控互动的系统
CN101655739A (zh) * 2008-08-22 2010-02-24 原创奈米科技股份有限公司 一种三次元虚拟输入与仿真的装置
CN102508546A (zh) * 2011-10-31 2012-06-20 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
CN102769802A (zh) * 2012-06-11 2012-11-07 西安交通大学 一种智能电视机的人机交互系统及其交互方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2296400A (en) * 1994-12-16 1996-06-26 Sharp Kk Autostereoscopic display having a high resolution 2D mode
JP2004334590A (ja) * 2003-05-08 2004-11-25 Denso Corp 操作入力装置
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
EP2372512A1 (en) * 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Vehicle user interface unit for a vehicle electronic device
US20110310003A1 (en) * 2010-05-21 2011-12-22 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Image display device and method of displaying images
CN103529947A (zh) * 2013-10-31 2014-01-22 京东方科技集团股份有限公司 显示装置及其控制方法、手势识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101655739A (zh) * 2008-08-22 2010-02-24 原创奈米科技股份有限公司 一种三次元虚拟输入与仿真的装置
CN101465957A (zh) * 2008-12-30 2009-06-24 应旭峰 一种虚拟三维场景中实现遥控互动的系统
CN102508546A (zh) * 2011-10-31 2012-06-20 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法
CN102769802A (zh) * 2012-06-11 2012-11-07 西安交通大学 一种智能电视机的人机交互系统及其交互方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015062251A1 (zh) * 2013-10-31 2015-05-07 京东方科技集团股份有限公司 显示装置及其控制方法、和手势识别方法
WO2015062248A1 (zh) * 2013-10-31 2015-05-07 京东方科技集团股份有限公司 显示装置及其控制方法、和手势识别方法
CN109961478A (zh) * 2017-12-25 2019-07-02 深圳超多维科技有限公司 一种裸眼立体显示方法、装置及设备
CN112089589A (zh) * 2020-05-22 2020-12-18 未来穿戴技术有限公司 一种颈部按摩仪的控制方法、颈部按摩仪及存储介质

Also Published As

Publication number Publication date
WO2015062251A1 (zh) 2015-05-07
US20160041616A1 (en) 2016-02-11

Similar Documents

Publication Publication Date Title
CN103530061A (zh) 显示装置及控制方法、手势识别方法、头戴显示装置
US10948726B2 (en) IPD correction and reprojection for accurate mixed reality object placement
CN103529947A (zh) 显示装置及其控制方法、手势识别方法
US9250746B2 (en) Position capture input apparatus, system, and method therefor
US9846486B2 (en) Systems and methods of direct pointing detection for interaction with a digital device
US9746928B2 (en) Display device and control method thereof
US10210664B1 (en) Capture and apply light information for augmented reality
CN103530060B (zh) 显示装置及其控制方法、手势识别方法
WO2018005985A1 (en) Image capture systems, devices, and methods that autofocus based on eye-tracking
US10650573B2 (en) Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
CN104685449A (zh) 基于用户的目光的用户界面元素焦点
KR20140107229A (ko) 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템
US11057606B2 (en) Method and display system for information display based on positions of human gaze and object
KR20170133754A (ko) 동작 인식 기반의 스마트 글래스 장치
KR20160141657A (ko) 데이터 열람 장치, 데이터 열람 방법, 및 기억 매체
CN104866103A (zh) 一种相对位置确定方法、穿戴式电子设备及终端设备
CN102307308B (zh) 一种在触摸屏上生成立体图像的方法和设备
KR20170119807A (ko) 시선의 이동에 따라 변하는 오브젝트의 정보를 연속적으로 표시하는 장치 및 방법
CN106919928A (zh) 手势识别系统、方法及显示设备
CN104063037B (zh) 一种操作命令识别方法、装置和穿戴式电子设备
JP2009129021A (ja) 情報入力システムおよび情報入力方法
EP2811369A1 (en) Method of moving a cursor on a screen to a clickable object and a computer system and a computer program thereof
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
CN112130659A (zh) 互动式立体显示装置与互动感应方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20140122