CN107219921B - 一种操作动作执行方法及其系统 - Google Patents

一种操作动作执行方法及其系统 Download PDF

Info

Publication number
CN107219921B
CN107219921B CN201710359272.4A CN201710359272A CN107219921B CN 107219921 B CN107219921 B CN 107219921B CN 201710359272 A CN201710359272 A CN 201710359272A CN 107219921 B CN107219921 B CN 107219921B
Authority
CN
China
Prior art keywords
display screen
operator
relative
operating position
attentively
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710359272.4A
Other languages
English (en)
Other versions
CN107219921A (zh
Inventor
韩艳玲
董学
王海生
吴俊纬
丁小梁
刘英明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201710359272.4A priority Critical patent/CN107219921B/zh
Publication of CN107219921A publication Critical patent/CN107219921A/zh
Priority to PCT/CN2017/110205 priority patent/WO2018209902A1/zh
Priority to US16/070,269 priority patent/US11231774B2/en
Application granted granted Critical
Publication of CN107219921B publication Critical patent/CN107219921B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明公开了一种操作动作执行方法及其系统,首先分别确定出操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置;在确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置一致时,根据操作部位的信息对显示屏所显示的内容执行相应的操作。因此,该方法不仅需要确定出操作者的操作部位相对于显示屏的所在位置,还要确定出作者双眼相对于显示屏的注视位置,只有在两个位置一致时,才可以根据操作部位的信息对显示屏所显示的内容执行相应的操作,如此,该方法可以大大提高对操作者的操作部位的检测精度,进而提高对显示屏中所显示的内容的操作精度,有效避免了误操作,提高了操作者的体验。

Description

一种操作动作执行方法及其系统
技术领域
本发明涉及三维显示技术领域,尤指一种操作动作执行方法及其系统。
背景技术
手势交互技术,是一种操作者可以通过自己的双手来控制系统的技术,通过此技术,使得操作者只需对着显示屏做出相应的动作,显示屏通过检测手部图像和坐标数据,判断出操作者手部的操作位置和手势命令,从而控制显示屏中对应影像进行相应地动作。
然而,由于操作者频繁的手势操作,使得手部一直处于举起状态;当操作者还在浏览显示屏中显示的内容时,或者与其他人说话时,用于检测手势的传感器一直处于检测状态,极易出现误操作和误识别。
基于此,如何提高手势交互技术中操作者手部的检测精度,避免误操作和误识别,是本领域技术人员亟待解决的技术问题。
发明内容
本发明实施例提供的一种操作动作执行方法及其系统,用以解决现有技术中如何提高手势交互技术中操作者手部的检测精度,避免误操作和误识别。
本发明实施例提供了一种操作动作执行方法,包括:
分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置;
确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置是否一致;
在确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置一致时,根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,所述确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置是否一致,具体包括:
确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置之间的距离是否在预设范围内;
若是,则确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置一致;
若否,则确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置不一致。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,所述显示屏的边框处具有一组位置识别器;
所述分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置,具体包括:
将一组所述位置识别器作为初步位置识别器;
采用所述初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,所述显示屏的边框处具有多组位置识别器;
所述分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置,具体包括:
根据各组所述位置识别器可识别的范围,确定初步位置识别器;
采用所述初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,所述初步位置识别器包括注视位置识别器和操作部位识别器;
所述采用所述初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置,具体包括:
采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置,同时采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置;或,
采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置,之后采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置;或,
采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置,之后采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,所述注视位置识别器包括第一摄像头和第一红外收发器;
所述采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置,具体包括:
采用所述第一摄像头和所述第一红外收发器确定所述操作者双眼相对于所述显示屏的注视位置。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,所述操作部位识别器包括:第二摄像头和所述第一摄像头;
在采用所述注视位置识别器确定操作者双眼相对于显示屏的注视位置之后或之前,采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置,具体包括:
采用所述第一摄像头和所述第二摄像头确定所述操作者的操作部位相对于所述显示屏的所在位置。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,在所述根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作之前,还包括:
根据确定出的所述操作者双眼相对于所述显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置,确定对应位置的一组所述位置识别器;
采用确定出的对应位置的一组所述位置识别器,确定所述操作部位的信息。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,在所述显示屏的显示区具有多个摄像传感器;
所述分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置,具体包括:
采用各所述摄像传感器获取包含有所述操作者双眼和操作部位的照片;
根据获取到的包含有所述操作者双眼和操作部位的照片,分别确定所述操作者双眼相对于显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行方法中,在所述显示屏的显示区具有多个第二红外收发器;
在所述根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作之前,还包括:
根据确定出的所述操作者双眼相对于所述显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置,确定对应位置的所述第二红外收发器;
采用确定出的对应位置的一组所述第二红外收发器,确定所述操作部位的信息。
本发明实施例还提供了一种操作动作执行系统,包括:确定模块、判断模块和执行模块;其中,
所述确定模块,用于分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置;
所述判断模块,用于确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置是否一致;
所述执行模块,用于在确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置一致时,根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行系统中,所述确定模块为设置于所述显示屏的边框处的一组或多组位置识别器;所述位置识别器包括注视位置识别器和操作部位识别器;一组所述位置识别器选定为初步位置识别器;
所述初步位置识别器中的注视位置识别器,用于确定所述操作者双眼相对于所述显示屏的注视位置;
所述初步位置识别器中的操作部位识别器,用于确定所述操作者的操作部位相对于所述显示屏的所在位置。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行系统中,所述注视位置识别器包括:第一摄像头和第一红外收发器。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行系统中,所述操作部位识别器包括:第二摄像头和所述第一摄像头。
在一种可能的实施方式中,在本发明实施例提供的上述操作动作执行系统中,所述确定模块为设置于所述显示屏的显示区的多个摄像传感器和多个第二红外收发器;
所述摄像传感器,用于获取包含有所述操作者双眼和操作部位的照片;根据获取到的包含有所述操作者双眼和操作部位的照片,分别确定所述操作者双眼相对于显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置;
所述第二红外收发器,用于确定所述操作部位的信息。
本发明有益效果如下:
本发明实施例提供的一种操作动作执行方法及其系统,首先,分别确定出操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置;在确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置一致时,根据操作部位的信息对显示屏所显示的内容执行相应的操作。因此,该方法不仅需要确定出操作者的操作部位相对于显示屏的所在位置,还要确定出作者双眼相对于显示屏的注视位置,只有在两个位置一致时,才可以根据操作部位的信息对显示屏所显示的内容执行相应的操作,如此,该方法可以大大提高对操作者的操作部位的检测精度,进而提高对显示屏中所显示的内容的操作精度,有效避免了误操作,提高了操作者的体验。
附图说明
图1为本发明实施例中提供的一种操作动作执行方法的流程图;
图2a和图2b分别为本发明实施例中提供的一种显示屏的结构示意图;
图3a和图3b分别为本发明实施例中提供的位置识别器的具体结构示意图;
图4a至图4c分别为本发明实施例中提供的另一种显示屏的结构示意图;
图5为本发明实施例中提供的一种操作动作执行系统的结构示意图。
具体实施方式
下面将结合附图,对本发明实施例提供的一种操作动作执行方法及其系统的具体实施方式进行详细地说明。需要说明的是,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种操作动作执行方法,如图1所示,可以包括:
S101、分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置;
S102、确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置是否一致;若是,则执行步骤S103;若否,则回到步骤S101;
S103、根据操作部位的信息对显示屏所显示的内容执行相应的操作。
本发明实施例提供的上述操作动作执行方法,该方法不仅需要确定出操作者的操作部位相对于显示屏的所在位置,还要确定出作者双眼相对于显示屏的注视位置,只有在两个位置一致时,才可以根据操作部位的信息对显示屏所显示的内容执行相应的操作,如此,该方法可以大大提高对操作者的操作部位的检测精度,进而提高对显示屏中所显示的内容的操作精度,有效避免了误操作,提高了操作者的体验。
在具体实施时,为了能够实现根据操作部位的信息,对显示屏所显示的内容执行相应的且精准的操作,有效避免误操作,在本发明实施例提供的上述操作动作执行方法中,可以根据显示屏所具有的硬件结构特点,采用不同的方式实现;具体地,可以根据以下两种结构来实现:
第一种,如图2a和图2b所示的显示屏,在显示屏201的边框处(除显示区202之外的区域)具有至少一组位置识别器,以位置识别器203为例,位置识别器203被固定在一个可旋转的底座204上,以便于将位置识别器旋转至正对操作者的注视位置方向,提高对操作者的操作部位的检测精度;该底座204可以是微机电系统(Micro Electro Mechanical System,MEMS),还可以是其他硬件结构,并且,该底座204还可以通过焊接(bonding)的方式集成于印刷电路板(Printed Circuit Board,PCB)之上,或者可以将位置识别器203直接焊接于PCB之上,实现集成化的结构设计,并且有利于实现显示屏窄边框的设计。
具体的位置识别器203的结构如图3a和图3b所示,可以包括一个注视位置识别器2031和一个操作部位识别器2032,其中,如图3a所示,在位置识别器203中存在一个第一摄像头a,注视位置识别器2031可以包括第一摄像头a和第一红外收发器b,操作部位识别器2032可以包括第一摄像头a和第二摄像头c,通过第一摄像头a和第二摄像头c,形成双目视差来确定景深坐标,进而确定操作者的操作部位的位置;所以,图3a所示的结构是将第一摄像头a复用,分别构成注视位置识别器2031和操作部位识别器2032;或者,还可以是如图3b所示的结构,在位置识别器203中存在两个第一摄像头a。
当然,注视位置识别器2031和操作部位识别器2032的具体硬件结构并不限于此,还可以是能够确定出操作者双眼相对于显示屏201的注视位置、操作者的操作部位相对于显示屏201的所在位置、以及操作者的操作部位的信息的其他硬件结构,在此不作限定。
第二种,如图4a至图4c所示(图中仅示出了部分摄像传感器206和部分第二红外收发器207),在显示屏201的显示区202(虚线框内)具有多个摄像传感器206(横线填充区域)和多个第二红外收发器207(竖线填充区域),其中,摄像传感器206的设置数量一般不大于第二红外收发器207的设置数量,且各摄像传感器206和各第二红外收发器207均匀分布于显示屏201的显示区202;具体地,如图4a和图4b所示,摄像传感器206的设置数量等于第二红外收发器207的设置数量,如图4c所示,摄像传感器206的设置数量小于第二红外收发器207的设置数量;当然,各摄像传感器206和各第二红外收发器207在显示区202的排布方式并不限于图4a至图4c所示的排布方式,只要各摄像传感器206和各第二红外收发器207均匀排布于显示区202内即可,在此不作限定;并且,位于显示区202的多个摄像传感器206和多个第二红外收发器207,可以是设置于显示屏201的阵列基板、对向基板或或封装基板之上,可以根据显示屏的类型的不同进行不同的设计,在此不作具体限定。
当然,还可以将第一种结构和第二种结构相结合(未给出图示),即在显示屏的边框区不仅具有至少一组位置识别器,在显示屏的显示区还具有多个摄像传感器和多个第二红外收发器,将两种结构相结合,可以大大提高对操作者的双眼和操作部位的检测精度,进而大大提高对显示屏中所显示的内容的操作精度,最大限度地减小误操作的几率。
下面主要就上述第一种结构和第二种结构,分别对本发明实施例提供的上述操作动作执行方法进行详细说明。
如第一种结构,在显示屏的边框处具有至少一组位置识别器时,在本发明实施例提供的上述操作动作执行方法中,可以分以下两种情况来实现本发明实施例提供的上述操作动作执行方法:
在具体实施时,如图2a所示,在显示屏201的边框处(除显示区202之外的区域)具有一组位置识别器203时,在本发明实施例提供的上述操作动作执行方法中的步骤S101分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置,可以具体包括:
将一组位置识别器作为初步位置识别器;
采用初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置。
在具体实施时,如图2b所示,在显示屏201的边框处(除显示区202之外的区域)具有多组位置识别器时,在本发明实施例提供的上述操作动作执行方法中的步骤S101分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置,可以具体包括:
根据各组位置识别器可识别的范围,确定初步位置识别器;
采用初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置。
具体地,在根据各组位置识别器可识别的范围,确定初步位置识别器时,是将各组位置识别器中设置位置最好,可识别的范围最大的那组位置识别器作为初步位置识别器,以保证确定出的操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置较准确,有利于进行下一步地比较和检测;当然,在选定初步位置识别器时,并不限于采用上述方式,还可以根据实际需要进行相应地设计;例如,如图2b所示的显示屏,首先,可以利用位于显示屏201最顶端位置的位置识别器203中的注视位置识别器2031确定出操作者双眼相对于显示屏201的注视位置;然后,将注视位置处对应的位置识别器(例如位置识别器205)作为初步位置识别器,再一次对操作者双眼相对于显示屏201的注视位置和操作者的操作部位相对于显示屏201的所在位置进行检测。
具体地,不管显示屏的边框处具有一组位置识别器,还是具有多组位置识别器,初步位置识别器的结构都是相同的,都是为了确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置;因此,以图3a和图3b所示的位置识别器203为初步位置识别器为例,在本发明实施例提供的上述操作动作执行方法中,初步位置识别器203可以包括注视位置识别器2031和操作部位识别器2032;
具体地,在图3a所示的结构中,因只存在一个第一摄像头a,所以由第一摄像头a和第一红外收发器b构成的注视位置识别器2031,与由第一摄像头a和第二摄像头c构成的操作部位识别器2032不能同时工作,需要分时进行工作,即在注视位置识别器2031确定出操作者双眼相对于显示屏的注视位置之后,操作部位识别器2032再去确定操作者的操作部位相对于显示屏的所在位置,或者在操作部位识别器2032先确定出操作者的操作部位相对于显示屏的所在位置之后,注视位置识别器2031再去确定操作者双眼相对于显示屏的注视位置;而在图3b所示的结构中,因存在两个第一摄像头a,所以注视位置识别器2031和操作部位识别器2032的工作顺序则不受限制;因此,在本发明实施例提供的上述操作动作执行方法中,采用初步位置识别器203,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置,可以具体包括:
采用注视位置识别器2031确定操作者双眼相对于显示屏的注视位置,同时采用操作部位识别器2032确定操作者的操作部位相对于显示屏的所在位置;或,
采用注视位置识别器2031确定操作者双眼相对于显示屏的注视位置,之后采用操作部位识别器2032确定操作者的操作部位相对于显示屏的所在位置;或,
采用操作部位识别器2032确定操作者的操作部位相对于显示屏的所在位置,之后采用注视位置识别器2031确定操作者双眼相对于显示屏的注视位置。
进一步地,如图3a和图3b所示,注视位置识别器2031,可以包括:第一摄像头a和第一红外收发器b;因此,在本发明实施例提供的上述操作动作执行方法中,采用注视位置识别器2031确定操作者双眼相对于显示屏的注视位置,可以具体包括:
采用第一摄像头a和第一红外收发器b确定操作者双眼相对于显示屏的注视位置。
进一步地,如图3a和图3b所示,操作部位识别器2032,可以包括:第二摄像头c和第一摄像头a;因此,在本发明实施例提供的上述操作动作执行方法中,在采用注视位置识别器2031确定操作者双眼相对于显示屏的注视位置之后或之前,采用操作部位识别器2032确定操作者的操作部位相对于显示屏的所在位置,可以具体包括:
采用第一摄像头a和第二摄像头c确定操作者的操作部位相对于显示屏的所在位置。
在具体实施时,为了判断确定出的操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置是否一致,以确定是否进行下一步地操作,在本发明实施例提供的上述操作动作执行方法中的步骤S102确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置是否一致,可以具体包括:
确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置之间的距离是否在预设范围内;
若是,则确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置一致;
若否,则确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置不一致。
具体地,该预设范围是根据实际需要进行预先设置的,因此,该预设范围是可调的,具体数值在此不作限定。
在具体实施时,在根据操作部位的信息对显示屏所显示的内容执行相应的操作之前,需要确定操作者的操作部位的信息,而在确定该信息时使用哪一组位置识别器,则依据显示屏具有的位置识别器的数量的不同而有所差异。
具体地,若显示屏的边框处仅具有一组位置识别器203,如图2a所示,那么,用于确定操作者的操作部位的信息的为位置识别器203,然后利用可旋转的底座204,将位置识别器203旋转至正对操作者的注视位置方向,采用位置识别器203,确定操作者的操作部位的信息。
具体地,若显示屏的边框处具有多组位置识别器时,如图2b所示,以位置识别器203为初步位置识别器为例,需要根据初步位置识别器203确定出操作者双眼相对于显示屏201的注视位置和操作者的操作部位相对于显示屏201的所在位置;然后,选取对应位置处的一组位置识别器,如位置识别器205;之后,利用可旋转底座204将位置识别器205旋转至正对操作者的注视位置方向,采用位置识别器205,确定操作部位的信息;因此,在本发明实施例提供的上述操作动作执行方法中的步骤S103在根据操作部位的信息对显示屏所显示的内容执行相应的操作之前,还可以包括:
根据确定出的操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置,确定对应位置的一组位置识别器;
采用确定出的对应位置的一组位置识别器,确定操作部位的信息。
如第二种结构,在显示屏的显示区具有多个摄像传感器和多个第二红外收发器时,如图4a至图4c所示,各摄像传感器206(横线填充区域)用于确定确定操作者双眼相对于显示屏201的注视位置和操作者的操作部位相对于显示屏201的所在位置,第二红外收发器207(竖线填充区域)则用于确定操作部位的信息;该种结构设计不仅可以实现对操作者的操作部位的精确检测,还有利于实现显示屏窄边框的设计。
在具体实施时,由于将摄像传感器206设置在显示区202的每个像素区域内,使得各摄像传感器206是无法调焦的,所以将位于各像素区域内的摄像传感器206的焦距设计的各不相同;为了能够确定出操作者双眼相对于显示屏201的注视位置和操作者的操作部位相对于显示屏201的所在位置,使得位于显示区202内的各摄像传感器206均要进行拍摄;因此,在本发明实施例提供的上述操作动作执行方法中的步骤S101分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置,可以具体包括:
采用各摄像传感器获取包含有操作者双眼和操作部位的照片;
根据获取到的包含有操作者双眼和操作部位的照片,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置。
具体地,正是由于位于各像素区域内的摄像传感器的焦距设计的各不相同,便导致在各摄像传感器进行拍照时,由于焦距的问题,有些摄像传感器拍的照片清楚,有些摄像传感器拍的照片则不清楚;所以,在各摄像传感器获取到包含有操作者双眼和操作部位的照片之后,需要对获取到的照片进行筛选,筛选出清晰的照片,然后根据清晰照片中的信息,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置。
在具体实施时,为了判断确定出的操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置是否一致,以确定是否进行下一步地操作,在本发明实施例提供的上述操作动作执行方法中的步骤S102确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置是否一致,可以具体包括:
确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置之间的距离是否在预设范围内;
若是,则确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置一致;
若否,则确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置不一致。
具体地,该预设范围是根据实际需要进行预先设置的,因此,该预设范围是可调的,具体数值在此不作限定。
在具体实施时,由于在显示屏的显示区具有多个第二红外收发器,为了减少计算量,减少功耗,在确定出操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置一致之后,需要根据确定出的操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置,选取与该位置对应的第二红外收发器,采用该位置处的第二红外收发器确定操作部位的信息,在提高检测准确度的同时,减少计算量;因此,在本发明实施例提供的上述操作动作执行方法中的步骤S103在根据操作部位的信息对显示屏所显示的内容执行相应的操作之前,还可以包括:
根据确定出的操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置,确定对应位置的第二红外收发器;
采用确定出的对应位置的一组第二红外收发器,确定操作部位的信息。
例如,以图4a所示的显示屏的结构为例,首先,利用各摄像传感器206确定出操作者双眼相对于显示屏201的注视位置和操作者的操作部位相对于显示屏201的所在位置之后,且判断出操作者双眼相对于显示屏201的注视位置和操作者的操作部位相对于显示屏201的所在位置一致时,若对应位置为第二红外收发器208(虚线框内的第二红外收发器),则仅采用第二红外收发器208,确定操作部位的信息,在提高检测准确度的同时,减少了计算量。
基于同一发明构思,本发明实施例还提供了一种操作动作执行系统,由于该操作动作执行系统的工作原理与前述一种操作动作执行方法相似,故该操作动作执行系统的具体实施方式可以参见前述一种操作动作执行方法的实施例,重复之处不在赘述。
具体地,本发明实施例提供的上述操作动作执行系统,如图5所示,可以包括:确定模块501、判断模块502和执行模块503;其中,
确定模块501,用于分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置;
判断模块502,用于确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置是否一致;
执行模块503,用于在确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置一致时,根据操作部位的信息对显示屏所显示的内容执行相应的操作。
在具体实施时,在本发明实施例提供的上述操作动作执行系统中,如图2a和图2b所示,确定模块501可以为设置于显示屏201的边框处(除显示区202之外的区域)的一组或多组位置识别器;位置识别器203可以包括注视位置识别器2031和操作部位识别器2032;一组位置识别器选定为初步位置识别器,以位置识别器203为初步位置识别器为例;
初步位置识别器203中的注视位置识别器2031,用于确定操作者双眼相对于显示屏的注视位置;
初步位置识别器203中的操作部位识别器2032,用于确定操作者的操作部位相对于显示屏的所在位置。
具体地,在本发明实施例提供的上述操作动作执行系统中,如图3a和图3b所示,注视位置识别器2031可以包括:第一摄像头a和第一红外收发器b。
具体地,在本发明实施例提供的上述操作动作执行系统中,如图3a和图3b所示,操作部位识别器2032可以包括:第二摄像头c和第一摄像头a。
在具体实施时,在本发明实施例提供的上述操作动作执行系统中,如图4a至图4c所示,确定模块501可以为设置于显示屏201的显示区202的多个摄像传感器206(横线填充区域)和多个第二红外收发器207(竖线填充区域);
摄像传感器206,用于获取包含有操作者双眼和操作部位的照片;根据获取到的包含有操作者双眼和操作部位的照片,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置;
第二红外收发器207,用于确定操作部位的信息。
在具体实施时,判断模块502和执行模块503,可以由一组中央处理器(CPU)来实现,或者是其他可以实现处理和控制功能的硬件结构来实现,在此不作限定。
本发明实施例提供了一种操作动作执行方法及其系统,首先,分别确定出操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于显示屏的所在位置;在确定操作者双眼相对于显示屏的注视位置与操作者的操作部位相对于显示屏的所在位置一致时,根据操作部位的信息对显示屏所显示的内容执行相应的操作。因此,该方法不仅需要确定出操作者的操作部位相对于显示屏的所在位置,还要确定出作者双眼相对于显示屏的注视位置,只有在两个位置一致时,才可以根据操作部位的信息对显示屏所显示的内容执行相应的操作,如此,该方法可以大大提高对操作者的操作部位的检测精度,进而提高对显示屏中所显示的内容的操作精度,有效避免了误操作,提高了操作者的体验。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (12)

1.一种操作动作执行方法,其特征在于,包括:
分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置;
确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置是否一致;
在确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置一致时,根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作;
所述显示屏的边框处具有一组或多组位置识别器;所述分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置,具体包括:
当所述显示屏的边框具有一组位置识别器时,将一组所述位置识别器作为初步位置识别器;采用所述初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置;
当所述显示屏的边框处具有多组位置识别器时,根据各组所述位置识别器可识别的范围,确定初步位置识别器;采用所述初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置。
2.如权利要求1所述的操作动作执行方法,其特征在于,所述确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置是否一致,具体包括:
确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置之间的距离是否在预设范围内;
若是,则确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置一致;
若否,则确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置不一致。
3.如权利要求1所述的操作动作执行方法,其特征在于,所述初步位置识别器包括注视位置识别器和操作部位识别器;
所述采用所述初步位置识别器,分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置,具体包括:
采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置,同时采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置;或,
采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置,之后采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置;或,
采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置,之后采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置。
4.如权利要求3所述的操作动作执行方法,其特征在于,所述注视位置识别器包括第一摄像头和第一红外收发器;
所述采用所述注视位置识别器确定所述操作者双眼相对于所述显示屏的注视位置,具体包括:
采用所述第一摄像头和所述第一红外收发器确定所述操作者双眼相对于所述显示屏的注视位置。
5.如权利要求4所述的操作动作执行方法,其特征在于,所述操作部位识别器包括:第二摄像头和所述第一摄像头;
在采用所述注视位置识别器确定操作者双眼相对于显示屏的注视位置之后或之前,采用所述操作部位识别器确定所述操作者的操作部位相对于所述显示屏的所在位置,具体包括:
采用所述第一摄像头和所述第二摄像头确定所述操作者的操作部位相对于所述显示屏的所在位置。
6.如权利要求1所述的操作动作执行方法,其特征在于,在所述根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作之前,还包括:
根据确定出的所述操作者双眼相对于所述显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置,确定对应位置的一组所述位置识别器;
采用确定出的对应位置的一组所述位置识别器,确定所述操作部位的信息。
7.如权利要求1所述的操作动作执行方法,其特征在于,在所述显示屏的显示区具有多个摄像传感器;
所述分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置,具体包括:
采用各所述摄像传感器获取包含有所述操作者双眼和操作部位的照片;
根据获取到的包含有所述操作者双眼和操作部位的照片,分别确定所述操作者双眼相对于显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置。
8.如权利要求7所述的操作动作执行方法,其特征在于,在所述显示屏的显示区具有多个第二红外收发器;
在所述根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作之前,还包括:
根据确定出的所述操作者双眼相对于所述显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置,确定对应位置的所述第二红外收发器;
采用确定出的对应位置的一组所述第二红外收发器,确定所述操作部位的信息。
9.一种操作动作执行系统,其特征在于,包括:确定模块、判断模块和执行模块;其中,
所述确定模块,用于分别确定操作者双眼相对于显示屏的注视位置和操作者的操作部位相对于所述显示屏的所在位置;
所述判断模块,用于确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置是否一致;
所述执行模块,用于在确定所述操作者双眼相对于所述显示屏的注视位置与所述操作者的操作部位相对于所述显示屏的所在位置一致时,根据所述操作部位的信息对所述显示屏所显示的内容执行相应的操作;
所述确定模块为设置于所述显示屏的边框处的一组或多组位置识别器;所述位置识别器包括注视位置识别器和操作部位识别器;一组所述位置识别器选定为初步位置识别器;
所述初步位置识别器中的注视位置识别器,用于确定所述操作者双眼相对于所述显示屏的注视位置;
所述初步位置识别器中的操作部位识别器,用于确定所述操作者的操作部位相对于所述显示屏的所在位置。
10.如权利要求9所述的操作动作执行系统,其特征在于,所述注视位置识别器包括:第一摄像头和第一红外收发器。
11.如权利要求10所述的操作动作执行系统,其特征在于,所述操作部位识别器包括:第二摄像头和所述第一摄像头。
12.如权利要求9所述的操作动作执行系统,其特征在于,所述确定模块为设置于所述显示屏的显示区的多个摄像传感器和多个第二红外收发器;
所述摄像传感器,用于获取包含有所述操作者双眼和操作部位的照片;根据获取到的包含有所述操作者双眼和操作部位的照片,分别确定所述操作者双眼相对于显示屏的注视位置和所述操作者的操作部位相对于所述显示屏的所在位置;
所述第二红外收发器,用于确定所述操作部位的信息。
CN201710359272.4A 2017-05-19 2017-05-19 一种操作动作执行方法及其系统 Active CN107219921B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710359272.4A CN107219921B (zh) 2017-05-19 2017-05-19 一种操作动作执行方法及其系统
PCT/CN2017/110205 WO2018209902A1 (zh) 2017-05-19 2017-11-09 操作动作在显示屏上的执行方法和操作动作执行装置
US16/070,269 US11231774B2 (en) 2017-05-19 2017-11-09 Method for executing operation action on display screen and device for executing operation action

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710359272.4A CN107219921B (zh) 2017-05-19 2017-05-19 一种操作动作执行方法及其系统

Publications (2)

Publication Number Publication Date
CN107219921A CN107219921A (zh) 2017-09-29
CN107219921B true CN107219921B (zh) 2019-09-27

Family

ID=59945058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710359272.4A Active CN107219921B (zh) 2017-05-19 2017-05-19 一种操作动作执行方法及其系统

Country Status (3)

Country Link
US (1) US11231774B2 (zh)
CN (1) CN107219921B (zh)
WO (1) WO2018209902A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107219921B (zh) 2017-05-19 2019-09-27 京东方科技集团股份有限公司 一种操作动作执行方法及其系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102866776A (zh) * 2012-09-07 2013-01-09 广东电网公司电力调度控制中心 电网调度运行的眼控输入系统及其应用方法
CN103324290A (zh) * 2013-07-04 2013-09-25 深圳市中兴移动通信有限公司 终端设备及其眼睛操控方法
CN104123161A (zh) * 2014-07-25 2014-10-29 西安交通大学 一种利用人眼注视点的屏幕解锁和应用启动的方法
CN104364733A (zh) * 2012-06-01 2015-02-18 夏普株式会社 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN104750230A (zh) * 2013-12-27 2015-07-01 中芯国际集成电路制造(上海)有限公司 可穿戴智能设备及其交互的方法、可穿戴智能设备系统
CN105009032A (zh) * 2013-09-11 2015-10-28 歌乐株式会社 信息处理装置、姿势检测方法和姿势检测程序
CN105260008A (zh) * 2014-07-15 2016-01-20 华为技术有限公司 一种定位位置的方法及装置
CN105824400A (zh) * 2015-01-06 2016-08-03 索尼公司 电子设备的控制方法、控制装置以及电子设备
CN106020454A (zh) * 2016-05-11 2016-10-12 惠州Tcl移动通信有限公司 一种基于眼控技术的智能终端触摸屏操作方法及系统
CN106066694A (zh) * 2016-05-30 2016-11-02 维沃移动通信有限公司 一种触摸屏操作响应的控制方法及终端
CN107066088A (zh) * 2017-03-08 2017-08-18 联想(北京)有限公司 一种交互方法及电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9274598B2 (en) 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
CN103329519A (zh) * 2011-03-31 2013-09-25 株式会社尼康 图像显示装置及物体检测装置
US8693726B2 (en) * 2011-06-29 2014-04-08 Amazon Technologies, Inc. User identification by gesture recognition
US20130145304A1 (en) * 2011-12-02 2013-06-06 International Business Machines Corporation Confirming input intent using eye tracking
CN103164022B (zh) * 2011-12-16 2016-03-16 国际商业机器公司 多指触摸方法和装置、便携式终端设备
US9426447B2 (en) * 2012-10-09 2016-08-23 Electronics And Telecommunications Research Institute Apparatus and method for eye tracking
US20140313294A1 (en) * 2013-04-22 2014-10-23 Samsung Display Co., Ltd. Display panel and method of detecting 3d geometry of object
US9661230B2 (en) * 2013-07-05 2017-05-23 Lg Electronics Inc. Image display apparatus and method of operating the image display apparatus
US9832452B1 (en) * 2013-08-12 2017-11-28 Amazon Technologies, Inc. Robust user detection and tracking
CN103488299B (zh) 2013-10-15 2016-11-23 大连市恒芯科技有限公司 一种融合人脸和手势的智能终端人机交互方法
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
CN103793060B (zh) * 2014-02-14 2017-07-28 杨智 一种用户交互系统和方法
CN106796390A (zh) * 2014-10-07 2017-05-31 诺基亚技术有限公司 用于立体成像的具有大视场的相机设备
CN104866100B (zh) 2015-05-27 2018-11-23 京东方科技集团股份有限公司 眼控装置及其眼控方法和眼控系统
CN106468944A (zh) * 2015-08-18 2017-03-01 富泰华工业(深圳)有限公司 非接触式控制系统及方法
CN105892642A (zh) * 2015-12-31 2016-08-24 乐视移动智能信息技术(北京)有限公司 一种根据眼部动作对终端进行控制的方法及装置
CN107219921B (zh) 2017-05-19 2019-09-27 京东方科技集团股份有限公司 一种操作动作执行方法及其系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104364733A (zh) * 2012-06-01 2015-02-18 夏普株式会社 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN104364733B (zh) * 2012-06-01 2018-02-16 夏普株式会社 注视位置检测装置、注视位置检测方法和注视位置检测程序
CN102866776A (zh) * 2012-09-07 2013-01-09 广东电网公司电力调度控制中心 电网调度运行的眼控输入系统及其应用方法
CN103324290A (zh) * 2013-07-04 2013-09-25 深圳市中兴移动通信有限公司 终端设备及其眼睛操控方法
CN105009032A (zh) * 2013-09-11 2015-10-28 歌乐株式会社 信息处理装置、姿势检测方法和姿势检测程序
CN104750230A (zh) * 2013-12-27 2015-07-01 中芯国际集成电路制造(上海)有限公司 可穿戴智能设备及其交互的方法、可穿戴智能设备系统
CN105260008A (zh) * 2014-07-15 2016-01-20 华为技术有限公司 一种定位位置的方法及装置
CN104123161A (zh) * 2014-07-25 2014-10-29 西安交通大学 一种利用人眼注视点的屏幕解锁和应用启动的方法
CN105824400A (zh) * 2015-01-06 2016-08-03 索尼公司 电子设备的控制方法、控制装置以及电子设备
CN106020454A (zh) * 2016-05-11 2016-10-12 惠州Tcl移动通信有限公司 一种基于眼控技术的智能终端触摸屏操作方法及系统
CN106066694A (zh) * 2016-05-30 2016-11-02 维沃移动通信有限公司 一种触摸屏操作响应的控制方法及终端
CN107066088A (zh) * 2017-03-08 2017-08-18 联想(北京)有限公司 一种交互方法及电子设备

Also Published As

Publication number Publication date
CN107219921A (zh) 2017-09-29
US20200125164A1 (en) 2020-04-23
US11231774B2 (en) 2022-01-25
WO2018209902A1 (zh) 2018-11-22

Similar Documents

Publication Publication Date Title
KR101813834B1 (ko) 화상처리장치, 화상처리방법 및 화상처리프로그램과 촬영보조기재
CN108292489B (zh) 信息处理装置和图像生成方法
US10165176B2 (en) Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
US11287905B2 (en) Trackability enhancement of a passive stylus
US20210064126A1 (en) Interface Interaction Apparatus and Method
CN105931272B (zh) 一种运动对象追踪方法及系统
EP3353632A1 (en) Eye-tracking enabled wearable devices
US20150310619A1 (en) Single-Camera Distance Ranging Method and System
US10231611B2 (en) Oral endoscope detection system and detection method thereof
US9514524B2 (en) Optical distortion compensation
US10948994B2 (en) Gesture control method for wearable system and wearable system
WO2019005644A1 (en) EYE TRACKING SYSTEM WITH DETECTION AND CORRECTION OF SLIDING
CN105260008B (zh) 一种定位位置的方法及装置
CN109982038A (zh) 显示声源位置的方法、装置及计算机设备
CN107219921B (zh) 一种操作动作执行方法及其系统
CN111491159A (zh) 一种增强现实的显示系统及方法
US20160091717A1 (en) Head-mounted display system and operation method thereof
CN105391997B (zh) 立体显示装置的三维视点校正方法
CN105867632B (zh) 透镜的调整装置及所适用的智能眼镜
KR100520050B1 (ko) 응시방향 기반의 머리착용형 컴퓨터 인터페이스 장치 및방법
US20200159339A1 (en) Desktop spatial stereoscopic interaction system
WO2021237952A1 (zh) 一种增强现实的显示系统及方法
TWI704473B (zh) 視線向量偵測方向與裝置
US9832377B2 (en) Data acquiring method and electronic device thereof
US9697419B2 (en) Information processing apparatus, non-transitory storage medium encoded with computer readable information processing program, information processing system, and information processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant