CN105528084A - 一种显示控制装置及其控制方法、显示控制系统 - Google Patents

一种显示控制装置及其控制方法、显示控制系统 Download PDF

Info

Publication number
CN105528084A
CN105528084A CN201610041709.5A CN201610041709A CN105528084A CN 105528084 A CN105528084 A CN 105528084A CN 201610041709 A CN201610041709 A CN 201610041709A CN 105528084 A CN105528084 A CN 105528084A
Authority
CN
China
Prior art keywords
brain wave
image
characteristic parameter
current
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610041709.5A
Other languages
English (en)
Inventor
李文波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201610041709.5A priority Critical patent/CN105528084A/zh
Publication of CN105528084A publication Critical patent/CN105528084A/zh
Priority to US15/540,371 priority patent/US10488925B2/en
Priority to PCT/CN2016/103244 priority patent/WO2017124794A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供一种显示控制装置及其控制方法、显示控制系统,涉及显示技术领域,能够提高用户使用显示设备的便利性。该显示控制方法包括获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视所述当前显示图像时的当前脑电波;在当前脑电波的特征参数满足预设条件时,根据当前脑电波确定当前脑电波对应的控制指令;根据控制指令对注视位置的显示图像执行相应的操作。

Description

一种显示控制装置及其控制方法、显示控制系统
技术领域
本发明涉及显示技术领域,尤其涉及一种显示控制装置及其控制方法、显示控制系统。
背景技术
随着显示技术的不断发展,显示设备例如电视、电脑以及手机等电子产品逐渐成为人们日常生活中的必需品。然而,用户在使用上述显示设备时通常需要借助一些辅助装置以对显示设备进行操控,例如当用户在玩游戏时,需要借助游戏手柄,实现显示画面中的定位或更换装备等操作。或者,在用户观看图片或影片的过程中,需要通过遥控器控制显示画面显示的内容。这样一来,降低了使用显示设备的便利性。
发明内容
本发明的实施例提供一种显示控制装置及其控制方法、显示控制系统,能够提高用户使用显示设备的便利性。
为达到上述目的,本发明的实施例采用如下技术方案:
本发明实施例的一方面,提供一种显示控制方法,包括:获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视所述当前显示图像时的当前脑电波;当所述当前脑电波的特征参数满足预设条件时,根据所述当前脑电波确定所述当前脑电波对应的控制指令;根据所述控制指令对所述注视位置的显示图像执行相应的操作。
优选的,所述根据所述当前脑电波确定所述当前脑电波对应的控制指令包括确定所述当前脑电波的特征参数;将所述当前脑电波的特征参数与脑电波数据集中的预设脑电波的特征参数进行匹配;所述脑电波数据集预存有预设脑电波的特征参数与控制指令的对应关系;当所述当前脑电波的特征参数与所述预设脑电波的特征参数相匹配时,获取相匹配的预设脑电波所对应的控制指令。
优选的,在获取当前脑电波之前,所述方法还包括:确定所述预设脑电波的特征参数,并存储;建立所述脑电波数据集。
优选的,所述特征参数为脑电波的频率、振幅中的至少一种。
优选的,所述显示控制方法为可穿戴设备执行的显示控制方法,所述获取当眼睛注视显示图像时,显示图像上的注视位置包括:获取眼部图像,确定瞳孔位置;根据所述瞳孔位置计算出视线方向;根据所述视线方向与所述显示图像的映射关系,得出所述眼睛在所述图像的注视位置。
本发明实施例的另一方面,提供一种显示控制装置,包括:获取模块,用于获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视所述当前显示图像时的当前脑电波;确定模块,用于当所述当前脑电波的特征参数满足预设条件时,根据所述当前脑电波确定所述当前脑电波对应的控制指令;执行模块,用于根据所述控制指令,对所述注视位置的显示图像执行相应的操作。
优选的,还包括存储模块,所述获取模块包括用于获取所述当前脑电波的脑电波采集子模块,所述确定模块包括特征参数获取子模块以及指令汇编子模块;所述特征参数获取子模块连接所述脑电波采集子模块,用于确定所述当前脑电波和预设脑电波的特征参数;所述指令汇编子模块连接所述特征参数获取子模块,用于建立脑电波数据集,所述脑电波数据集预存有预设脑电波的特征参数与控制指令的对应关系;所述存储模块连接所述特征参数获取子模块和所述指令汇编子模块,用于存储所述控制指令、所述特征参数以及所述脑电波数据集。
进一步优选的,所述确定模块还包括特征匹配子模块;所述特征匹配子模块连接所述特征参数获取子模块和所述存储模块,用于将所述特征参数获取子模块获取到的当前脑电波的特征参数与所述存储模块中脑电波数据集中的预设脑电波的特征参数进行匹配。
进一步优选的,所述确定模块还包括指令获取子模块,与所述特征匹配子模块和所述存储模块相连接,用于当所述当前脑电波的特征参数与所述预设脑电波的特征参数相匹配时,从所述存储模块中获取相匹配的预设脑电波所对应的控制指令。
优选的,所述获取模块包括:眼部图像采集子模块、视线确定子模块、位置计算元件子模块;所述眼部图像采集子模块用于获取眼部图像,确定瞳孔位置;所述视线确定子模块与所述眼部图像采集子模块相连接,用于计算出视线方向;所述位置计算子模块与所述视线确定子模块相连接,用于根据所述视线方向与所述显示图像的映射关系,得出所述眼睛在所述显示图像的注视位置。
本发明实施例的又一方面,提供一种显示控制系统,包括:显示设备、可穿戴设备、控制器;所述显示设备用于显示图像,作为当前显示图像;所述可穿戴设备用于获取眼睛注视当前显示图像时显示图像上的注视位置,以及获取眼睛注视所述当前显示图像时的当前脑电波;所述控制器用于当所述当前脑电波的特征参数满足预设条件时,根据所述当前脑电波确定所述当前脑电波对应的控制指令;根据所述控制指令对所述注视位置的显示图像执行相应的操作。
优选的,所述显示设备与所述可穿戴设备分离式设置,且通过有线或无线方式连接,用于信息交互,所述控制器设置在所述显示设备中。
优选的,所述可穿戴设备包括头戴支架,所述头戴支架上设置有用于采集当前脑电波的脑电波采集回路、用于采集人眼成像的图像采集器,以及用于根据所述图像采集器采集的图像确定眼睛在显示图像上的注视位置的处理器;所述处理器还用于将所述当前脑电波和所述注视位置发送至所述显示设备。
优选的,所述可穿戴设备包括头戴支架,所述头戴支架上集成有所述显示设备和所述控制器。
优选的,所述头戴支架上设置有用于采集当前脑电波的脑电波采集回路、用于采集人眼成像的图像采集器,以及用于根据所述图像采集器采集的图像确定眼睛在显示图像上的注视位置的处理器;所述处理器还用于将所述当前脑电波和所述注视位置发送至所述显示设备。
优选的,所述脑电波采集回路由前额传感器以及至少一个耳垂传感器构成。
优选的,所述图像采集器为CCD图像传感器或CMOS图像传感器。
进一步优选的,所述图像采集器和所述显示设备上设置有红外光光源。
本发明实施例提供一种显示控制装置及其控制方法、显示控制系统,该显示控制方法包括获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视当前显示图像时的当前脑电波;接下来,在当前脑电波的特征参数满足预设条件时,根据当前脑电波确定当前脑电波对应的控制指令;最后,根据控制指令对注视位置的显示图像执行相应的操作。这样一来,用户可以通过双眼对该显示图像上的操作位置进行选择,而用户在不同思考状态下可以发出不同的脑电波,所以能够通过脑电波可以去判断用户是否需要执行上述注视位置的相应操作。因此在上述控制过程中无需手动就可以实现相应操作,从而可以提高可穿戴设备的便利性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a为本发明实施例提供的一种显示控制方法的流程图;
图1b为本发明实施例提供的显示控制装置的显示图像示意图;
图1c为脑电波受到肌电图影响后峰值发生变化的示意图;
图2为图1a中步骤S102所涉及的方法的详细流程图;
图3为图1a中步骤S103所涉及的方法的详细流程图;
图4a为图3中步骤S103瞳孔位置确定的一种示意图;
图4b为图3中步骤S103瞳孔位置确定的另一种示意图;
图4c为图3中步骤S103瞳孔位置确定的又一种示意图;
图5a为本发明实施例提供的另一种显示控制方法的流程图;
图5b为与图5a对应的一种显示图像的示意图;
图5c为与图5a对应的另一种显示图像的示意图;
图6为本发明实施例提供的一种显示控制装置的结构示意图;
图7为图6所示的显示控制装置中具体部件的连接方式示意图;
图8为本发明实施例提供的一种显示控制系统的结构示意图;
图9为图8中显示控制系统的具体结构示意图;
图10为本发明实施例提供的一种脑电波采集回路示意图;
图11为本发明实施例提供的另一种显示控制系统的结构示意图。
附图标记:
100-显示图像;101-图像主内容;102-操作图标;110-头戴支架;10-显示面板;11-显示面板上的图像在人眼中的成像;12-瞳孔;120-红外光源;121-光斑;13-眼球;103-虚拟注视点;130-射击区域;131-操控区域;01-获取模块;02-确定模块;03-执行模块;04-存储模块;201-脑电波采集子模块;202-特征参数获取子模块;203-指令汇编子模块;204-特征匹配子模块;205-指令获取子模块;206-眼部图像采集子模块;207-视线确定子模块;208-位置计算子模块;20-显示设备;30-可穿戴设备;40-控制器;111-脑电波采集回路;112-前额传感器;113-耳垂传感器;114-图像采集器;115-红外光光源;T-采集阶段;S-采集阶段中的某一时刻;G1-峰值未发生突变的脑电波;G2-肌电图;G3-G1与G2的叠加波形图。
具体实施方式
目前,无论是普通显示还是虚拟现实显示,均涉及用户与显示设备的交互,以实现对显示图像的操作或控制。目前,用户与显示设备通过外设或触摸屏交互,这样用户操作便利性不够高。因此,提出一种不需要手动而仅通过用户的眼睛和脑电波的相关信息就可以实现与显示设备的交互。
具体的,脑电波是人体大脑在进行思维活动时,大脑皮质细胞群之间形成电位差,从而在大脑皮质的细胞外产生电流。人体大脑传递不同信息时的脑电波参数(例如脑电波的频率或振幅等)不同。这样具有信息处理功能的显示设备可以检测用户在与显示设备交互时的脑电波,并获取用户注视显示图像的注视位置,从而可以确定用户的交互指令。
本发明提供的用户与显示设备的交互,可以适用于多种应用场景。其中一种应用场景为,用户佩戴可穿戴设备,通过可穿戴设备向显示设备(如手机、电脑、电视机等)发送交互信息(包括采集到用户的脑电波和用户注视显示图像的注视位置等),所述显示设备识别上述交互信息并执行相应的控制指令。
另一种应用场景为,用户仅佩戴可穿戴设备,该可穿戴设备上就集成的显示设备,从而将上述采集到的脑电波和用户注视显示图像的注视位置等交互信息与集成于可穿戴设备上的显示设备进行交互。
上述两种应用场景的显示设备均为具有数据处理能力的显示设备。比如具有控制器的显示设备,当然,控制器可以与显示设备分离。比如,针对第二种应用场景,所述控制器可以集成在可穿戴设备上,显示设备仅具有显示功能。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明实施例提供一种显示控制方法,如图1a所示,包括以下步骤:
S101、获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视该当前显示图像时的当前脑电波。
具体的,以上述第一种应用场景为例说明。
例如,假设显示设备为具有控制器的电脑(如,控制器为CPU)。可穿戴设备为头戴式可穿戴设备。则,用户需与显示设备交互时,佩戴所述头戴式可穿戴设备,并注视电脑显示的当前显示图像。
在此情况下,当用户佩戴所述头戴式可穿戴设备,并注视电脑显示的当前显示图像时,头戴式可穿戴设备能够获取用户的注视位置和当前脑电波,并向电脑提供上述注视位置和当前脑电波,以使得电脑能够获取到上述注视位置和当前脑电波。
头戴式可穿戴设备如何获取注视位置和当前脑电波在后续详细描述,这里不做介绍。
上例中,假设电脑显示图像为如图1b所示显示图像100,该显示图像包括图像主内容101,以及操作图标102,如图1b中三个操作图标102从左至右依次为最小化图标、还原图标或关闭图标等。若用户需要关闭显示图像100中的图像主内容101时,可注视关闭图标,可穿戴设备就可以检测到用户眼睛的注视位置和注视时的脑电波,将注视位置和脑电波通过无线或有线方式发送给显示设备。
S102、在当前脑电波的特征参数满足预设条件时,根据当前脑电波确定当前脑电波对应的控制指令。
具体的,脑电波的特征参数可以是脑电波的频率、振幅中的至少一种。所述控制指令可以是与操作图标102对应的指令,比如与关闭、保存、最小化、最大化、确定、选中等图标对应的控制指令。具体的,与关闭图标对应的指令可以为关闭指令。
以脑电波的特征参数为频率为例说明。
当通过步骤S101获取到注视位置和注视时的脑电波时,判断当前脑电波的频率是否满足预设条件,若是,则根据当前脑电波确定当前脑电波对应的控制指令,否则,什么都不做或者报错。
在当前脑电波的特征参数满足预设条件时,根据当前脑电波确定当前脑电波对应的控制指令,具体为:确定所述当前脑电波的特征参数;将所述当前脑电波的特征参数与脑电波数据集中的预设脑电波的特征参数进行匹配;所述脑电波数据集预存有预设脑电波的特征参数与控制指令的对应关系;当所述当前脑电波的特征参数与所述预设脑电波的特征参数相匹配时,获取相匹配的预设脑电波所对应的控制指令。
沿用上例,若当前脑电波的频率为专注状态的脑电波频率时,则认为用户的注视为想要执行某种操作的注视,且注视位置为如图1b的关闭图标时,根据当前脑电波确定当前脑电波对应的控制指令为关闭指令。
S103、根据控制指令对注视位置的显示图像100执行相应的操作。
上例中,确定控制指令为关闭指令时,执行关闭显示图像100的操作。
本发明实施例提供一种显示控制方法,包括获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视当前显示图像时的当前脑电波;接下来,在当前脑电波的特征参数满足预设条件时,根据当前脑电波确定当前脑电波对应的控制指令;最后,根据控制指令对注视位置的显示图像执行相应的操作。这样一来,用户可以通过双眼对该显示图像上的操作位置进行选择或控制,而用户在不同思考状态下可以发出不同的脑电波,所以能够通过脑电波可以去判断用户是否需要执行上述注视位置的相应操作。因此在上述控制过程中无需手动就可以实现相应操作,从而可以提高用户使用可穿戴设备时的操作便利性。
需要说明的是,用户注视的所述显示图像可以是显示设备上显示的真实图像,也可以是可穿戴设备通过投影器件显示的虚拟图像,具体的,投影器件将显示设备的真实显示图像投影在人的视网膜,视觉效果为人眼视场范围内具有一个虚拟图像。
上述步骤S102中的预设条件为与脑电波特征参数相关的预设条件,不同的脑电波参数,预设条件也不同,则预设条件对应的图1a所示方法也略有差异。
具体的,若上述特征参数为脑电波的频率时,所述的预设条件为一频率阈值。
更具体的,通常用户在观看图像主内容101时的专注度一般较执行上述操作图标102的专注度低。因此用户在观看图像主内容101时可以发出上述α脑电波(8~12Hz),而在需要执行上述操作图标102时可以发出上述β脑电波(12~30Hz)。上述频率阈值可以为12Hz。即在当前脑电波的频率小于12Hz时,说明用户只是在观看图像主内容101,没有执行操作图标102的意向。而在当前脑电波的频率大于等于12Hz时,说明用户需要执行操作图标102。
在此情况下,与该当前脑电波对应的控制指令执行该操作图标102,例如单击关闭图标。这样一来,当采集到的当前脑电波的频率大于上述频率阈值(12Hz)时,确定出用户需要单击操作图标102。接下来,可以在对用户注视位置处的操作图标102执行单击操作。当采集到的当前脑电波的频率小于上述频率阈值(12Hz)时,将对操作图标102不进行任何操作。
若上述特征参数为脑电波的频率和振幅时。所述预设条件包括一频率阈值和当前脑电波波形的峰值是否在如图1c所示的采集阶段T发生突变。
具体的,由于眼部肌肉的收缩也会产生一定的电波,即肌电图G2(如图1c所示)。其中,眼部肌肉的收缩可以由眨眼引起。从而会使得脑电波G1振幅的峰值在上述采集阶段T的S时刻发生突变。其中,图1c中的波形G1为振幅峰值未发生突变的脑电波的波形。其中,上述S时刻为肌电图G2与峰值未发生突变的脑电波G1波形叠加的时刻。
基于此,当采集到的当前脑电波的频率大于等于上述频率阈值时(同实施例一为12HZ),即用户处于清醒专注的状态,并且需要执行操作图标102。接下来,需要判断对操作图标102进行单击还是双击.此时,在当前脑电波在S时刻的振幅峰值发生了较大的变化,则说明用户在观看显示图像100时进行眨眼,此时该当前脑电波对应的控制指令为双击操作图标102。而在当前脑电波的振幅在采集过程中均未发生变化,则说明用户在观看显示图像100时未眨眼,此时该当前脑电波对应的控制指令可以是单击操作图标102。此外,当采集到的当前脑电波的频率小于上述频率阈值(12Hz)时,将对操作图标102不进行任何操作。
若上述特征参数为脑电波的振幅时,则所述预设条件包括当前脑电波波形的峰值是否在如图1c所示的采集阶段T发生突变。
具体的,当用户看不清图像101时,通常会将眼睛眯起来从而同样会因此眼部肌肉的收缩,使得脑电波G1振幅的峰值在上述采集阶段T的S时刻发生突变。
基于此,在当前脑电波的振幅峰值在S时刻发生了较大的变化时,则说明用户眯着眼在观看显示图像100,此时该当前脑电波对应的控制指令可以是放大显示图像100。在当前脑电波的振幅未发生变化时,可以对放大显示图像100不进行任何操作。
由上述可知,可以在可穿戴设备事先存储一些与控制指令相对应的特征参数。例如频率为12~30Hz的β脑电波对应单击的控制指令。然而当上述当前脑电波的频率在12~30Hz内时,只能够获取到单击操作的控制指令。对于其他指令例如双击操作或者放大操作,均需要结合眼部肌肉收缩或扩张得到的肌电图对当前脑电波的振幅产生的影响来实现。增加了获取控制指令的复杂性。为了解决上述问题,本发明还可以包括多个控制指令。该预设条件为当前脑电波与事先存储的预设脑电波是否匹配。
具体的根据当前脑电波确定当前脑电波对应的控制指令的方法,如图2所示,可以包括以下步骤:
S201、确定当前脑电波的特征参数。
具体的,上述特征参数可以包括当前脑电波的频率以及振幅。以下为了方便说明,以频率作为特征参数进行举例。
S202、将当前脑电波的特征参数与脑电波数据集中的预设脑电波的特征参数进行匹配。其中,该脑电波数据集预存有预设脑电波的特征参数与控制指令的对应关系。
需要说明的是,当前脑电波的特征参数与二脑电波的特征参数相匹配是指,当前脑电波的特征参数与二脑电波的特征参数之间的差异在允许的误差范围之内。该误差可以由可穿戴设备的精度确定。本发明对此不做限定。
S203、在当前脑电波的特征参数与预设脑电波的特征参数相匹配时,获取相匹配的预设脑电波所对应的控制指令。
需要说明的是,预设脑电波是在该可穿戴设备出厂前或者初始化时,预先存于该可穿戴设备中的脑电波。
具体的,可以在可穿戴设备出厂时或者初始化阶段对用户在清醒且专注的状态下,处于不同的思维活动状态时发出的不同预设脑电波进行采集。例如,虽然用户在清醒且专注的状态下发出的β脑电波的频率会在12~30Hz。但是,不同的思维活动会使得12~30Hz范围内的脑电波的频率之间具有细微的差异。例如用户需要进行单击操作控制指令时预设脑电波的频率为12~15Hz,双击操作控制指令时预设脑电波的频率为18~21Hz,关闭操作控制指令时预设脑电波的频率为25~30Hz。在此情况下,可以获取上述当前脑电波,然后将当前脑电波的频率与脑电波数据集中的预设脑电波的频率进行匹配。例如在当前脑电波的频率在25~30Hz范围内时,则当前脑电波的频率与预设脑电波的频率相匹配,从而可以获取相匹配的预设脑电波所对应的关闭操作控制指令。而在当前脑电波的频率在12~15Hz内时,则当前脑电波的频率与预设脑电波的频率相匹配,从而可以获取相匹配的预设脑电波所对应的单击操作控制指令。此外,如果在当前脑电波的频率在16~17Hz内时,则当前脑电波的频率无法与脑电波数据集中任意一种预设脑电波的频率相匹配,因此无法实现控制指令的获取。
当然,上述不同控制指令对应的预设脑电波的频率仅仅是举例说明,并不是对预设脑电波对应的控制指令的限定。
这样一来,通过预存有预设脑电波的特征参数与控制指令的对应关系的脑电波数据集,可以使得12~30Hz内的所有脑电波对应多个控制指令,而无需借助眼部肌肉的运动。
在此基础上,在获取上述当前脑电波之前,该方法还可以包括:
首先,确定预设脑电波的特征参数,并存储。
其次,建立包括预设脑电波的特征参数与控制指令的对应关系的脑电波数据集,即建立出预设脑电波的特征参数与控制指令之间的映射关系。从而能够在当前脑电波与预设脑电波的特征参数相匹配时,能够通过预设脑电波利用寻址访问的方式调用处于该预设脑电波具有映射关系的控制指令。
进一步地,当上述显示控制方法为可穿戴设备执行的显示控制方法时,上述步骤S101中所述获取眼睛注视当前显示图像时,显示图像上的注视位置的方法可以如图3所示,包括以下步骤:
S301、获取眼部图像,确定瞳孔位置。
S302、根据瞳孔位置计算出视线方向。
S303、根据视线方向与显示图像100的映射关系,得出眼睛在显示图像100的注视位置。
这样一来,用户可以通过视线对显示图像100中的操作图标102进行选择,以使得脑电波能够执行上述操作图标102。
以下对视线方向的确定方式进行详细的举例说明。
例如,可以采用角膜反射模式实现上述视线方向的确定。
具体的,首先上述步骤S301可以包括,在可穿戴设备的如图4a所示的显示面板10上分别设置位于不同位置的三个红外光源120,该红外光源120发出的光线能够用户眼睛角膜上形成高亮度反射点,即光斑121。由于眼球是近似球体,在头部位置固定的情况下,光斑121不受眼球转动的影响,其不发生变化。其中,图4a中虚线矩形框表示显示面板10上的图像在人眼中的成像11。
在此情况下,可穿戴设备中的图像采集器可以采集到如图4b所示的眼部图像,通过对眼部图像进行处理,可以识别出该眼部图像中的三个光斑121以及瞳孔12。其中,如图4a所示,瞳孔12的中心位置由十字确定的P点表示。此外,由于上述三个光斑121是三个不同位置的红外光源120照射在角膜上形成的高亮反射点,因此图4c所示,通过上述三个光斑121的位置以及用户与屏幕之间的距离H,可以求出用户眼球13的曲率中心O点的坐标(XO、YO,ZO)以及用户眼球13的曲率半径R。
基于此,可以合通过图像处理的方法提取如图4a所示的瞳孔12的边界样本点,然后通过最小二乘的椭圆拟合方法对这些样本点进行椭圆拟合,可以,从而可以求出通孔的瞳孔12中心位置P的坐标(XP,YP)。具体的,上述椭圆方程为:
x2+Axy+By2+Cx+Dy+E=0
通过最小二乘的椭圆拟合可求得上述方程中的5个参数A、B、C、D和E,从而可以求出上述椭圆中心点,瞳孔12中心位置P的坐标(XP,YP):
X p = 2 B C - A D A 2 - 4 B Y P = 2 D - A D A 2 - 4 B
而瞳孔12中心位置P在Z轴的坐标ZP近似为曲率中心O点在Z轴的坐标ZO与用户眼球13的曲率半径R之差。最终得出瞳孔12中心位置P的坐标(XP,YP,ZP),从而完成了瞳孔12位置的确定。
接下来,上述步骤S302包括瞳孔12中心位置P的坐标(XP,YP,ZP)、眼球13的曲率中心O点的坐标(XO、YO,ZO)能够确定出如图4c所示的夹角γ,从而完成视线方向的确定。
最后,上述步骤S303包括根据上述视线方向,即夹角γ,并结合视线方向与显示图像100的映射关系,例如利用用户与屏幕之间的距离H得出眼睛在显示图像100上注视点B的位置。
需要说明的是,上述视线追踪方式是以眼球13的曲率中心O点的坐标为基准,通过对瞳孔12位置侧计算得出视线方向。此外,还可以在用户观看显示面板10上显示的显示图像100之前,用户可以注视显示面板10的中心位置,此时对用户的瞳孔12的位置进行采集,并作为基准点,从而完成瞳孔12的对焦。之后当用户观看显示图像100的过程中,可以对发生转动的瞳孔12的位置进行采集,并以上述对焦过程中得到的基准点为参考,进而得出视线的方向。当然,上述仅仅是对视线追踪过程的举例说明,其它视线方向的确定方式在此不再一一赘述。
以下以用户进行游戏为例,以第二种场景为例,对上述显示控制方法进行详细的说明。该控制方法如图5a所示:
S401、开始操作。
用户仅需佩戴可穿戴设备,该可穿戴设备上就集成的显示设备,此时户佩戴可穿戴设备,可穿戴设备开启。
S402、显示图像100。
具体的,该可穿戴设备显示的显示图像100如图5b所示。该显示图像100可以分为射击区域130以及操控区域131。其中射击区域130显示有建筑物样的图像主内容101,而操控区域131显示有操作图标102。
S403、获取显示图像100上的注视位置。
例如当用户对装备进行选择时,获取眼睛在显示图像100上的注视位置,其中,为了使得用户更加直观的了解自身的注视位置,该显示图像100上还包括与用户注视位置相对应的虚拟注视点103。其中,射击区域130的虚拟注视点103可以采用标靶样式,而操控区域131的虚拟注视点103可以采用箭头样式。
具体的,当用户需要选择装备时,获取眼睛注视至装备选择的操作图标102上,此时虚拟注视点103位于该装备选择的操作图标102上。
S404、获取用户的当前脑电波。
具体的,当虚拟注视点103位于该装备选择的操作图标102上时,可以获取用户此时的当前脑电波
S405、判断是否需要点击操作图标102。
具体的可以根据获取的当前脑电波,判断是否需要点击操作图标102。例如当上述当前脑电波的频率大于一频率阈值时,可以判断出用户需要点击操作图标102.
S406、执行操作图标102对应的命令。
具体的,当上述步骤S404的判断结果为用户需要点击操作图标102时,可以结合步骤S402确定的注视位置,对虚拟注视点103所在的装备选择的操作图标102进行点击,并执行操作图标102对应的命令。
需要说明的是,当执行装备选择操作图标102的命令后,显示图像100显示的内容如图5c所示。在此情况下,用户可以再次执行上述步骤S401至S406,对装备一、装备二或装备三进行选择,或者选择返回图标。具体方式同上所述,此处不再赘述。此外,当用户对装备选择完毕后,同样可以采用上述步骤确定射击区域130中建筑物样的图像主内容101的射击位置,并最终通过脑电波控制是否需要执行射击操作。
S407,结束操作。
此外,当上述步骤S405的判断结果为否时,可以直接执行步骤S407。
其中,上述结束操作表示的是步骤S401至S406执行完毕,此时对可穿戴设备的状态不做限定,该可穿戴设备处于关机或待机状态或者执行其他操作的状态。
本发明实施例提供一种显示控制装置,如图6所示,包括:获取模块01,用于获取眼睛注视当前显示图像100时,显示图像100上的注视位置,以及注视当前显示图像100时的当前脑电波。确定模块02,用于当获取模块01获取到的当前脑电波的特征参数满足预设条件时,根据当前脑电波确定当前脑电波对应的控制指令。执行模块03,用于根据确定模块02确定的控制指令,对注视位置的显示图像执行相应的操作。
这样一来,用户可以通过双眼对该显示图像上的操作位置进行选择,而用户在不同思考状态下可以发出不同的脑电波,所以能够通过脑电波可以去判断用户是否需要执行上述注视位置的相应操作。因此在上述控制过程中无需手动就可以实现相应操作,从而可以提高可穿戴设备的便利性。
然而,当用户处于专注状态下的脑电波,即β脑电波的频率为12~30Hz。因此频率在12~30Hz内的当前脑电波只能够获取到单一的例如单击操作的控制指令。对于其他指令例如双击操作或者放大操作,均需要结合眼部肌肉收缩或扩张得到的肌电图对当前脑电波的振幅产生的影响来实现。增加了获取控制指令的复杂性。
为了解决上述问题,该显示控制装置,如图7所示,还包括存储模块04,获取模块01包括用于获取当前脑电波的脑电波采集子模块201,确定模块02可以包括特征参数获取子模块202以及指令汇编子模块203。
其中,特征参数获取子模块202连接脑电波采集子模块201,用于确定当前脑电波和预设脑电波的特征参数。其中,该特征参数可以为脑电波的频率、振幅的至少一种。
此外,指令汇编子模块203连接特征参数获取子模块202,用于建立脑电波数据集,该脑电波数据集预存有预设脑电波的特征参数与控制指令的对应关系。
存储模块04连接特征参数获取子模块202和脑电波采集子模块201,用于存储控制指令、特征参数以及脑电波数据集。
这样一来,可以在可穿戴设备出厂时或者初始化阶段对用户在清醒且专注的状态下,处于不同的思维活动状态时发出的不同预设脑电波,通过特征参数获取子模块202进行采集。具体的,虽然用户在清醒且专注的状态下发出的β脑电波的频率会在12~30Hz。但是,不同的思维活动会使得12~30Hz范围内的脑电波的频率之间具有细微的差异。例如用户需要进行单击操作控制指令时预设脑电波的频率为12~15Hz,双击操作控制指令时预设脑电波的频率为18~21Hz,关闭操作控制指令时预设脑电波的频率为25~30Hz。
在此基础上,确定模块02还包括特征匹配子模块204。该特征匹配子模块204连接特征参数获取子模块202和存储模块04,用于将特征参数获取子模块202获取到的当前脑电波的特征参数与存储模块04中脑电波数据集中的预设脑电波的特征参数进行匹配。
需要说明的是,该特征匹配子模块204可以为比较器或者比较电路。此外,当前脑电波的特征参数与二脑电波的特征参数相匹配是指,当前脑电波的特征参数与二脑电波的特征参数之间的差异在允许的误差范围之内。该误差可以由可穿戴设备的精度确定。本发明对此不做限定。
这样一来,可以通过特征参数获取子模块202获取上述当前脑电波,然后将当前脑电波的频率与脑电波数据集中的预设脑电波的频率进行匹配。例如在当前脑电波的频率在25~30Hz范围内时,则当前脑电波的频率与预设脑电波的频率相匹配,从而可以获取相匹配的预设脑电波所对应的关闭操作控制指令。而在当前脑电波的频率在12~15Hz内时,则当前脑电波的频率与预设脑电波的频率相匹配,从而可以获取相匹配的预设脑电波所对应的单击操作控制指令。此外,如果在当前脑电波的频率在16~17Hz内时,则当前脑电波的频率无法与脑电波数据集中任意一种预设脑电波的频率相匹配,因此无法实现控制指令的获取。
当然,上述不同控制指令对应的预设脑电波的频率仅仅是举例说明,并不是对预设脑电波对应的控制指令的限定。
综上所述,通过预存有预设脑电波的特征参数与控制指令的对应关系的脑电波数据集,可以使得12~30Hz内的所有脑电波对应多个控制指令,而无需借助眼部肌肉的运动。
进一步地,确定模块02还包括指令获取子模块205,与特征匹配子模块204和存储模块04相连接,用于在当前脑电波的特征参数与预设脑电波的特征参数相匹配时,从存储模块04中获取相匹配的预设脑电波所对应的控制指令。
进一步地,获取模块01如图7所示包括:眼部图像采集子模块206、视线确定子模块207、位置计算子模块208。
具体的,眼部图像采集子模块206用于获取眼部图像,确定瞳孔位置。该眼部图像采集子模块206可以为CCD图像传感器或者COMS图像传感器。
例如,可以通过红外光源120发出的光线在用户眼睛角膜上形成高亮度反射点,即光斑121。在此情况下,可以通过CCD图像传感器或者COMS图像传感器采集到如图4b所示的眼部图像,通过对眼部图像进行处理,可以识别出该眼部图像中的光斑121以及瞳孔12,进而确定出瞳孔12的位置。
视线确定子模块207与眼部图像采集子模块206相连接,用于计算出视线方向。
位置计算子模块208与视线确定子模块207相连接,用于根据上述视线方向与显示图像100的映射关系,得出眼睛在显示图像100的注视位置。
其中,上述注视位置的确定方法同上所述,此处不再赘述。
这样一来,当注视位置确定后,上述执行模块03可以根据获取模块01得到的注视位置,执行指令获取子模块205获取到的控制指令。
本发明实施例提供一种显示控制系统,如图8所示,包括:显示设备20、可穿戴设备30、控制器40。
具体的,显示设备20用于显示图像100,作为当前显示图像。
可穿戴设备30用于获取眼睛注视当前显示图像时显示图像100上的注视位置,以及获取眼睛注视当前显示图像时的当前脑电波。
控制器40用于在当前脑电波的特征参数满足预设条件时,根据当前脑电波确定当前脑电波对应的控制指令;根据控制指令对注视位置的显示图像100执行相应的操作。
这样一来,用户可以通过双眼对该显示图像上的操作位置进行选择,而用户在不同思考状态下可以发出不同的脑电波,所以能够通过脑电波可以去判断用户是否需要执行上述注视位置的相应操作。因此在上述控制过程中无需手动就可以实现相应操作,从而可以提高可穿戴设备的便利性。
需要说明的是,显示设备20与可穿戴设备30可以分离式设置,且通过有线或无线方式连接,用于信息交互,控制器40设置在显示设备20中。具体的,上述显示设备20可以为手机、电脑、电视等。其中,该显示设备20包括显示面板,所述显示面板可以为液晶显示面板,或者OLED(英文全称:OrganicLightEmittingDiode,中文全称:有机发光二极管)显示面板。其中,上述可穿戴设备30可以为头戴式可穿戴设备,在此情况下可穿戴设备包括用于佩戴在头部的头戴支架。
此外,上述控制器40集成于手机、电脑或电视中,用于接收、发送以及处理数据信息。
或者,上述可穿戴设备30可以为头戴式可穿戴设备,在此情况下可穿戴设备包括如图9所示可以包括头戴支架110。所述头戴支架110上集成有显示设备20和控制器40。
当上述可穿戴设备包括头戴支架110的情况下,以图9为例,上述头戴支架110上设置有如图10所示的用于采集当前脑电波的脑电波采集回路111、如图9所示的用于采集人眼成像的图像采集器114,以及用于根据图像采集器114采集的图像确定眼睛在显示图像上的注视位置的处理器(图中未示出)。处理器还用于将当前脑电波和注视位置发送至显示设备20。
具体的,上述脑电波采集回路111,如图10所示由前额传感器112、至少一个耳垂传感器113构成。其中,上述前额传感器112、至少一个耳垂传感器113可以如图9所示,固定于头戴支架110上,此外用于连接前额传感器112、至少一个耳垂传感器113的线路可以设置于头戴支架110内。通常情况下,至少一个耳垂传感器113包括贴附于左耳耳垂的耳垂传感器113以及贴附于右耳耳垂的耳垂传感器113。
此外,上述图像采集器114为CCD图像传感器或CMOS图像传感器。在此情况下,为了采用角膜反射模式对视线进行追踪,可以在显示设备20上,例如显示设备20的两侧设置有红外光光源115,并在图像采集器114上也设置红外光光源(图像采集器114上的红外光光源图中未示出)。
或者,上述头戴支架110可以如图11所示为眼镜的镜架,而显示设备20可以安装于镜框处,控制器40设置于相邻两个镜框之间。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (18)

1.一种显示控制方法,其特征在于,包括:
获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视所述当前显示图像时的当前脑电波;
当所述当前脑电波的特征参数满足预设条件时,根据所述当前脑电波确定所述当前脑电波对应的控制指令;
根据所述控制指令对所述注视位置的显示图像执行相应的操作。
2.根据权利要求1所述的显示控制方法,其特征在于,所述根据所述当前脑电波确定所述当前脑电波对应的控制指令包括:
确定所述当前脑电波的特征参数;
将所述当前脑电波的特征参数与脑电波数据集中的预设脑电波的特征参数进行匹配;所述脑电波数据集预存有预设脑电波的特征参数与控制指令的对应关系;
当所述当前脑电波的特征参数与所述预设脑电波的特征参数相匹配时,获取相匹配的预设脑电波所对应的控制指令。
3.根据权利要求2所述的显示控制方法,其特征在于,在获取当前脑电波之前,所述方法还包括:确定所述预设脑电波的特征参数,并存储;建立所述脑电波数据集。
4.根据权利要求1所述的显示控制方法,所述特征参数为脑电波的频率、振幅中的至少一种。
5.根据权利要求1所述的显示控制方法,其特征在于,所述显示控制方法为可穿戴设备执行的显示控制方法,所述获取当眼睛注视显示图像时,显示图像上的注视位置包括:
获取眼部图像,确定瞳孔位置;
根据所述瞳孔位置计算出视线方向;
根据所述视线方向与所述显示图像的映射关系,得出所述眼睛在所述显示图像的注视位置。
6.一种显示控制装置,其特征在于,包括:
获取模块,用于获取眼睛注视当前显示图像时,显示图像上的注视位置,以及注视所述当前显示图像时的当前脑电波;
确定模块,用于当所述当前脑电波的特征参数满足预设条件时,根据所述当前脑电波确定所述当前脑电波对应的控制指令;
执行模块,用于根据所述控制指令,对所述注视位置的显示图像执行相应的操作。
7.根据权利要求6所示的显示控制装置,其特征在于,还包括存储模块,所述获取模块包括用于获取所述当前脑电波的脑电波采集子模块,所述确定模块包括特征参数获取子模块以及指令汇编子模块;
所述特征参数获取子模块连接所述脑电波采集子模块,用于确定所述当前脑电波和预设脑电波的特征参数;
所述指令汇编子模块连接所述特征参数获取子模块,用于建立脑电波数据集,所述脑电波数据集预存有预设脑电波的特征参数与控制指令的对应关系;
所述存储模块连接所述特征参数获取子模块和所述指令汇编子模块,用于存储所述控制指令、所述特征参数以及所述脑电波数据集。
8.根据权利要求7所示的显示控制装置,其特征在于,所述确定模块还包括特征匹配子模块;
所述特征匹配子模块连接所述特征参数获取子模块和所述存储模块,用于将所述特征参数获取子模块获取到的当前脑电波的特征参数与所述存储模块中脑电波数据集中的预设脑电波的特征参数进行匹配。
9.根据权利要求8所示的显示控制装置,其特征在于,所述确定模块还包括指令获取子模块,与所述特征匹配子模块和所述存储模块相连接,用于当所述当前脑电波的特征参数与所述预设脑电波的特征参数相匹配时,从所述存储模块中获取相匹配的预设脑电波所对应的控制指令。
10.根据权利要求6所述的显示控制装置,其特征在于,所述获取模块包括:眼部图像采集子模块、视线确定子模块、位置计算元件子模块;
所述眼部图像采集子模块用于获取眼部图像,确定瞳孔位置;
所述视线确定子模块与所述眼部图像采集子模块相连接,用于计算出视线方向;
所述位置计算子模块与所述视线确定子模块相连接,用于根据所述视线方向与所述显示图像的映射关系,得出所述眼睛在所述显示图像的注视位置。
11.一种显示控制系统,其特征在于,包括:显示设备、可穿戴设备、控制器;
所述显示设备用于显示图像,作为当前显示图像;
所述可穿戴设备用于获取眼睛注视当前显示图像时显示图像上的注视位置,以及获取眼睛注视所述当前显示图像时的当前脑电波;
所述控制器用于当所述当前脑电波的特征参数满足预设条件时,根据所述当前脑电波确定所述当前脑电波对应的控制指令;根据所述控制指令对所述注视位置的显示图像执行相应的操作。
12.根据权利要求11所述的显示控制系统,其特征在于,所述显示设备与所述可穿戴设备分离式设置,且通过有线或无线方式连接,用于信息交互,所述控制器设置在所述显示设备中。
13.根据权利要求12所述的显示控制系统,其特征在于,所述可穿戴设备包括头戴支架,所述头戴支架上设置有用于采集当前脑电波的脑电波采集回路、用于采集人眼成像的图像采集器,以及用于根据所述图像采集器采集的图像确定眼睛在显示图像上的注视位置的处理器;所述处理器还用于将所述当前脑电波和所述注视位置发送至所述显示设备。
14.根据权利要求11所述的显示控制系统,其特征在于,所述可穿戴设备包括头戴支架,所述头戴支架上集成有所述显示设备和所述控制器。
15.根据权利要求14所述的显示控制系统,其特征在于,所述头戴支架上设置有用于采集当前脑电波的脑电波采集回路、用于采集人眼成像的图像采集器,以及用于根据所述图像采集器采集的图像确定眼睛在显示图像上的注视位置的处理器;所述处理器还用于将所述当前脑电波和所述注视位置发送至所述显示设备。
16.根据权利要求13或15所述的显示控制系统,其特征在于,所述脑电波采集回路由前额传感器以及至少一个耳垂传感器构成。
17.根据权利要求13或15所述的显示控制系统,其特征在于,所述图像采集器为CCD图像传感器或CMOS图像传感器。
18.根据权利要求17所述的显示控制系统,其特征在于,所述图像采集器和所述显示设备上设置有红外光光源。
CN201610041709.5A 2016-01-21 2016-01-21 一种显示控制装置及其控制方法、显示控制系统 Pending CN105528084A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201610041709.5A CN105528084A (zh) 2016-01-21 2016-01-21 一种显示控制装置及其控制方法、显示控制系统
US15/540,371 US10488925B2 (en) 2016-01-21 2016-10-25 Display control device, control method thereof, and display control system
PCT/CN2016/103244 WO2017124794A1 (zh) 2016-01-21 2016-10-25 显示控制装置及其控制方法、显示控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610041709.5A CN105528084A (zh) 2016-01-21 2016-01-21 一种显示控制装置及其控制方法、显示控制系统

Publications (1)

Publication Number Publication Date
CN105528084A true CN105528084A (zh) 2016-04-27

Family

ID=55770357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610041709.5A Pending CN105528084A (zh) 2016-01-21 2016-01-21 一种显示控制装置及其控制方法、显示控制系统

Country Status (3)

Country Link
US (1) US10488925B2 (zh)
CN (1) CN105528084A (zh)
WO (1) WO2017124794A1 (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105867641A (zh) * 2016-05-12 2016-08-17 深圳市联谛信息无障碍有限责任公司 基于脑波的读屏应用指令输入方法及装置
CN106325517A (zh) * 2016-08-29 2017-01-11 袁超 一种基于虚拟现实的目标对象触发方法、系统和穿戴设备
CN106484111A (zh) * 2016-09-30 2017-03-08 珠海市魅族科技有限公司 一种图像处理的方法及虚拟现实设备
CN106648107A (zh) * 2016-12-30 2017-05-10 包磊 一种vr场景的控制方法和装置
WO2017124794A1 (zh) * 2016-01-21 2017-07-27 京东方科技集团股份有限公司 显示控制装置及其控制方法、显示控制系统
CN107105369A (zh) * 2017-06-29 2017-08-29 京东方科技集团股份有限公司 声音定向切换装置及显示系统
CN107291230A (zh) * 2017-06-19 2017-10-24 京东方科技集团股份有限公司 脑电波控制方法及装置、显示装置
CN108388340A (zh) * 2018-02-11 2018-08-10 广东欧珀移动通信有限公司 电子设备控制方法及相关产品
CN108399085A (zh) * 2018-02-12 2018-08-14 广东欧珀移动通信有限公司 电子装置、应用管理方法及相关产品
CN108668008A (zh) * 2018-03-30 2018-10-16 广东欧珀移动通信有限公司 电子装置、显示参数调整方法及相关产品
CN108803863A (zh) * 2017-04-28 2018-11-13 京东方科技集团股份有限公司 一种脑控穿戴显示装置及脑控显示方法
CN108904163A (zh) * 2018-06-22 2018-11-30 北京信息科技大学 轮椅控制方法及系统
CN110178102A (zh) * 2017-03-21 2019-08-27 惠普发展公司,有限责任合伙企业 显示器内的估计
CN110314072A (zh) * 2019-05-16 2019-10-11 彭文革 恢复视力的训练装置
CN112782854A (zh) * 2019-11-07 2021-05-11 宏达国际电子股份有限公司 头戴式显示设备以及距离测量器

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180081430A1 (en) * 2016-09-17 2018-03-22 Sean William Konz Hybrid computer interface system
WO2020260085A1 (en) * 2019-06-28 2020-12-30 Sony Corporation Method, computer program and head-mounted device for triggering an action, method and computer program for a computing device and computing device
JP7320261B2 (ja) * 2019-12-03 2023-08-03 株式会社Agama-X 情報処理システム、方法、及びプログラム
US11556175B2 (en) 2021-04-19 2023-01-17 Toyota Motor Engineering & Manufacturing North America, Inc. Hands-free vehicle sensing and applications as well as supervised driving system using brainwave activity
WO2024035972A1 (en) * 2022-08-12 2024-02-15 Mindportal Inc. Systems and methods that involve bci (brain computer interface) and/or extended reality/eye- tracking devices, detect mind/brain activity, generate and/or process saliency maps, eye-tracking information and/or various controls or instructions, implement mind-based selection of ui elements and/or perform other features and functionality
WO2024035971A1 (en) * 2022-08-12 2024-02-15 Mindportal Inc. Systems and methods that involve bci and/or extended reality/eye-tracking devices, detect mind/brain activity, generate and/or process saliency maps, eye-tracking data and/or various controls or instructions, determine expectancy wave data that reflects user gaze, dwell and/or intent information, and/or perform other features & functionality
CN117075741B (zh) * 2023-10-17 2023-12-12 首都医科大学附属北京天坛医院 一种意识交互沟通方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102749990A (zh) * 2011-04-08 2012-10-24 索尼电脑娱乐公司 通过追踪用户视线和姿态提供反馈的系统和方法
CN203012636U (zh) * 2012-11-20 2013-06-19 深圳市中科睿成智能科技有限公司 一种基于激光投影定位的人机交互系统
CN105138119A (zh) * 2015-08-04 2015-12-09 湖南七迪视觉科技有限公司 一种基于人体生物特征控制自动变焦的立体视觉系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100866215B1 (ko) * 2006-12-20 2008-10-30 삼성전자주식회사 뇌파를 이용한 단말의 구동 방법 및 장치
US9354702B2 (en) * 2013-06-03 2016-05-31 Daqri, Llc Manipulation of virtual object in augmented reality via thought
US9405366B2 (en) * 2013-10-02 2016-08-02 David Lee SEGAL Systems and methods for using imagined directions to define an action, function or execution for non-tactile devices
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
US9436279B2 (en) * 2014-03-31 2016-09-06 Rovi Guides, Inc. Systems and methods for controlling user devices based on brain activity
US9751406B2 (en) * 2014-04-03 2017-09-05 Audi Ag Motor vehicle and method for controlling a climate control system in a motor vehicle
US9851791B2 (en) * 2014-11-14 2017-12-26 Facebook, Inc. Dynamic eye tracking calibration
JP2016106668A (ja) * 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2017104869A1 (ko) * 2015-12-17 2017-06-22 주식회사 룩시드랩스 아이 브레인 인터페이스(ebi) 장치 및 그 제어 방법
CN105528084A (zh) 2016-01-21 2016-04-27 京东方科技集团股份有限公司 一种显示控制装置及其控制方法、显示控制系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102749990A (zh) * 2011-04-08 2012-10-24 索尼电脑娱乐公司 通过追踪用户视线和姿态提供反馈的系统和方法
CN203012636U (zh) * 2012-11-20 2013-06-19 深圳市中科睿成智能科技有限公司 一种基于激光投影定位的人机交互系统
CN105138119A (zh) * 2015-08-04 2015-12-09 湖南七迪视觉科技有限公司 一种基于人体生物特征控制自动变焦的立体视觉系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙立峰、杨士强、戴国忠、吴朝晖、朱珍民编著: "《和谐人机环境2006》", 30 June 2007, 清华大学出版社 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017124794A1 (zh) * 2016-01-21 2017-07-27 京东方科技集团股份有限公司 显示控制装置及其控制方法、显示控制系统
US10488925B2 (en) 2016-01-21 2019-11-26 Boe Technology Group Co., Ltd. Display control device, control method thereof, and display control system
CN105867641A (zh) * 2016-05-12 2016-08-17 深圳市联谛信息无障碍有限责任公司 基于脑波的读屏应用指令输入方法及装置
CN106325517A (zh) * 2016-08-29 2017-01-11 袁超 一种基于虚拟现实的目标对象触发方法、系统和穿戴设备
CN106484111B (zh) * 2016-09-30 2019-06-28 珠海市魅族科技有限公司 一种图像处理的方法及虚拟现实设备
CN106484111A (zh) * 2016-09-30 2017-03-08 珠海市魅族科技有限公司 一种图像处理的方法及虚拟现实设备
CN106648107B (zh) * 2016-12-30 2020-05-15 包磊 一种vr场景的控制方法和装置
CN106648107A (zh) * 2016-12-30 2017-05-10 包磊 一种vr场景的控制方法和装置
CN110178102A (zh) * 2017-03-21 2019-08-27 惠普发展公司,有限责任合伙企业 显示器内的估计
US11099646B2 (en) 2017-04-28 2021-08-24 Boe Technology Group Co., Ltd. Brain-controlled wearable display device and brain-controlled display method
CN108803863B (zh) * 2017-04-28 2020-12-01 京东方科技集团股份有限公司 一种脑控穿戴显示装置及脑控显示方法
CN108803863A (zh) * 2017-04-28 2018-11-13 京东方科技集团股份有限公司 一种脑控穿戴显示装置及脑控显示方法
CN107291230B (zh) * 2017-06-19 2019-08-16 京东方科技集团股份有限公司 脑电波控制方法及装置、显示装置
CN107291230A (zh) * 2017-06-19 2017-10-24 京东方科技集团股份有限公司 脑电波控制方法及装置、显示装置
US11137972B2 (en) 2017-06-29 2021-10-05 Boe Technology Group Co., Ltd. Device, method and system for using brainwave information to control sound play
CN107105369A (zh) * 2017-06-29 2017-08-29 京东方科技集团股份有限公司 声音定向切换装置及显示系统
CN108388340A (zh) * 2018-02-11 2018-08-10 广东欧珀移动通信有限公司 电子设备控制方法及相关产品
CN108388340B (zh) * 2018-02-11 2021-01-29 Oppo广东移动通信有限公司 电子设备控制方法及相关产品
CN108399085B (zh) * 2018-02-12 2020-01-14 Oppo广东移动通信有限公司 电子装置、应用管理方法及相关产品
CN108399085A (zh) * 2018-02-12 2018-08-14 广东欧珀移动通信有限公司 电子装置、应用管理方法及相关产品
CN108668008A (zh) * 2018-03-30 2018-10-16 广东欧珀移动通信有限公司 电子装置、显示参数调整方法及相关产品
CN108668008B (zh) * 2018-03-30 2021-04-16 Oppo广东移动通信有限公司 电子装置、显示参数调整方法和装置及计算机可读存储介质
CN108904163A (zh) * 2018-06-22 2018-11-30 北京信息科技大学 轮椅控制方法及系统
CN110314072A (zh) * 2019-05-16 2019-10-11 彭文革 恢复视力的训练装置
CN112782854A (zh) * 2019-11-07 2021-05-11 宏达国际电子股份有限公司 头戴式显示设备以及距离测量器
CN112782854B (zh) * 2019-11-07 2023-02-17 宏达国际电子股份有限公司 头戴式显示设备以及距离测量器

Also Published As

Publication number Publication date
US20180107274A1 (en) 2018-04-19
US10488925B2 (en) 2019-11-26
WO2017124794A1 (zh) 2017-07-27

Similar Documents

Publication Publication Date Title
CN105528084A (zh) 一种显示控制装置及其控制方法、显示控制系统
CN205485920U (zh) 一种显示控制装置及显示控制系统
KR101988110B1 (ko) 생체신호연동 가상현실 교육 시스템 및 방법
Lubos et al. Analysis of direct selection in head-mounted display environments
US9330477B2 (en) Surgical stereo vision systems and methods for microsurgery
JP6684728B2 (ja) 画素配分最適化を用いた方法およびディスプレイ装置
US7872635B2 (en) Foveated display eye-tracking system and method
JP2020515895A (ja) 操作可能な中心窩ディスプレイ
US11372479B2 (en) Multi-modal vision enhancement system
CN108919958A (zh) 一种图像传输方法、装置、终端设备及存储介质
Esteves et al. Comparing selection mechanisms for gaze input techniques in head-mounted displays
JP2006267604A (ja) 複合情報表示装置
CN104994776A (zh) 用于执行光学的/验光的/眼科测试的设备的网络及控制所述设备的网络的方法
Mantiuk et al. Gaze‐driven object tracking for real time rendering
Toivanen et al. Probabilistic approach to robust wearable gaze tracking
Lander et al. hEYEbrid: A hybrid approach for mobile calibration-free gaze estimation
CN113589532A (zh) 头戴设备的显示校准方法、装置、头戴设备及存储介质
Picanço et al. A low‐cost platform for eye‐tracking research: Using Pupil© in behavior analysis
CN103713387A (zh) 电子设备和采集方法
CN111553972A (zh) 用于渲染增强现实数据的方法、装置、设备及存储介质
WO2021019540A1 (en) Automated dynamic display adjustment based on user pose
WO2006106371A1 (en) Display method and apparatus
US20070262917A1 (en) Video Display
Le et al. A Practical Method to Eye-tracking on the Phone: Toolkit, Accuracy and Precision
Stefanov Webcam-based eye gaze tracking under natural head movement

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160427