CN109388242B - 自发性眨眼校正方法及眨眼控制方法 - Google Patents

自发性眨眼校正方法及眨眼控制方法 Download PDF

Info

Publication number
CN109388242B
CN109388242B CN201811146897.3A CN201811146897A CN109388242B CN 109388242 B CN109388242 B CN 109388242B CN 201811146897 A CN201811146897 A CN 201811146897A CN 109388242 B CN109388242 B CN 109388242B
Authority
CN
China
Prior art keywords
blink
spontaneous
signal
correction
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811146897.3A
Other languages
English (en)
Other versions
CN109388242A (zh
Inventor
李宗宏
李威寰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qisda Optronics Suzhou Co Ltd
Qisda Corp
Original Assignee
Qisda Optronics Suzhou Co Ltd
Qisda Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qisda Optronics Suzhou Co Ltd, Qisda Corp filed Critical Qisda Optronics Suzhou Co Ltd
Priority to CN201811146897.3A priority Critical patent/CN109388242B/zh
Publication of CN109388242A publication Critical patent/CN109388242A/zh
Priority to US16/562,357 priority patent/US10963042B2/en
Application granted granted Critical
Publication of CN109388242B publication Critical patent/CN109388242B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Selective Calling Equipment (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种眨眼控制方法包括以下步骤。首先,侦测当前眨眼讯号,其中当前眨眼讯号发生在当前眨眼时点。然后,依据当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段。然后,侦测下个眨眼讯号。然后,判断下个眨眼讯号是否发生在预测自发性眨眼时段内。当下个眨眼讯号发生在预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼。当下个眨眼讯号发生在预测自发性眨眼时段的外,判断下个眨眼讯号属于控制性眨眼。

Description

自发性眨眼校正方法及眨眼控制方法
技术领域
本发明是有关于一种眨眼校正方法及眨眼控制方法,且特别是有关于一种自发性眨眼校正方法及眨眼控制方法。
背景技术
已知的虚拟实境穿戴装置通常可利用控制性眨眼发出控制指令。基于生理现象,使用者(穿戴者)的眼睛无可避免地会发生自发性眨眼。自发性眨眼是一种生理自然反应,并非使用者刻意的控制性眨眼。然而,穿戴装置可能将使用者的自发性眨眼误判成控制性眨眼,执行非使用者预期的功能。
发明内容
本发明有关于一种自发性眨眼校正方法及眨眼控制方法,以解决将自发性眨眼误判成控制性眨眼的问题。
为达到上述一种自发性眨眼校正方法,包括:取得多个自发性眨眼校正讯号;取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;取得多个该自发性眨眼校正时间间隔的标准差;依据该自发性眨眼间隔平均值及该标准差,取得最小自发性眨眼校正时间间隔;依据该自发性眨眼间隔平均值及该标准差,取得最大自发性眨眼校正时间间隔;以及使用该最小自发性眨眼校正时间间隔及该最大自发性眨眼校正时间间隔于眨眼控制方法中滤除自发性眨眼的发生。
较佳的,在依据该自发性眨眼间隔平均值及该标准差取得该最小自发性眨眼校正时间间隔的步骤更包括:依据公式ΔTCMIN=ΔTCAVE-m×σ,取得该最小自发性眨眼校正时间间隔ΔTCMIM,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
较佳的,在依据该自发性眨眼间隔平均值及该标准差取得该最大自发性眨眼校正时间间隔的步骤更包括:依据公式ΔTCMAX=ΔTCAVE+m×σ,取得该最大自发性眨眼校正时间间隔ΔTCMAX,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
较佳的,该眨眼控制方法包括:侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;侦测下个眨眼讯号;判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
为达到上述目的,本发明另提供一种眨眼控制方法,包括:侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;侦测下个眨眼讯号;判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
较佳的,在取得该预测自发性眨眼时段的步骤中,该预测自发性眨眼时段发生在最小预测自发性眨眼时点tpMIN与最大预测自发性眨眼时点tpMAX之间,该最小预测自发性眨眼时点tpMIN依据公式tpMIN=tK+ΔTCMIN取得,而该最大预测自发性眨眼时点tpMAX依据公式tpMIAX=tK+ΔTCMAX取得,其中tK为该当前眨眼时点。
较佳的,该眨眼控制方法还包括:当判断该下个眨眼讯号为控制性眨眼时,发出控制性眨眼告知讯号。
较佳的,该眨眼控制方法还包括:回应该控制性眨眼告知讯号,发出判断错误讯号。
较佳的,该眨眼控制方法还包括:回应该判断错误讯号,取得该当前眨眼讯号与该下个眨眼讯号之间的一眨眼时间间隔;增列该眨眼时间间隔为多个自发性眨眼校正时间间隔的一员;取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;取得多个该自发性眨眼校正时间间隔的标准差;依据该自发性眨眼间隔平均值及该标准差,取得更新的最小自发性眨眼校正时间间隔;以及依据该自发性眨眼间隔平均值及该标准差,取得更新的最大自发性眨眼校正时间间隔;以及以该更新的最小自发性眨眼校正时间间隔取代该最小自发性眨眼校正时间间隔且以该更新的最大自发性眨眼校正时间间隔代该最大自发性眨眼校正时间间隔。
较佳的,该眨眼控制方法还包括:当判断该下个眨眼讯号为自发性眨眼时,发出自发性眨眼告知讯号。
较佳的,该眨眼控制方法还包括:回应该自发性眨眼告知讯号,发出判断错误讯号;以及回应该判断错误讯号,将判断错误的该自发性眨眼设定为使用者控制方式。
与现有技术相比,本发明通过上述自发性眨眼校正方法及眨眼控制方法,可有效判断是自发性眨眼或控制性眨眼,使得控制性眨眼的判断更准确,避免由自发性眨眼引起执行非使用者预期的功能。
为了对本发明的上述及其他方面有更佳的了解,下文特举较佳实施例,并配合所附图式,作详细说明如下:
附图说明
图1绘示依照本发明一实施例的眨眼控制装置的示意图。
图2绘示图1的眨眼控制装置的自发性眨眼控制方法的流程图。
图3绘示依照本发明一实施例的多个自发性眨眼校正讯号的示意图。
图4绘示图1的眨眼控制装置的眨眼控制方法的流程图。
图5A~图5C绘示依照本发明多个实施例的眨眼判断的示意图。
图6绘示将下个眨眼讯号增列为多个自发性眨眼校正时间间隔的一员的示意图。
具体实施方式
为使对本发明的目的、构造、特征、及其功能有进一步的了解,兹配合实施例详细说明如下。
请参照图1~图3,图1绘示依照本发明一实施例的眨眼控制装置100的示意图,图2绘示图1的眨眼控制装置100的自发性眨眼控制方法的流程图,而图3绘示依照本发明实施例的多个自发性眨眼校正讯号Si的示意图。
眨眼控制装置100例如是穿戴装置,如虚拟实境(virtual Reality,VR)装置、扩增实境(Augmented Reality,AR)装置或其它需要利用眨眼进行控制的装置。眨眼控制装置100可分析使用者的自发性眨模式,并在实际眨眼控制过程中,依据自发性眨模式,判断使用者的眨眼属于自发性眨眼或控制性眨眼,以滤除自发性眨眼,且准确执行使用者控制性眨眼的对应功能。
眨眼控制装置100包括摄像器110及处理器120。摄像器110可撷取使用者眼睛的动态影像M1。处理器120可处理使用者眼睛的动态影像M1,以取得使用者眼睛自发性眨眼的模式。以下以图2的流程图及图3的眨眼讯号图介绍依照本发明实施例的自发性眨眼控制方法。
在步骤S110中,如图1所示,摄像器110取得使用者的眼睛动态影像M1。处理器120分析此眼睛动态影像M1,以取得如图3所示的多个自发性眨眼校正讯号SCi,其中i范围为1~n。n为自发性眨眼校正讯号的总数量,其可以是等于或大于1的正整数。随着时间的推移及取样的增加,n可一直累加。如图3所示,自发性眨眼校正讯号SCi的时间区间Δtci表示眨眼一次的时间,此处的”眨眼一次”指的是眼皮开始往下覆盖眼球至从往上露出眼球的过程。如图3所示,时点tci对应各自发性眨眼校正讯号SCi的峰值,表示眼皮全盖的时点。处理器120可分析眼睛动态影像M1中的眼皮上下动作,以产生如图3所示的多个自发性眨眼校正讯号SCi
在步骤S120中,处理器120计算该多个自发性眨眼校正讯号SCi,以取得该多个自发性眨眼校正讯号SCi的每相邻两者之间的自发性眨眼校正时间间隔ΔTCi
在步骤S130中,处理器120可采用下式(1),取得该多个自发性眨眼校正时间间隔ΔTCi的自发性眨眼间隔平均值ΔTCAVE
Figure BDA0001816988930000051
在步骤S140中,处理器120采用标准差统计方法,取得该多个自发性眨眼校正时间间隔ΔTCi的标准差σ。
在步骤S150中,处理器120依据自发性眨眼间隔平均值ΔTCAVE及标准差σ,取得最小自发性眨眼校正时间间隔ΔTCMIN。例如,处理器120可依据下式(2),取得最小自发性眨眼校正时间间隔ΔTCMIM,其中参数m表示大于0的正整数。参数m的值是可调整的,其可依据所要求的严格程度而定。例如,当参数m的数值愈小,则图5A的预测自发性眨眼时段TP愈窄,在判断眨眼属于自发性眨眼上较为严格。反之,当参数m的数值愈大,则图5A的预测自发性眨眼时段TP愈宽,在判断眨眼属于自发性眨眼上较为宽松。
ΔTCMIN=ΔTCAVE-m×σ........................(2)
在步骤S160中,处理器120依据自发性眨眼间隔平均值ΔTCAVE及标准差σ,取得最大自发性眨眼校正时间间隔ΔTCMAX。例如,处理器120可依据下式(3),取得最大自发性眨眼校正时间间隔ΔTCMAX
ΔTCMAX=ΔTCAVE+m×σ.............................(3)
在步骤S170中,处理器120使用最小自发性眨眼校正时间间隔ΔTCMIN及最大自发性眨眼校正时间间隔ΔTCMAX于一眨眼控制方法中滤除自发性眨眼的发生。以下进一步举例说明依照本发明一实施例的眨眼控制装置100的眨眼控制方法。
请参照图4、图5A~图5C及图6,图4绘示图1的眨眼控制装置100的眨眼控制方法的流程图,图5A~图5C绘示依照本发明多个实施例的眨眼判断的示意图,而图6绘示将下个眨眼讯号增列为多个自发性眨眼校正时间间隔的一员的示意图。
在步骤S210中,摄像器110取得使用者的眼睛动态影像M1。处理器120处理眼睛动态影像M1,以侦测当前眨眼讯号SK,其中当前眨眼讯号SK发生在当前眨眼时点tK。当前眨眼讯号SK的下标k表示当前眨眼时点的时点,以正整数表示。例如,眨眼控制方法的第1个当前眨眼讯号发生在k等于1的时点。本发明实施例不限定k的上限,随着时间的推移及眨眼讯号取样的增加,k可一直累加。
在步骤S220中,依据当前眨眼时点tK、最小自发性眨眼校正时间间隔ΔTCMIN及最大自发性眨眼校正时间间隔ΔTCMAX,取得预测自发性眨眼时段TP。如图5A所示,预测自发性眨眼时段TP发生在最小预测自发性眨眼时点tpMIN与最大预测自发性眨眼时点tpMAX之间。最小预测自发性眨眼时点tpMIN可依据下式(4)取得,而最大预测自发性眨眼时点tpMAX可依据下式(5)取得。
tpMIN=tK+ΔTCMIN................................(4)
tpMAX=tK+ΔTCMAX.................................(5)
在步骤S230中,如图5A所示,图随着摄像器1100持续撷取使用者的眼睛动态影像M1,处理器120可分析眼睛动态影像M1,以取得下个眨眼讯号SK+1。下个眨眼讯号SK+1发生在时点tK+1
在步骤S240中,处理器120判断下个眨眼讯号SK+1是否发生在预测自发性眨眼时段TP内。当下个眨眼讯号SK+1发生在预测自发性眨眼时段TP内时(如图5B所示),流程进入步骤S250,处理器120判断下个眨眼讯号SK+1属于自发性眨眼。
在步骤S251中,当处理器120判断下个眨眼讯号SK+1属于自发性眨眼时,处理器120可控制通知单元(未绘示)发出自发性眨眼告知讯号,以让使用者确认其判断结果是否正确。通知单元例如是显示器,而自发性眨眼告知讯号例如是表示下个眨眼讯号SK+1被眨眼控制装置100判断为自发性眨眼的影像,如文字或图片等。或者,通知单元例如是语音产生器,而自发性眨眼告知讯号例如是表示下个眨眼讯号SK+1被眨眼控制装置100判断为自发性眨眼的语音。
使用者可回应此自发性眨眼告知讯号,让眨眼控制装置100得知使用者对于判断结果的肯定或否定。例如,当使用者认为下个眨眼讯号SK+1确实属于自发性眨眼时,使用者可发出判断正确讯号,让眨眼控制装置100得知判断结果是正确的。
或者,当使用者认为下个眨眼讯号SK+1实际上是属于控制性眨眼时,使用者可发出判断错误讯号,让眨眼控制装置100得知判断结果是错误的。然后,处理器120可将判断错误的自发性眨眼设定为使用者控制方式。例如,处理器120回应判断错误讯号,可使用语音或影像提示使用者输入使用者控制方式,处理器120将此自发性眨眼设定为此使用者控制方式。如此,当后续出现此自发性眨眼时,处理器120视为使用者执行此使用者控制方式,并对应执行对应功能。前述使用者控制方式例如是滑鼠点击方式(如点击滑鼠左键或右键)、摇杆控制方式、键盘输入控制方式、触控板的触控方式或其它合适方式。
在一实施例中,使用者回应自发性眨眼告知讯号的方式可通过语音或动作。例如,眨眼控制装置100可还包括一麦克风(未绘示),使用者通过麦克风发出一语音。例如,当使用者认为下个眨眼讯号SK+1确实是属于自发性眨眼时,使用者可通过麦克风发出一表示判断正确的语音,处理器120分析此语音,并得知判断结果是正确。当使用者认为下个眨眼讯号SK+1实际上是属于控制性眨眼时,使用者可通过麦克风发出一表示判断错误的语音,处理器120分析此语音,并得知判断结果是错误的。
或者,眨眼控制装置100可还包括一加速度感知器(G sensor)(未绘示),其可侦测使用者的头部动作,而处理器120依据加速度感知器的讯号分析使用者的动作。例如,当下个眨眼讯号SK+1属于自发性眨眼时,使用者可做出表示判断正确的动作,如点头,处理器120据以分析加速度感知器的讯号,并得知判断结果是正确的。当下个眨眼讯号SK+1实际上是属于控制性眨眼时,使用者可做出表示判断错误的动作,如摇头,处理器120据以分析加速度感知器的讯号,并得知判断结果是错误的。
在步骤S252中,下个眨眼讯号SK+1确实属于自发性眨眼,使用者认为通过前述方式发出判断正确讯号,让眨眼控制装置100得知判断是正确的。然后,如图5B所示,处理器120回应此判断正确讯号,取得当前眨眼讯号SK与该下个眨眼讯号SK+1之间的眨眼时间间隔ΔTK
在步骤S253中,如图6所示,处理器120依据使用者所发出的判断正确讯号,增列下个眨眼讯号SK+1及其眨眼时间间隔ΔTK为图3中多个自发性眨眼讯号SCi及多个自发性眨眼校正时间间隔ΔTCi的一员。如图所示,下个眨眼讯号SK+1紧接在原先多个自发性眨眼讯号SCi的最后一个自发性眨眼讯号SCn后,即眨眼时间间隔ΔTK的起始时点为最后一个自发性眨眼讯号SCn的时点tcn。然后,如图6所示,处理器120针对图6的全部的多个自发性眨眼讯号SCi(包含下个眨眼讯号SK+1)及多个自发性眨眼校正时间间隔ΔTCi(包含眨眼时间间隔ΔTK)重新执行图2的步骤S110~S160,以取得更新的自发性眨眼校正时间间隔ΔTCj、更新的自发性眨眼间隔平均值ΔTCAVE、更新的标准差σ、更新的最小自发性眨眼校正时间间隔ΔTCMIN及更新的最大自发性眨眼校正时间间隔ΔTCMAX。然后,以更新的最小自发性眨眼校正时间间隔取代最小自发性眨眼校正时间间隔ΔTCMIN且以更新的最大自发性眨眼校正时间间取代最大自发性眨眼校正时间间隔ΔTCMAX,以于眨眼控制流程(如图4)中作为判断下个眨眼讯号(或最近)属于自发性眨眼或控制性眨眼的最新判断依据。
在步骤S240中,处理器120判断下个眨眼讯号SK+1是否发生在预测自发性眨眼时段TP内。当下个眨眼讯号SK+1非发生在预测自发性眨眼时段TP内,例如下个眨眼讯号SK+1发生在预测自发性眨眼时段TP外时(如图5A或图5C所示),流程进入步骤S260,处理器120判断下个眨眼讯号SK+1属于控制性眨眼。
在步骤S261中,当处理器120判断下个眨眼讯号SK+1属于控制性眨眼时,处理器120可控制前述通知单元(未绘示)发出控制性眨眼告知讯号,以让使用者确认其判断结果是否正确。
使用者可采用类似或同于前述回应自发性眨眼告知讯号的方式,回应此控制性眨眼告知讯号,让眨眼控制装置100得知使用者对于判断结果的肯定或否定。例如,当下个眨眼讯号SK+1确实属于控制性眨眼时,使用者可发出判断正确讯号,让眨眼控制装置100得知判断结果是正确的。接着,处理器120回应此判断正确讯号,执行对应该控制性眨眼的功能。
或者,当下个眨眼讯号SK+1实际上是属于自发性眨眼时,使用者可通过类似或同于前述回应自发性眨眼告知讯号的方式,发出判断错误讯号,让眨眼控制装置100得知判断结果是错误的。
在步骤S262中,下个眨眼讯号SK+1其实是属于自发性眨眼时,使用者通过前述方式发出判断错误讯号,让眨眼控制装置100得知判断是错误的。然后,如图5A或图5C所示,处理器120回应此判断错误讯号,取得图5A或图5C所示的当前眨眼讯号SK与下个眨眼讯号SK+1之间的眨眼时间间隔ΔTK
然后,在步骤S263中,如图6所示,处理器120依据使用者所发出的判断错误讯号,增列下个眨眼讯号SK+1及其眨眼时间间隔ΔTK为图3中多个自发性眨眼讯号SCi及多个自发性眨眼校正时间间隔ΔTCi的一员。然后,如图6所示,处理器120针对图6的全部的多个自发性眨眼讯号SCi(包含下个眨眼讯号SK+1)及多个自发性眨眼校正时间间隔ΔTCi(包含眨眼时间间隔ΔTK)重新执行图2的步骤S110~S160,以取得更新的自发性眨眼校正时间间隔ΔTCj、更新的自发性眨眼间隔平均值ΔTCAVE、更新的标准差σ、更新的最小自发性眨眼校正时间间隔ΔTCMIN及更新的最大自发性眨眼校正时间间隔ΔTCMAX。然后,以更新的最小自发性眨眼校正时间间隔取代最小自发性眨眼校正时间间隔ΔTCMIN且以更新的最大自发性眨眼校正时间间取代最大自发性眨眼校正时间间隔ΔTCMAX,以于眨眼控制流程(如图4)中作为判断下个眨眼讯号(或最新)属于自发性眨眼或控制性眨眼的最新判断依据。
综上,本发明实施例的眨眼控制装置可取得使用者自发性眨眼模式。在另一实施例中,在实际眨眼控制方法,眨眼控制装置依据自发性眨眼模式,判断使用者的每个眨眼属于自发性眨眼模式或控制性眨眼模式。
在另一实施例中,当眨眼控制装置判断使用者的眨眼属于自发性眨眼且实际上使用者也回应判断结果是正确时,眨眼控制装置将此自发性眨眼加入已知的自发性眨眼模式中重新运算,并取得更新的自发性眨眼模式。当眨眼控制装置判断使用者的眨眼属于控制性眨眼,然实际上使用者回应判断结果是错误时(表示使用者的眨眼实际上属于自发性眨眼),眨眼控制装置将此控制性眨眼加入已知的自发性眨眼模式中重新运算,并取得更新的自发性眨眼模式。如此,在实际眨眼控制方法中,眨眼控制装置能依据实际情况不断修正自发性眨眼模式,让眨眼控制装置在判断使用者的控制性眨眼能更准确。
本发明已由上述相关实施例加以描述,然而上述实施例仅为实施本发明的范例。必需指出的是,已揭露的实施例并未限制本发明的范围。相反地,在不脱离本发明的精神和范围内所作的更动与润饰,均属本发明的专利保护范围。

Claims (11)

1.一种自发性眨眼校正方法,其特征在于,包括:
取得多个自发性眨眼校正讯号;
取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;
取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;
取得多个该自发性眨眼校正时间间隔的标准差;
依据该自发性眨眼间隔平均值及该标准差,取得最小自发性眨眼校正时间间隔;
依据该自发性眨眼间隔平均值及该标准差,取得最大自发性眨眼校正时间间隔;以及
使用该最小自发性眨眼校正时间间隔及该最大自发性眨眼校正时间间隔于眨眼控制方法中滤除自发性眨眼的发生。
2.如权利要求1所述的自发性眨眼校正方法,其特征在于,在依据该自发性眨眼间隔平均值及该标准差取得该最小自发性眨眼校正时间间隔的步骤更包括:
依据公式ΔTCMIN=ΔTCAVE-m×σ,取得该最小自发性眨眼校正时间间隔ΔTCMIM,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
3.如权利要求1所述的自发性眨眼校正方法,其特征在于,在依据该自发性眨眼间隔平均值及该标准差取得该最大自发性眨眼校正时间间隔的步骤更包括:
依据公式ΔTCMAX=ΔTCAVE+m×σ,取得该最大自发性眨眼校正时间间隔ΔTCMAX,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
4.如权利要求1所述的自发性眨眼校正方法,其特征在于,该眨眼控制方法包括:
侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;
依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;
侦测下个眨眼讯号;
判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;
当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及
当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
5.一种眨眼控制方法,其特征在于,包括:
侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;
依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;
侦测下个眨眼讯号;
判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;
当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及
当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
6.如权利要求5所述的眨眼控制方法,其特征在于,在取得该预测自发性眨眼时段的步骤中,该预测自发性眨眼时段发生在最小预测自发性眨眼时点tpMIN与最大预测自发性眨眼时点tpMAX之间,该最小预测自发性眨眼时点tpMIN依据公式tpMIN=tK+ΔTCMIN取得,而该最大预测自发性眨眼时点tpMAX依据公式tpMIAX=tK+ΔTCMAX取得,其中tK为该当前眨眼时点。
7.如权利要求5所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
当判断该下个眨眼讯号为控制性眨眼时,发出控制性眨眼告知讯号。
8.如权利要求7所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
回应该控制性眨眼告知讯号,发出判断错误讯号。
9.如权利要求8所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
回应该判断错误讯号,取得该当前眨眼讯号与该下个眨眼讯号之间的一眨眼时间间隔;
增列该眨眼时间间隔为多个自发性眨眼校正时间间隔的一员;
取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;
取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;
取得多个该自发性眨眼校正时间间隔的标准差;
依据该自发性眨眼间隔平均值及该标准差,取得更新的最小自发性眨眼校正时间间隔;以及
依据该自发性眨眼间隔平均值及该标准差,取得更新的最大自发性眨眼校正时间间隔;以及
以该更新的最小自发性眨眼校正时间间隔取代该最小自发性眨眼校正时间间隔且以该更新的最大自发性眨眼校正时间间隔代该最大自发性眨眼校正时间间隔。
10.如权利要求5所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
当判断该下个眨眼讯号为自发性眨眼时,发出自发性眨眼告知讯号。
11.如权利要求10所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
回应该自发性眨眼告知讯号,发出判断错误讯号;以及
回应该判断错误讯号,将判断错误的该自发性眨眼设定为使用者控制方式。
CN201811146897.3A 2018-09-29 2018-09-29 自发性眨眼校正方法及眨眼控制方法 Active CN109388242B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811146897.3A CN109388242B (zh) 2018-09-29 2018-09-29 自发性眨眼校正方法及眨眼控制方法
US16/562,357 US10963042B2 (en) 2018-09-29 2019-09-05 Spontaneous blinking calibration method and blinking control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811146897.3A CN109388242B (zh) 2018-09-29 2018-09-29 自发性眨眼校正方法及眨眼控制方法

Publications (2)

Publication Number Publication Date
CN109388242A CN109388242A (zh) 2019-02-26
CN109388242B true CN109388242B (zh) 2022-03-15

Family

ID=65418207

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811146897.3A Active CN109388242B (zh) 2018-09-29 2018-09-29 自发性眨眼校正方法及眨眼控制方法

Country Status (2)

Country Link
US (1) US10963042B2 (zh)
CN (1) CN109388242B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE545345C2 (en) * 2021-06-30 2023-07-11 Tobii Ab Method and system for alignment of data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441513A (zh) * 2008-11-26 2009-05-27 北京科技大学 一种利用视觉进行非接触式人机交互的系统
CN102316805A (zh) * 2009-02-13 2012-01-11 丰田自动车株式会社 生理状态推测装置和车辆控制装置
CN103054549A (zh) * 2012-12-29 2013-04-24 西安交通大学 一种可穿戴便携式眼动分析装置及其分析方法
CN103356160A (zh) * 2012-04-03 2013-10-23 庄臣及庄臣视力保护公司 用于电子式眼科透镜的眨眼检测系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5210773B2 (ja) * 2008-09-16 2013-06-12 トヨタ自動車株式会社 眠気判定装置及びプログラム
KR20160017854A (ko) * 2014-08-06 2016-02-17 삼성디스플레이 주식회사 표시 장치의 블링크 장치 및 블링크 유도 방법
DE102014220759B4 (de) * 2014-10-14 2019-06-19 Audi Ag Überwachung eines Aufmerksamkeitsgrads eines Fahrers eines Fahrzeugs
JP6387892B2 (ja) * 2015-04-18 2018-09-12 トヨタ自動車株式会社 眠気検知装置
US20180143454A1 (en) * 2016-11-21 2018-05-24 Johnson & Johnson Vision Care, Inc. Multifunctional signal path for an ophthalmic lens
JP6780616B2 (ja) * 2017-08-31 2020-11-04 トヨタ自動車株式会社 瞬き検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101441513A (zh) * 2008-11-26 2009-05-27 北京科技大学 一种利用视觉进行非接触式人机交互的系统
CN102316805A (zh) * 2009-02-13 2012-01-11 丰田自动车株式会社 生理状态推测装置和车辆控制装置
CN103356160A (zh) * 2012-04-03 2013-10-23 庄臣及庄臣视力保护公司 用于电子式眼科透镜的眨眼检测系统
CN103054549A (zh) * 2012-12-29 2013-04-24 西安交通大学 一种可穿戴便携式眼动分析装置及其分析方法

Also Published As

Publication number Publication date
US10963042B2 (en) 2021-03-30
CN109388242A (zh) 2019-02-26
US20200103960A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
CN109791440B (zh) 头戴式显示器中的虚拟现实内容的视场限制方法
JP5664064B2 (ja) 視線検出装置および補正係数算出プログラム
WO2019120029A1 (zh) 智能调节屏幕亮度的方法、装置、存储介质及移动终端
JP2010099470A (ja) 視線追跡方法及び視線追跡システム
JPWO2016098406A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2016132884A1 (ja) 情報処理装置および方法、並びにプログラム
EP3299937B1 (en) Information processing device and information processing method
JPWO2012137801A1 (ja) 入力装置及び入力方法並びにコンピュータプログラム
WO2016070688A1 (zh) 虚拟操作界面遥控控制方法及系统
KR20160060003A (ko) 응용프로그램의 제어방법, 장치 및 전자장비
CN103654709A (zh) 视线检测设备、视线检测方法及用于其的程序
GB2541073B (en) Information processing apparatus, method for controlling information processing apparatus, image processing system and storage medium
CN110334629B (zh) 可多方位检测距离的方法、装置及可读存储介质
CN109388242B (zh) 自发性眨眼校正方法及眨眼控制方法
CN112987910B (zh) 眼球追踪设备的测试方法、装置、设备及存储介质
CN112162627A (zh) 一种结合头部运动检测的眼球追踪方法及相关装置
CN112733619A (zh) 采集设备的位姿调整方法、装置、电子设备及存储介质
US11036974B2 (en) Image processing apparatus, image processing method, and storage medium
CN113058260B (zh) 基于玩家画像的体感动作识别方法、系统及存储介质
CN113491502A (zh) 一种眼球追踪校准检验方法、装置、设备及存储介质
CN111610886A (zh) 触控屏幕亮度的调整方法、设备及计算机可读存储介质
US20160300104A1 (en) Information processing device, information processing method, program, and information storage medium
CN113058261A (zh) 基于现实场景和游戏场景的体感动作识别方法及系统
CN113058259A (zh) 基于游戏内容的体感动作识别方法、系统及存储介质
CN113038257A (zh) 音量调节方法、装置、智能电视及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant