CN109388242B - 自发性眨眼校正方法及眨眼控制方法 - Google Patents
自发性眨眼校正方法及眨眼控制方法 Download PDFInfo
- Publication number
- CN109388242B CN109388242B CN201811146897.3A CN201811146897A CN109388242B CN 109388242 B CN109388242 B CN 109388242B CN 201811146897 A CN201811146897 A CN 201811146897A CN 109388242 B CN109388242 B CN 109388242B
- Authority
- CN
- China
- Prior art keywords
- blink
- spontaneous
- signal
- correction
- interval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002269 spontaneous effect Effects 0.000 title claims abstract description 238
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000004397 blinking Effects 0.000 claims abstract description 63
- 230000004044 response Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 2
- 210000001508 eye Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Selective Calling Equipment (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种眨眼控制方法包括以下步骤。首先,侦测当前眨眼讯号,其中当前眨眼讯号发生在当前眨眼时点。然后,依据当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段。然后,侦测下个眨眼讯号。然后,判断下个眨眼讯号是否发生在预测自发性眨眼时段内。当下个眨眼讯号发生在预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼。当下个眨眼讯号发生在预测自发性眨眼时段的外,判断下个眨眼讯号属于控制性眨眼。
Description
技术领域
本发明是有关于一种眨眼校正方法及眨眼控制方法,且特别是有关于一种自发性眨眼校正方法及眨眼控制方法。
背景技术
已知的虚拟实境穿戴装置通常可利用控制性眨眼发出控制指令。基于生理现象,使用者(穿戴者)的眼睛无可避免地会发生自发性眨眼。自发性眨眼是一种生理自然反应,并非使用者刻意的控制性眨眼。然而,穿戴装置可能将使用者的自发性眨眼误判成控制性眨眼,执行非使用者预期的功能。
发明内容
本发明有关于一种自发性眨眼校正方法及眨眼控制方法,以解决将自发性眨眼误判成控制性眨眼的问题。
为达到上述一种自发性眨眼校正方法,包括:取得多个自发性眨眼校正讯号;取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;取得多个该自发性眨眼校正时间间隔的标准差;依据该自发性眨眼间隔平均值及该标准差,取得最小自发性眨眼校正时间间隔;依据该自发性眨眼间隔平均值及该标准差,取得最大自发性眨眼校正时间间隔;以及使用该最小自发性眨眼校正时间间隔及该最大自发性眨眼校正时间间隔于眨眼控制方法中滤除自发性眨眼的发生。
较佳的,在依据该自发性眨眼间隔平均值及该标准差取得该最小自发性眨眼校正时间间隔的步骤更包括:依据公式ΔTCMIN=ΔTCAVE-m×σ,取得该最小自发性眨眼校正时间间隔ΔTCMIM,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
较佳的,在依据该自发性眨眼间隔平均值及该标准差取得该最大自发性眨眼校正时间间隔的步骤更包括:依据公式ΔTCMAX=ΔTCAVE+m×σ,取得该最大自发性眨眼校正时间间隔ΔTCMAX,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
较佳的,该眨眼控制方法包括:侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;侦测下个眨眼讯号;判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
为达到上述目的,本发明另提供一种眨眼控制方法,包括:侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;侦测下个眨眼讯号;判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
较佳的,在取得该预测自发性眨眼时段的步骤中,该预测自发性眨眼时段发生在最小预测自发性眨眼时点tpMIN与最大预测自发性眨眼时点tpMAX之间,该最小预测自发性眨眼时点tpMIN依据公式tpMIN=tK+ΔTCMIN取得,而该最大预测自发性眨眼时点tpMAX依据公式tpMIAX=tK+ΔTCMAX取得,其中tK为该当前眨眼时点。
较佳的,该眨眼控制方法还包括:当判断该下个眨眼讯号为控制性眨眼时,发出控制性眨眼告知讯号。
较佳的,该眨眼控制方法还包括:回应该控制性眨眼告知讯号,发出判断错误讯号。
较佳的,该眨眼控制方法还包括:回应该判断错误讯号,取得该当前眨眼讯号与该下个眨眼讯号之间的一眨眼时间间隔;增列该眨眼时间间隔为多个自发性眨眼校正时间间隔的一员;取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;取得多个该自发性眨眼校正时间间隔的标准差;依据该自发性眨眼间隔平均值及该标准差,取得更新的最小自发性眨眼校正时间间隔;以及依据该自发性眨眼间隔平均值及该标准差,取得更新的最大自发性眨眼校正时间间隔;以及以该更新的最小自发性眨眼校正时间间隔取代该最小自发性眨眼校正时间间隔且以该更新的最大自发性眨眼校正时间间隔代该最大自发性眨眼校正时间间隔。
较佳的,该眨眼控制方法还包括:当判断该下个眨眼讯号为自发性眨眼时,发出自发性眨眼告知讯号。
较佳的,该眨眼控制方法还包括:回应该自发性眨眼告知讯号,发出判断错误讯号;以及回应该判断错误讯号,将判断错误的该自发性眨眼设定为使用者控制方式。
与现有技术相比,本发明通过上述自发性眨眼校正方法及眨眼控制方法,可有效判断是自发性眨眼或控制性眨眼,使得控制性眨眼的判断更准确,避免由自发性眨眼引起执行非使用者预期的功能。
为了对本发明的上述及其他方面有更佳的了解,下文特举较佳实施例,并配合所附图式,作详细说明如下:
附图说明
图1绘示依照本发明一实施例的眨眼控制装置的示意图。
图2绘示图1的眨眼控制装置的自发性眨眼控制方法的流程图。
图3绘示依照本发明一实施例的多个自发性眨眼校正讯号的示意图。
图4绘示图1的眨眼控制装置的眨眼控制方法的流程图。
图5A~图5C绘示依照本发明多个实施例的眨眼判断的示意图。
图6绘示将下个眨眼讯号增列为多个自发性眨眼校正时间间隔的一员的示意图。
具体实施方式
为使对本发明的目的、构造、特征、及其功能有进一步的了解,兹配合实施例详细说明如下。
请参照图1~图3,图1绘示依照本发明一实施例的眨眼控制装置100的示意图,图2绘示图1的眨眼控制装置100的自发性眨眼控制方法的流程图,而图3绘示依照本发明实施例的多个自发性眨眼校正讯号Si的示意图。
眨眼控制装置100例如是穿戴装置,如虚拟实境(virtual Reality,VR)装置、扩增实境(Augmented Reality,AR)装置或其它需要利用眨眼进行控制的装置。眨眼控制装置100可分析使用者的自发性眨模式,并在实际眨眼控制过程中,依据自发性眨模式,判断使用者的眨眼属于自发性眨眼或控制性眨眼,以滤除自发性眨眼,且准确执行使用者控制性眨眼的对应功能。
眨眼控制装置100包括摄像器110及处理器120。摄像器110可撷取使用者眼睛的动态影像M1。处理器120可处理使用者眼睛的动态影像M1,以取得使用者眼睛自发性眨眼的模式。以下以图2的流程图及图3的眨眼讯号图介绍依照本发明实施例的自发性眨眼控制方法。
在步骤S110中,如图1所示,摄像器110取得使用者的眼睛动态影像M1。处理器120分析此眼睛动态影像M1,以取得如图3所示的多个自发性眨眼校正讯号SCi,其中i范围为1~n。n为自发性眨眼校正讯号的总数量,其可以是等于或大于1的正整数。随着时间的推移及取样的增加,n可一直累加。如图3所示,自发性眨眼校正讯号SCi的时间区间Δtci表示眨眼一次的时间,此处的”眨眼一次”指的是眼皮开始往下覆盖眼球至从往上露出眼球的过程。如图3所示,时点tci对应各自发性眨眼校正讯号SCi的峰值,表示眼皮全盖的时点。处理器120可分析眼睛动态影像M1中的眼皮上下动作,以产生如图3所示的多个自发性眨眼校正讯号SCi。
在步骤S120中,处理器120计算该多个自发性眨眼校正讯号SCi,以取得该多个自发性眨眼校正讯号SCi的每相邻两者之间的自发性眨眼校正时间间隔ΔTCi。
在步骤S130中,处理器120可采用下式(1),取得该多个自发性眨眼校正时间间隔ΔTCi的自发性眨眼间隔平均值ΔTCAVE。
在步骤S140中,处理器120采用标准差统计方法,取得该多个自发性眨眼校正时间间隔ΔTCi的标准差σ。
在步骤S150中,处理器120依据自发性眨眼间隔平均值ΔTCAVE及标准差σ,取得最小自发性眨眼校正时间间隔ΔTCMIN。例如,处理器120可依据下式(2),取得最小自发性眨眼校正时间间隔ΔTCMIM,其中参数m表示大于0的正整数。参数m的值是可调整的,其可依据所要求的严格程度而定。例如,当参数m的数值愈小,则图5A的预测自发性眨眼时段TP愈窄,在判断眨眼属于自发性眨眼上较为严格。反之,当参数m的数值愈大,则图5A的预测自发性眨眼时段TP愈宽,在判断眨眼属于自发性眨眼上较为宽松。
ΔTCMIN=ΔTCAVE-m×σ........................(2)
在步骤S160中,处理器120依据自发性眨眼间隔平均值ΔTCAVE及标准差σ,取得最大自发性眨眼校正时间间隔ΔTCMAX。例如,处理器120可依据下式(3),取得最大自发性眨眼校正时间间隔ΔTCMAX。
ΔTCMAX=ΔTCAVE+m×σ.............................(3)
在步骤S170中,处理器120使用最小自发性眨眼校正时间间隔ΔTCMIN及最大自发性眨眼校正时间间隔ΔTCMAX于一眨眼控制方法中滤除自发性眨眼的发生。以下进一步举例说明依照本发明一实施例的眨眼控制装置100的眨眼控制方法。
请参照图4、图5A~图5C及图6,图4绘示图1的眨眼控制装置100的眨眼控制方法的流程图,图5A~图5C绘示依照本发明多个实施例的眨眼判断的示意图,而图6绘示将下个眨眼讯号增列为多个自发性眨眼校正时间间隔的一员的示意图。
在步骤S210中,摄像器110取得使用者的眼睛动态影像M1。处理器120处理眼睛动态影像M1,以侦测当前眨眼讯号SK,其中当前眨眼讯号SK发生在当前眨眼时点tK。当前眨眼讯号SK的下标k表示当前眨眼时点的时点,以正整数表示。例如,眨眼控制方法的第1个当前眨眼讯号发生在k等于1的时点。本发明实施例不限定k的上限,随着时间的推移及眨眼讯号取样的增加,k可一直累加。
在步骤S220中,依据当前眨眼时点tK、最小自发性眨眼校正时间间隔ΔTCMIN及最大自发性眨眼校正时间间隔ΔTCMAX,取得预测自发性眨眼时段TP。如图5A所示,预测自发性眨眼时段TP发生在最小预测自发性眨眼时点tpMIN与最大预测自发性眨眼时点tpMAX之间。最小预测自发性眨眼时点tpMIN可依据下式(4)取得,而最大预测自发性眨眼时点tpMAX可依据下式(5)取得。
tpMIN=tK+ΔTCMIN................................(4)
tpMAX=tK+ΔTCMAX.................................(5)
在步骤S230中,如图5A所示,图随着摄像器1100持续撷取使用者的眼睛动态影像M1,处理器120可分析眼睛动态影像M1,以取得下个眨眼讯号SK+1。下个眨眼讯号SK+1发生在时点tK+1。
在步骤S240中,处理器120判断下个眨眼讯号SK+1是否发生在预测自发性眨眼时段TP内。当下个眨眼讯号SK+1发生在预测自发性眨眼时段TP内时(如图5B所示),流程进入步骤S250,处理器120判断下个眨眼讯号SK+1属于自发性眨眼。
在步骤S251中,当处理器120判断下个眨眼讯号SK+1属于自发性眨眼时,处理器120可控制通知单元(未绘示)发出自发性眨眼告知讯号,以让使用者确认其判断结果是否正确。通知单元例如是显示器,而自发性眨眼告知讯号例如是表示下个眨眼讯号SK+1被眨眼控制装置100判断为自发性眨眼的影像,如文字或图片等。或者,通知单元例如是语音产生器,而自发性眨眼告知讯号例如是表示下个眨眼讯号SK+1被眨眼控制装置100判断为自发性眨眼的语音。
使用者可回应此自发性眨眼告知讯号,让眨眼控制装置100得知使用者对于判断结果的肯定或否定。例如,当使用者认为下个眨眼讯号SK+1确实属于自发性眨眼时,使用者可发出判断正确讯号,让眨眼控制装置100得知判断结果是正确的。
或者,当使用者认为下个眨眼讯号SK+1实际上是属于控制性眨眼时,使用者可发出判断错误讯号,让眨眼控制装置100得知判断结果是错误的。然后,处理器120可将判断错误的自发性眨眼设定为使用者控制方式。例如,处理器120回应判断错误讯号,可使用语音或影像提示使用者输入使用者控制方式,处理器120将此自发性眨眼设定为此使用者控制方式。如此,当后续出现此自发性眨眼时,处理器120视为使用者执行此使用者控制方式,并对应执行对应功能。前述使用者控制方式例如是滑鼠点击方式(如点击滑鼠左键或右键)、摇杆控制方式、键盘输入控制方式、触控板的触控方式或其它合适方式。
在一实施例中,使用者回应自发性眨眼告知讯号的方式可通过语音或动作。例如,眨眼控制装置100可还包括一麦克风(未绘示),使用者通过麦克风发出一语音。例如,当使用者认为下个眨眼讯号SK+1确实是属于自发性眨眼时,使用者可通过麦克风发出一表示判断正确的语音,处理器120分析此语音,并得知判断结果是正确。当使用者认为下个眨眼讯号SK+1实际上是属于控制性眨眼时,使用者可通过麦克风发出一表示判断错误的语音,处理器120分析此语音,并得知判断结果是错误的。
或者,眨眼控制装置100可还包括一加速度感知器(G sensor)(未绘示),其可侦测使用者的头部动作,而处理器120依据加速度感知器的讯号分析使用者的动作。例如,当下个眨眼讯号SK+1属于自发性眨眼时,使用者可做出表示判断正确的动作,如点头,处理器120据以分析加速度感知器的讯号,并得知判断结果是正确的。当下个眨眼讯号SK+1实际上是属于控制性眨眼时,使用者可做出表示判断错误的动作,如摇头,处理器120据以分析加速度感知器的讯号,并得知判断结果是错误的。
在步骤S252中,下个眨眼讯号SK+1确实属于自发性眨眼,使用者认为通过前述方式发出判断正确讯号,让眨眼控制装置100得知判断是正确的。然后,如图5B所示,处理器120回应此判断正确讯号,取得当前眨眼讯号SK与该下个眨眼讯号SK+1之间的眨眼时间间隔ΔTK。
在步骤S253中,如图6所示,处理器120依据使用者所发出的判断正确讯号,增列下个眨眼讯号SK+1及其眨眼时间间隔ΔTK为图3中多个自发性眨眼讯号SCi及多个自发性眨眼校正时间间隔ΔTCi的一员。如图所示,下个眨眼讯号SK+1紧接在原先多个自发性眨眼讯号SCi的最后一个自发性眨眼讯号SCn后,即眨眼时间间隔ΔTK的起始时点为最后一个自发性眨眼讯号SCn的时点tcn。然后,如图6所示,处理器120针对图6的全部的多个自发性眨眼讯号SCi(包含下个眨眼讯号SK+1)及多个自发性眨眼校正时间间隔ΔTCi(包含眨眼时间间隔ΔTK)重新执行图2的步骤S110~S160,以取得更新的自发性眨眼校正时间间隔ΔTCj、更新的自发性眨眼间隔平均值ΔTCAVE、更新的标准差σ、更新的最小自发性眨眼校正时间间隔ΔTCMIN及更新的最大自发性眨眼校正时间间隔ΔTCMAX。然后,以更新的最小自发性眨眼校正时间间隔取代最小自发性眨眼校正时间间隔ΔTCMIN且以更新的最大自发性眨眼校正时间间取代最大自发性眨眼校正时间间隔ΔTCMAX,以于眨眼控制流程(如图4)中作为判断下个眨眼讯号(或最近)属于自发性眨眼或控制性眨眼的最新判断依据。
在步骤S240中,处理器120判断下个眨眼讯号SK+1是否发生在预测自发性眨眼时段TP内。当下个眨眼讯号SK+1非发生在预测自发性眨眼时段TP内,例如下个眨眼讯号SK+1发生在预测自发性眨眼时段TP外时(如图5A或图5C所示),流程进入步骤S260,处理器120判断下个眨眼讯号SK+1属于控制性眨眼。
在步骤S261中,当处理器120判断下个眨眼讯号SK+1属于控制性眨眼时,处理器120可控制前述通知单元(未绘示)发出控制性眨眼告知讯号,以让使用者确认其判断结果是否正确。
使用者可采用类似或同于前述回应自发性眨眼告知讯号的方式,回应此控制性眨眼告知讯号,让眨眼控制装置100得知使用者对于判断结果的肯定或否定。例如,当下个眨眼讯号SK+1确实属于控制性眨眼时,使用者可发出判断正确讯号,让眨眼控制装置100得知判断结果是正确的。接着,处理器120回应此判断正确讯号,执行对应该控制性眨眼的功能。
或者,当下个眨眼讯号SK+1实际上是属于自发性眨眼时,使用者可通过类似或同于前述回应自发性眨眼告知讯号的方式,发出判断错误讯号,让眨眼控制装置100得知判断结果是错误的。
在步骤S262中,下个眨眼讯号SK+1其实是属于自发性眨眼时,使用者通过前述方式发出判断错误讯号,让眨眼控制装置100得知判断是错误的。然后,如图5A或图5C所示,处理器120回应此判断错误讯号,取得图5A或图5C所示的当前眨眼讯号SK与下个眨眼讯号SK+1之间的眨眼时间间隔ΔTK。
然后,在步骤S263中,如图6所示,处理器120依据使用者所发出的判断错误讯号,增列下个眨眼讯号SK+1及其眨眼时间间隔ΔTK为图3中多个自发性眨眼讯号SCi及多个自发性眨眼校正时间间隔ΔTCi的一员。然后,如图6所示,处理器120针对图6的全部的多个自发性眨眼讯号SCi(包含下个眨眼讯号SK+1)及多个自发性眨眼校正时间间隔ΔTCi(包含眨眼时间间隔ΔTK)重新执行图2的步骤S110~S160,以取得更新的自发性眨眼校正时间间隔ΔTCj、更新的自发性眨眼间隔平均值ΔTCAVE、更新的标准差σ、更新的最小自发性眨眼校正时间间隔ΔTCMIN及更新的最大自发性眨眼校正时间间隔ΔTCMAX。然后,以更新的最小自发性眨眼校正时间间隔取代最小自发性眨眼校正时间间隔ΔTCMIN且以更新的最大自发性眨眼校正时间间取代最大自发性眨眼校正时间间隔ΔTCMAX,以于眨眼控制流程(如图4)中作为判断下个眨眼讯号(或最新)属于自发性眨眼或控制性眨眼的最新判断依据。
综上,本发明实施例的眨眼控制装置可取得使用者自发性眨眼模式。在另一实施例中,在实际眨眼控制方法,眨眼控制装置依据自发性眨眼模式,判断使用者的每个眨眼属于自发性眨眼模式或控制性眨眼模式。
在另一实施例中,当眨眼控制装置判断使用者的眨眼属于自发性眨眼且实际上使用者也回应判断结果是正确时,眨眼控制装置将此自发性眨眼加入已知的自发性眨眼模式中重新运算,并取得更新的自发性眨眼模式。当眨眼控制装置判断使用者的眨眼属于控制性眨眼,然实际上使用者回应判断结果是错误时(表示使用者的眨眼实际上属于自发性眨眼),眨眼控制装置将此控制性眨眼加入已知的自发性眨眼模式中重新运算,并取得更新的自发性眨眼模式。如此,在实际眨眼控制方法中,眨眼控制装置能依据实际情况不断修正自发性眨眼模式,让眨眼控制装置在判断使用者的控制性眨眼能更准确。
本发明已由上述相关实施例加以描述,然而上述实施例仅为实施本发明的范例。必需指出的是,已揭露的实施例并未限制本发明的范围。相反地,在不脱离本发明的精神和范围内所作的更动与润饰,均属本发明的专利保护范围。
Claims (11)
1.一种自发性眨眼校正方法,其特征在于,包括:
取得多个自发性眨眼校正讯号;
取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;
取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;
取得多个该自发性眨眼校正时间间隔的标准差;
依据该自发性眨眼间隔平均值及该标准差,取得最小自发性眨眼校正时间间隔;
依据该自发性眨眼间隔平均值及该标准差,取得最大自发性眨眼校正时间间隔;以及
使用该最小自发性眨眼校正时间间隔及该最大自发性眨眼校正时间间隔于眨眼控制方法中滤除自发性眨眼的发生。
2.如权利要求1所述的自发性眨眼校正方法,其特征在于,在依据该自发性眨眼间隔平均值及该标准差取得该最小自发性眨眼校正时间间隔的步骤更包括:
依据公式ΔTCMIN=ΔTCAVE-m×σ,取得该最小自发性眨眼校正时间间隔ΔTCMIM,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
3.如权利要求1所述的自发性眨眼校正方法,其特征在于,在依据该自发性眨眼间隔平均值及该标准差取得该最大自发性眨眼校正时间间隔的步骤更包括:
依据公式ΔTCMAX=ΔTCAVE+m×σ,取得该最大自发性眨眼校正时间间隔ΔTCMAX,其中ΔTCAVE表示该自发性眨眼间隔平均值,σ表示该标准差,而m表示大于0的正整数。
4.如权利要求1所述的自发性眨眼校正方法,其特征在于,该眨眼控制方法包括:
侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;
依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;
侦测下个眨眼讯号;
判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;
当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及
当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
5.一种眨眼控制方法,其特征在于,包括:
侦测当前眨眼讯号,其中该当前眨眼讯号发生在当前眨眼时点;
依据该当前眨眼时点、最小自发性眨眼校正时间间隔及最大自发性眨眼校正时间间隔,取得预测自发性眨眼时段;
侦测下个眨眼讯号;
判断该下个眨眼讯号是否发生在该预测自发性眨眼时段内;
当该下个眨眼讯号发生在该预测自发性眨眼时段,判断该下个眨眼讯号属于自发性眨眼;以及
当该下个眨眼讯号发生在该预测自发性眨眼时段之外,判断该下个眨眼讯号属于控制性眨眼。
6.如权利要求5所述的眨眼控制方法,其特征在于,在取得该预测自发性眨眼时段的步骤中,该预测自发性眨眼时段发生在最小预测自发性眨眼时点tpMIN与最大预测自发性眨眼时点tpMAX之间,该最小预测自发性眨眼时点tpMIN依据公式tpMIN=tK+ΔTCMIN取得,而该最大预测自发性眨眼时点tpMAX依据公式tpMIAX=tK+ΔTCMAX取得,其中tK为该当前眨眼时点。
7.如权利要求5所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
当判断该下个眨眼讯号为控制性眨眼时,发出控制性眨眼告知讯号。
8.如权利要求7所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
回应该控制性眨眼告知讯号,发出判断错误讯号。
9.如权利要求8所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
回应该判断错误讯号,取得该当前眨眼讯号与该下个眨眼讯号之间的一眨眼时间间隔;
增列该眨眼时间间隔为多个自发性眨眼校正时间间隔的一员;
取得该多个自发性眨眼校正讯号的每相邻两者之间的自发性眨眼校正时间间隔;
取得多个该自发性眨眼校正时间间隔的自发性眨眼间隔平均值;
取得多个该自发性眨眼校正时间间隔的标准差;
依据该自发性眨眼间隔平均值及该标准差,取得更新的最小自发性眨眼校正时间间隔;以及
依据该自发性眨眼间隔平均值及该标准差,取得更新的最大自发性眨眼校正时间间隔;以及
以该更新的最小自发性眨眼校正时间间隔取代该最小自发性眨眼校正时间间隔且以该更新的最大自发性眨眼校正时间间隔代该最大自发性眨眼校正时间间隔。
10.如权利要求5所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
当判断该下个眨眼讯号为自发性眨眼时,发出自发性眨眼告知讯号。
11.如权利要求10所述的眨眼控制方法,其特征在于,该眨眼控制方法还包括:
回应该自发性眨眼告知讯号,发出判断错误讯号;以及
回应该判断错误讯号,将判断错误的该自发性眨眼设定为使用者控制方式。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146897.3A CN109388242B (zh) | 2018-09-29 | 2018-09-29 | 自发性眨眼校正方法及眨眼控制方法 |
US16/562,357 US10963042B2 (en) | 2018-09-29 | 2019-09-05 | Spontaneous blinking calibration method and blinking control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146897.3A CN109388242B (zh) | 2018-09-29 | 2018-09-29 | 自发性眨眼校正方法及眨眼控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109388242A CN109388242A (zh) | 2019-02-26 |
CN109388242B true CN109388242B (zh) | 2022-03-15 |
Family
ID=65418207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811146897.3A Active CN109388242B (zh) | 2018-09-29 | 2018-09-29 | 自发性眨眼校正方法及眨眼控制方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10963042B2 (zh) |
CN (1) | CN109388242B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE545345C2 (en) * | 2021-06-30 | 2023-07-11 | Tobii Ab | Method and system for alignment of data |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101441513A (zh) * | 2008-11-26 | 2009-05-27 | 北京科技大学 | 一种利用视觉进行非接触式人机交互的系统 |
CN102316805A (zh) * | 2009-02-13 | 2012-01-11 | 丰田自动车株式会社 | 生理状态推测装置和车辆控制装置 |
CN103054549A (zh) * | 2012-12-29 | 2013-04-24 | 西安交通大学 | 一种可穿戴便携式眼动分析装置及其分析方法 |
CN103356160A (zh) * | 2012-04-03 | 2013-10-23 | 庄臣及庄臣视力保护公司 | 用于电子式眼科透镜的眨眼检测系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5210773B2 (ja) * | 2008-09-16 | 2013-06-12 | トヨタ自動車株式会社 | 眠気判定装置及びプログラム |
KR20160017854A (ko) * | 2014-08-06 | 2016-02-17 | 삼성디스플레이 주식회사 | 표시 장치의 블링크 장치 및 블링크 유도 방법 |
DE102014220759B4 (de) * | 2014-10-14 | 2019-06-19 | Audi Ag | Überwachung eines Aufmerksamkeitsgrads eines Fahrers eines Fahrzeugs |
JP6387892B2 (ja) * | 2015-04-18 | 2018-09-12 | トヨタ自動車株式会社 | 眠気検知装置 |
US20180143454A1 (en) * | 2016-11-21 | 2018-05-24 | Johnson & Johnson Vision Care, Inc. | Multifunctional signal path for an ophthalmic lens |
JP6780616B2 (ja) * | 2017-08-31 | 2020-11-04 | トヨタ自動車株式会社 | 瞬き検出装置 |
-
2018
- 2018-09-29 CN CN201811146897.3A patent/CN109388242B/zh active Active
-
2019
- 2019-09-05 US US16/562,357 patent/US10963042B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101441513A (zh) * | 2008-11-26 | 2009-05-27 | 北京科技大学 | 一种利用视觉进行非接触式人机交互的系统 |
CN102316805A (zh) * | 2009-02-13 | 2012-01-11 | 丰田自动车株式会社 | 生理状态推测装置和车辆控制装置 |
CN103356160A (zh) * | 2012-04-03 | 2013-10-23 | 庄臣及庄臣视力保护公司 | 用于电子式眼科透镜的眨眼检测系统 |
CN103054549A (zh) * | 2012-12-29 | 2013-04-24 | 西安交通大学 | 一种可穿戴便携式眼动分析装置及其分析方法 |
Also Published As
Publication number | Publication date |
---|---|
US10963042B2 (en) | 2021-03-30 |
CN109388242A (zh) | 2019-02-26 |
US20200103960A1 (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109791440B (zh) | 头戴式显示器中的虚拟现实内容的视场限制方法 | |
JP5664064B2 (ja) | 視線検出装置および補正係数算出プログラム | |
WO2019120029A1 (zh) | 智能调节屏幕亮度的方法、装置、存储介质及移动终端 | |
JP2010099470A (ja) | 視線追跡方法及び視線追跡システム | |
JPWO2016098406A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2016132884A1 (ja) | 情報処理装置および方法、並びにプログラム | |
EP3299937B1 (en) | Information processing device and information processing method | |
JPWO2012137801A1 (ja) | 入力装置及び入力方法並びにコンピュータプログラム | |
WO2016070688A1 (zh) | 虚拟操作界面遥控控制方法及系统 | |
KR20160060003A (ko) | 응용프로그램의 제어방법, 장치 및 전자장비 | |
CN103654709A (zh) | 视线检测设备、视线检测方法及用于其的程序 | |
GB2541073B (en) | Information processing apparatus, method for controlling information processing apparatus, image processing system and storage medium | |
CN110334629B (zh) | 可多方位检测距离的方法、装置及可读存储介质 | |
CN109388242B (zh) | 自发性眨眼校正方法及眨眼控制方法 | |
CN112987910B (zh) | 眼球追踪设备的测试方法、装置、设备及存储介质 | |
CN112162627A (zh) | 一种结合头部运动检测的眼球追踪方法及相关装置 | |
CN112733619A (zh) | 采集设备的位姿调整方法、装置、电子设备及存储介质 | |
US11036974B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN113058260B (zh) | 基于玩家画像的体感动作识别方法、系统及存储介质 | |
CN113491502A (zh) | 一种眼球追踪校准检验方法、装置、设备及存储介质 | |
CN111610886A (zh) | 触控屏幕亮度的调整方法、设备及计算机可读存储介质 | |
US20160300104A1 (en) | Information processing device, information processing method, program, and information storage medium | |
CN113058261A (zh) | 基于现实场景和游戏场景的体感动作识别方法及系统 | |
CN113058259A (zh) | 基于游戏内容的体感动作识别方法、系统及存储介质 | |
CN113038257A (zh) | 音量调节方法、装置、智能电视及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |