CN114650350A - 注视检测设备、注视检测方法和计算机可读存储介质 - Google Patents
注视检测设备、注视检测方法和计算机可读存储介质 Download PDFInfo
- Publication number
- CN114650350A CN114650350A CN202111543317.6A CN202111543317A CN114650350A CN 114650350 A CN114650350 A CN 114650350A CN 202111543317 A CN202111543317 A CN 202111543317A CN 114650350 A CN114650350 A CN 114650350A
- Authority
- CN
- China
- Prior art keywords
- eye image
- image
- gaze
- detection
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
- G03B13/10—Viewfinders adjusting viewfinders field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2213/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B2213/02—Viewfinders
- G03B2213/025—Sightline detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
本发明提供注视检测设备、注视检测方法和计算机可读存储介质。根据本发明的注视检测设备包括:检测单元,其被配置为基于通过拍摄观看显示面的眼睛而获得的眼睛图像,来检测所述眼睛的注视;以及确定单元,其被配置为基于当前眼睛图像和过去眼睛图像,来确定所述注视的检测是否有误。
Description
技术领域
本发明涉及视线(注视)检测设备和配备有该视线检测设备的摄像设备。
背景技术
近年来,相机变得越来越自动化和智能化。日本特开2004-8323公开了一种技术,该技术允许用户基于观察取景器的用户的视点(视线(注视)位置)的信息,来识别预期被摄体并进行焦点控制,而无需手动输入被摄体位置。此外,日本特开平07-289517公开了一种技术,其中使用拍摄的眼睛图像来确定视线检测结果的可靠性,并且基于该可靠性来确定是否可以进行视线检测。然后,如果确定无法进行视线检测,则估计无法进行视线检测的原因。
在日本特开平07-289517中公开的技术中,单个眼睛图像用于视线检测的误差确定(关于视线检测是否有误(失败)的确定;关于视线是否被精确地检测的确定)。然而,在该方法中,无法高精度地将视线的错误检测确定为误差。如果误差确定的精度低,则例如高频率地基于错误检测到的视线进行不当处理。在检测到的视点处显示项的情况下,项频繁显示在与实际视点不同的位置(错误检测到的视点)处,并且,项的显示位置分散(项不稳定地移动)且设备的可用性下降。
发明内容
本发明提供允许高精度地进行视线(注视)检测的误差确定的技术。
本发明在其第一方面提供了注视检测设备,其包括:检测单元,其被配置为基于通过拍摄观看显示面的眼睛而获得的眼睛图像,来检测所述眼睛的注视;以及确定单元,其被配置为基于当前眼睛图像和过去眼睛图像,来确定所述注视的检测是否有误。
本发明在其第二方面提供了注视检测方法,其包括:基于通过拍摄观看显示面的眼睛而获得的眼睛图像,来检测所述眼睛的注视;以及基于当前眼睛图像和过去眼睛图像,来确定所述注视的检测是否有误。
本发明在其第三方面提供了计算可读存储介质,其存储有使计算机执行上述注视检测方法的各步骤的程序。
通过以下参照附图对示例性实施例的描述,本发明的进一步特征将变得明显。
附图说明
图1A和图1B是根据实施例1的相机的外观图;
图2是根据实施例1的相机的剖视图;
图3是根据实施例1的相机的框图;
图4A至图4C是描绘根据实施例1的取景器内部的视野的图;
图5是用于描述根据实施例1的视线(注视)检测方法的原理的图;
图6A是描绘根据实施例1的眼睛图像的图;
图6B是指示根据实施例1的眼睛图像的亮度分布的图;
图7是根据实施例1的视线检测操作的流程图;
图8A是描绘根据实施例1的眼睛图像的图;
图8B是指示根据实施例1的眼睛图像的亮度分布的图;
图9A是描绘根据实施例1的眼睛图像的图;
图9B是指示根据实施例1的眼睛图像的亮度分布的图;
图10是根据实施例1的误差确定操作(第一方法)的流程图;
图11是描绘根据实施例1的眼睛图像的图;
图12是根据实施例1的误差确定操作(第二方法)的流程图;
图13是根据实施例1的相机操作的流程图;以及
图14是根据实施例2的校准操作的流程图。
具体实施方式
实施例1
将参照附图描述本发明的实施例1。
构造的描述
图1A和图1B是根据实施例1的相机1(数字静态相机;镜头可更换相机)的外观图。图1A是前透视图,并且图1B是后透视图。如图1A所示,相机1具有摄影镜头单元1A和相机主体1B。作为从用户(摄影者)接收摄影操作的操作构件的释放按钮5设置在相机主体1B上。如图1B所示,供用户观察相机主体1B中包括的后述显示装置10(显示面板)的目镜12(目镜光学系统)设置在相机主体1B的背面。目镜光学系统可以包括多个透镜。用于从用户接收各种操作的操作构件41至43也设置在相机主体1B的背面。例如,操作构件41是接收触摸操作的触摸面板,操作构件42是可在各个方向按下的操作杆,并且操作构件43是可在四个方向中的各个方向按下的四向键。操作构件41(触摸面板)包括显示面板(例如液晶面板),并且具有在显示面板上显示图像的功能。
图2是当通过图1A所示的Y轴和Z轴形成的YZ平面剖切相机1时的剖视图,并且描绘了相机1的一般内部构造。
摄影镜头单元1A包含两个透镜101和102、光圈111、光圈驱动单元112、透镜驱动电机113、透镜驱动构件114、光电耦合器115、脉冲板116、安装触点117、焦点调整电路118等。透镜驱动构件114由驱动齿轮等构成,并且光电耦合器115检测与透镜驱动构件114联动的脉冲板116的旋转,并将该旋转传送到焦点调整电路118。焦点调整电路118基于来自光电耦合器115的信息和来自相机主体1B的信息(与透镜驱动量有关的信息)来驱动透镜驱动电机113,并且通过移动透镜101来改变焦点位置。安装触点117是摄影镜头单元1A与相机主体1B之间的接口。为简单起见,示出了两个透镜101和102,但摄影镜头单元1A实际上包括两个以上的透镜。
相机主体1B包含摄像元件2、CPU 3、存储单元4、显示装置10、显示装置驱动电路11等。摄像元件2设置在摄影镜头单元1A的预定成像面上。CPU 3是微型计算机的控制处理单元,并且总体上控制相机1。存储单元4存储由摄像元件2拍摄的图像等。显示装置10由液晶等构成,并将拍摄的图像(被摄体图像)等显示在显示装置10的显示面上。显示装置驱动电路11驱动显示装置10。用户可以通过目镜12观看显示装置10的显示面。
相机主体1B还包含光源13a和13b、分光器15、光接收透镜16、眼睛摄像元件17等。光源13a和13b是用于供单镜头反光相机基于由光的角膜反射形成的反射图像(角膜反射图像;浦肯野图像(Purkinje image))与瞳孔之间的关系来检测视线(注视)方向的光源,并且是用于照明用户的眼球14的光源。具体地,光源13a和13b例如是发射用户未感知到的红外光的红外发光二极管,并设置在目镜12周围。被照明的眼球14的光学图像(眼球图像:由从光源13a和13b发射并被眼球14反射的反射光形成的图像)透过目镜12,并被分光器15反射。然后通过使用光接收透镜16,眼球图像形成在二维设置有CMOS等的光电元件行的眼睛摄像元件17上。光接收透镜16被定位成使得眼球14的瞳孔和眼睛摄像元件17处于共轭图像形成关系。通过将在后面描述的预定算法,根据形成在眼睛摄像元件17上的眼球图像中的角膜反射图像的位置,来检测眼球14的视线方向(显示装置10的显示面上的视点(视线位置))。
图3是描绘相机1内部的电气构造的框图。视线检测电路201、测光电路202、自动焦点检测电路203、信号输入电路204、显示装置驱动电路11、光源驱动电路205等连接到CPU3。此外,CPU 3经由安装触点117将信号传送到设置在摄影镜头单元1A中的焦点调整电路118,并且传送到摄像镜头单元1A内部的光圈驱动单元112中包括的光圈控制电路206。附接到CPU 3的存储单元4具有存储来自摄像元件2和眼睛摄像元件17的摄像信号的功能、以及存储用来校正视线的个体差异的视线校正参数(稍后描述)的功能。
在眼球图像形成在眼睛摄像元件17上的状态下,视线检测电路201对眼睛摄像元件17的输出(拍摄到眼睛的眼睛图像)进行A/D转换,并将结果发送到CPU 3。CPU 3根据预定算法(稍后描述)从眼睛图像中提取视线检测所需的特征点,并根据特征点的位置计算用户的视线(显示装置10的显示面上的视点)。
测光电路202对从也起到测光传感器作用的摄像元件2获取的信号(具体地,与场(field)的亮度相对应的亮度信号)进行放大、对数压缩和A/D转换等,并且将结果作为场亮度信息发送到CPU 3。
自动焦点检测电路203对来自包括在摄像元件2中的用于相位差检测的多个检测元件(多个像素)的信号电压进行A/D转换,并将结果发送到CPU 3。CPU 3基于多个检测元件的信号计算到与各焦点检测点相对应的被摄体的距离。这是被称为“成像面相位差AF”的技术。在实施例1中,例如假设焦点检测点位于成像面上的与如图4A所示的取景器内部的视野图像(显示装置10的显示面)中指示的180个点相对应的180个点中的各个点处。
在释放按钮5的第一冲程接通以开始相机1的测光、测距、视线检测操作等的开关SW1,以及在释放按钮5的第二冲程接通以开始摄影操作的开关SW2连接到信号输入电路204。来自开关SW1或SW2的ON信号被输入到信号输入电路204并被发送到CPU 3。
图4A是描绘取景器内部的视野的图,并且指示显示装置10正在操作的状态(显示图像的状态)。如图4A所示,取景器内部的视野包括焦点检测区域400、180个测距点指标401和视野掩模402等。180个测距点指标401中的各个被设置在成像面上(该成像面叠加在显示在显示装置10上的直通图像(实时取景图像)上),以显示在与焦点检测点相对应的位置处。180个测距点指标401中的与当前视点A(估计位置)相对应的测距点指标401由框等强调显示。
视线检测操作的描述
将参照图5、图6A、图6B和图7描述视线检测方法。图5是用于描述视线检测方法的原理的图,并且是用于视线检测的光学系统的示意图。如图5所示,光源13a和13b关于光接收透镜16的光轴近似对称地设置,并且对用户的眼球14进行照明。从光源13a和13b发射并被眼球14反射的光的一部分被光接收透镜16收集在眼睛摄像元件17处。图6A是描绘由眼睛摄像元件17拍摄的眼睛图像(投影到眼睛摄像元件17上的眼球图像)的示意图,并且图6B是指示眼睛摄像元件17中的CMOS的输出强度的图。图7是视线检测操作的一般流程图。
当视线检测操作开始时,在图7中的步骤S701中,光源13a和13b向用户的眼球14发射红外光。由红外光照明的用户的眼球的图像经由光接收透镜16形成在眼睛摄像元件17上,并由眼睛摄像元件17进行光电转换。由此,可以获取可处理的眼睛图像的电信号。
在步骤S702中,视线检测电路201将从眼睛摄像元件17获取的眼睛图像(眼睛图像信号:眼睛图像的电信号)发送到CPU 3。
在步骤S703中,CPU 3从步骤S702中获取的眼睛图像中确定与光源13a和13b的角膜反射图像Pd和Pe相对应的点、以及与瞳孔中心c相对应的点的坐标。
从光源13a和13b发射的红外光照明用户的眼球14的角膜142。此时,在角膜142的表面上反射的部分红外光所形成的角膜反射图像Pd和Pe被光接收透镜16收集,在眼睛摄像元件17上形成图像,并且成为眼睛图像上的角膜反射图像Pd’和Pe’。以相同方式,来自瞳孔141的边缘a和b的光束也在眼睛摄像元件17上形成图像,并且成为眼睛图像上的瞳孔边缘图像a’和b’。
图6B指示图6A中的眼睛图像中的区域α的亮度信息(亮度分布)。在图6B中,指示了眼睛图像在X轴方向的亮度分布(眼睛图像的水平方向为X轴方向,并且眼睛图像的垂直方向为Y轴方向)。在实施例1中,假设角膜反射图像Pd’和Pe’在X轴方向(水平方向)的坐标为Xd和Xe,并且瞳孔边缘图像a’和b’在X轴方向的坐标为Xa和Xb。如图6B中所示,在角膜反射图像Pd’和Pe’的X坐标Xd和Xe处获取极高水平的亮度。在与瞳孔141的区域(通过来自瞳孔141的光束在眼睛摄像元件17上形成图像而获取的瞳孔图像的区域)相对应的从X坐标Xa到X坐标Xb的区域中,除了在X坐标Xd和Xe处之外,都获取极低水平的亮度。在瞳孔141外侧的虹膜143的区域(通过来自虹膜143的光束形成图像而获取的瞳孔图像外侧的虹膜区域)中,获取上述两种亮度之间的中间亮度。具体地,在X坐标(X轴方向的坐标)小于X坐标Xa的区域中,以及在X坐标大于X坐标Xb的区域中,获取上述两种亮度之间的中间亮度。
可以从图6B所示的亮度分布中获取角膜反射图像Pd’和Pe’的X坐标Xd和Xe以及瞳孔边缘图像a’和b’的X坐标Xa和Xb。具体地,可以获取亮度极高的坐标作为角膜反射图像Pd’和Pe’的坐标,并且可以获取亮度极低的坐标作为瞳孔边缘图像a’和b’的坐标。在眼球14的光轴相对于光接收透镜16的光轴的旋转角度θx小的情况下,通过来自瞳孔中心c的光束在眼睛摄像元件17上形成图像而获取的瞳孔中心图像c’(瞳孔图像的中心)的X坐标Xc可以表达为Xc≈(Xa+Xb)/2。换言之,可以从瞳孔边缘图像a’和b’的X坐标Xa和Xb计算出瞳孔中心图像c’的X坐标Xc。以此方式,可以估计角膜反射图像Pd’和Pe’的坐标以及瞳孔中心图像c’的坐标。
在步骤S704中,CPU 3计算眼球图像的图像形成倍率β。图像形成倍率β是由眼球14相对于光接收透镜16的位置而确定的倍率,并且可以使用角膜反射图像Pd’和Pe’之间的间隔(Xd-Xe)的函数来确定。
在步骤S705中,CPU 3计算眼球14的光轴相对于光接收透镜16的光轴的旋转角度。角膜反射图像Pd与角膜反射图像Pe之间的中点的X坐标与角膜142的曲率中心O的X坐标近似一致。因此,如果从角膜142的曲率中心O到瞳孔141的中心c的标准距离为Oc,则眼球14在Z-X平面(垂直于Y轴的平面)上的旋转角度θx可以通过以下表达式1来计算。眼球14在Z-Y平面(垂直于X轴的平面)上的旋转角度θy也可以通过与计算旋转角度θx的方法相同的方法来计算。
β×Oc×SINθx≈{(Xd+Xe)/2}-Xc...(表达式1)
在步骤S706中,CPU 3使用在步骤S705中计算出的旋转角度θx和θy来确定(估计)用户在显示装置10的显示面上的视点(视线所指向的位置:用户正在观察的位置)。如果视点的坐标(Hx,Hy)为与瞳孔中心c相对应的坐标,则视点的坐标(Hx,Hy)可以通过使用以下表达式2和3来计算。
Hx=m×(Ax×θx+Bx)...(表达式2)
Hy=m×(Ay×θy+By)...(表达式3)
表达式2和3中的参数“m”是由相机1的取景器光学系统(例如光接收透镜16)的构造确定的常数,并且是用于将旋转角度θx和θy变换为显示装置10的显示面上的与瞳孔中心c相对应的坐标的变换系数。假设参数“m”是预先确定的并且被存储在存储单元4中。参数Ax、Bx、Ay和By是用于校正视线的个体差异的视线校正参数,并且可以通过进行校准操作(稍后描述)来获取。假设在视线检测操作开始之前将参数Ax、Bx、Ay和By存储在存储单元4中。
在步骤S707中,CPU 3将视点的坐标(Hx,Hy)存储在存储单元4中,并结束视线检测操作。
校准操作的描述
尽管可以通过上述视线检测操作来估计视点,但是在相同的情况下可能会由于眼球形状的个体差异等原因而难以精确地估计视点。具体地,除非将视线校正参数Ax、Ay、Bx和By调整为适合于用户的值,否则如图4B所示,实际视点B和估计视点C会出现偏差。在图4B中,用户注视着人,但是相机1错误地估计为用户注视着背景,并且在这种状态下无法进行精确的焦点检测和调整。
因此,需要在相机1开始摄影之前进行校准操作,以获取视线校正参数并将参数存储在相机1中。
在传统已知的技术中,通过在摄像之前对显示装置10的显示面上的不同位置处显示的多个指标(如图4C所示)进行强调并让用户观察这些指标,来进行校准操作。然后在用户注视各个指标时进行视线检测操作,并基于计算出的多个视点(估计位置)和各指标的实际坐标来确定适合于用户的视线校正参数。然而,显示指标的方法没有特别的限制,只要指示了用户观察的位置即可,并且可以显示指标的图形,或者可以通过改变图像(例如拍摄的图像)的亮度或颜色来显示指标。
生成视线检测误差的状态的描述
如上所述,在视线检测操作中,从眼睛图像中检测角膜反射图像和瞳孔图像(具体地,角膜反射图像的坐标和瞳孔图像的坐标),并且基于这些检测到的图像获取眼球14的旋转角度θx和θy。然后,通过将旋转角度θx和θy变换成显示装置10的显示面上的与瞳孔中心c相对应的坐标来估计视点。
因此,如果角膜反射图像和瞳孔图像出现错误检测误差(如果角膜反射图像和瞳孔图像的检测误差较大),则无法正确计算出旋转角度θx和θy,并且生成视线检测误差(视线检测的失败;视点检测误差的增大;视点的错误检测)。
将参照图8A和图8B描述生成视线检测误差的状态的示例。在用户佩戴眼镜的情况下,来自光源13a和13b其中至少之一(照明眼球14的光源)的光可以被眼镜的表面反射并且经由目镜12入射眼睛摄像元件17,并且在眼睛图像中被拍摄为重影(ghost)。图8A是由眼睛摄像元件17拍摄的眼睛图像(投影到眼睛摄像元件17上的眼球图像)的示意图,并且图8B是指示眼睛摄像元件17中的CMOS的输出强度的图。在图8A中,由眼镜形成的重影801被拍摄。如图8B中所示,重影801的输出强度与角膜反射图像的输出强度类似。
在图8A和图8B中所示的状态下,由于重影801的输出强度与角膜反射图像的输出强度类似,因此重影801可能被错误地检测为角膜反射图像。具体地,重影801的X坐标Xf可能被错误地检测为角膜反射图像Pd’的X坐标Xd或角膜反射图像Pe’的X坐标Xe。如果角膜反射图像被错误地检测,则眼球图像的图像形成倍率β没有被精确计算,并且旋转角度θx和θy的计算误差增大。在这种情况下,如果估计的视点(通过转换计算出的旋转角度θx和θy而获取的视点)位于显示装置10的显示面外部,则可以容易地确定为出现了视线检测误差(视点的视点估计精度低)。然而,如果估计的视点位于显示装置10的显示面内部,则可能会正确或错误地估计视点(即难以正确地确定视点的估计精度),并且难以正确地确定是否出现了视线检测误差。
将参照图9A和图9B描述生成视线检测误差的状态的示例。图9A是由眼睛摄像元件17拍摄的眼睛图像(投影到眼睛摄像元件17上的眼球图像)的示意图,并且图9B是指示眼睛摄像元件17中的CMOS的输出强度的图。在图9A中,由眼镜形成的重影901被拍摄。如图9B中所示,重影901的输出强度类似于虹膜图像的输出强度。
在图9A和图9B的状态下,由于虹膜图像的输出强度类似于重影901的输出强度,因此瞳孔图像与虹膜图像之间的边界(瞳孔边缘图像a’和b’的X坐标Xa和Xb)可能未被正确地检测。如果X坐标Xa和Xb未被正确地检测,则瞳孔图像的中心坐标(瞳孔中心图像c’的X坐标Xc)未被正确地计算,并且旋转角度θx和θy的计算误差增大。在这种情况下,如果估计的视点位于显示装置10的显示面外部,或者如果根据X坐标Xa和Xb估计的瞳孔直径在预期范围之外(例如,在普通成人的瞳孔直径范围之外),则可以很容易地确定为出现了视线检测误差。然而,如果估计的视点位于显示装置10的显示面内部,且估计的瞳孔直径在预期范围之内,则视点可以被正确地估计,而难以正确地确定是否出现了视线检测误差。
如上所述,视点的估计精度很大程度上受角膜反射图像的检测误差和瞳孔图像的检测误差的影响。由于角膜反射图像和眼睛摄像元件17的噪声等的影响,与角膜反射图像的检测误差相比,瞳孔图像的检测误差尤其趋于较大(瞳孔图像的检测结果趋于分散)。因此,当瞳孔图像的检测误差大时,视点估计精度容易趋于下降(当瞳孔图像的检测结果分散时,估计的视点容易趋于分散)。
具体地,多个角膜反射图像的间隔“Xd-Xe”的计算误差、多个角膜反射图像的中心位置“(Xd+Xe)/2”的计算误差以及瞳孔图像的中心位置“Xc”的计算误差等对视点的估计精度有很大影响。因此,可以基于多个角膜反射图像的间隔“Xd-Xe”的计算误差、多个角膜反射图像的中心位置“(Xd+Xe)/2”的计算误差以及瞳孔图像的中心位置“Xc”的计算误差等,来确定是否出现了视线检测误差。
描述了视线检测误差由重影生成的情况,但是视线检测误差可能由于各种其他原因而生成。例如,当由于眼睑或眼睫毛而无法正确地检测瞳孔时,可能会生成视线检测误差。此外,当角膜反射图像被反映在眼泪上并且被错误地检测时,可能会生成视线检测误差。此外,由于用户周围的环境光的影响,可能会生成视线检测误差。
第一误差确定的描述
将描述用于视线检测的误差确定(确定视线检测电路201的视线检测是否有误;确定视线是否被正确地检测)的第一方法。如上所述,如果基于单个眼睛图像进行误差确定,则除非检测误差非常大,否则难以高精度地进行误差确定。因此,在第一方法中,基于当前眼睛图像和过去眼睛图像进行误差确定。具体地,基于从当前眼睛图像中检测到的多个角膜反射图像和从过去眼睛图像中检测到的多个角膜反射图像来进行误差确定。由此可以高精度地进行误差确定。过去眼睛图像可以是也可以不是紧接在当前眼睛图像之前拍摄的眼睛图像。对于过去眼睛图像,可以使用单个眼睛图像,或者可以使用多个眼睛图像。
多个角膜反射图像的间隔“Xd-Xe”与从取景器(例如光接收透镜16)到角膜的距离密切相关。在使用相机1的情况下,通常不进行使用户观察取景器的眼球14在Z方向(与光接收透镜16的光轴平行的方向)上前后移动的操作。这意味着在用户观察取景器期间,多个角膜反射图像的间隔Xd-Xe近似恒定。
因此,在第一方法中,将从当前眼睛图像中检测到的多个角膜反射图像的间隔与从过去眼睛图像中检测到的多个角膜反射图像的间隔进行比较,以进行误差确定。由此可以高精度地进行误差确定。该误差确定可以视为视线检测的误差确定,或者可以视为多个角膜反射图像的间隔“Xd-Xe”的检测(计算)的误差确定。
将参照图10中的流程图描述视线检测的误差确定操作(第一方法)。
在步骤S1001中,CPU 3确定是否从当前眼睛图像中检测到多个角膜反射图像,并且如果检测到多个角膜反射图像,则处理进入步骤S1002,或者如果未检测到多个角膜反射图像,则处理进入步骤S1007。
在步骤S1007中,CPU 3确定为当前视线检测有误。
在步骤S1002中,CPU 3计算从当前眼睛图像中检测到的多个角膜反射图像的间隔(反射图像间隔),并且将反射图像间隔存储在存储单元4中。在照明眼球14的光源的数量为三个或更多个,并且检测到三个或更多个角膜反射图像的情况下,可以计算从这些检测到的三个或更多个角膜反射图像中获取的多个反射图像间隔的代表值(例如平均值、最大值、最小值、众数值、中值)。可以计算从三个或更多个角膜反射图像中获取的所有反射图像间隔,或者可以计算部分反射图像间隔。例如,在存在四个光源(两行×两列)的情况下,可以仅计算在行方向上设置的两个角膜反射图像的间隔,或者可以仅计算在列方向上设置的两个角膜反射图像的间隔,或者可以仅计算在对角线方向上设置的两个角膜反射图像的间隔。在这三个类型的反射图像间隔中,可以仅计算两个类型的反射图像间隔。
在步骤S1003中,CPU 3确定反射图像间隔是否被计算了至少预定次数(例如5次、10次),换言之,步骤S1002中的处理是否被进行了至少预定次数。然后,如果反射图像间隔被计算了至少预定次数,则CPU 3使处理进入步骤S1004,或者如果计算反射图像间隔的次数未达到预定次数,则在不进行误差确定的情况下结束误差确定操作。
在步骤S1004中,CPU 3从存储单元4获取根据过去眼睛图像计算出的反射图像间隔。可以获取根据单个过去眼睛图像计算出的一个反射图像间隔,但是在实施例1中,假设CPU 3获取在过去预定时段中计算出的一个或多个反射图像间隔,并且计算获取的一个或多个反射图像间隔的平均值。代替平均值,可以计算不同的代表值(例如最大值、最小值、众数值、中值)。过去预定时段例如是到现在为止的5帧的时段,或者是从现在起5帧前的定时到从现在起2帧前的定时的时段。
在步骤S1005中,CPU 3计算在步骤S1004中获取的反射图像间隔(过去反射图像间隔:实施例1中的平均值)与在步骤S1002中计算出的反射图像间隔(当前反射图像间隔)之间的差。
在步骤S1006中,CPU 3将在步骤S1005中计算出的差与预定阈值进行比较,并确定该差是否为阈值或更大。如果该差为预定阈值或更大,则CPU 3使处理进入步骤S1007,并且确定为当前视线检测有误。如果该差小于预定阈值,则CPU 3确定为当前视线检测成功,并结束误差确定操作。
第二误差确定的描述
将描述用于视线检测的误差确定的第二方法。同样在第二方法中,基于当前眼睛图像和过去眼睛图像进行误差确定。具体地,在第二方法中,基于从当前眼睛图像中检测到的多个角膜反射图像和瞳孔图像、以及从过去眼睛图像中检测到的多个角膜反射图像和瞳孔图像,来进行误差确定。由此可以高精度地进行误差确定。
多个角膜反射图像的中心位置“(Xd+Xe)/2”与瞳孔图像的中心位置“Xc”具有很强的相关性。除非观察取景器的用户的头部平移,否则如果瞳孔图像的中心位置“Xc”移动,则多个角膜反射图像的中心位置“(Xd+Xe)/2”也在与瞳孔图像的中心位置“Xc”相同的方向上移动。同样在使用相机1的情况下,在正常情况下,观察取景器的用户的头部不进行连续的平移。因此,在正常情况下,不会出现多个角膜反射图像的中心位置“(Xd+Xe)/2”和瞳孔图像的中心位置“Xc”中的仅一者的移动。
因此,在第二方法中,通过比较以下两个类型的距离来进行误差检测。由此可以高精度地进行误差确定。该误差确定可以被视为视线检测的误差确定,或者可以被视为多个角膜反射图像的中心位置“(Xd+Xe)/2”的检测(计算)的误差确定或瞳孔图像的中心位置“Xc”的检测(计算)的误差确定。
-从表示从当前眼睛图像中检测到的多个角膜反射图像的位置(代表位置:例如中心位置)到从当前眼睛图像中检测到的瞳孔图像的位置(例如中心位置)的距离
-从表示从过去眼睛图像中检测到的多个角膜反射图像的位置(代表位置:例如中心位置)到从过去眼睛图像中检测到的瞳孔图像的位置(例如中心位置)的距离
然而,即使有三个或更多个光源来照明眼球14,也并不总是检测到与光源相同数量的角膜反射图像,并且多个角膜反射图像的代表位置(例如中心位置)根据实际检测到的角膜反射图像的数量和布置而改变。
图11是描绘由眼睛摄像元件17拍摄的眼睛图像(投影到眼睛摄像元件17上的眼球图像)的示意图。图11中的眼睛图像是在有四个光源来照明眼球14的情况下的眼睛图像,并且包括四个角膜反射图像P1至P4。在检测到所有角膜反射图像P1至P4的情况下,角膜反射图像P1至P4的中心位置Pc1被计算为多个角膜反射图像的中心位置。另一方面,在没有检测到角膜反射图像P1和P2而仅检测到角膜反射图像P3和P4的情况下,不将角膜反射图像P1至P4的中心位置Pc1计算为多个角膜反射图像的中心位置,而是计算角膜反射图像P3和P4的中心位置Pc2。
以此方式,多个角膜反射图像的代表位置可能会根据检测到的角膜反射图像的数量和布置而改变,因此在某些情况下,多个角膜反射图像的仅代表位置可能会出现很大变化。如果将检测到的角膜反射图像的数量与当前眼睛图像的数量不同的眼睛图像用作过去眼睛图像,则无法适当地进行上述比较。因此,对于过去眼睛图像,优选使用至少满足检测到的角膜反射图像的数量与当前图像的数量近似相同的条件的眼睛图像。此外,对于过去眼睛图像,更优选使用也满足检测到的角膜反射图像的布置与当前图像的布置近似相同的条件的眼睛图像。同样在使用第一方法进行误差确定的情况下,对于过去眼睛图像,优选使用满足这些条件的眼睛图像。
将参照图12中的流程图描述视线检测的误差确定操作(第二方法)。
在步骤S1201中,CPU 3确定是否基于当前眼睛图像计算出反射中心(多个角膜反射图像的中心位置)和瞳孔中心(瞳孔图像的中心位置)。然后,如果计算出反射中心和瞳孔中心两者,则CPU 3使处理进入步骤S1202,或者如果没有计算出反射中心和瞳孔中心中的至少一个,则使处理进入步骤S1208。
在步骤S1208中,CPU 3确定为当前视线检测有误。
在步骤S1202中,CPU 3确定角膜反射图像的当前检测状态(从当前眼睛图像中检测到的多个角膜反射图像的数量和布置),并确定检测到角膜反射图像的哪个光源。有可能将重影错误地检测为角膜反射图像,但是该类型的检测误差被确定为上述第一方法中的误差。可以考虑被检测为角膜检测图像的候选的多个图像的布置和大小等,来检测角膜反射图像,使得重影不太可能被错误地检测为角膜反射图像。在检测到数量比光源数量多的图像作为角膜反射图像的候选的情况下,可以根据与光源数量相同数量的候选的多个组合来估计多个视点。然后,可以将估计的视点最可能是实际视点的组合的各候选(诸如最接近前一次视点的视点)检测为角膜反射图像。
在步骤S1203中,CPU 3计算当前眼睛图像的反射中心与瞳孔中心之间的距离,并将该距离存储在存储单元4中。
在步骤S1204中,CPU 3确定在角膜反射图像的检测状态(检测到的多个角膜反射图像的数量和布置)与当前状态近似相同的状态下,中心距(反射中心与瞳孔中心之间的距离)是否被计算了至少预定次数(例如5次、10次)。换言之,CPU 3确定在角膜反射图像的检测状态与当前状态近似相同的状态下,步骤S1203中的处理是否被进行了至少预定次数。然后,如果在角膜反射图像的检测状态与当前状态近似相同的状态下,中心距被计算了至少预定次数,则CPU 3使处理进入步骤S1205。如果在角膜反射图像的检测状态与当前状态近似相同的状态下计算中心距的次数没有达到预定次数,则CPU 3在不进行误差确定的情况下结束误差确定操作。
在步骤S1205中,CPU 3从存储单元4中获取根据角膜反射图像的检测状态与当前眼睛图像近似相同的过去眼睛图像而计算出的中心距。在实施例1中,CPU 3获取在角膜反射图像的检测状态与当前状态近似相同的过去预定时段(预定时段长度)中计算出的至少一个中心距,并计算至少一个中心距的平均值。代替平均值,可以计算不同的代表值(例如最大值、最小值、众数值、中值)。可以获取根据单个过去眼睛图像而计算出的一个中心距。
在步骤S1206中,CPU 3计算在步骤S1205中获取的中心距(过去中心距:实施例1中的平均值)与在步骤S1203中计算出的中心距(当前中心距)之间的差。
在步骤S1207中,CPU 3将在步骤S1206中计算出的差与预定阈值进行比较,并确定该差是否为阈值或更大。如果该差为预定阈值或更大,则CPU 3使处理进入步骤S1208,并且确定为当前视线检测有误。如果该差小于预定阈值,则CPU 3确定为当前视线检测成功,并结束误差确定操作。
相机操作的描述
将参照图13中的流程图描述相机1的操作。
当相机1的电源接通时,摄像元件2在步骤S1301中开始获取直通图像,将直通图像的图像信号发送到CPU 3,并且CPU 3将获取的直通图像显示在显示装置10上。用户通过观看显示装置10上显示的直通图像来检查被摄体。根据对相机1的用户操作来接通/断开相机1的电源。
在步骤S1302中,CPU 3确定相机1的电源是否断开,并且如果电源断开,则结束图13中的相机操作,或者如果电源没有断开,则使处理进入步骤S1303。
在步骤S1303中,CPU 3开始获取在步骤S1301中开始观看直通图像的用户的眼睛图像,并进行图7中的视线检测操作。通过视线检测操作,检测瞳孔图像和角膜反射图像在眼睛图像上的坐标,并且计算显示装置10的显示面上的视点坐标。
在步骤S1304中,CPU 3进行图10和图12中的误差确定操作。
在步骤S1305中,CPU 3根据步骤S1304中的误差确定操作的结果来确定当前视线检测是否有误。然后,如果当前视线检测有误,则CPU 3使处理进入步骤S1306,或者如果当前视线检测无误(成功),则使处理进入步骤S1307。
在步骤S1306中,CPU 3根据在过去预定时段中计算出的多个视点来估计当前视点。在进行步骤S1306中的处理的情况下,代替在步骤S1303中计算出的视点,使用在步骤S1306中估计的视点作为当前视点。用于估计视点的方法没有特别限制。例如,可以基于过去视点的移动量和移动方向等来估计当前视点。在视点移动的情况下,可以通过平滑延伸视点的轨迹来估计当前视点。在视点近似停止于一点处(例如以一点为中心摆动)的情况下,可以将多个视点的中心位置或平均位置等估计为当前视点。
在步骤S1307中,CPU 3在与当前视点(估计位置)相对应的位置处将视点框叠加在直通图像上,使得视线框(指示视点的框)显示在显示装置10的显示面上的当前视点(估计位置)处。由此,进行如图4A所示的显示(在直通图像上叠加视线框的显示),并且可以将当前视点A(估计位置)通知到用户。代替视点框,例如可以显示指示视点的点。
在步骤S1308中,CPU 3待机预定时间。
在步骤S1309中,CPU 3确定用户是否按下(半按下)释放按钮5以接通开关SW1。例如,在用户同意对叠加在直通图像上显示的视点框(指示估计视点的框)的位置的聚焦的情况下,用户半按下释放按钮5以接通开关SW1。如果开关SW1接通,则CPU 3使处理进入步骤S1310,或者如果开关SW1没有接通,则使处理返回到步骤S1303并再次估计视点。
在步骤S1310中,CPU 3在当前视线框的位置处进行测距操作,并通过强调显示(诸如改变视线框的显示颜色)来通知用户进行了测距操作。
在步骤S1311中,CPU 3根据在步骤S1310中获取的测距结果来驱动摄影镜头单元1A中的透镜101。由此实现了对叠加在直通图像上显示的视点框的位置的聚焦。
在步骤S1312中,CPU 3确定用户是否完全按下(全按下)释放按钮5以接通开关SW2。例如,在用户同意在当前聚焦位置处摄影的情况下,用户全按下释放按钮5以接通SW2。如果开关SW2接通,则CPU 3使处理进入步骤S1313,或者如果开关SW2没有接通,则使处理返回到步骤S1309。
在步骤S1313中,CPU 3进行摄影操作,由此将摄像元件2获取的图像信号存储在存储单元4中。
在步骤S1314中,CPU 3将在步骤S1313中存储在存储单元4中的图像(摄影图像)在显示装置10上显示预定时间,并且使处理返回到步骤S1302。
结论
如上所述,根据实施例1,对于视线检测的误差确定,不仅使用当前眼睛图像,还使用过去眼睛图像。具体地,基于眼睛图像的特征随时间的变化来进行误差确定。由此,可以高精度地进行视线检测的误差确定。此外,可以适当地消除检测误差大的视线(视点),并且用户可以适当地改善可见度状态,从而可以实现在基于精确视线的位置处的聚焦。
实施例2
接下来将描述本发明的实施例2。以下,省略与实施例1相同的方面(例如构造、处理)的描述,并将描述与实施例1不同的方面。在实施例1中,描述了在相机操作期间进行误差确定的示例。在实施例2中,将描述在要观看的指标显示在显示装置10上的状态下进行误差确定的示例。指标的用途没有特别限制,但是在实施例2中,将描述将指标用于校准操作的情况。
如实施例1中所述,通过在拍摄图像之前强调位于显示装置10上的不同位置处的多个指标、并让用户观看这些指标,来进行校准操作。例如,如图4C所示,在显示装置10的显示面上的五个位置处(在中心、中心的上侧、中心的下侧、中心的左侧和中心的右侧)显示指标。在实施例2中,一次显示一个指标,但也可以同时显示所有五个指标,并且可以依次强调五个指标中的指标。由此,用户观看显示的指标(强调的指标)。换言之,在校准操作中,用户应该观看的位置由指标指定。
即使在校准操作期间,也进行图7中的视线检测操作,并且可能由于各种原因生成视线检测误差。例如,如参照图8A、图8B、图9A和图9B所述,当角膜反射图像或瞳孔图像被错误检测时,会生成视线检测误差。如果使用了错误的视线检测结果(视点),则确定了错误的视线校正参数,并且无法适当地校正视线。如果在校准操作期间进行图10或图12中的误差确定操作,则通过消除错误的视线检测结果,可以确定合适的视线校正参数。
此外,当瞳孔图像或角膜反射图像在眼睛图像中的位置发生大的变化时(即当用户正在观看的位置(视点)变化较大时),瞳孔图像或角膜反射图像的特征也会由于因周围光量下降和透镜像差等引起的曝光不均的影响而发生大的变化。例如,瞳孔图像的形状、瞳孔图像的亮度、角膜反射图像的形状和角膜反射图像的亮度等发生大的变化。多个角膜反射图像的间隔以及多个角膜反射图像的中心位置与瞳孔图像的中心位置之间的距离也发生大的变化。因此,如果在实际视点发生大的变化时,将改变视点前获取的信息用于误差确定,则即使视线检测实际上成功,也可能错误地确定为视线检测有误。因此,优选不使用在改变视点之前获取的信息。在校准操作期间,视点可能会根据指标的显示位置的切换而变化较大,因此通过容易且适当地消除在改变视点之前获取的信息,可以高精度进行视线检测的误差确定。例如,如果将在指标的显示位置与当前图像的显示位置相同的状态下拍摄的眼睛图像用作过去眼睛图像,则可以高精度地进行视线检测的误差确定。
校准操作
将参照图14中的流程图描述根据实施例2的校准操作。例如,响应于指示开始校准操作的用户操作而开始校准操作。
在步骤S1401中,CPU 3在显示装置10上显示供用户注视的指标。
在步骤S1402中,CPU 3待机预定时间。
在步骤S1403中,CPU 3确定用户是否按下(半按下)释放按钮5以接通开关SW1。例如,用户半按下释放按钮5以指示指标被注视并接通开关SW1。如果开关SW1接通,则CPU 3使处理进入步骤S1404,或者如果开关SW1没有接通,则使处理返回到步骤S1402。
在步骤S1404中,CPU 3进行图7中的视线检测操作。通过视线检测操作,检测瞳孔图像和角膜反射图像在眼睛图像中的坐标,并且计算显示装置10的显示面上的视点坐标。
在步骤S1405中,CPU 3进行图10或图12中的误差确定操作。
在步骤S1406中,CPU 3根据步骤S1405中的误差确定操作的结果来确定当前视线检测是否有误。如果当前视线检测有误,则CPU 3使处理进入步骤S1407,或者如果当前视线检测无误(成功),则使处理进入S1409。
在步骤S1407中,CPU 3确定执行视线检测操作的次数(视线检测的误差计数)是否是预定次数或更多。然后,如果执行视线检测操作的次数小于预定次数,则CPU 3使处理返回到步骤S1404,或者如果执行视线检测操作的次数是预定次数或更多,则使处理进入步骤S1408。执行视线检测操作的次数由CPU 3计数。
在步骤S1408中,CPU 3确定为无法适当地进行校准(视线校正参数的确定),并且通知用户校准失败。然后CPU 3结束校准操作。
在步骤S1409中,CPU 3确定检测视点的次数(检测到视点的次数;成功进行视线检测的次数)是否为预定次数或更多。然后,如果检测视点的次数小于预定次数,则CPU 3使处理返回到步骤S1404,或者如果检测视点的次数为预定次数或更多,则使处理进入步骤S1410。检测视点的次数由CPU 3计数。
在步骤S1410中,CPU 3确定是否对所有指标都完成了视线检测(步骤S1401至S1409中的处理)。然后,如果存在至少一个尚未进行视线检测的指标,则CPU 3使处理进入步骤S1411,或者如果对所有指标都完成了视线检测,则使处理进入步骤S1413。
在步骤S1411中,CPU 3将步骤S1401中显示的指标改变(切换)为下一个指标。
在步骤S1412中,CPU 3将在显示改变前的指标的状态下获取的信息重置,使得在误差确定操作中不将在显示改变前的指标的状态下拍摄的眼睛图像用作过去眼睛图像。例如,CPU 3重置多个角膜反射图像的间隔以及多个角膜反射图像的中心位置与瞳孔图像的中心位置之间的距离等。CPU 3还重置针对步骤S1407和S1409中的处理所计数的次数(执行视线检测操作的次数和检测视点的次数)。然后,CPU 3使处理返回到步骤S1401。
在步骤S1413中,CPU 3通知用户校准操作成功。
在步骤S1414中,CPU 3基于针对各指标检测到的视点来计算视线校正参数,将视线校正参数存储到存储单元4,并结束校准操作。
结论
如上所述,根据实施例2,可以在校准操作期间高精度地进行视线检测的误差确定,因此可以高精度地确定视线校正参数。此外,在用户应该观看的指标的显示位置与当前眼睛图像的显示位置相同的状态下拍摄的眼睛图像用作过去眼睛图像。因此,通过容易且适当地消除在实际视点发生大的变化之前获取的信息,可以高精度地进行视线检测的误差确定。
实施例1和2仅仅是示例,并且通过在本发明的精神的范围内适当变型或改变实施例1和2的构造而获取的构造也包括在本发明中。此外,通过适当组合实施例1和2的构造而获取的构造也包括在本发明中。
此外,以上描述了对注视着相机的取景器的用户的视线进行检测的示例,但本发明不限于此。例如,同样在佩戴在用户的头部以物理感知虚拟现实(VR)等的头戴式显示器(HMD)中进行视线检测的情况下,HMD与眼球(佩戴HMD的用户的眼球)之间的位置关系通常是恒定的。因此,在这种情况下也可以实现实施例1和2中描述的本发明的效果。以同样方式,本发明可以应用于诸如增强现实(AR)眼镜等的眼镜式视线检测设备。本发明可以应用于使用眼睛图像估计视点的所有电子装置。特别地,(由于目镜窗框与眼球(注视目镜窗框的眼球)的位置关系通常是恒定的)本发明可以适用于具有限制视野的目镜窗框(例如相机的目镜窗框、眼镜框)的电子装置。
如上所述,根据实施例1和2,通过不仅使用当前眼睛图像还使用过去眼睛图像来进行视线检测的误差确定,可以将实现高精度的误差确定的视线检测设备提供给相机、HMD和眼镜式设备。
根据本公开,可以高精度地进行视线检测的误差确定。
其他实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
尽管参照示例实施例描述了本发明,但是应当理解,本发明不限于所公开的示例实施例。所附权利要求的范围应被赋予最宽泛的解释,以涵盖所有这样的变型以及等同的结构和功能。
Claims (10)
1.一种注视检测设备,其包括:
检测单元,其被配置为基于通过拍摄观看显示面的眼睛而获得的眼睛图像,来检测所述眼睛的注视;以及
确定单元,其被配置为基于当前眼睛图像和过去眼睛图像,来确定所述注视的检测是否有误。
2.根据权利要求1所述的注视检测设备,其中,
所述检测单元通过从所述眼睛图像中检测多个角膜反射图像,来检测所述注视;以及
所述确定单元基于从所述当前眼睛图像中检测到的多个角膜反射图像以及从所述过去眼睛图像中检测到的多个角膜反射图像,来确定所述注视的检测是否有误。
3.根据权利要求2所述的注视检测设备,其中,
在从所述当前眼睛图像中检测到的多个角膜反射图像的间隔与从所述过去眼睛图像中检测到的多个角膜反射图像的间隔之间的差大于阈值的情况下,所述确定单元确定为所述注视的检测有误。
4.根据权利要求2或3所述的注视检测设备,其中,
所述检测单元通过从所述眼睛图像中进一步检测瞳孔图像,来检测所述注视,以及
在如下的两个距离之间的差大于阈值的情况下,所述确定单元确定为所述注视的检测有误:从表示从所述当前眼睛图像中检测到的多个角膜反射图像的位置到从所述当前眼睛图像中检测到的瞳孔图像的位置的距离;以及从表示从所述过去眼睛图像中检测到的多个角膜反射图像的位置到在所述过去眼睛图像中检测到的瞳孔图像的位置的距离。
5.根据权利要求2或3所述的注视检测设备,其中,
所述确定单元使用至少满足检测到的多个角膜反射图像的数量与所述当前眼睛图像的数量大致相同的条件的眼睛图像,作为所述过去眼睛图像。
6.根据权利要求5所述的注视检测设备,其中,
所述确定单元使用进一步满足检测到的多个角膜反射图像的布置与所述当前眼睛图像的布置大致相同的条件的眼睛图像,作为所述过去眼睛图像。
7.根据权利要求1所述的注视检测设备,其中,
所述当前眼睛图像是通过在要由所述眼睛观看的指标显示在所述显示面上的状态下进行拍摄而获得的眼睛图像,以及
所述确定单元使用至少满足通过在所述指标的显示位置与所述当前眼睛图像的显示位置相同的状态下进行拍摄来获得眼睛图像的条件的眼睛图像,作为所述过去眼睛图像。
8.根据权利要求7所述的注视检测设备,其中,
所述指标是用于校准操作以获取要用于检测所述注视的参数的指标。
9.一种注视检测方法,其包括:
基于通过拍摄观看显示面的眼睛而获得的眼睛图像,来检测所述眼睛的注视;以及
基于当前眼睛图像和过去眼睛图像,来确定所述注视的检测是否有误。
10.一种计算可读存储介质,其存储有使计算机执行根据权利要求9所述的注视检测方法的各步骤的程序。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020210018A JP2022096819A (ja) | 2020-12-18 | 2020-12-18 | 視線検出装置 |
JP2020-210018 | 2020-12-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114650350A true CN114650350A (zh) | 2022-06-21 |
Family
ID=81992415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111543317.6A Pending CN114650350A (zh) | 2020-12-18 | 2021-12-16 | 注视检测设备、注视检测方法和计算机可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11829052B2 (zh) |
JP (1) | JP2022096819A (zh) |
CN (1) | CN114650350A (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7416131B2 (ja) | 2022-06-15 | 2024-01-17 | Dic株式会社 | 熱硬化性エポキシ樹脂組成物の探索方法、情報処理装置、及びプログラム |
JP2024110353A (ja) * | 2023-02-02 | 2024-08-15 | キヤノン株式会社 | 視線検出装置、観察装置、撮像装置、制御方法、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07289517A (ja) | 1994-04-28 | 1995-11-07 | Canon Inc | 視線検出装置およびそれを備えた光学機器 |
JP2004008323A (ja) | 2002-06-04 | 2004-01-15 | Canon Inc | 視線機能付光学装置 |
US7206022B2 (en) * | 2002-11-25 | 2007-04-17 | Eastman Kodak Company | Camera system with eye monitoring |
KR101769177B1 (ko) * | 2012-10-09 | 2017-08-18 | 한국전자통신연구원 | 시선 추적 장치 및 방법 |
-
2020
- 2020-12-18 JP JP2020210018A patent/JP2022096819A/ja active Pending
-
2021
- 2021-12-16 CN CN202111543317.6A patent/CN114650350A/zh active Pending
- 2021-12-16 US US17/552,808 patent/US11829052B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20220197111A1 (en) | 2022-06-23 |
JP2022096819A (ja) | 2022-06-30 |
US11829052B2 (en) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7358530B2 (ja) | 被写体認識装置及び被写体認識装置の制御方法 | |
CN114650350A (zh) | 注视检测设备、注视检测方法和计算机可读存储介质 | |
US11650660B2 (en) | Electronic device, control method, and non-transitory computer readable medium | |
JP2024003037A (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
US12047703B2 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
CN114947732A (zh) | 检测装置和用于控制检测装置的控制方法 | |
US20230186520A1 (en) | Gaze detection apparatus | |
US20240085979A1 (en) | Recording device, image-capturing apparatus, control method, and recording system | |
EP4278949A1 (en) | Electronic apparatus, control method of electronic apparatus, program, and computer readable medium | |
JP7358130B2 (ja) | 電子機器およびその制御方法 | |
US11632496B2 (en) | Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium | |
US20240231482A1 (en) | Display control apparatus and control method for display apparatus | |
US20230092593A1 (en) | Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor | |
JP2024003432A (ja) | 電子機器 | |
JP2021064928A (ja) | 電子機器 | |
JP2023063760A (ja) | 識別装置 | |
JP3391892B2 (ja) | 視線検出装置、光学装置及び視線検出方法 | |
JP2023069526A (ja) | 電子機器及びその制御方法、プログラム | |
JP2023006629A (ja) | 制御装置およびその制御方法 | |
JP3624030B2 (ja) | 視線検出装置及び光学装置 | |
JP2022183552A (ja) | 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体 | |
JP2024002562A (ja) | 識別装置 | |
JP2022165239A (ja) | 撮像装置及びその制御方法、並びにプログラム | |
JP3332581B2 (ja) | 光学装置、カメラ、視線検出装置、視線検出方法、及び、接眼部と眼球位置の相対位置判別方法。 | |
JP2002186587A (ja) | 視線検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |