CN103604412B - 定位方法及定位装置 - Google Patents

定位方法及定位装置 Download PDF

Info

Publication number
CN103604412B
CN103604412B CN201310524296.2A CN201310524296A CN103604412B CN 103604412 B CN103604412 B CN 103604412B CN 201310524296 A CN201310524296 A CN 201310524296A CN 103604412 B CN103604412 B CN 103604412B
Authority
CN
China
Prior art keywords
user
coordinate system
environment coordinate
gaze
blinkpunkt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310524296.2A
Other languages
English (en)
Other versions
CN103604412A (zh
Inventor
杜琳
施伟
黄伟才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhigu Ruituo Technology Services Co Ltd
Original Assignee
Beijing Zhigu Ruituo Technology Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhigu Ruituo Technology Services Co Ltd filed Critical Beijing Zhigu Ruituo Technology Services Co Ltd
Priority to CN201310524296.2A priority Critical patent/CN103604412B/zh
Publication of CN103604412A publication Critical patent/CN103604412A/zh
Application granted granted Critical
Publication of CN103604412B publication Critical patent/CN103604412B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00

Abstract

本发明公开了一种定位方法及定位装置,所述定位方法包括:用户位置信息获取步骤,获取用户在已知环境坐标系中的位置信息;注视距离检测步骤,检测用户当前的注视点相对于用户的距离;注视方向获取步骤,获取所述环境坐标系中所述注视点相对于用户的方向;位置获取步骤,根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。本发明技术方案使得用户通过观看对象,就可以获知所述观看对象的位置信息,非常方便,并且可以准确的选定待定位的对象,进而定位的精度较高。

Description

定位方法及定位装置
技术领域
本发明涉及定位技术领域,尤其涉及一种定位方法及装置。
背景技术
日常生活中经常存在指定对象定位的问题,例如旅游时看到远处某建筑,希望得到其位置信息以便进一步查询更多相关信息;测量远处两个指定对象之间的距离;超市中通过获得指定对象的位置来了解其特性功能等。
在一些解决方法中,可以通过图像采集的方式来对该指定对象进行定位,例如拍摄远处指定对象(如建筑物)的图像并将其向远端上传,在远端对该上传的图像与数据库中存储的图像进行对比分析,找到与上传图像吻合的存储图像,并将数据库中与该存储图像对应的信息(可以包括位置信息)返回给用户。但是这种方法存在以下问题:当数据库中有多个图像与上传的图像吻合时,有可能会得到错误的信息;此外,对于数据库中没有存储与拍摄图像对应的图像的情况,则无法确定与拍摄图像对应的信息。
在另一些解决方法中,例如公开号为CN102445701的中国专利中公开了一种根据拍摄照片手机的全球定位系统(GlobalPositioningSystem,GPS)、相机模块对焦点到相机模块的距离(根据相机模块存储的对焦参数获得)、方向传感器和地磁传感器数据来确定图像中指定对象的位置的方法。该方法通过手机拍照来完成,在该方法中,需要相机模块的对焦点准确地落在需要获取位置信息的物体上,否则获得信息误差很大,但是在很多情况下(例如被拍摄物体的纹理不明显的情况下),无法保证所述对焦点能够准确的落在所述物体上,此外,这种方法用户使用也不够直观方便。
发明内容
本发明要解决的技术问题是:提供一种定位方法及装置,以快速、准确、方便地对指定对象进行定位。
为实现上述目的,第一方面,本发明提供了一种定位方法,包括:
用户位置信息获取步骤,获取用户在已知环境坐标系中的位置信息;
注视距离检测步骤,检测用户当前的注视点相对于用户的距离;
注视方向获取步骤,获取所述环境坐标系中所述注视点相对于用户的方向;
位置获取步骤,根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。
第二方面,本发明提供了一种定位装置,包括:
用户位置信息获取模块,用于获取用户在已知环境坐标系中的位置信息;
注视距离检测模块,用于检测用户当前的注视点相对于用户的距离;
注视方向获取模块,用于获取所述环境坐标系中所述注视点相对于用户的方向;
位置获取模块,用于根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。
本发明实施例的上述技术方案,在用户观看对象时,通过检测用户与观看对象之间的距离以及二者之间的相对方位得到用户与观察对象之间的相对位置关系,再由用户自身的位置信息得到观察对象的位置信息;使得用户通过观看对象,就可以获知所述观看对象的位置信息,非常方便,并且可以准确的选定待定位的对象,进而定位的精度较高。
附图说明
图1为本发明实施例的一种定位方法的流程示意图;
图2为本发明实施例一种定位方法中注视点距离检测步骤的流程示意图;
图3为本发明实施例一种定位方法注视点检测步骤中图像处理步骤的流程示意图;
图4a为本发明实施例一种定位方法中使用的光斑图案的示意图;
图4b为本发明实施例一种定位方法中拍摄到的眼底的光斑图案的示意图;
图5为本发明实施例一种定位方法中注视方向获取步骤的流程示意图;
图6为本发明实施例一种定位装置的结构示意框图;
图7a为本发明实施例另一种定位装置的结构示意框图;
图7b为通过本发明实施例的定位装置获得注视对象位置的示意图;
图8a为本发明实施例一种定位装置注视距离检测模块的结构示意框图;
图8b为本发明实施例另一种定位装置注视距离检测模块的结构示意框图;
图8c为本发明实施例一种定位装置注视点检测模块眼睛成像的光路示意图;
图8d为本发明实施例一种定位装置注视点检测模块根据系统已知成像参数和眼睛的光学参数得到注视点距离的示意图;
图9为本发明实施例一种定位装置注视点检测模块的结构示意图;
图10为本发明实施例另一种定位装置注视点检测模块的结构示意图;
图11为本发明实施例又一种定位装置的结构示意框图;
图12为本发明实施例再一种定位装置的结构示意框图;
图13为本发明实施例定位装置的应用场景示意图。
具体实施方式
本发明的方法及装置结合附图及实施例详细说明如下。
为了更加便捷地对指定对象进行定位,本发明实施例提供了一种定位技术,在该技术中,通过用户的当前注视点到用户的距离、注视方向在一已知环境坐标系中的方向以及用户当前的在所述环境坐标系中的位置,计算得到用户当前注视点所对应的对象在所述环境坐标系中的位置。通过本发明实施例的技术,用户在注视指定对象时,就可以自动获取其位置信息,而不需要进行其它操作,非常便捷;此外,用户注视一对象时眼睛会自动进行调焦以看清对象,与背景技术的专利CN102445701中需要对相机进行调焦以使得相机的焦点落在对象上相比,这是一个非常自然又准确的过程。因此通过本发明实施例的技术可以大大提高用户的体验。
在本发明的实施例中,所述“环境坐标系”为用户所在环境对应的、已经定义的坐标系。例如,确定地物在地球上位置的地理坐标系;或者为某个室内环境中定义的室内坐标系。通过GPS、室内定位装置等定位技术可以获得特定物体在所述环境坐标系中的位置。
如图1所示,本发明实施例的一种可能的实施方式提供了一种定位方法,包括:
S110用户位置信息获取步骤,获取用户在已知环境坐标系中的位置信息;
S120注视距离检测步骤,检测用户当前的注视点相对于用户的距离;
S130注视方向获取步骤,获取所述环境坐标系中所述注视点相对于用户的方向;
S140位置获取步骤,根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。
通过本发明实施例的上述方法,用户通过观看对象,就可以获知所述观看对象的位置信息,非常方便,并且可以准确的选定待定位的对象,进而定位的精度较高。
下面对本发明实施例方法中各步骤的实施细节进行进一步的描述。
S110用户位置信息获取步骤,获取用户在已知环境坐标系中的位置信息。
在本发明实施例的一种可能的实施方式中,所述步骤S110获取用户在已知环境坐标系中的位置信息的方式可以有多种,例如可以包括:
采集用户在所述环境坐标系中的位置信息。
在本实施例中,可以通过一与所述环境坐标系对应的定位装置来采集所述位置信息。以所述环境坐标系为地理坐标系为例,可以采用如GPS定位模块等方式来获得所述位置信息。
或者,在其它可能的实施方式中,所述步骤S110还可以包括,
接收用户在所述环境坐标系中的位置信息。
在本实施方式中,可以通过外部设备来获得用户在所述环境坐标系中的位置信息,再通过通信传递的方式被本发明实施例的方法获取。以所述环境坐标系为某一室内环境的坐标系为例,通过室内环境的位置监控设备获取所述用户在该环境内的位置信息,然后本发明实施例的方法再从该位置监控设备获取该位置信息。
S120注视距离检测步骤,检测用户当前的注视点相对于用户的距离。
在本发明实施例的实施方式中,所述步骤S120检测用户当前的注视点相对于用户的距离的方式可以有多种,一般需要通过对用户眼睛进行拍摄得到所述用户当前的注视点相对于用户的距离,例如为以下几种中的一种:
i)采用一个瞳孔方向检测器检测一个眼睛的光轴方向、再通过一个深度传感器(如红外测距)得到眼睛注视场景中各对象的深度信息,根据与所述眼睛光轴方向对应的用户的视线方向,可以确定在所述眼睛注视场景中用户注视的对象,该技术为已有技术,本实施方式中不再赘述。本发明实施例根据所述注视场景中对象的深度信息就可以得到用户当前的注视点(对应于观察对象)相对于用户的距离。
ii)分别检测两眼的光轴方向,再根据所述两眼光轴方向得到用户两眼视线方向,通过所述两眼视线方向的交点得到眼睛视线的注视点相对于用户的位置,该技术也为已有技术,此处不再赘述。本发明实施例可以根据所述眼睛视线的注视点相对于用户的位置,通过几何计算就可以得到用户当前的注视点相对于用户的距离。
iii)根据采集到眼睛的成像面呈现最清晰图像时眼底图像采集子位置与眼睛之间光路的光学参数以及眼睛的光学参数,得到所述眼睛视线的注视点相对于用户的距离,本发明实施例会在下面给出该方法的详细过程,此处不再赘述。
当然,本领域的技术人员可以知道,除了上述几种形式的方法外,其它可以用于检测用户眼睛注视点相对于用户的距离的方法也可以用于本发明实施例的方法中。
其中,如图2所示,通过第iii)种方法检测用户当前的注视点位置包括:
S122:眼底图像采集步骤,采集用户眼底的图像;
S124:可调成像步骤,进行眼底图像采集位置与眼睛之间光路的成像参数的调节直至采集到最清晰的图像;
S126:图像处理步骤,对采集到的眼底图像进行分析,得到与所述最清晰图像对应的所述眼底图像采集位置与眼睛之间光路的成像参数以及眼睛的光学参数,并计算用户当前的注视点相对于用户的距离。
本实施例通过对眼睛眼底的图像进行分析处理,得到采集到最清晰图像时眼睛的光学参数,同时获取此时对应的光路的成像参数,从而计算得到视线当前的对焦点相对于用户的距离。
这里的“眼底”呈现的图像主要为在视网膜上呈现的图像,其可以为眼底自身的图像(例如可以包括眼底神经和血管分布等的眼底图像),或者可以为投射到眼底的其它物体的图像,例如下面提到的光斑图案。
在步骤S124中,通过对眼睛与眼底图像采集位置之间的光路上的光学器件的焦距和/或在光路中的位置进行调节,可在该光学器件在某一个位置和/或某一状态时获得眼底最清晰的图像。该调节可为连续实时地调节。
在本发明实施例方法的一种可能的实施方式中,该光学器件可为焦距可调透镜,用于通过调整该光学器件自身的折射率和/或形状完成其焦距的调整。具体为:1)通过调节焦距可调透镜的至少一面的曲率来调节焦距,例如在双层透明层构成的空腔中增加或减少液体介质来调节焦距可调透镜的曲率;2)通过改变焦距可调透镜的折射率来调节焦距,例如焦距可调透镜中填充有特定液晶介质,通过调节液晶介质对应电极的电压来调整液晶介质的排列方式,从而改变焦距可调透镜的折射率。
在本发明实施例的方法的另一种可能的实施方式中,该光学器件可为:透镜组,用于通过调节透镜组中透镜之间的相对位置完成透镜组自身焦距的调整。或者,所述透镜组中的一片或多片透镜为上面所述的焦距可调透镜。
除了上述两种通过光学器件自身的特性来改变系统的成像参数以外,还可以通过调节光学器件在光路上的位置来改变系统的成像参数。
此外,如图3所示,在本发明实施例的方法中,步骤S126进一步包括:
S1261:对步骤S122采集到的图像进行分析,找到最清晰的图像;
S1262:根据所述最清晰的图像、以及得到所述最清晰图像时已知的成像参数计算眼睛的光学参数。
步骤S124中的调整使得本发明实施例的方法能够采集到最清晰的图像,但是需要通过步骤S126来找到该最清晰的图像,根据所述最清晰的图像以及已知的光路参数就可以通过计算得到眼睛的光学参数。
在本发明实施例的一种可能的方法中,如图2所示,在步骤S122之前还可包括:
光斑投射步骤S121:向眼底投射光斑。所投射的光斑可以没有特定图案,仅用于照亮眼底。所投射的光斑还可为包括特征丰富的图案的光斑图案。图案的特征丰富可以便于检测,提高检测精度。如图4a所示为一个光斑图案P的示例图,该图案可以由光斑图案生成器形成,例如毛玻璃;图4b所示为在有光斑图案P投射时采集到的眼底的图像。
为了不影响眼睛的正常观看,优选的,所述光斑为眼睛不可见的红外光斑。此时,为了减小其它光谱的干扰:可将所述投射的光斑中的眼睛不可见光之外的光滤除。
相应地,本发明实施的方法还可包括步骤:
S1263:根据步骤S1261分析得到的结果,控制投射光斑亮度。该分析结果例如包括步骤S122采集到的图像的特性,包括图像特征的反差以及纹理特征等。
需要说明的是,控制投射光斑亮度的一种特殊的情况为开始或停止投射,例如观察者持续注视一点时可以周期性停止投射;观察者眼底足够明亮时可以停止投射,利用眼底自身信息来检测眼睛当前视线对焦点到眼睛的距离。
此外,还可以根据环境光来控制投射光斑亮度。
优选地,在本发明实施例的方法中,步骤S126还包括:
S1264:进行眼底图像的校准,获得至少一个与眼底呈现的图像对应的基准图像。具言之,将采集到的图像与所述基准图像进行对比计算,获得所述最清晰的图像。这里,所述最清晰的图像可以为获得的与所述基准图像差异最小的图像。在本实施方式的方法中,可以通过现有的图像处理算法计算当前获得的图像与基准图像的差异,例如使用经典的相位差值自动对焦算法。
本发明实施例在步骤S1262中所得到的眼睛的光学参数可包括根据与所述最清晰图像对应的眼睛的特征得到的眼睛光轴方向(本发明实施例的下述描述中,所述眼睛光轴方向为眼睛光轴相对于一与用户相关的参考方向的方向,例如相对于用户正前方的方向),该光轴方向可以用于注视方向获取步骤S130,下面会详细说明。这里眼睛的特征可以是从所述最清晰图像上获取的,或者也可以是另外获取的。眼睛光轴方向与眼睛视线注视的方向对应。具言之,可根据得到所述最清晰图像时眼底的特征得到眼睛光轴方向。其中,通过眼底的特征来确定眼睛光轴方向精确度更高。
在向眼底投射光斑图案时,光斑图案的大小有可能大于眼底可视区域或小于眼底可视区域,其中:
当光斑图案的面积小于等于眼底可视区域时,可以利用经典特征点匹配算法(例如尺度不变特征转换(ScaleInvariantFeatureTransform,SIFT)算法)通过检测图像上的光斑图案相对于眼底位置来确定眼睛光轴方向。
当光斑图案的面积大于等于眼底可视区域时,可以通过得到的图像上的光斑图案相对于原光斑图案(通过图像校准获得)的位置来确定眼睛光轴方向确定观察者视线方向。
在本发明实施例的方法的另一种可能的实施方式中,还可根据得到所述最清晰图像时眼睛瞳孔的特征得到眼睛光轴方向。这里眼睛瞳孔的特征可以是从所述最清晰图像上获取的,也可以是另外获取的。通过眼睛瞳孔特征得到眼睛光轴方向为已有技术,此处不再赘述。
此外,在本发明实施例的方法中,还可包括对眼睛光轴方向的校准步骤,以便更精确的进行上述眼睛光轴方向的确定。
在本发明实施例的方法中,所述眼睛与眼底图像采集位置之间光路的成像参数包括固定的成像参数和实时成像参数,其中实时成像参数为获取最清晰图像时所述光学器件的参数信息,该参数信息可以在获取所述最清晰图像时实时记录得到。
在得到眼睛当前的光学参数之后,就可以结合计算得到的眼睛注视点到用户眼睛的距离(具体过程将结合装置部分详述)。
S130注视方向获取步骤,获取所述环境坐标系中所述注视点相对于用户的方向。
如图5所示,在本发明实施例的一种可能的实施方式中,所述步骤S130包括:
S132获取一与用户相关的参考方向在所述环境坐标系中的方向;
这里所述与用户相关的参考方向为以用户的某一面为参考的方向,例如上面提到的用户正前方(具体可为用户的脸正对的方向),或者还可以为其它合适的方向,如用户脸的左侧或右侧正对的方向等等,该方向是预先定义的。优选地,可以将该参考方向定义为用户某一与身体相对固定的可穿戴设备上的方向传感器容易获取的方向。
所述步骤S132可以采集所述参考方向在所述环境坐标系中的方向。例如,通过传感的方式来获得所述参考方向在所述环境坐标系中的方向。以所述环境坐标系为地理坐标为例,可以采用一方向传感器,例如罗盘来获得该参考方向在所述环境坐标系中的方向。例如得到用户正前方方向为东偏北30度。
在一些实施方式中,所述参考方向在环境坐标系中的方向还包括所述参考方向与水平面之间的角度,例如可以通过一水平仪作为方向传感器的一个模块来获得所述参考方向与水平面之间的角度。
在另一些可能的实施方式中,所述参考方向在所述环境坐标系中的方向还可以是由其它设备获得,再通过信号传递的方式被本发明实施例的方法获得。
S134获取用户当前视线方向相对于所述参考方向的角度;
该步骤例如可以通过上面所述的步骤S1262同步进行,例如步骤S1262根据拍摄的眼底或眼睛表面的图像,通过图像分析得到眼睛的光轴方向相对于所述参考方向的角度,再根据光轴方向与视线方向的转换方法(已有技术,这里不再赘述)得到所述视线方向与参考方向的角度。当然,还可以不通过步骤S1262来获得所述角度,另外获取。
在一种可能的实施方式中,用户可以主动地将当前视线方向调节成与所述参考方向一致,使得所述基本角度为0,例如当前参考方向为用户正前方,则用户保持自己的注视点在正前方,则基本可以实现视线方向与参考方向的一致。
S136根据所述参考方向在所述环境坐标系中的方向以及所述视线方向相对于所述参考方向的角度得到所述环境坐标系中所述注视点相对于用户的方向。
当然,本领域的技术人员可以知道,在上面所述的当视线方向与所述参考方向一致时,可以通过方向传感方法直接获得所述视线方向在环境坐标系中的方向。
在本发明实施例的一种可能的实施方式中,为了避免本发明实施例的方法获取用户看到的所有物体(多数为用户不需要其位置信息的物体)的位置信息,减少方法对应系统的运算量,本发明实施例仅对用户需要获取位置信息的物体进行上述步骤S110至S130。因此,在本发明实施例,在所述步骤S110之前还包括:
注视确定步骤,确定用户正在注视观察对象。
本发明的实施例只有在确定用户正在注视观察对象时,才去进行进一步的检测和获取步骤。
在本发明实施例的一种可能的实施方式中,所述注视确定步骤进一步包括:
采集用户的注视行为信息;
根据所述用户的注视行为信息确定用户当前是否正在注视所述观察对象。
这里的“注视”指的是比较专注的看,区别于没有重点、一般一带而过的看。所述确定用户是否正处于注视状态的方法有多种,例如,根据眼睛和眼球中心几何参数的变化来确定;或者基于眼底成像的特征进行确定。例如通过李素梅等人在《光电子·激光》第15卷第10期2004年10月发表的“基于SVM实现人眼注视与否的探知”一文中记载的方法判断用户是否处于注视状态。
在本发明实施例的另一种可能的实施方式中,还可以通过与用户的交互信息确定用户当前正在注视观察对象。例如,用户手动输入一个信号(例如按下特定的按钮或触摸特定位置),或者做出一个特定手势等确定自己当前正在注视需要获得位置信息的观察对象。
S140位置获取步骤,根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。
所述步骤S140中,得到注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向,就可以得到注视点相对于用户的位置信息,再根据用户自身在环境坐标系中的位置信息,通过计算就可以得到用户观察对象在所述环境坐标系中的位置信息。
根据所述观察对象的位置信息,可以进一步的进行其它信息的获取。例如对于观光地远处一个特色建筑,通过本发明实施例的技术,可以得到该特色建筑的位置信息,再根据该位置信息可以精确的知道该特色建筑的其它详细信息,并且还可以得到从当前位置到该特色建筑的最佳路径等。
本领域技术人员可以理解,在本发明具体实施方式的上述方法中,各步骤的序号大小并不意味着执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确定,而不应对本发明具体实施方式的实施过程构成任何限定。
如图6所示,本发明实施例还提供了一种定位装置100,包括:
用户位置信息获取模块110,用于获取用户在已知环境坐标系中的位置信息;
注视距离检测模块120,用于检测用户当前的注视点相对于用户的距离;
注视方向获取模块130,用于获取所述环境坐标系中所述注视点相对于用户的方向;
位置获取模块140,用于根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。
使用本发明实施例的装置,用户通过观看对象,就可以获知所述观看对象的位置信息,非常方便,并且可以准确的选定待定位的对象,进而定位的精度较高。
在本发明实施例的一种可能的实施方式中,所述定位装置100优选地为可穿戴设备,更优选为眼镜(包括:框架眼镜、隐形眼镜、护目镜等)等易携带、使用方便的装置。尤其对于本来就有屈光不正等眼睛问题,需要佩戴如屈光矫正眼镜的用户来说,本发明实施例的装置可以直接在所述屈光矫正眼镜上实现,不会给用户带来额外的负担。
下面对本发明实施例装置中各模块的结构细节进行进一步的描述。
如图7a所示,在本发明实施例的一种可能的实施方式中,所述用户位置信息获取模块110包括:
位置信息采集子模块111,用于采集用户在所述环境坐标系中的位置信息。
在一种可能的实施方式中,所述位置信息采集子模块111为与所述环境坐标系对应的定位装置,例如可以为与地理坐标系对应的GPS定位装置、与室内环境坐标系对应的室内定位装置等。
在本发明实施例的一种可能的实施方式中,所述注视距离检测模块120:
用于通过对用户眼睛进行拍摄得到用户当前的注视点相对于用户的距离。
在本发明实施例中,所述注视距离检测模块120对用户眼睛进行拍摄并获取用户相对于所述注视点的距离的方式可以为图1所示的方法实施例中所提到的i)至iii)中的任一种或多种。其中,在本发明实施例的装置中采用检测精度较高的iii)方式,相应地,所述注视距离检测模块120可以为下面图8a-图8d、图9、图10所示的注视距离检测模块中的任一种。
当然,本领域的技术人员可以知道,除了上述几种形式的注视距离检测模块外,其它可以用于对用户眼睛进行拍摄并获取用户相对于注视点的距离的装置也可以用于本发明实施例的装置中。
下面对上述iii)种方式的注视距离检测模块进行进一步的描述:
如图8a所示,在本发明实施例的一种可能的实施方式中,所述注视距离检测模块500包括:
眼底图像采集子模块510,用于采集用户眼底的图像;
可调成像子模块520,用于进行眼底图像采集子模块510与眼睛之间光路的成像参数的调节直至采集到最清晰的图像;
图像处理子模块530,用于对采集到的眼底图像进行分析,得到与所述最清晰图像对应的所述眼底图像采集子模块510与眼睛之间光路的成像参数以及眼睛的光学参数,并计算用户当前的注视点相对于用户的距离。
本实施方式的注视距离检测模块500通过对眼睛眼底的图像进行分析处理,得到所述眼底图像采集子模块获得最清晰图像时眼睛的光学参数,就可以计算得到眼睛当前的注视点就相对于用户的距离。
这里的“眼底”呈现的图像主要为在视网膜上呈现的图像,其可以为眼底自身的图像,或者可以为投射到眼底的其它物体的图像。这里的眼睛可以为人眼,也可以为其它动物的眼睛。
如图8b所示,本发明实施例的一种可能的实施方式中,所述眼底图像采集子模块510为微型摄像头,在本发明实施例的另一种可能的实施方式中,所述眼底图像采集子模块510还可以直接使用感光成像器件,如CCD或CMOS等器件。
在本发明实施例的一种可能的实施方式中,所述可调成像子模块520包括:可调透镜器件521,位于眼睛与所述眼底图像采集子模块510之间的光路上,自身焦距可调和/或在光路中的位置可调。通过该可调透镜器件521,使得从眼睛到所述眼底图像采集子模块510之间的系统等效焦距可调,通过可调透镜器件521的调节,使得所述眼底图像采集子模块510在可调透镜器件521的某一个位置或状态时获得眼底最清晰的图像。在本实施方式中,所述可调透镜器件521在检测过程中连续实时的调节。
优选地,在本发明实施例的一种可能的实施方式中,所述可调透镜器件521为:焦距可调透镜,用于通过调节自身的折射率和/或形状完成自身焦距的调整。具体为:1)通过调节焦距可调透镜的至少一面的曲率来调节焦距,例如在双层透明层构成的空腔中增加或减少液体介质来调节焦距可调透镜的曲率;2)通过改变焦距可调透镜的折射率来调节焦距,例如焦距可调透镜中填充有特定液晶介质,通过调节液晶介质对应电极的电压来调整液晶介质的排列方式,从而改变焦距可调透镜的折射率。
在本发明实施例的另一种可能的实施方式中,所述可调透镜器件521包括:多片透镜构成的透镜组,用于调节透镜组中透镜之间的相对位置完成透镜组自身焦距的调整。所述透镜组中也可以包括自身焦距等成像参数可调的透镜。
除了上述两种通过调节可调透镜器件521自身的特性来改变眼睛拍摄装置的光路参数以外,还可以通过调节所述可调透镜器件521在光路上的位置来改变眼睛拍摄装置的光路参数。
优选地,在本发明实施例的一种可能的实施方式中,为了不影响用户对观察对象的观看体验,并且为了使得眼睛拍摄装置可以便携应用在穿戴式设备上,所述可调成像子模块520还包括:分光单元522,用于形成眼睛和观察对象之间、以及眼睛和眼底图像采集子模块510之间的光传递路径。这样可以对光路进行折叠,减小眼睛拍摄装置的体积,同时尽可能不影响用户的其它视觉体验。
优选地,在本实施方式中,所述分光单元522包括:第一分光单元,位于眼睛和观察对象之间,用于透射观察对象到眼睛的光,传递眼睛到眼底图像采集子模块的光。
所述第一分光单元可以为分光镜、分光光波导(包括光纤)或其它适合的分光设备。
在本发明实施例的一种可能的实施方式中,所述眼睛拍摄装置的图像处理子模块530包括光路校准模块,用于对眼睛拍摄装置的光路进行校准,例如进行光路光轴的对齐校准等,以保证测量的精度。
在本发明实施例的一种可能的实施方式中,所述图像处理子模块530包括:
图像分析单元531,用于对所述眼底图像采集子模块得到的图像进行分析,找到最清晰的图像;
参数计算单元532,用于根据所述最清晰的图像、以及得到所述最清晰图像时系统已知的成像参数计算眼睛的光学参数。
在本实施方式中,通过可调成像子模块520使得所述眼底图像采集子模块510可以得到最清晰的图像,但是需要通过所述图像分析单元531来找到该最清晰的图像,此时根据所述最清晰的图像以及系统已知的光路参数就可以通过计算得到眼睛的光学参数。这里眼睛的光学参数可以包括眼睛的光轴方向。
在本发明实施例的一种可能的实施方式中,优选地,所述眼睛拍摄装置还包括:投射子模块540,用于向眼底投射光斑。在一个可能的实施方式中,可以通过微型投影仪来视线该投射子模块的功能。
这里投射的光斑可以没有特定图案仅用于照亮眼底。
在在本发明实施例优选的一种实施方式中,所述投射的光斑包括特征丰富的图案。图案的特征丰富可以便于检测,提高检测精度。如图4a所示为一个光斑图案P的示例图,该图案可以由光斑图案生成器形成,例如毛玻璃;图4b所示为在有光斑图案P投射时拍摄到的眼底的图像。
为了不影响眼睛的正常观看,优选的,所述光斑为眼睛不可见的红外光斑。
此时,为了减小其它光谱的干扰:
所述投射子模块的出射面可以设置有眼睛不可见光透射滤镜。
所述眼底图像采集子模块的入射面设置有眼睛不可见光透射滤镜。
优选地,在本发明实施例的一种可能的实施方式中,所述图像处理子模块530还包括:
投射控制单元534,用于根据图像分析模块得到的结果,控制所述投射子模块的投射光斑亮度。
例如所述投射控制单元534可以根据眼底图像采集子模块510得到的图像的特性自适应调整亮度。这里图像的特性包括图像特征的反差以及纹理特征等。
这里,控制所述投射子模块的投射光斑亮度的一种特殊的情况为打开或关闭投射子模块,例如用户持续注视一点时可以周期性关闭所述投射子模块;用户眼底足够明亮时可以关闭发光源只利用眼底信息来检测眼睛当前视线注视点到眼睛的距离。
此外,所述投射控制单元534还可以根据环境光来控制投射子模块的投射光斑亮度。
优选地,在本发明实施例的一种可能的实施方式中,所述图像处理子模块530还包括:图像校准单元533,用于进行眼底图像的校准,获得至少一个与眼底呈现的图像对应的基准图像。
所述图像分析单元531将眼底图像采集子模块510得到的图像与所述基准图像进行对比计算,获得所述最清晰的图像。这里,所述最清晰的图像可以为获得的与所述基准图像差异最小的图像。在本实施方式中,通过现有的图像处理算法计算当前获得的图像与基准图像的差异,例如使用经典的相位差值自动对焦算法。
优选地,在本发明实施例的一种可能的实施方式中,所述参数计算单元532包括:
眼睛光轴方向确定子单元5321,用于根据得到所述最清晰图像时眼睛的特征得到眼睛光轴方向。
这里眼睛的特征可以是从所述最清晰图像上获取的,或者也可以是另外获取的。眼睛光轴方向与眼睛视线注视的方向对应。
优选地,在本发明实施例的一种可能的实施方式中,所述眼睛光轴方向确定单元5321包括:第一确定子单元,用于根据得到所述最清晰图像时眼底的特征得到眼睛光轴方向。与通过瞳孔和眼球表面的特征得到眼睛光轴方向相比,通过眼底的特征来确定眼睛光轴方向精确度更高。
在向眼底投射光斑图案时,光斑图案的大小有可能大于眼底可视区域或小于眼底可视区域,在这两种情况下获取眼睛光轴方向的方法见图1所示的方法实施例中的对应描述。
在本发明实施例的另一种可能的实施方式中,所述眼睛光轴方向确定单元5321包括:第二确定子单元,用于根据得到所述最清晰图像时眼睛瞳孔的特征得到眼睛光轴方向。这里眼睛瞳孔的特征可以是从所述最清晰图像上获取的,也可以是另外获取的。通过眼睛瞳孔特征得到眼睛光轴方向为已有技术,此处不再赘述。
优选地,在本发明实施例的一种可能的实施方式中,所述图像处理子模块530还包括:眼睛光轴方向校准单元535,用于进行眼睛光轴方向的校准,以便更精确的进行上述眼睛光轴方向的确定。
在本发明定位装置中,上述光轴方向可以用于所述注视方向获取模块进行注视方向与参考方向的夹角的获取中,当然如果通过其它方式来获取上述夹角的话,则注视距离检测模块500可以不用获取该光轴方向,所述注视距离检测模块500可以不用具备所述眼睛光轴方向确定单元和眼睛光轴方向校准模块。
在本发明实施例的方法中,所述眼睛与眼底图像采集位置之间光路的成像参数包括固定的成像参数和实时成像参数,其中实时成像参数为获取最清晰图像时所述光学器件的参数信息,该参数信息可以在获取所述最清晰图像时实时记录得到。
在得到眼睛当前的光学参数之后,就可以计算得到眼睛注视点到用户的距离,具体为:
图8c所示为眼睛成像示意图,结合经典光学理论中的透镜成像公式,由图8c可以得到公式(1):
1 d o + 1 d e = 1 f e - - - ( 1 )
其中do和de分别为眼睛当前观察对象5010和视网膜上的实像5020到眼睛等效透镜5030的距离,fe为眼睛等效透镜5030的等效焦距,X为眼睛的视线方向(可以由所述眼睛的光轴方向得到)。
图8d所示为根据系统已知光学参数和眼睛的光学参数得到眼睛注视点到眼睛的距离的示意图,图8d中光斑5040通过可调透镜器件521会成一个虚像(图8d中未示出),假设该虚像距离透镜距离为x(图8d中未示出),结合公式(1)可以得到如下方程组:
1 d p - 1 x = 1 f p 1 d i + x + 1 d e = 1 f e - - - ( 2 )
其中dp为光斑5040到可调透镜器件521的光学等效距离,di为可调透镜器件521到眼睛等效透镜5030的光学等效距离,fp为可调透镜器件521的焦距值,di为所述眼睛等效透镜5030到可调透镜器件521的距离。
由(1)和(2)可以得出当前观察对象5010(眼睛注视点)到眼睛等效透镜5030的距离do如公式(3)所示:
d o = d i + d p · f p f p - d p - - - ( 3 )
根据上述计算得到的观察对象5010到眼睛的距离,又由于之前的记载可以得到眼睛光轴方向,则可以轻易得到眼睛的注视点位置,为后续与眼睛相关的进一步交互提供了基础。
如图9所示为本发明实施例的一种可能的实施方式的眼睛拍摄装置600应用在眼镜400上的实施例,其包括图8b所示实施方式的记载的内容,具体为:由图9可以看出,在本实施方式中,在眼镜400右侧(不局限于此)集成了本实施方式的装置600,其包括:
微型摄像头610,其作用与图8b实施方式中记载的眼底图像采集子模块相同,为了不影响用户正常观看对象的视线,其被设置于眼镜400右外侧;
第一分光镜620,其作用与图8b实施方式中记载的第一分光单元相同,以一定倾角设置于眼睛A注视方向和摄像头610入射方向的交点处,透射观察对象进入眼睛A的光以及反射眼睛到摄像头610的光;
焦距可调透镜630,其作用与图8b实施方式中记载的焦距可调透镜相同,位于所述第一分光镜620和摄像头610之间,实时进行焦距值的调整,使得在某个焦距值时,所述摄像头610能够拍到眼底最清晰的图像。
在本实施方式中,所述图像处理子模块在图9中未表示出,其功能与图8b所示的图像处理子模块相同。
由于一般情况下,眼底的亮度不够,因此,最好对眼底进行照明,在本实施方式中,通过一个发光源640来对眼底进行照明。为了不影响用户的体验,这里优选的发光源640为眼睛不可见光,优选对眼睛A影响不大并且摄像头610又比较敏感的近红外光发光源。
在本实施方式中,所述发光源640位于右侧的眼镜架外侧,因此需要通过一个第二分光镜650与所述第一分光镜620一起完成所述发光源640发出的光到眼底的传递。本实施方式中,所述第二分光镜650又位于摄像头610的入射面之前,因此其还需要透射眼底到第二分光镜650的光。
可以看出,在本实施方式中,为了提高用户体验和提高摄像头610的采集清晰度,所述第一分光镜620优选地可以具有对红外反射率高、对可见光透射率高的特性。例如可以在第一分光镜620朝向眼睛A的一侧设置红外反射膜实现上述特性。
由图9可以看出,由于在本实施方式中,所述眼睛拍摄装置600位于眼镜400的镜片远离眼睛A的一侧,因此进行眼睛光学参数进行计算时,可以将镜片也看成是眼睛A的一部分,此时不需要知道镜片的光学特性。
在本发明实施例的其它实施方式中,所述眼睛拍摄装置600可能位于眼镜400的镜片靠近眼睛A的一侧,此时,需要预先得到镜片的光学特性参数,并在计算注视点距离时,考虑镜片的影响因素。
本实施例中发光源640发出的光通过第二分光镜650的反射、焦距可调透镜630的投射、以及第一分光镜620的反射后再透过眼镜400的镜片进入用户眼睛,并最终到达眼底的视网膜上;摄像头610经过所述第一分光镜620、焦距可调透镜630以及第二分光镜650构成的光路透过眼睛A的瞳孔拍摄到眼底的图像。
如图10所示为本发明实施例的另一种实施方式眼睛拍摄装置700的结构示意图。由图10可以看出,本实施方式与图9所示的实施方式相似,包括微型摄像头710、第二分光镜720、焦距可调透镜730,不同之处在于,在本实施方式中的投射子模块740为投射光斑图案的投射子模块740,并且通过一个曲面分光镜750作为曲面分光器件取代了图9实施方式中的第一分光镜。
这里采用了曲面分光镜750分别对应眼睛光轴方向不同时瞳孔的位置,将眼底呈现的图像传递到眼底图像采集子模块。这样摄像头可以拍摄到眼球各个角度混合叠加的成像,但由于只有通过瞳孔的眼底部分能够在摄像头上清晰成像,其它部分会失焦而无法清晰成像,因而不会对眼底部分的成像构成严重干扰,眼底部分的特征仍然可以检测出来。因此,与图9所示的实施方式相比,本实施方式可以在眼睛注视不同方向时都能很好的得到眼底的图像,使得本实施方式的眼睛拍摄装置适用范围更广,检测精度更高。
如图7a所示,在本发明实施例的一种可能的实施方式中,所述注视方向获取模块130包括:
参考方向获取子模块131,用于获取一与用户相关的参考方向在所述环境坐标系中的方向;
这里所述参考方向的定义与上述方法实施例中的相同。所述参考方向获取子模块131例如可以为方向采集单元1311,用于采集所述参考方向在所述环境坐标系中的方向。所述方向采集单元1311例如可以为电子罗盘,其优选地可以设置在所述定位装置上(例如设置在眼镜的框架上),例如,当所述参考方向为用户正前方时,可以将所述方向采集单元1311设置成获取所述用户正前方的环境坐标系的方向信息。
在一实施方式中,所述方向采集单元1311可以包括多个,例如除了上述的电子罗盘外,还可以包括一水平仪,用来获取所述参考方向与水平面之间的角度。
在一种可能的实施方式中,可以通过其它用户随身的便携设备或可穿戴设备来获取所述参考方向在所述环境坐标系中的方向后再传送给所述注视方向获取模块130,下面会详细描述。
角度获取子模块132,用于获取用户当前视线方向相对于所述参考方向的角度;
所述角度获取子模块132可以通过对用户的眼睛进行拍摄跟踪来获得所述角度,即其具体可以包括一眼睛拍摄装置和一处理器,通过对拍摄的图像进行处理得到所述角度。在一种可能的实施方式中,可以通过所述注视距离获取模块120来获得所述角度。即,所述角度获取子模块132与所述注视距离获取模块120的功能可以由同一设备实现。
方向计算子模块133,用于根据所述参考方向在所述环境坐标系中的方向以及所述视线方向相对于所述参考方向的角度得到所述环境坐标系中所述注视点相对于用户的方向。
如图7b所示,通过本发明实施例上述的装置100获得了用户U自身在环境坐标系中的位置信息(X1,Y1),参考方向Ref在环境坐标系中的方向,用户U到注视点F之间的视线方向S与所述参考方向Ref之间的夹角a,以及所述注视点F与用户U之间的距离R,通过数学计算就可以得到所述注视点F(即观察对象所在位置)在环境坐标系中的坐标(X2,Y2)。
在本发明实施例的一种可能的实施方式中,为了避免本发明实施例的装置获取用户看到的所有物体(多数为用户不需要其位置信息的物体)的位置信息,减少装置的能耗和运算量,本发明实施例仅对用户需要的物体进行上述位置信息的获取。因此,如图11所示,在本发明实施例,所述装置100还包括:
注视确定模块150,用于确定用户正在注视观察对象。
如图11所示,在本发明实施例的一种可能的实施方式中,所述注视确定模块150包括:
注视行为采集子模块151,用于采集用户的注视行为信息;
注视判断子模块152,用于根据所述用户的注视行为信息确定用户当前是否正在注视所述观察对象。
在本发明实施例的一种可能的实施方式中所述注视行为采集子模块151可以通过上述实施例中的眼底图像采集子模块来实现其功能。
上述注视判断子模块152进行判断的方式参见上述方法实施例中对应的描述,这里不再赘述。
图12所示为本发明实施例定位装置的另一种可能的实施方式,可以看出,本实施方式中,其它结构与图11所示的装置基本相同,不同之处在于本实施例更加强调所示定位装置与其它设备的交互协调,例如:
在本实施例中,用户在所述环境坐标系中的位置信息由其它设备获取,例如通过用户携带的手机等移动终端上的GPS模块获取。
所述参考方向在所述环境坐标系中的方向也由其它设备获取,例如通过上述移动终端上的方向传感器获取。
在本实施方式中,所述用户位置信息获取模块110通过第二通信子模块112,接收用户在所述环境坐标系中的位置信息。而不是图11中通过位置信息采集子模块111自己采集获取。
在本实施方式中,所述参考方向获取子模块131获得所述参考方向在所述环境坐标系中的方向并不是通过直接采集获取,而是通过一第一通信单元1312,接收所述参考方向在所述环境坐标系中的方向。当然,本领域的技术人员可以知道,这里所述第一通信单元1312与第二通信子模块112的功能可以由同一个通信模块实现。
此外,在本实施方式中,所述注视确定模块150包括:
交互判断子模块153,用于根据与用户的交互信息确定用户当前正在注视观察对象。所述交互判断子模块的具体功能描述参见方法实施例中对应的描述。
通过上述的描述可以看出,使用本发明实施例的装置进行特定对象的定位更加准确方便。
如图13所示为本发明实施例的应用示意图。
图13中所示为用户正在开车过程中,需要知道远处对象的位置信息的场景。
此时,用户所带的眼镜G为上述实施例中所述的定位装置,用户的注视点F正落在所述对象上。通过本发明实施例上述的方法和装置,不需要用户进行其它操作,就可以自动获取所述对象的位置信息,不会影响用户当前正在进行的开车动作,非常方便。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。

Claims (31)

1.一种定位方法,其特征在于,包括:
用户位置信息获取步骤,获取用户在已知环境坐标系中的位置信息;
注视距离检测步骤,检测用户当前的注视点相对于用户的距离;
注视方向获取步骤,获取所述环境坐标系中所述注视点相对于用户的方向;
位置获取步骤,根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。
2.如权利要求1所述的方法,其特征在于,所述注视距离检测步骤包括:
通过对用户眼睛进行拍摄得到用户当前的注视点相对于用户的距离。
3.如权利要求2所述的方法,其特征在于,所述通过对用户眼睛进行拍摄得到用户当前的注视点相对于用户的距离包括:
眼底图像采集步骤,采集用户眼底的图像;
可调成像步骤,进行眼底图像采集位置与眼睛之间光路的成像参数的调节直至采集到最清晰的图像;
图像处理步骤,对采集到的眼底图像进行分析,得到与所述最清晰图像对应的所述眼底图像采集位置与眼睛之间光路的成像参数以及眼睛的光学参数,并计算用户当前的注视点相对于用户的距离。
4.如权利要求3所述的方法,其特征在于,所述可调成像步骤包括:
调节所述眼底图像采集位置与眼睛之间光路上的光学器件的焦距和/或在光路上的位置。
5.如权利要求3所述的方法,其特征在于,所述可调成像步骤包括:
分别对应眼睛光轴方向不同时瞳孔的位置,将眼底呈现的图像传递到所述眼底图像采集位置。
6.如权利要求3所述的方法,其特征在于,所述注视距离检测步骤还包括:向眼底投射光斑图案。
7.如权利要求1所述的方法,其特征在于,所述注视方向获取步骤包括:
获取一与用户相关的参考方向在所述环境坐标系中的方向;
获取用户当前视线方向相对于所述参考方向的角度;
根据所述参考方向在所述环境坐标系中的方向以及所述视线方向相对于所述参考方向的角度得到所述环境坐标系中所述注视点相对于用户的方向。
8.如权利要求7所述的方法,其特征在于,所述注视方向获取步骤包括:
采集所述参考方向在所述环境坐标系中的方向。
9.如权利要求7所述的方法,其特征在于,所述注视方向获取步骤包括:
接收所述参考方向在所述环境坐标系中的方向。
10.如权利要求7所述的方法,其特征在于,在检测注视点相对于用户的距离的同时获得所述用户当前视线方向相对于所述参考方向的角度。
11.如权利要求1所述的方法,其特征在于,所述用户位置信息获取步骤包括:
采集用户在所述环境坐标系中的位置信息。
12.如权利要求1所述的方法,其特征在于,所述用户位置信息获取步骤包括:
接收用户在所述环境坐标系中的位置信息。
13.根据权利要求1所述的方法,其特征在于,所述方法还包括:
注视确定步骤,确定用户正在注视观察对象。
14.如权利要求13所述的方法,其特征在于,所述注视确定步骤包括:
采集用户的注视行为信息;
根据所述用户的注视行为信息确定用户当前是否正在注视所述观察对象。
15.如权利要求13所述的方法,其特征在于,所述注视确定步骤包括:
根据与用户的交互信息确定用户当前正在注视观察对象。
16.一种定位装置,其特征在于,包括:
用户位置信息获取模块,用于获取用户在已知环境坐标系中的位置信息;
注视距离检测模块,用于检测用户当前的注视点相对于用户的距离;
注视方向获取模块,用于获取所述环境坐标系中所述注视点相对于用户的方向;
位置获取模块,用于根据用户在所述环境坐标系中的位置信息、所述注视点相对于用户的距离以及所述环境坐标系中所述注视点相对于用户的方向得到用户观察对象在所述环境坐标系中的位置信息。
17.如权利要求16所述的装置,其特征在于,所述注视距离检测模块:
用于通过对用户眼睛进行拍摄得到用户当前的注视点相对于用户的距离。
18.如权利要求17所述的装置,其特征在于,所述注视距离检测模块包括:
眼底图像采集子模块,用于采集用户眼底的图像;
可调成像子模块,用于进行眼底图像采集位置与眼睛之间光路的成像参数的调节直至采集到最清晰的图像;
图像处理子模块,用于对采集到的眼底图像进行分析,得到与所述最清晰图像对应的所述眼底图像采集位置与眼睛之间光路的成像参数以及眼睛的光学参数,并计算用户当前的注视点相对于用户的距离。
19.如权利要求18所述的装置,其特征在于,所述可调成像子模块包括:
可调透镜器件,其自身成像参数可调和/或在所述眼底图像采集单元与眼睛之间光路上的位置可调。
20.如权利要求18所述的装置,其特征在于,所述可调成像子模块包括:
曲面分光器件,用于分别对应眼睛光轴方向不同时瞳孔的位置,将眼底呈现的图像传递到所述眼底图像采集子模块。
21.如权利要求18所述的装置,其特征在于,所述注视距离检测模块还包括:
投射子模块,用于向眼底投射光斑图案。
22.如权利要求16所述的装置,其特征在于,所述注视方向获取模块包括:
参考方向获取子模块,用于获取一与用户相关的参考方向在所述环境坐标系中的方向;
角度获取子模块,用于获取用户当前视线方向相对于所述参考方向的角度;
方向计算子模块,用于根据所述参考方向在所述环境坐标系中的方向以及所述视线方向相对于所述参考方向的角度得到所述环境坐标系中所述注视点相对于用户的方向。
23.如权利要求22所述的装置,其特征在于,所述参考方向获取子模块包括:
方向采集单元,用于采集所述参考方向在所述环境坐标系中的方向。
24.如权利要求22所述的装置,其特征在于,所述参考方向获取子模块包括:
第一通信单元,用于接收所述参考方向在所述环境坐标系中的方向。
25.如权利要求22所述的装置,其特征在于,所述角度获取子模块的功能与所述注视距离检测模块的功能由同一设备实现。
26.如权利要求16所述的装置,其特征在于,所述用户位置信息获取模块包括:
位置信息采集子模块,用于采集用户在所述环境坐标系中的位置信息。
27.如权利要求16所述的装置,其特征在于,所述用户位置信息获取模块包括:
第二通信子模块,用于接收用户在所述环境坐标系中的位置信息。
28.根据权利要求16所述的装置,其特征在于,所述装置还包括:
注视确定模块,用于确定用户正在注视观察对象。
29.如权利要求28所述的装置,其特征在于,所述注视确定模块包括:
注视行为采集子模块,用于采集用户的注视行为信息;
注视判断子模块,用于根据所述用户的注视行为信息确定用户当前是否正在注视所述观察对象。
30.如权利要求28所述的装置,其特征在于,所述注视确定模块包括:
交互判断子模块,用于根据与用户的交互信息确定用户当前正在注视观察对象。
31.如权利要求16所述的装置,其特征在于,所述装置为眼镜。
CN201310524296.2A 2013-10-30 2013-10-30 定位方法及定位装置 Active CN103604412B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310524296.2A CN103604412B (zh) 2013-10-30 2013-10-30 定位方法及定位装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310524296.2A CN103604412B (zh) 2013-10-30 2013-10-30 定位方法及定位装置

Publications (2)

Publication Number Publication Date
CN103604412A CN103604412A (zh) 2014-02-26
CN103604412B true CN103604412B (zh) 2015-11-18

Family

ID=50122658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310524296.2A Active CN103604412B (zh) 2013-10-30 2013-10-30 定位方法及定位装置

Country Status (1)

Country Link
CN (1) CN103604412B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104156069B (zh) * 2014-08-15 2017-04-12 北京智谷睿拓技术服务有限公司 对象拾取方法、对象拾取装置及用户设备
CN104776826A (zh) * 2015-04-09 2015-07-15 江苏省东方世纪网络信息有限公司 姿态测量系统及方法
CN106155288B (zh) * 2015-04-10 2019-02-12 北京智谷睿拓技术服务有限公司 信息获取方法、信息获取装置及用户设备
TWI570638B (zh) * 2015-07-29 2017-02-11 財團法人資訊工業策進會 凝視分析方法與裝置
CN106708249B (zh) * 2015-07-31 2020-03-03 北京智谷睿拓技术服务有限公司 交互方法、交互装置及用户设备
CN105651300A (zh) * 2015-11-30 2016-06-08 东莞酷派软件技术有限公司 一种信息获取方法及电子设备
CN107003744B (zh) * 2016-12-01 2019-05-10 深圳前海达闼云端智能科技有限公司 视点确定方法、装置和电子设备
SE1950580A1 (en) * 2019-05-15 2020-10-13 Tobii Ab Method and system for dwell-less, hands-free interaction with a selectable object
CN110455253A (zh) * 2019-09-03 2019-11-15 北京格如灵科技有限公司 一种虚拟现实及增强现实环境下基于双眼视差的直接读数概略测距系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1813168A (zh) * 2003-08-28 2006-08-02 奥林巴斯株式会社 物体识别装置
CN101677762A (zh) * 2008-02-28 2010-03-24 松下电器产业株式会社 视线检测装置以及视线检测方法
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US8612149B2 (en) * 2011-02-10 2013-12-17 Blackberry Limited System and method of relative location detection using image perspective analysis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1813168A (zh) * 2003-08-28 2006-08-02 奥林巴斯株式会社 物体识别装置
CN101677762A (zh) * 2008-02-28 2010-03-24 松下电器产业株式会社 视线检测装置以及视线检测方法
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法

Also Published As

Publication number Publication date
CN103604412A (zh) 2014-02-26

Similar Documents

Publication Publication Date Title
CN103604412B (zh) 定位方法及定位装置
CN103557859B (zh) 图像采集定位方法及图像采集定位系统
CN103431840B (zh) 眼睛光学参数检测系统及方法
CN103630116B (zh) 图像采集定位方法及图像采集定位装置
CN103475893B (zh) 三维显示中对象的拾取装置及三维显示中对象的拾取方法
CN103424891B (zh) 成像装置及方法
CN103500331B (zh) 提醒方法及装置
CN103558909A (zh) 交互投射显示方法及交互投射显示系统
US10002293B2 (en) Image collection with increased accuracy
CN103499885B (zh) 成像装置和方法
CN103605208A (zh) 内容投射系统及方法
CN103499886B (zh) 成像装置和方法
US8690326B2 (en) Method and systems for measuring interpupillary distance
CN103595912B (zh) 局部缩放的成像方法和装置
CN103439801B (zh) 视力保护成像装置及方法
JP2019527377A (ja) 視線追跡に基づき自動合焦する画像捕捉システム、デバイス及び方法
CN103353663B (zh) 成像调整装置及方法
US9323075B2 (en) System for the measurement of the interpupillary distance using a device equipped with a screen and a camera
CN103353667B (zh) 成像调整设备及方法
CN103530623B (zh) 信息观察方法及信息观察装置
CN103605199A (zh) 成像装置及方法
CN109106333A (zh) 一种自动调节式自助视力筛查系统及装置
CN103761652A (zh) 防伪方法及防伪装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant