发明内容
本发明的主要目的在于提供一种移动终端及移动终端获取图像的方法,对物体进行对焦,并获取物体的图像。
为实现该目的,本发明提供一种移动终端获取图像的方法,包括下列步骤:
采集视线信息;
根据采集的视线信息,确定视线在移动终端显示的图像上的凝视点的位置;
对焦上述凝视点位置处物体;
获取上述物体的图像。
进一步的,移动终端还包括第一摄像头和红外传感器,上述视线信息包括眼球角膜反射与瞳孔中心的相对位置;或者包括眼球相对第一摄像头的角度值,以及眼球相对移动终端的距离值。
进一步的,上述采集视线信息的步骤具体为:
第一摄像头和红外传感器采集眼球角膜反射与瞳孔中心的相对位置;或者
第一摄像头和红外传感器采集眼球相对第一摄像头的角度值和眼球相对移动终端的距离值。
进一步的,移动终端还包括第二摄像头,上述物体的图像通过第二摄像头获取。
进一步的,在上述对焦上述凝视点位置处物体步骤之后,上述获取上述物体的图像步骤之前还包括移动终端接收拍照指令的步骤。
进一步的,在上述采集视线信息步骤之前还包括存储拍照表单的步骤;
为实现该目的,本发明还提供一种移动终端,包括:
视线信息采集模块,用于采集视线信息;
视线凝视点位置确定模块,用于根据采集的视线信息,确定视线在移动终端显示的图像上的凝视点位置;
第二图像获取模块,用于对上述凝视点位置处物体进行对焦,并获取上述凝视点位置处物体的图像。
进一步的,上述视线信息采集模块包括第一图像获取模块和红外传感器模块;上述视线信息包括眼球角膜反射与瞳孔中心的相对位置;或者包括眼球相对第一摄像头的角度值,以及眼球相对移动终端的距离值。
进一步的,上述第一图像获取模块和红外传感器模块用于:
测量眼球角膜反射与瞳孔中心的相对位置;
测量眼球相对第一图像获取模块的角度值和眼球相对移动终端的距离值。
进一步的,上述移动终端还包括拍照指令接收模块,用于接收拍照指令。
进一步的,上述移动终端还包括拍照表单存储模块,用于存储拍照表单。
进一步的,采用本发明方法的移动终端可以是智能手机、平板电脑、掌上电脑和数码相机。
上述移动终端及其获取图像的方法,可以根据操作者的视线对物体进行对焦,解决了现有默认对焦和手动对焦方式的弊端,并可以根据操作者的预先设置进行智能拍摄。提高了移动终端对焦的准确度和敏捷度,并可以为身有残疾或行动不便的用户提供一种便捷的拍照方式。
具体实施方式
下文将结合附图详细描述本发明的当前实施例。应当注意的是,本文虽然分别针对不同实施例分开进行描述,但这样描述只是为了使描述简单和清楚,在具体实施本发明时,可以是几个实施例的相互结合。所以下述实施例中描述的技术特征或者技术特征的组合不应当被认为是孤立的,它们可以被相互组合和相互结合从而达到更好的技术效果。
如图1所示,是本发明移动终端获取图像方法的第一个实施例的流程图。本实施例包括以下步骤。
S101:采集视线信息。
在本实施例中,视线信息可以是眼球角膜反射与瞳孔中心的相对位置,也可以是眼球相对第一摄像头的角度值,以及眼球相对移动终端的距离值。可以利用摄像头、红外线传感器、激光传感器,陀螺仪等传感器来采集上述视线信息。
S102:根据采集的视线信息,确定视线在移动终端显示的图像上的凝视点的位置。
在确定视线在移动终端显示的图像上的凝视点的位置时,可以采用目前常见的视线追踪技术,如角膜反射跟踪法、双普金野法、虹膜-巩膜边缘法、瞳孔-角膜跟踪法等并建立数学模型,也可以利用激光定位确定凝视点的位置并建立数学模型。将步骤S101中采集的视线信息导入到上述方法建立的数学模型中,计算出视线在移动终端显示的图像上的凝视点的坐标数据。由于移动终端显示的图像与现实场景是对应的,所以该凝视点的坐标数据对应于现实场景中的确定的空间坐标数据,进而确定操作者想要对焦的物体的空间坐标。
S103:对焦凝视点位置处物体。
本实施例中,在步骤S102确定操作者想要对焦的物体的空间坐标后,可以利用摄像头对该空间坐标处的物体进行捕捉,并对其进行对焦。进一步的,摄像头还可以根据当前场景自动进行相机参数优化,以获取更好的拍照效果。
S104:获取物体的图像。
摄像头对上述物体进行拍照,并获取物体的图像。
在本实施例中,移动终端打开拍照应用后,并不进行默认对焦,也不需操作者人工选择对焦点,而是直接进行步骤S101,通过传感器追踪操作者的眼球视线,采集视线的相关信息,进而计算出操作者想要对焦的物体的空间坐标数据。本实施例所提供的获取图像的方法改变了摄像头的拍照流程,相比其它方法操作者可以更迅速的对物体进行对焦,并获取物体图像。
如图2所示,是本发明移动终端获取图像方法的第二个实施例的流程图,本实施例包括以下步骤。
S201:第一摄像头和红外传感器采集视线的信息。
在本实施例中,可以利用第一摄像头和红外传感器测量眼球角膜反射与瞳孔中心的相对位置,也可以利用第一摄像头和红外传感器测量出眼球相对第一摄像头的角度值和眼球相对移动终端的距离值。
S202:根据采集的视线位置信息计算出视线在移动终端显示的图像上的凝视点的位置。
本实施例中,通过摄像头进行人眼视线识别,可以采用瞳孔-角膜跟踪法利用红外线照射眼睛,并将反射的图像用摄像头记录下来,将摄像头获得的数据通过处理器处理,辨别出瞳孔和角膜,然后把角膜反射点数据作为摄像头和眼球的相对位置的基点,根据瞳孔中心位置坐标计算出视线在屏幕空间中的凝视点。也可以采用双普金野法,对眼球的若干光学界面反射所形成的图像进行处理,角膜反射出来的图像是第一普金野图像,从角膜后表面反射出来的图像微弱些,称为第二金普野图像,从晶状体前表面反射出来的图像称为第三普金野图像,由晶状体后表面反射出来的图像称为第四普金野图像,通过对两个普金野图像的测量可以确定眼球的凝视位置。对其他的方法在此不再进行详细描述。应当说明的是以上方法只是对本发明的解释而非限制,其他可用于人眼视线识别的技术也在本发明保护的范围内。
在其它实施例中,也可以根据眼球相对第一摄像头的角度值和眼球相对移动终端的距离值,利用投影几何原理计算出视线在移动终端显示的图像上的凝视点的坐标数据,进而确定操作者想要对焦的物体的空间坐标。
S203:第二摄像头对焦到上述凝视点位置处的物体。
当确定操作者想要对焦的物体的空间坐标后,第二摄像头自动对焦到该位置,进一步的,第二摄像头还可以根据当前场景自动调整相机参数,以获取更好的拍照效果。
S204:接收拍照指令。
本实施例中,可以通过麦克风、摄像头、键盘、触摸屏、外接信号发射器等设备接收操作者输入的拍照指令,并对接收到的拍照指令进行识别处理。上述拍照指令可以是语音指令、眨眼指令、笑脸指令和手动输入的指令等。应当说明的是以上设备及指令类型只是对本发明的解释而非限制,本领域的技术人员通过简单的推理、替换而得到的其它设备或指令类型也在本发明保护的范围内。
S205:第二摄像头获取所述物体的图像。
第二摄像头根据接收到的拍照指令对物体进行拍照动作,获取物体的图像。
如图3所示,是本发明移动终端获取图像方法的第三个实施例的流程图。本实施例与第二个实施例的区别在于增加了步骤S301:存储拍照表单。
在步骤S301中操作者对移动终端的拍照指令进行设置,并对第二摄像头的拍摄动作进行设置。在完成设置操作后,移动终端会自动生成拍照指令表单和第二摄像头拍照动作表单,并将这两个表单存储在存储器中,并在这两个表单之间建立映射关系。
这里以语言指令为例,详细说明步骤S301的设置和运行原理。对于眨眼指令、笑脸指令和手动输入的指令等其它类型的指令,其设置和运行原理与语言指令类似,在此不再详细描述。
当拍照指令为语音指令时,操作者可以通过麦克风等语音输入装置输入语音内容。例如操作者设置语音内容为“ok”,并设置第二摄像头的拍照动作为“拍摄一张图像”,然后在它们之间建立映射关系,这样在进行步骤S305时,操作者只需对着麦克风说出“ok”,第二摄像头就会自动对目标物体拍摄一张图像。操作者也可以设置语音内容为“两张”,并设置第二摄像头的拍照动作为“连续拍摄两张图像”,然后在它们之间建立映射关系,这样在进行步骤S305时,操作者只需对着麦克风说出“两张”,第二摄像头就会自动对目标物体进行两张连拍。操作者还可以设置语音内容为“摄像”,并设置第二摄像头的拍照动作为“摄像”,然后在它们之间建立映射关系,这样在进行步骤S305时,操作者只需对着麦克风说出“摄像”,第二摄像头便会自动对目标物体进行摄像拍摄。
在本实施例中,操作者对语音指令的内容和第二摄像头的拍照动作进行设置,移动终端生成相应的指令表单,然后操作者设置它们之间的映射关系。这样在进行步骤S305时,移动终端便可根据两个表单之间的映射关系,迅速调用第二摄像头进行相应的拍摄。
现有的语音识别技术已经可以对简单的词语进行精确的识别,具体的语音识别技术在此不做详细叙述。应当说明的是以上列举的语音内容只是对本实施例的解释而非限制,本领域的技术人员根据本实施例的实质内容,进行简单的推导或替代而采取的其它技术方案也在本发明保护的范围内。
应当说明的是,在上述实施例中,所述语音指令、眨眼指令、笑脸指令和手动输入的指令可以设置为单独使用,也可以设置为任意两种、任意三种或全部四种的组合来使用。移动终端可以自动识别操作者输入的指令类型,并根据指令类型启动相应的操作。
如图4所示,是本发明移动终端的第一个实施例的结构图,包括:移动终端10,视线信息采集模块11,视线凝视点位置确定模块12,第二图像获取模块13。
上述视线信息采集模块11通过上述视线凝视点位置确定模块12与上述第二图像获取模块13电连接。上述视线信息采集模块11采集操作者的视线信息,并将采集的视线信息传递给上述视线凝视点位置确定模块12,上述视线凝视点位置确定模块12根据接收到的视线信息,计算出视线在上述移动终端10显示的图像上的凝视点的坐标数据,进而确定操作者想要对焦的物体的空间坐标,并将该空间坐标传递给上述第二图像获取模块13,上述第二图像获取模块13根据接收到的空间坐标,对该坐标处的物体进行对焦,并获取物体的图像。
如图5所示,是本发明移动终端的第二个实施例的结构图,包括:移动终端20,视线信息采集模块21,视线凝视点位置确定模块22,第二图像获取模块23,拍照指令接收模块24,拍照表单存储模块25。
上述视线信息采集模块21包括第一图像获取模块212和红外传感器模块211。上述第一图像获取模块212和上述红外传感器模块211用于测量眼球角膜反射与瞳孔中心的相对位置,也可以用于测量眼球相对第一图像获取模块212的角度值和眼球相对移动终端20的距离值。
上述视线凝视点位置确定模块22与上述视线信息采集模块21电连接,接收上述第一图像获取模块212和上述红外传感器模块211测量的数据,并计算出操作者视线在上述移动终端20显示的图像上的凝视点的坐标数据,进而确定操作者想要对焦的物体的空间坐标。关于人眼视线识别的具体方法在上文已有详细的说明,在此不再详细叙述。
上述第二图像获取模块23与上述视线凝视点位置确定模块22电连接,接收上述视线凝视点位置确定模块22传递的操作者想要对焦的物体的空间坐标数据。上述第二图像获取模块23自动对焦到该位置,进一步的,上述第二图像获取模块23还可以根据当前场景自动调整相机参数,以获取更好的拍照效果。
上述拍照指令接收模块24与上述第二图像获取模块23电连接,上述拍照指令接收模块24接收并处理操作者发出的指令,并将处理后的指令信息传递至上述第二图像获取模块23,上述第二图像获取模块23根据接收到的指令信息进行拍照动作,获取物体的图像。上述拍照指令接收模块24接收的指令可以是语音指令、眨眼指令、笑脸指令和手动输入的指令等。应当说明的是以上指令类型只是对本发明的解释而非限制,本领域的技术人员通过简单的推理、替换而得到的其它可用于输入的指令类型也在本发明保护的范围内。
上述拍照表单存储模块25与上述拍照指令接收模块24电连接。上述拍照表单存储模块25用于存储拍照指令表单和上述第二图像获取模块23的拍摄动作表单,并在这两个表单之间建立映射关系。
应当说明的是,在上述实施例中,所述语音指令、眨眼指令、笑脸指令和手动输入的指令可以设置为单独使用,也可以设置为任意两种、任意三种或全部四种的组合来使用。拍照指令接收模块24可以自动识别操作者输入的指令类型,并根据指令类型启动相应的操作。
应当说明的是采用本发明设计的移动终端可以是智能手机,也可以是平板电脑,掌上电脑和数码相机。
本文虽然已经给出了本发明的一些实施例,但是本领域的技术人员应当理解,在不脱离本发明精神的情况下,可以对本文的实施例进行改变。上述实施例只是示例性的,不应以本文的实施例作为本发明权利范围的限定。