CN107422842A - 一种信息处理方法及装置 - Google Patents

一种信息处理方法及装置 Download PDF

Info

Publication number
CN107422842A
CN107422842A CN201710157955.1A CN201710157955A CN107422842A CN 107422842 A CN107422842 A CN 107422842A CN 201710157955 A CN201710157955 A CN 201710157955A CN 107422842 A CN107422842 A CN 107422842A
Authority
CN
China
Prior art keywords
image
user
display device
display
display picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710157955.1A
Other languages
English (en)
Inventor
杨大业
宋建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201710157955.1A priority Critical patent/CN107422842A/zh
Publication of CN107422842A publication Critical patent/CN107422842A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt

Abstract

本发明实施例提供一种信息处理方法及装置,用于提供一种精度较高的用于确定用户在显示屏上注视位置的方式。所述方法包括:获得第一图像,所述第一图像为穿戴式设备采集的显示设备的显示画面的图像;获得所述显示设备的显示画面;根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;获得由穿戴式设备采集的用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像;根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。

Description

一种信息处理方法及装置
技术领域
本发明涉及电子技术领域,特别涉及一种信息处理方法及装置。
背景技术
随着技术的发展,电子设备与用户的交互方式越来越丰富。一种可能的交互方式中,电子设备可以确定用户在屏幕上的注视位置,然后给用户提供与该位置对应的服务。
目前通常在物体上添加视觉标签,通过用户携带的设备采集图像,并识别该图像中的视觉标签来确定用户注视位置。但是,通过上述方式确定用户注视位置的精度较差,而且,该定位方式不太适用于用户注视显示设备的情形。
发明内容
本发明实施例提供一种信息处理方法及装置,用于提供一种精度较高的用于确定用户在显示屏上注视位置的方式。
本发明实施例第一方面提供一种信息处理方法,所述方法包括:
服务器获得第一图像,所述第一图像为穿戴式设备采集的显示设备的显示画面的图像;
服务器获得所述显示设备的显示画面;
服务器根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;
服务器获得由穿戴式设备采集的用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像;
服务器根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;
服务器根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
在上述方案中,服务器实时获取的显示设备的显示画面和穿戴式设备采集的图像,并分析显示设备的像素点与穿戴式设备采集的图像中像素点的映射关系,进而确定出显示设备的像素点与穿戴式设备采集的图像中像素点的转换矩阵,然后根据用户的眼部图像和转换矩阵确定用户在显示设备的显示画面上的注视位置。不同于现有技术中通过识别该图像中的视觉标签来确定用户注视位置的方法,本方案能够在用户与任何尺寸大小的屏幕进行交互时确定用户在显示画面上的注视位置,并且精确度高;同时由于本方案是通过实时获取并动态分析显示设备的显示画面、穿戴式设备采集的图像以及用户眼睛的位置参数进而确定用户在显示设备的显示画面上的注视位置的,所以本方案非常适用于用户与多个屏幕进行交互的场景,进而提高了用户与多个屏幕进行交互的效率。
可选的,所述服务器获得所述显示设备的显示画面,包括:获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;所述根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,包括:判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。通过本方式,能够在用户与多个屏幕进行交互时确定用户在显示画面上的注视位置,且精确度高,同时提高用户与多个屏幕进行交互的效率。
可选的,所述服务器根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标,包括:根据所述眼部图像确定所述用户的眼睛的角度参数;根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。通过本方式,能够进一步提高用户与多个屏幕进行交互时确定用户在显示画面上的注视位置的精确度,以及用户与多个屏幕进行交互的效率。
可选的,在所述服务器根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标之前,所述方法还包括:获得所述用户的眼睛与所述第一图像的距离。通过本方式,能够进一步提高用户与多个屏幕进行交互时确定用户在显示画面上的注视位置的精确度,以及用户与多个屏幕进行交互的效率。
可选的,所述服务器根据所述第一图像以及所述显示设备的显示画面确定转换矩阵包括:根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。通过本方式,能够进一步提高用户与多个屏幕进行交互时确定用户在显示画面上的注视位置的精确度,以及用户与多个屏幕进行交互的效率。
可选的,在所述服务器根据所述第一图像以及所述显示设备的显示画面确定转换矩阵之前,所述方法还包括:校准所述穿戴式设备。通过本方式,能够进一步提高服务器确定用户在显示设备的显示画面上的注视位置的方法的精确度,以及用户与多个屏幕进行交互的效率。
本发明实施例第二方面还提供一种信息处理方法,包括:穿戴式设备采集显示设备的显示画面,以获得第一图像;穿戴式设备根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;穿戴式设备采集用户查看所述第一图像时用户的眼部图像;穿戴式设备根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;穿戴式设备根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。通过本方式,能够在用户佩戴穿戴式设备与任何尺寸大小的屏幕进行交互时确定用户在显示画面上的注视位置,并且精确度高;同时本方式还适用于用户与多个屏幕进行交互的场景,进而提高了用户与多个屏幕进行交互的效率。
可选的,所述穿戴式设备获得所述显示设备的显示画面,包括:获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;所述根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,包括:判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。通过本方式,能够进一步提高用户与多个屏幕进行交互时确定用户在显示画面上的注视位置的精确度,以及用户与多个屏幕进行交互的效率。
可选的,所述穿戴式设备根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标,包括:根据所述眼部图像确定所述用户的眼睛的角度参数;根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。通过本方式,能够进一步提高用户与多个屏幕进行交互时确定用户在显示画面上的注视位置的精确度,以及用户与多个屏幕进行交互的效率。
可选的,在所述穿戴式设备根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标之前,所述方法还包括:获得所述用户的眼睛与所述第一图像的距离。通过本方式,能够进一步提高用户与多个屏幕进行交互时确定用户在显示画面上的注视位置的精确度,以及用户与多个屏幕进行交互的效率。
可选的,所述穿戴式设备根据所述第一图像以及所述显示设备的显示画面确定转换矩阵包括:根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。通过本方式,能够进一步提高用户与多个屏幕进行交互时确定用户在显示画面上的注视位置的精确度,以及用户与多个屏幕进行交互的效率。
本发明实施例第三方面还提供一种信息处理装置,用于实现本发明实施例第一方面所述的服务器的功能。所述装置包括:第一获取单元,用于获得第一图像,所述第一图像为穿戴式设备采集的显示设备的显示画面的图像;第二获取单元,用于获得所述显示设备的显示画面;第一确定单元,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;第三获取单元,用于获得由穿戴式设备采集的用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像;第二确定单元,用于根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;第三确定单元,用于根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
可选的,所述第二获取单元具体用于:获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;所述第一确定单元具体用于:判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;以及在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。
可选的,所述第二确定单元具体用于:根据所述眼部图像确定所述用户的眼睛的角度参数;以及根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。
可选的,所述第二确定单元还用于:在根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标之前,获得所述用户的眼睛与所述第一图像的距离。
可选的,所述第一确定单元具体用于:根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;以及根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。
本发明实施例第四方面还提供一种信息处理装置,用于实现本发明实施例第二方面所述的穿戴式设备的功能。所述装置包括:第一采集单元,用于采集显示设备的显示画面,以获得第一图像;第四获取单元,用于获得所述显示设备的显示画面;第四确定单元,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;第二采集单元,用于采集用户查看所述第一图像时用户的眼部图像;第五确定单元,用于根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;第六确定单元,用于根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
可选的,所述第四获取单元具体用于:获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;所述第四确定单元具体用于:判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;以及在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。
可选的,所述第五确定单元具体用于:根据所述眼部图像确定所述用户的眼睛的角度参数;以及根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。
可选的,所述第五确定单元还用于:在根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标之前,获得所述用户的眼睛与所述第一图像的距离。
可选的,所述第四确定单元具体用于:根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;以及根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。
本发明实施例第五方面还提供一种信息处理装置,包括:通信接口;存储器;以及与所述存储器和所述通信接口通信连接的处理器;其中,所述存储器存储有可被所述处理器执行的指令,所述指令被所述处理器执行,以使所述处理器能够执行本发明实施例第一方面所述信息处理方法。
本发明实施例第六方面还提供一种信息处理装置,包括:图像采集器,用于采集显示设备的显示画面,以获得第一图像;显示模块,用于向用户呈现所述第一图像;所述图像采集器还用于采集用户查看所述第一图像时用户的眼部图像;通信接口,用于获得所述显示设备的显示画面;处理器,分别与所述图像采集器、所述显示模块以及所述通信接口连接,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
通过实时获取的显示设备的显示画面和穿戴式设备采集的图像,并分析显示设备的像素点与穿戴式设备采集的图像中像素点的映射关系,进而确定出显示设备的像素点与穿戴式设备采集的图像中像素点的转换矩阵,然后根据用户眼睛的位置参数和转换矩阵确定用户在显示设备的显示画面上的注视位置。不同于现有技术中通过识别该图像中的视觉标签来确定用户注视位置的方法,本方案能够在用户与任何尺寸大小的屏幕进行交互时确定用户在显示画面上的注视位置,并且精确度高。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中信息处理方法的流程示意图;
图2为第一图像与显示设备的显示画面的示意图;
图3为第一图像与显示设备的显示画面的示意图;
图4为第一图像与显示设备的显示画面的示意图;
图5为第一图像中像素点的位置坐标与显示设备的显示画面中像素点的位置坐标的示意图;
图6A、图6B为用户眼睛的瞳孔方向的示意图。
图7为本发明实施例中另一信息处理方法的流程示意图;
图8为本发明实施例中一种信息处理装置的示意图;
图9为本发明实施例中一种信息处理装置的示意图;
图10为本发明实施例中一种信息处理装置的示意图;
图11为本发明实施例中一种信息处理装置的示意图。
具体实施方式
下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解本发明实施例以及实施例中的具体特征是对本发明技术方案的详细的说明,而不是对本发明技术方案的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互组合。
实施例一
本发明实施例提供一种信息处理方法,用于确定用户在显示设备的显示屏幕上的注视位置。本发明实施例包括的方法步骤的执行主体可以为穿戴式设备,也可以为设置在穿戴式设备外的服务器。在本发明实施例一中,以执行主体主要为设置在穿戴式设备之外的服务器为例,对本发明实施例所提供的信息处理方法进行详细说明。参考图1,所述方法主要包括以下步骤:
步骤110:服务器获得第一图像。
第一图像为用户佩戴的穿戴式设备采集的显示设备的显示画面的图像,当用户佩戴的穿戴式设备时,穿戴式设备将采集的第一图像呈现给用户,用户通过佩戴的穿戴式设备可观看到第一图像,即显示设备中的显示画面。其中,穿戴式设备包括虚拟现实(VirtualReality,VR)头戴式显示设备、增强现实(Augmented Reality,AR)头戴式显示设备、混合现实(Mixed Reality,MR)头戴式显示设备等,本发明实施例不做具体限制。
其中,第一图像包括的显示设备的显示画面的图像可以为一个显示设备的显示画面的图像,也可以为多个显示设备的显示画面的图像,还可以为一个显示设备的部分显示画面的图像,本发明实施例不做具体限制。例如,参照图2,第一图像包括的显示设备的显示画面的图像为第一显示设备的第一显示画面的图像;又例如,参照图3,第一图像包括的显示设备的显示画面的图像为第一显示设备的第一显示画面的图像以及第二显示设备的第二显示画面的图像;又例如,参照图4,第一图像包括的显示设备的显示画面的图像为第二显示设备的第二显示画面的图像的一部分。另外,第一图像可以为穿戴式设备的图像采集单元正对显示设备的显示画面时采集的图像,也可以为穿戴式设备的图像采集单元俯视或仰视显示设备的显示画面时采集的图像,还可以为穿戴式设备的图像采集单元侧视显示设备的显示画面时采集的图像。
需要说明的是,图2、图3以及图4中的第一图像只是用来说明第一图像与显示设备的显示画面的图像之间的像素点存在相互对应的关系,但不能用来限定穿戴式设备呈现第一图像给用户时第一图像所在的实际位置。
本发明实施例中的服务器可以与穿戴式设备通过无线通信方式实现数据的传输,其中无线通信方式包括:蓝牙通信、红外线通信、无线保真(WIreless-Fidelity,WiFi)通信等等,本发明实施例不做具体限制。
在穿戴式设备采集到第一图像后,穿戴式设备将采集的第一图像发送给服务器,服务器接收第一图像。
步骤120:服务器获得显示设备的显示画面。
当显示设备内部设置有通信接口时,显示设备通过通信接口将将显示画面对应的显示数据发送给服务器;当显示设备不具有通信接口时,显示设备通过与显示设备相连接的通信设备如电脑主机、电视盒子等将显示画面对应的显示数据发送给服务器。
在本发明实施例中,服务器获得的显示设备的显示画面为第一图像包括的显示设备的显示画面的图像所对应的显示设备的显示画面,在其他实施例中,服务器获得的显示设备的显示画面还可以为不包括在第一图像中的其他显示设备的显示画面。
例如,参照图2和图4,用户面前有两个显示设备,第一显示设备和第二显示设备,图中穿戴式设备采集的第一图像只包括了第一显示设备的第一显示画面的图像,因此服务器只需要获取第一显示设备的第一显示画面;又例如,参照图3,用户面前有两个显示设备,第一显示设备和第二显示设备,穿戴式设备采集的第一图像同时包括第一显示设备的第一显示画面的图像和第二显示设备的第二显示画面的图像,服务器则需要获取第一显示设备的第一显示画面以及第二显示设备的第二显示画面。
步骤130:服务器根据所述第一图像以及所述显示设备的显示画面确定转换矩阵。
第一图像中的像素点和显示设备的显示画面的像素点之间的映射关系是指第一图像中像素点所在的位置与显示设备中像素点所在的位置存在对应关系,不只是简单的放大和缩小的映射关系。在特殊情况下,第一图像不同位置的图像大小与对应在显示画面的上不同位置图像的大小比例可以不同,例如用户站在显示设备的显示画面的较左侧,用户观看到的穿戴式设备采集的第一图像的左半部分相对右半部分会更清晰,第一图像的左半部分的尺寸比第一图像的右半部分的尺寸大,但是显示设备的显示画面的任意位置上的像素点在第一图像上都能找到与其相对应的像素点。
第一图像中的像素点和显示设备的显示画面的像素点的映射关系可以通过多种形式来表现,例如,可以通过坐标矩阵来表示第一图像中的像素点和显示设备的显示画面的像素点之间的映射关系。
通过坐标矩阵来表示第一图像中的像素点和显示设备的显示画面的像素点之间的映射关系时,上述步骤130具体包括:步骤131、步骤132以及步骤133。
步骤131:确定所述显示设备的显示画面的平面坐标。
服务器获取显示设备的屏幕尺寸以及分辨率,并根据显示设备的屏幕尺寸以及分辨率为显示设备的显示画面所在的平面建立平面坐标系。坐标系的原点可以为显示画面所在平面上的任意一点,坐标轴的方向可以为显示画面所在平面上的任意方向,坐标系的X轴和Y轴相互垂直,本发明实施例对原点在显示画面所在平面上的位置以及坐标轴在显示画面平面上的方向不做具体限制。
例如,以显示设备的显示画面的中心为原点,以显示画面的垂直方向为X轴,以显示画面的水平方向为Y轴建立显示设备的显示画面的坐标系,然后根据建立的坐标系为显示设备的显示画面包括的每个像素点生成相应的坐标参数。又例如,以显示设备的显示画面的左下角顶点为原点,以显示画面的水平方向为X轴,以显示画面的垂直方向为Y轴建立显示设备的显示画面的坐标系,然后根据建立的坐标系为显示设备的显示画面包括的每个像素点生成相应的坐标参数。
步骤132:确定所述第一图像的平面坐标。
服务器根据获得的第一图像的尺寸以及分辨率为第一图像建立相应的平面坐标系,然后根据建立的坐标系为第一图像包括的每个像素点生成相应的坐标参数。坐标系的原点可以为第一图像所在平面上的任意一点,坐标轴的方向可以为第一图像所在平面上的任意方向,X轴和Y轴相互垂直,本发明实施例对原点在第一图像所在平面上的位置以及坐标轴在第一图像所在平面上的方向不做具体限制。
例如,以第一图像的中心为原点,以第一图像的垂直方向为X轴,以第一图像的水平方向为Y轴建立显示设备的显示画面的坐标系,然后根据建立的坐标系为第一图像包括的每个像素点生成相应的坐标参数。又例如,以第一图像的右下角顶点为原点,以第一图像的水平方向为X轴,以第一图像的垂直方向为Y轴建立第一图像的坐标系,然后根据建立的坐标系为第一图像包括的每个像素点生成相应的坐标参数。
需要说明的是步骤131和步骤132可以同时执行,也可以先后执行,例如先执行步骤131后执行步骤132,或先执行步骤132后执行步骤131,又或者同时执行步骤131和步骤132,本发明实施例不做具体限制。
步骤133:根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。
具体的,第一图像上的点(x,y)与该点对应在显示设备的显示画面上的点(X,Y)的转换关系为:
其中,a为X方向固定比例尺度因子(Y方向比例不变);b为X方向与Y方向距离远点的距离的比例因子;c为X方向原点变换;d为Y方向与X方向距离远点的距离的比例因子;e为Y方向固定比例因子(X方向比例不变);f为Y方向原点变换;g为在X的函数X和Y比例尺度因子;h为在Y的函数X和Y比例尺度因子。
进一步的,上述转换关系可以转化为:
其中,(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)为第一图像上的四个像素点的位置坐标,(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)为显示画面上与第一图像上的四个像素点所对应的四个像素点的位置坐标。
因此,第一图像上的点(x,y)与该点对应在显示设备的显示画面上的点(X,Y)的转换矩阵可以根据第一图像上任意的四点的位置坐标及其对应在显示设备的显示画面上的位置坐标确定:
例如,参考图5,在第一图像上选取四个参考对象:m、n、p、q,其位置坐标分别为:(1,1)、(3,1)、(3,3)以及(1,3)。m、n、p、q对应在显示画面上的参考点分别为M、N、P、Q,其位置坐标分别为:(10,10)、(30,10)、(30,30)以及(10,30)。将m、n、p、q以及M、N、P、Q带入上述转换矩阵可以确定出:由此可以得到第一图像上的点(x,y)与该点对应在显示设备的显示画面上的点(X,Y)的转换关系为:
X=10x,Y=10y。
又例如,参考图5,第一图像上的四个参考对象:m、n、p、q的位置坐标分别为:(1,1)、(2,1)、(3,2)以及(1,2)。m、n、p、q对应在显示画面上的参考点分别为M、N、P、Q,其位置坐标分别为:(2,3)、(4,3)、(6,6)以及(2,6)。将m、n、p、q以及M、N、P、Q带入上述转换矩阵可以确定出:由此可以得到第一图像上的点(x,y)与该点对应在显示设备的显示画面上的点(X,Y)的转换关系为:
需要说明的是上述参考对象可以为第一图像或显示画面上的任意四点,服务器可以根据显示画面进行选择,也可以根据获得的第一图像进行选择,本发明实施例不做具体限制。
步骤140:服务器获得由穿戴式设备采集的用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像。
具体的,穿戴式设备通过其内置的图像传感单元采集用户查看由所述穿戴式设备呈现的所述第一图像时用户头部眼睛位置的眼部图像的信息,然后将获取图像传感器采集的用户的眼部图像信息发送给服务器,服务器接收穿戴式设备发送的眼部图像信息。
步骤150:服务器根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标。
具体的,服务器通过分析获取的眼部图像的信息确定用户的眼睛的位置参数,其中用户的眼睛的位置参数具体包括瞳孔的角度参数和距离参数,如左眼瞳孔方向,右眼瞳孔方向,左眼瞳孔与右眼瞳的距离等等,本发明实施例不做具体限制。然后,服务器根据用户的眼睛的瞳孔方向、用户眼睛与第一图像的距离以及第一图像的平面坐标,分析计算用户注视的对象对应在第一图像上的位置坐标。其中,用户眼睛与第一图像的距离由用户的生理特征以及穿戴式设备的结构特征所确定。
例如,参照图6A和图6B,图6A为用户眼睛的瞳孔方向与Y轴方向的位置关系示意图,图6B为用户眼睛的瞳孔方向与X轴方向的位置关系示意图。在图6A和图6B中,用户的左眼用点L表示、用户的右眼用点R表示,用户的瞳孔方向用带箭头的直线表示,箭头方向即为瞳孔方向。用户水平正视前方时,对应在第一图像上的点为z(x0,y0),用户左右眼与第一图像的距离为s1。如果当前用户左右瞳孔与Y轴的垂直平面的夹角为θ,左眼瞳孔方向与X轴垂直平面的夹角为α,右眼瞳孔方向与X轴垂直平面的夹角为β,用户左右眼距为s2,那么利用三角函数关系可以求得用户注视对象对应在第一图像上的点w的坐标,w的纵坐标为y0+s1*tanθ,横坐标为:x0+s1*cotα-s2/2,或x0+s2/2-s1*cotβ,或x0+s1*cotα-s2/2与x0+s2/2-s1*cotβ的平均值。其中x0+s1*cotα-s2/2与x0+s2/2-s1*cotβ的大小可以相同,也可以不同,本发明实施例不做具体限制。
当然,在本发明实施例所包含的实际情况中,还有其他确定用户注视的对象对应在第一图像上的位置坐标的计算方法,但本部分内容为本领域技术人员所熟知内容,所以此处不再多作举例说明。
步骤160:服务器根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
具体的,服务器根据所述用户在所述第一图像上所注视对象的位置坐标和第一图像中的像素点与显示设备显示画面中的像素点的转换矩阵确定所述用户在所述显示画面上所注视对象的位置坐标。
延用上述步骤133所举的例子,例如,第一图像上的点(x,y)与该点对应在显示设备的显示画面上的点(X,Y)的转换关系为:X=10x,Y=10y,参照图5,假设当前用户注视对象对应在第一图像上的点w的位置坐标为(2.5,1.5),根据确定出的转换矩阵可以得出注视对象对应在显示画面上的位置坐标为W(25,15);又例如,第一图像上的点(x,y)与该点对应在显示设备的显示画面上的点(X,Y)的转换关系为:参照图5,假设当前用户注视对象对应在第一图像上的点w的位置坐标为(2,2),根据确定出的转换矩阵可以得出注视对象对应在显示画面上的位置坐标为W(5.33,8)。
在上述方案中,服务器实时获取的显示设备的显示画面和穿戴式设备采集的图像,并分析显示设备的像素点与穿戴式设备采集的图像中像素点的映射关系,进而确定出显示设备的像素点与穿戴式设备采集的图像中像素点的转换矩阵,然后根据用户眼睛的位置参数和转换矩阵确定用户在显示设备的显示画面上的注视位置。不同于现有技术中通过识别该图像中的视觉标签来确定用户注视位置的方法,本方案能够在用户与任何尺寸大小的屏幕进行交互时确定用户在显示画面上的注视位置,并且精确度高;同时由于本方案是通过实时获取并动态分析显示设备的显示画面、穿戴式设备采集的图像以及用户眼睛的位置参数进而确定用户在显示设备的显示画面上的注视位置的,所以本方案非常适用于用户与多个屏幕进行交互的场景,进而提高了用户与多个屏幕进行交互的效率。
可选的,在上述步骤130之前,所述方法还包括:
步骤170:校准所述穿戴式设备。
具体的,校准用户双眼与穿戴式设备的相对位置,并通过固定部件使得用户双眼与穿戴式设备的相对位置保持不变。用户双眼与穿戴式设备的相对位置保持不变时,用户眼睛与第一图像的距离为固定值。
通过本方式,能够进一步提高服务器确定用户在显示设备的显示画面上的注视位置的方法的精确度,以及用户与多个屏幕进行交互的效率。
实施例二
本发明实施例二提供一种信息处理方法,用于确定用户在显示设备的显示屏幕上的注视位置。本发明实施例二包括的方法内容上述实施例一所述的方法内容相似,主要不同之处在于本发明实施例二包括的方法步骤的执行主体为穿戴式设备,而实施例一包括的方法步骤的执行主体为服务器。参照图7,本发明实施例二提供的信息处理方法主要包括以下步骤:
步骤210:穿戴式设备获得第一图像。
具体的,穿戴式设备通过图像传感器如场景摄像头采集显示设备的显示画面,以获得第一图像。当用户佩戴的穿戴式设备时,穿戴式设备将采集的第一图像呈现给用户,用户通过佩戴的穿戴式设备可观看到第一图像。
步骤220:穿戴式设备获得显示设备的显示画面。
步骤230:穿戴式设备根据所述第一图像以及所述显示设备的显示画面确定转换矩阵。
步骤240:穿戴式设备采集用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像。
具体的,穿戴式设备通过其内置的图像传感单元采集用户查看由所述穿戴式设备呈现的所述第一图像时用户头部眼睛位置的眼部图像。
步骤250:穿戴式设备根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标。
步骤260:穿戴式设备根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
其中步骤220、步骤230、步骤250以及步骤260的具体实现方式可以参照上述实施例一的中由由服务器执行的对应步骤120、步骤130、步骤150以及步骤160的具体实现方式,本发明实施例不再赘述。
在上述方案中,穿戴式设备实时获取的显示设备的显示画面,并分析显示设备的像素点与采集的第一图像中像素点的映射关系,进而确定出显示设备的像素点与第一图像中像素点的转换矩阵,然后根据用户眼睛的位置参数和转换矩阵确定用户在显示设备的显示画面上的注视位置。不同于现有技术中通过识别该图像中的视觉标签来确定用户注视位置的方法,本方案能够在用户佩戴穿戴式设备与任何尺寸大小的屏幕进行交互时确定用户在显示画面上的注视位置,并且精确度高;同时由于本方案是通过实时获取并动态分析显示设备的显示画面、穿戴式设备采集的第一图像以及用户眼睛的位置参数进而确定用户在显示设备的显示画面上的注视位置的,所以本方案非常适用于用户与多个屏幕进行交互的场景,进而提高了用户与多个屏幕进行交互的效率。
实施例三
本发明实施例三提供一种信息处理装置,该信息处理装置用于实现实施例一中服务器的功能,参照图8,所述装置包括:
第一获取单元310,用于获得第一图像,所述第一图像为穿戴式设备采集的显示设备的显示画面的图像;
第二获取单元320,用于获得所述显示设备的显示画面;
第一确定单元330,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;
第三获取单元340,用于获得由穿戴式设备采集的用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像;
第二确定单元350,用于根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;
第三确定单元360,用于根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
可选的,所述第二获取单元320具体用于:获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;
所述第一确定单元330具体用于:判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;以及
在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。
可选的,所述第二确定单元350具体用于:根据所述眼部图像确定所述用户的眼睛的角度参数;以及
根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。
可选的,所述第二确定单元350还用于:在根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标之前,获得所述用户的眼睛与所述第一图像的距离。
可选的,所述第一确定单元330具体用于:根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;以及
根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。
本发明实施例三所包含的各个单元执行操作的具体实现方式可以参照图1-6以及上述实施例一的中由服务器执行的对应步骤,本发明实施例不再赘述。
实施例四
本发明实施例四提供一种信息处理装置,该信息处理装置用于实现实施例二中穿戴式设备的功能。参照图9,所述装置包括:
第一采集单元410,用于采集显示设备的显示画面,以获得第一图像;
第四获取单元420,用于获得所述显示设备的显示画面;
第四确定单元430,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;
第二采集单元440,用于采集用户查看所述第一图像时用户的眼部图像;
第五确定单元450,用于根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;
第六确定单元460,用于根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
可选的,所述第四获取单元420具体用于:获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;
所述第四确定单元430具体用于:判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;以及
在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。
可选的,所述第五确定单元450具体用于:根据所述眼部图像确定所述用户的眼睛的角度参数;以及
根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。
可选的,所述第五确定单元450还用于:在根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标之前,获得所述用户的眼睛与所述第一图像的距离。
可选的,所述第四确定单元430具体用于:根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;以及
根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。
本发明实施例四所包含的各个单元执行操作的具体实现方式可以参照上述实施例二中由穿戴式设备所执行的对应步骤,本发明实施例不再赘述。
实施例五
本发明实施例五提供一种信息处理装置,参照图10,所述装置包括:
通信接口510;
存储器520;以及,
与所述存储器520和所述通信接口510通信连接的处理器530;
其中,所述存储器520存储有可被所述处理器530执行的指令,所述指令被所述处理器530执行,以使所述处理器530能够执行上述实施例一或实施例二包括的信息处理方法。
实施例六
本发明实施例六提供一种信息处理装置,该信息处理装置用于实现实施例二中穿戴式设备的功能,参照图11,所述装置包括:
图像采集器610,用于采集显示设备的显示画面,以获得第一图像;
显示模块620,用于向用户呈现所述第一图像;
所述图像采集器610还用于采集用户查看所述第一图像时用户的眼部图像;
通信接口630,用于获得所述显示设备的显示画面;
处理器640,分别与所述图像采集器610、所述显示模块620以及所述通信接口630通信连接,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
需要说明的是,以上处理器可以是一个处理元件,也可以是多个处理元件的统称。例如,该处理器可以是中央处理器(Central Processing Unit,CPU),也可以是特定集成电路(Application Specific Integrated Circuit,ASIC),或者是被配置成实施本发明实施例的一个或多个集成电路,例如:一个或多个微处理器(Digital Signal Processor,DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,FPGA)。
通信接口可以是以太网通信接口,或者射频通信接口,等等。存储器可以是一个存储装置,也可以是多个存储元件的统称,且用于存储可执行程序代码、居民接入网设备或终端运行所需要参数、数据等。且存储器可以包括随机存储器(Random-Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器,闪存(Flash)等。
本发明实施例提供的一个或多个技术方案至少具有如下技术效果或优点:
通过实时获取的显示设备的显示画面和穿戴式设备采集的图像,并分析显示设备的像素点与穿戴式设备采集的图像中像素点的映射关系,进而确定出显示设备的像素点与穿戴式设备采集的图像中像素点的转换矩阵,然后根据用户眼睛的位置参数和转换矩阵确定用户在显示设备的显示画面上的注视位置。不同于现有技术中通过识别该图像中的视觉标签来确定用户注视位置的方法,本方案能够在用户与任何尺寸大小的屏幕进行交互时确定用户在显示画面上的注视位置,并且精确度高;通过实时获取并动态分析显示设备的显示画面、穿戴式设备采集的图像以及用户眼睛的位置参数进而确定用户在显示设备的显示画面上的注视位置的,所以本方案非常适用于用户与多个屏幕进行交互的场景,提高了用户与多个屏幕进行交互的效率。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种信息处理方法,包括:
获得第一图像,所述第一图像为穿戴式设备采集的显示设备的显示画面的图像;
获得所述显示设备的显示画面;
根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;
获得由穿戴式设备采集的用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像;
根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;
根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
2.如权利要求1所述的方法,其特征在于,所述获得所述显示设备的显示画面,包括:
获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;
所述根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,包括:
判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;
在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。
3.如权利要求1或2所述的方法,其特征在于,所述根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标,包括:
根据所述眼部图像确定所述用户的眼睛的角度参数;
根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。
4.如权利要求3所述的方法,其特征在于,所述根据所述第一图像以及所述显示设备的显示画面确定转换矩阵包括:
根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;
根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。
5.一种信息处理装置,包括:
第一获取单元,用于获得第一图像,所述第一图像为穿戴式设备采集的显示设备的显示画面的图像;
第二获取单元,用于获得所述显示设备的显示画面;
第一确定单元,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;
第三获取单元,用于获得由穿戴式设备采集的用户查看由所述穿戴式设备呈现的所述第一图像时用户的眼部图像;
第二确定单元,用于根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;
第三确定单元,用于根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
6.如权利要求5所述的装置,其特征在于,所述第二获取单元具体用于:获得第一显示设备的第一显示画面以及第二显示设备的第二显示画面;
所述第一确定单元具体用于:判断所述第一图像包括的为所述第一显示画面的图像还是所述第二显示画面的图像;以及
在所述第一图像包括所述第一显示画面的图像时,根据所述第一图像以及所述第一显示画面确定转换矩阵。
7.如权利要求5或6所述的装置,其特征在于,所述第二确定单元具体用于:根据所述眼部图像确定所述用户的眼睛的角度参数;以及
根据所述用户的眼睛的角度参数、所述用户的眼睛与所述第一图像的距离以及所述转换矩阵确定所述用户在所述第一图像上所注视对象的位置坐标。
8.如权利要求7所述的装置,其特征在于,所述第一确定单元具体用于:根据所述显示设备的屏幕尺寸以及分辨率确定所述显示设备的显示画面的平面坐标;以及
根据所述第一图像的平面坐标和所述显示设备的显示画面的平面坐标确定所述转换矩阵。
9.一种信息处理装置,包括:通信接口、存储器,以及与所述存储器和所述通信接口通信连接的处理器;
其中,所述存储器存储有可被所述处理器执行的指令,所述指令被所述处理器执行,以使所述处理器能够执行权利要求1至4中任一项所述信息处理方法。
10.一种信息处理装置,包括:
图像采集器,用于采集显示设备的显示画面,以获得第一图像;
显示模块,用于向用户呈现所述第一图像;
所述图像采集器还用于采集用户查看所述第一图像时用户的眼部图像;
通信接口,用于获得所述显示设备的显示画面;
处理器,分别与所述图像采集器、所述显示模块以及所述通信接口通信连接,用于根据所述第一图像以及所述显示设备的显示画面确定转换矩阵,所述转换矩阵用于表征所述第一图像中像素点与所述显示设备的像素点之间的映射;根据所述眼部图像确定所述用户在所述第一图像上所注视对象的位置坐标;根据所述转换矩阵以及所述第一图像确定所述用户在所述显示设备的显示画面上的注视位置。
CN201710157955.1A 2017-03-16 2017-03-16 一种信息处理方法及装置 Pending CN107422842A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710157955.1A CN107422842A (zh) 2017-03-16 2017-03-16 一种信息处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710157955.1A CN107422842A (zh) 2017-03-16 2017-03-16 一种信息处理方法及装置

Publications (1)

Publication Number Publication Date
CN107422842A true CN107422842A (zh) 2017-12-01

Family

ID=60424077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710157955.1A Pending CN107422842A (zh) 2017-03-16 2017-03-16 一种信息处理方法及装置

Country Status (1)

Country Link
CN (1) CN107422842A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410285A (zh) * 2018-11-06 2019-03-01 北京七鑫易维信息技术有限公司 一种校准方法、装置、终端设备及存储介质
CN109917908A (zh) * 2019-02-01 2019-06-21 谷东科技有限公司 一种ar眼镜的图像获取方法及系统
WO2020063021A1 (zh) * 2018-09-30 2020-04-02 北京七鑫易维信息技术有限公司 应用于终端设备的眼球追踪方法、装置以及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体
CN103516985A (zh) * 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体
CN102662476A (zh) * 2012-04-20 2012-09-12 天津大学 一种视线估计方法
CN103516985A (zh) * 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020063021A1 (zh) * 2018-09-30 2020-04-02 北京七鑫易维信息技术有限公司 应用于终端设备的眼球追踪方法、装置以及系统
CN109410285A (zh) * 2018-11-06 2019-03-01 北京七鑫易维信息技术有限公司 一种校准方法、装置、终端设备及存储介质
US11042217B2 (en) 2018-11-06 2021-06-22 Beijing 7Invensun Technology Co., Ltd. Calibration method and apparatus, terminal equipment and storage medium
CN109917908A (zh) * 2019-02-01 2019-06-21 谷东科技有限公司 一种ar眼镜的图像获取方法及系统
CN109917908B (zh) * 2019-02-01 2023-03-24 谷东科技有限公司 一种ar眼镜的图像获取方法及系统

Similar Documents

Publication Publication Date Title
EP3070680B1 (en) Image-generating device and method
CN110050250A (zh) 显示器同步的图像规整
CN107431803A (zh) 全景虚拟现实内容的捕捉和渲染
CN108292489A (zh) 信息处理装置和图像生成方法
CN105980962A (zh) 信息处理设备、信息处理方法和程序
CN105867617A (zh) 增强现实设备、系统、图像处理方法及装置
CN102510508B (zh) 侦测式立体画面调整方法
CN108292438A (zh) 使用可变计算复杂度的图像的光场渲染
CN110378914A (zh) 基于注视点信息的渲染方法及装置、系统、显示设备
CN107911680A (zh) 投影设备校正方法、装置及投影设备
CN107422842A (zh) 一种信息处理方法及装置
US11825064B2 (en) Light field display method and system, storage medium and display panel
CN107908278A (zh) 一种虚拟现实vr界面生成的方法和装置
CN109361912A (zh) 用于立体视觉图像捕获的多层相机装置
CN107851329A (zh) 基于多个模型显示对象
CN110575373A (zh) 一种基于vr一体机的视觉训练方法及系统
CN108430032A (zh) 一种实现vr/ar设备位置共享的方法及设备
CN108124152A (zh) 头戴式显示设备的畸变测量方法及系统
CN112802208B (zh) 一种航站楼内三维可视化方法及装置
TWI603225B (zh) 液晶顯示器顯示視角的調整方法和裝置
CN100461855C (zh) 一种广角镜头下的视频实时校正方法
CN205430495U (zh) 增强现实设备及系统
CN108616736A (zh) 用于立体显示的跟踪定位方法及装置
CN112015264A (zh) 虚拟现实显示方法、虚拟现实显示装置及虚拟现实设备
Medien Implementation of a low cost marker based infrared optical tracking system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171201