CN114972526A - 视场角测量方法及装置、计算机设备及介质 - Google Patents

视场角测量方法及装置、计算机设备及介质 Download PDF

Info

Publication number
CN114972526A
CN114972526A CN202210497062.2A CN202210497062A CN114972526A CN 114972526 A CN114972526 A CN 114972526A CN 202210497062 A CN202210497062 A CN 202210497062A CN 114972526 A CN114972526 A CN 114972526A
Authority
CN
China
Prior art keywords
image
field
augmented reality
reality display
test picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210497062.2A
Other languages
English (en)
Inventor
姚宪
李靖宇
孙培
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaxingyuanchuang Chengdu Technology Co ltd
Original Assignee
Huaxingyuanchuang Chengdu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaxingyuanchuang Chengdu Technology Co ltd filed Critical Huaxingyuanchuang Chengdu Technology Co ltd
Priority to CN202210497062.2A priority Critical patent/CN114972526A/zh
Publication of CN114972526A publication Critical patent/CN114972526A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)

Abstract

本发明实施例公开了一种视场角测量方法及装置、计算机设备及介质。在一具体实施方式中,该方法包括:控制扩展现实显示设备显示测试画面;控制图像采集设备在预设位置采集包含测试画面的图像;根据图像采集设备的镜头视场角、图像采集设备的镜头视场与采集视场的尺寸比例和图像所包含的测试画面区域与图像的尺寸比例,计算得到扩展现实显示设备的视场角,其中,图像采集设备的镜头视场角和图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。该实施方式通过简单的视觉拍摄结合简单的图像处理及计算,即可快速精确地得到扩展现实显示设备的视场角,可实现扩展现实显示设备的快速检测,适用于扩展现实显示设备的批量生产。

Description

视场角测量方法及装置、计算机设备及介质
技术领域
本发明涉及光学检测领域。更具体地,涉及一种视场角测量方法及装置、计算机设备及介质。
背景技术
扩展现实(XR,Extended Reality)包含虚拟现实(VR,Virtual Reality)、增强现实(AR,Augmented Reality)、混合现实(MR,Mixed Reality)等。在例如头戴式增强现实/虚拟现实设备的开发中,显示器件和光学器件是决定设备性能的主要部件。显示器将视觉图像投射并被人眼感知,目的是让用户有一个良好的视觉体验,但是如果视觉显示系统成像存在缺陷,那么在实际应用中会导致用户视觉疲劳和头晕等问题。扩展现实中的视场角(FOV,Field ofView)定义为显示画面边缘与使用者人眼连线的夹角,视场角大小直接决定了用户的沉浸感感受,因此扩展现实显示设备的视场角需要一致才能保证使用者的良好体验。
发明内容
本发明的目的在于提供一种视场角测量方法及装置、计算机设备及介质,以解决现有技术存在的问题中的至少一个。
为达到上述目的,本发明采用下述技术方案:
本发明第一方面提供了一种扩展现实显示设备的视场角测量方法,包括:
控制扩展现实显示设备显示测试画面;
控制图像采集设备在预设位置采集包含测试画面的图像;以及
根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角,其中,所述图像采集设备的镜头视场角和所述图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。
可选地,所述根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角包括根据下述公式计算得到所述扩展现实显示设备的视场角:
tanθ=(OC/OA)*(tanM)/m
其中,θ为所述扩展现实显示设备的视场角;M为所述图像采集设备的镜头视场角;m为所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像与所述图像所包含的测试画面区域的尺寸比例;(OC/OA)为所述图像所包含的测试画面区域与所述图像的尺寸比例。
可选地,所述预设位置为在扩展现实显示设备的显示屏的预设距离的中心位置。
可选地,所述图像采集设备的镜头视场与采集视场的尺寸比例m=OB/OA`,其中,OB为所述图像采集设备的镜头视场的半径,OA`为所述图像采集设备的采集视场的中心至边缘的第一位置点的距离;OC为所述图像所包含的测试画面区域的半径,OA为所述图像中心与边缘的第二位置点的距离,其中所述第一位置点与所述第二位置点的空间位置关系对应。
可选地,所述测试画面为纯色画面且所述控制图像采集设备在预设位置采集包含测试画面的图像的采集背景为与所述纯色画面颜色不同的纯色背景。
可选地,所述控制图像采集设备在预设位置采集包含测试画面的图像包括:控制图像采集设备在预设位置,以成像面与所述扩展现实显示设备的显示屏平行的采集视角采集包含测试画面的图像。
本发明第二方面提供了一种扩展现实显示设备的视场角测量装置,包括:
第一控制模块,用于控制扩展现实显示设备显示测试画面;
第二控制模块,用于控制图像采集设备在预设位置采集包含测试画面的图像;以及
计算模块,用于根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角,其中,所述图像采集设备的镜头视场角和所述图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。
本发明第三方面提供了一种扩展现实显示设备的视场角测量系统,包括本发明第二方面提供的视场角测量装置和图像采集设备。
本发明第四方面提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本发明第一方面提供的视场角测量方法。
本发明第五方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明第一方面提供的视场角测量方法。
本发明的有益效果如下:
本发明所述技术方案,先通过简单的利用图像采集设备对扩展现实显示设备显示的测试画面进行视觉拍摄,通过简单的图像处理获取采集的图像所包含的测试画面区域与所述图像的尺寸比例后再基于图像采集设备的镜头视场角、图像采集设备的镜头视场与采集视场的尺寸比例和图像所包含的测试画面区域与采集的图像的尺寸比例进行简单的计算,即可快速精确地得到扩展现实显示设备的视场角,可实现扩展现实显示设备的快速检测,适用于扩展现实显示设备的批量生产。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明。
图1示出本发明的扩展现实显示设备的观测光学示意图。
图2示出实施例一提供的扩展现实显示设备的视场角测量方法的流程示意图。
图3示出实施例一中的图像采集设备的镜头视场和采集视场的示意图。
图4示出实施例一中的包含测试画面的图像的示意图。
图5示出实施例一中的O、A、B和C点与人眼观测点之间的视角关系示意图。
图6示出本发明的实现实施例二提供的扩展现实显示设备的视场角测量装置的计算机系统的结构示意图。
具体实施方式
为了更清楚地说明本发明,下面结合实施例和附图对本发明做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本发明的保护范围。
扩展现实中的视场角定义为显示画面边缘与使用者人眼连线的夹角,视场角大小直接决定了用户的沉浸感感受,因此扩展现实显示设备的视场角需要一致才能保证使用者的良好体验。例如AR设备使用光机结合光波导形成虚像显示的扩展现实显示设备的观测光学示意图如图1所示,人眼示出的是使用者的人眼观测处,人眼通过透镜可观看到在扩展现实显示设备的视场范围内的虚像显示画面,F为AR设备的虚像距。
发明人发现,目前,对于扩展现实显示设备视场角的测量是比较困难的,且现有的为数不多的测量手段也都普遍存在复杂度高、效率低等问题。
有鉴于此,本发明实施例提供了一种扩展现实显示设备的视场角测量方法,应用于计算机设备,该方法包括:
控制扩展现实显示设备显示测试画面;
控制图像采集设备在预设位置采集包含测试画面的图像;以及
根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角,其中,所述图像采集设备的镜头视场角和所述图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。
本实施例提供的扩展现实显示设备的视场角测量方法,先通过简单的利用图像采集设备对扩展现实显示设备显示的测试画面进行视觉拍摄,通过简单的图像处理获取采集的图像所包含的测试画面区域与所述图像的尺寸比例后再基于图像采集设备的镜头视场角、图像采集设备的镜头视场与采集视场的尺寸比例和图像所包含的测试画面区域与采集的图像的尺寸比例进行简单的计算,即可快速精确地得到扩展现实显示设备的视场角,可实现对虚拟现实、增强现实、混合现实等各种类型的扩展现实显示设备的快速检测,适用于扩展现实显示设备的批量生产。
接下来,通过实施例一对本实施例提供的扩展现实显示设备的视场角测量方法进行说明。
实施例一
如图2所示,实施例一提供了一种扩展现实显示设备的视场角测量方法,包括如下步骤:
S210、标定图像采集设备的镜头视场角和图像采集设备的镜头视场与采集视场的尺寸比例。
在一个具体示例中,标定方法例如:用标定了刻度的标靶代替图像采集设备的感光元件(Sensor)来接收成像,并将该标靶放置到感光元件的位置,然后使用点光源在图像采集设备的镜头前进行移动,在镜头的视场角范围内,标靶可以接收到光源的完整成像,并得到具体的成像范围,这个视场角成像范围是大于图像采集设备的感光元件的采集视场的。之后,可以根据标靶到镜头的距离与标靶成像距离的比值,得到视觉系统(镜头)的成像视场,即镜头视场。同样根据1:1的比例,可以绘制出感光元件的成像视场,即采集视场。从而,标定得到图像采集设备的镜头视场与采集视场的尺寸比例。其中,标靶与点光源成像的标定画面之间的距离设置为等同于后续进行图像采集时图像采集设备的感光元件与扩展现实显示设备显示测试画面的视觉成像画面之间的距离相同,即,点光源成像的标定画面与后续扩展现实显示设备显示测试画面的视觉成像画面为同一个实际成像物理平面。
例如,图3示出了标定得到的图像采集设备的镜头视场和采集视场,其中,图像采集设备的镜头视场与采集视场的尺寸比例为
m=OB/OA` 公式(1)
其中,OB为图像采集设备的镜头视场的半径;OA`为图像采集设备的采集视场的中心至边缘的第一位置点(例如长边中心)的距离。
S220、控制扩展现实显示设备显示测试画面。
S230、控制图像采集设备在预设位置采集包含测试画面的图像。
在一种可能的实现方式中,扩展现实显示设备显示的测试画面为纯色画面且控制图像采集设备在预设位置采集包含测试画面的图像的采集背景为与所述纯色画面颜色不同的纯色背景。例如,测试画面为纯白画面,采集背景为黑色背景。这样,在例如图4所示的图像中,中心区域的圆型测试画面与周围区域可以得到较为明显的区分,便于后续获取测试画面与整体图像的尺寸比例。
在一种可能的实现方式中,所述预设位置为在扩展现实显示设备的显示屏的预设距离的中心位置,其中,预设距离例如为用户佩戴扩展现实显示设备时的人眼与显示屏距离,中心位置表示镜头中心或者说感光元件中心与显示屏中心位于垂直于显示屏方向的同一直线上。例如图1所示,人眼观测处即为选定的图像采集设备的采集位置,或者说扩展现实显示设备的视场角测量位置。可理解的是,无论是VR或MR设备使用显示屏显示,还是AR设备使用光机结合光波导形成虚像显示,扩展现实显示设备通过透镜所成的虚像最终成像在图像采集设备(相机系统)中的感光元件处的成像靶面中,采集的要求是测试画面包含于图像,即,如图4所示,图像采集设备在预设位置采集的图像要大于扩展现实显示设备显示测试画面,这是本实施例中对光学系统选型的要求。
其中,所述预设位置为在扩展现实显示设备的显示屏的预设距离的中心位置,即可实现如图4所示的测试画面的圆心与采集的图像中心重合,这样,便于进行后续的测试画面与图像尺寸比例的获取。
在一种可能的实现方式中,步骤S230包括:控制图像采集设备在预设位置,以成像面与所述扩展现实显示设备的显示屏平行的采集视角采集包含测试画面的图像。这样,可保证最终计算得到的扩展现实显示设备的视场角的精确性。
S240、根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角。
在一种可能的实现方式中,步骤S240包括根据下述公式计算得到所述扩展现实显示设备的视场角:
tan θ=(OC/OA)*(tan M)/m
其中,θ为所述扩展现实显示设备的视场角;M为所述图像采集设备的镜头视场角;m为所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像与所述图像所包含的测试画面区域的尺寸比例;(OC/OA)为所述图像所包含的测试画面区域与所述图像的尺寸比例。
进一步,所述图像采集设备的镜头视场与采集视场的尺寸比例m=OB/OA`,其中,OB为所述图像采集设备的镜头视场的半径,OA`为所述图像采集设备的采集视场的中心至边缘的第一位置点的距离;OC为所述图像所包含的测试画面区域的半径,OA为所述图像中心与边缘的第二位置点的距离,其中所述第一位置点与所述第二位置点的空间位置关系对应,即,例如如图3和图4所示,第一位置点为采集视场的长边中心点且第二位置点为图像的长边中心点,另外,第一位置点和第二位置点也可均为短边中心点、同一方向的顶点或其他任意位置点。
下面,结合图1-4,对步骤S240进行进一步说明。
基于光学成像原理,结合上述示例,由于图1和图4的图像采集设备的感光元件平面是一致的,所以结合图1和图4,可得到O、A、B、C点和与O点距离为L的人眼观测点M之间的视角关系图如图5所示。
根据图3所示的镜头视场和采集视场,推导三角关系可得:
OB/OA`=(tan M)/(tan N) 公式(2)
其中,M为图像采集设备的镜头视场角;N为图像采集设备的采集视场角,即,相机感光元件在成像靶面中占据的视场角;OB为图像采集设备的镜头视场的半径,OA`为图像采集设备的采集视场的中心至边缘的第一位置点(长边中心点)的距离。
进一步变换可得:
tan N=OA`*(tan M)/OB 公式(3)
根据图4所示的包含测试画面的图像,推导三角关系可得:
OA/OC=(tan N)/(tan θ) 公式(4)
其中,OA为图像中心与边缘的第二位置点(长边中心点)的距离,由于采集视场与采集的图像是对应的,可知,OA=OA`;OC为图像所包含的测试画面区域的半径,θ为扩展现实显示设备的视场角。
将公式(4)代入到公式(3)可得:
tan θ=OC*(tan M)/OB 公式(5)
再根据公式(1),结合OA=OA`,可以得到:
tan θ=(OC/OA)*(tan M)/m 公式(6)
其中,
由于图像采集设备的镜头视场角M和尺寸比例m值都在标定中可以得到,所以只需要计算OC/OA的比例值,就可得到扩展现实显示设备的视场角θ。其中,对于采集的图像,从图像中心到测试画面的圆型边缘的距离即为图像所包含的测试画面区域的半径OC,从图像中心到边缘的第二位置点(长边中心点)的距离即为OA,计算图像中的两个欧氏距离即可得到OC/OA的像素比值,即图像所包含的测试画面区域与所述图像的尺寸比例,将其带入公式(6)即可计算得到扩展现实显示设备的视场角θ。
实施例二
实施例二提供了一种扩展现实显示设备的视场角测量装置,包括:
第一控制模块,用于控制扩展现实显示设备显示测试画面;
第二控制模块,用于控制图像采集设备在预设位置采集包含测试画面的图像;以及
计算模块,用于根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角,其中,所述图像采集设备的镜头视场角和所述图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。
需要说明的是,本实施例提供的扩展现实显示设备的视场角测量装置的原理及工作流程与实施例一提供的视场角测量方法相似,相关之处可以参照上述说明,在此不再赘述。
如图6所示,适于用来实现实施例二提供的扩展现实显示设备的视场角测量装置的计算机系统,包括中央处理模块(CPU),其可以根据存储在只读存储器(ROM)中的程序或者从存储部分加载到随机访问存储器(RAM)中的程序而执行各种适当的动作和处理。在RAM中,还存储有计算机系统操作所需的各种程序和数据。CPU、ROM以及RAM通过总线被此相连。输入/输入(I/O)接口也连接至总线。
以下部件连接至I/O接口:包括键盘、鼠标等的输入部分;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分;包括硬盘等的存储部分;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分。通信部分经由诸如因特网的网络执行通信处理。驱动器也根据需要连接至I/O接口。可拆卸介质,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器上,以便于从其上读出的计算机程序根据需要被安装入存储部分。
特别地,根据本实施例,上文流程图描述的过程可以被实现为计算机软件程序。例如,本实施例包括一种计算机程序产品,其包括有形地包含在计算机可读介质上的计算机程序,上述计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。
附图中的流程图和示意图,图示了本实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或示意图中的每个方框可以代表一个模块、程序段或代码的一部分,上述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,示意图和/或流程图中的每个方框、以及示意和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器,包括第一控制模块、第二控制模块和计算模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定。例如,计算模块还可以被描述为“数据处理模块”。
作为另一方面,本实施例还提供了一种非易失性计算机存储介质,该非易失性计算机存储介质可以是上述实施例中上述装置中所包含的非易失性计算机存储介质,也可以是单独存在,未装配入终端中的非易失性计算机存储介质。上述非易失性计算机存储介质存储有一个或者多个程序,当上述一个或者多个程序被一个设备执行时,使得上述设备:
控制扩展现实显示设备显示测试画面;
控制图像采集设备在预设位置采集包含测试画面的图像;以及
根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角,其中,所述图像采集设备的镜头视场角和所述图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。
在本发明的描述中,需要说明的是,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
还需要说明的是,在本发明的描述中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于本领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。

Claims (10)

1.一种扩展现实显示设备的视场角测量方法,其特征在于,包括:
控制扩展现实显示设备显示测试画面;
控制图像采集设备在预设位置采集包含测试画面的图像;以及
根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角,其中,所述图像采集设备的镜头视场角和所述图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。
2.根据权利要求1所述的方法,其特征在于,所述根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角包括根据下述公式计算得到所述扩展现实显示设备的视场角:
tanθ=(OC/OA)*(tan M)/m
其中,θ为所述扩展现实显示设备的视场角;M为所述图像采集设备的镜头视场角;m为所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像与所述图像所包含的测试画面区域的尺寸比例;(OC/OA)为所述图像所包含的测试画面区域与所述图像的尺寸比例。
3.根据权利要求2所述的方法,其特征在于,所述预设位置为在扩展现实显示设备的显示屏的预设距离的中心位置。
4.根据权利要求3所述的方法,其特征在于,所述图像采集设备的镜头视场与采集视场的尺寸比例m=OB/OA`,其中,OB为所述图像采集设备的镜头视场的半径,OA`为所述图像采集设备的采集视场的中心至边缘的第一位置点的距离;OC为所述图像所包含的测试画面区域的半径,OA为所述图像中心与边缘的第二位置点的距离,其中所述第一位置点与所述第二位置点的空间位置关系对应。
5.根据权利要求1所述的方法,其特征在于,所述测试画面为纯色画面且所述控制图像采集设备在预设位置采集包含测试画面的图像的采集背景为与所述纯色画面颜色不同的纯色背景。
6.根据权利要求3所述的方法,其特征在于,所述控制图像采集设备在预设位置采集包含测试画面的图像包括:控制图像采集设备在预设位置,以成像面与所述扩展现实显示设备的显示屏平行的采集视角采集包含测试画面的图像。
7.一种扩展现实显示设备的视场角测量装置,其特征在于,包括:
第一控制模块,用于控制扩展现实显示设备显示测试画面;
第二控制模块,用于控制图像采集设备在预设位置采集包含测试画面的图像;以及
计算模块,用于根据所述图像采集设备的镜头视场角、所述图像采集设备的镜头视场与采集视场的尺寸比例和所述图像所包含的测试画面区域与所述图像的尺寸比例,计算得到所述扩展现实显示设备的视场角,其中,所述图像采集设备的镜头视场角和所述图像采集设备的镜头视场与采集视场的尺寸比例通过预先标定得到。
8.一种扩展现实显示设备的视场角测量系统,其特征在于,包括如权利要求7所述的装置和图像采集设备。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
CN202210497062.2A 2022-05-09 2022-05-09 视场角测量方法及装置、计算机设备及介质 Pending CN114972526A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210497062.2A CN114972526A (zh) 2022-05-09 2022-05-09 视场角测量方法及装置、计算机设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210497062.2A CN114972526A (zh) 2022-05-09 2022-05-09 视场角测量方法及装置、计算机设备及介质

Publications (1)

Publication Number Publication Date
CN114972526A true CN114972526A (zh) 2022-08-30

Family

ID=82980594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210497062.2A Pending CN114972526A (zh) 2022-05-09 2022-05-09 视场角测量方法及装置、计算机设备及介质

Country Status (1)

Country Link
CN (1) CN114972526A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057930A1 (ja) * 2022-09-16 2024-03-21 パナソニックIpマネジメント株式会社 補正方法、測定方法およびヘッドマウントディスプレイシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057930A1 (ja) * 2022-09-16 2024-03-21 パナソニックIpマネジメント株式会社 補正方法、測定方法およびヘッドマウントディスプレイシステム

Similar Documents

Publication Publication Date Title
CN110967166B (zh) 近眼显示光学系统的检测方法、检测装置和检测系统
CN108171673B (zh) 图像处理方法、装置、车载抬头显示系统及车辆
US6833843B2 (en) Panoramic imaging and display system with canonical magnifier
CN107024339B (zh) 一种头戴显示设备的测试装置及方法
US7499600B2 (en) Method for characterizing a digital imaging system
CN108230397A (zh) 多目摄像机标定与校正方法和装置、设备、程序和介质
CN109862345B (zh) 视场角测试方法和系统
US8111290B2 (en) Radiometric calibration using temporal irradiance mixtures
CN110006634B (zh) 视场角测量方法、视场角测量装置、显示方法和显示设备
CN108989794B (zh) 基于抬头显示系统的虚像信息测量方法及系统
CN108489423B (zh) 一种产品表面水平倾斜角度的测量方法及系统
CN109931906B (zh) 摄像机测距方法、装置以及电子设备
JP2005333564A (ja) ディスプレイの評価方法及び装置
JP2004286465A (ja) 画像による対象物の計測方法および撮像装置
CN114360043B (zh) 模型参数标定方法、视线追踪方法、装置、介质及设备
CN114972526A (zh) 视场角测量方法及装置、计算机设备及介质
CN111638039A (zh) 一种基于人眼视觉特性的激光散斑测量系统
CN110274752A (zh) 中继镜成像质量的多功能测试卡及其测试方法
CN108010071B (zh) 一种利用3d深度测量的亮度分布测量系统及方法
CN105427315B (zh) 数字仪表图像位置测试方法及装置
CN111369513A (zh) 一种异常检测方法、装置、终端设备及存储介质
CN115753019A (zh) 采集设备的位姿调整方法、装置、设备和可读存储介质
CN111982468B (zh) 一种视场角的测量方法、设备、系统及计算机存储介质
CN114693807A (zh) 一种输电线路图像与点云的映射数据重构方法及系统
CN117455919B (zh) 基于虚拟刀口的背景纹影方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination