CN107657607B - 一种测试追踪位置误差的方法和系统 - Google Patents

一种测试追踪位置误差的方法和系统 Download PDF

Info

Publication number
CN107657607B
CN107657607B CN201710860649.4A CN201710860649A CN107657607B CN 107657607 B CN107657607 B CN 107657607B CN 201710860649 A CN201710860649 A CN 201710860649A CN 107657607 B CN107657607 B CN 107657607B
Authority
CN
China
Prior art keywords
image
central point
acquiring
position error
tracking position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710860649.4A
Other languages
English (en)
Other versions
CN107657607A (zh
Inventor
徐康兴
徐晖
毛珂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL TELEVISION TECHNOLOGY CENTER BEIJING PEONY ELECTRONIC GROUP Co Ltd
Original Assignee
DIGITAL TELEVISION TECHNOLOGY CENTER BEIJING PEONY ELECTRONIC GROUP Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL TELEVISION TECHNOLOGY CENTER BEIJING PEONY ELECTRONIC GROUP Co Ltd filed Critical DIGITAL TELEVISION TECHNOLOGY CENTER BEIJING PEONY ELECTRONIC GROUP Co Ltd
Priority to CN201710860649.4A priority Critical patent/CN107657607B/zh
Publication of CN107657607A publication Critical patent/CN107657607A/zh
Application granted granted Critical
Publication of CN107657607B publication Critical patent/CN107657607B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种测试追踪位置误差的方法和系统。其中,该方法包括:在VR显示场景中选取第一中心点;根据第一中心点获取第一图像;以第一中心点为基点,将图像获取设备转动预设角度后,在VR显示场景中选取第二中心点;根据第二中心点获取第二图像;根据第一图像和第二图像确定追踪位置误差。在本发明提供的技术方案中,通过根据第一中心点获取第一图像,第二中心点获取第二图像,根据第一图像和第二图像确定追踪位置误差的技术方案,避免了现有技术中,通过增加额外的设备获取追踪位置误差时,成本高,精确度低的技术弊端。实现了精准高效且成本低的技术效果。

Description

一种测试追踪位置误差的方法和系统
技术领域
本发明涉及可穿戴式电子设备技术领域,尤其涉及一种测试追踪位置误差的方法和系统。
背景技术
随着社会科技的不断发展,个人电脑、笔记本电脑、平板电脑、智能手机等计算机终端设备的应用越来越广泛,计算机终端设备已经逐渐成为人们日常生活、工作中不可或缺的功能电子产品。计算机终端设备的发展进程日新月异,计算机终端设备产品的种类也迅速得以更新换代。可穿戴设备也越来越普遍。如智能腕带、智能手表、智能眼镜等新兴的可佩戴计算机终端设备产品也逐渐在人们的日常生活和一些技术应用中得以推广使用。尤其是智能眼镜产品,其能够具备将显示信息与现实场景相叠加呈现、甚至相互交互的独特应用前景,在工业、商业技术领域中都有非常广阔的技术推广应用价值,例如应用于交通驾驶者进行交通信息提示和分析、应用于外科手术医生进行手术医疗器械的手术信息显示和控制、应用于生产线管理者进行生产机床设备的工作状态显示和控制等。
在现有技术中,VR设备在获取图像时,是通过传感器进行获取的。然后传感器在读取数据时,会存在误差。在现有技术中,通过增加额外的设备、工具或人工调节的方式对误差进行测量,以对误差进行确定。
然后,在实现本发明的过程中,发明人发现至少存在如下问题:
1、通过增加额外的设备或工具的方式使得成本增加,精确度低;
2、通过人工调节的方式会造成人力物力的增加,且精确度低,效率低。
发明内容
为解决上述技术问题,本发明提供了一种测试追踪位置误差的方法和系统。
根据本发明的一个方面,本发明实施例提供了,一种测试追踪位置误差的方法,所述方法包括:
在VR显示场景中选取第一中心点;
根据所述第一中心点获取第一图像;
以所述第一中心点为基点,将图像获取设备转动预设角度后,在所述VR显示场景中选取第二中心点;
根据所述第二中心点获取第二图像;
根据所述第一图像和所述第二图像确定所述追踪位置误差。
在本实施例中,在选取第一中心点后,根据选取的第一中心点获取第一图像,并根据第一中心点选取第二中心点,以根据第二中心点获取第二图像。根据获取到的第一图像和第二图像对跟踪位置误差进行确定。具体地,在获取第一图像和第二图像时,为满屏获取。
通过本实施例提供的技术方案,一方面,避免了现有技术中,通过增加额外的设备获取追踪位置误差时,成本高,精确度低的技术弊端;另一方面,由于外接设备在进行调试时,需要耗费巨大的人力和物力,使得测量追踪位置误差的效率降低;再一方面,实现了降低成本,节约资源,提高测量结果的精确度的技术效果。
进一步地,所述根据第一中心点获取第一图像,具体包括:
获取所述第一中心点的坐标(H/2,W/2),其中,H为高度像素,W为宽度像素;
将第一黑块和第一白块的宽度像素均设置为第一宽度像素,所述第一黑块和所述第一白块为图像的测试标尺的基本单元;
根据所述第一中心点的坐标以及,多组所述第一黑块和多组所述第一白块组合的第一总宽度像素获取所述第一图像。
通过本实施例提供的技术方案,实现了快速获取第一中心点,快速获取第一图像的技术效果。进一步实现了高效率的获取追踪位置误差的技术效果。
进一步地,所述根据所述第二中心点获取第二图像,具体包括:
获取所述第二中心点的坐标(H/2+α*H/360,W/2),α为旋转角度;
将第二黑块和第二白块的宽度像素均设置为第二宽度像素,所述第二黑块和所述第二白块为图像的测试标尺的基本单元;
根据所述第二中心点的坐标以及,多组所述第二黑块和多组所述第二白块组合的第二总宽度像素获取所述第二图像;
其中,所述第一宽度像素大于所述第二宽度像素。
通过本实施例提供的技术方案,实现了快速获取第二中心点,快速获取第二图像的技术效果。进一步实现了高效率的获取追踪位置误差的技术效果。
进一步地,所述根据所述第一图像和所述第二图像确定所述追踪位置误差,具体包括:
获取所述第一图像的第一水平中心线;
根据所述第一水平中心线截取所述第一图像,选取所述第一图像的上半部分;
获取所述第二图像的第二水平中心线;
根据所述第二水平中心线截取所述第二图像,选取所述第二图像的下半部分;
将所述第一图像的上半部分中的第一中心点与所述第二图像的下半部分中的第二中心点重合,得到拼凑图像;
根据所述拼凑图像确定所述追踪位置误差。
在本实施例中,通过截取第一图像的部分图像,截取第二图像的部分图像,将两部分图像进行拼凑,得到拼凑图像,以根据拼凑图像对追踪位置误差进行确定。
根据本实施例提供的技术方案,实现了精准且高效的确定追踪位置误差的技术效果。
进一步地,当根据多个第一图像和多个第二图像,得到多个拼凑图像时,所述根据所述拼凑图像确定所述追踪位置误差具体包括:
根据式1确定所述追踪位置误差,式1:
其中,X为所述追踪位置误差,Zi为根据第i个第一图像和第二图像确定的误差。
在本实施例中,通过多次获取第一图像和第二图像,以得到多个拼凑图像,通过多个拼凑图像对追踪位置误差进行确定。
通过本实施例提供的技术方案,实现了精准的对追踪位置误差进行确定的技术效果。
根据本发明的另一方面,本发明提供与上述实施例相对应的一种测试追踪位置误差的系统,所述系统包括:
第一选取模块:用于在VR显示场景中选取第一中心点;
第一获取模块:用于根据第一中心点获取第一图像;
第二选取模块:用于以所述第一中心点为基点,将图像获取设备转动预设角度后,在所述VR显示场景中选取第二中心点;
第二获取模块:用于根据所述第二中心点获取第二图像;
确定模块:用于根据所述第一图像和所述第二图像确定所述追踪位置误差。
进一步地,所述第一获取模块具体用于:
获取所述第一中心点的坐标(H/2,W/2),其中,H为高度像素,W为宽度像素;
将第一黑块和第一白块的宽度像素均设置为第一宽度像素,所述第一黑块和所述第一白块为图像的测试标尺的基本单元;
根据所述第一中心点的坐标以及,多组所述第一黑块和多组所述第一白块组合的第一总宽度像素获取所述第一图像。
进一步地,所述第二获取模块具体用于:
获取所述第二中心点的坐标(H/2+α*H/360,W/2),其中,α为旋转角度;
将第二黑块和第二白块的宽度像素均设置为第二宽度像素,所述第二黑块和所述第二白块为图像的测试标尺的基本单元;
根据所述第二中心点的坐标以及,多组所述第二黑块和多组所述第二白块组合的第二总宽度像素获取所述第二图像;
其中,所述第一宽度像素大于所述第二宽度像素。
进一步地,所述确定模块具体用于:
获取所述第一图像的第一水平中心线;
根据所述第一水平中心线截取所述第一图像,选取所述第一图像的上半部分;
获取所述第二图像的第二水平中心线;
根据所述第二水平中心线截取所述第二图像,选取所述第二图像的下半部分;
将所述第一图像的上半部分中的第一中心点与所述第二图像的下半部分中的第二中心点重合,得到拼凑图像;
根据所述拼凑图像确定所述追踪位置误差。
进一步地,当根据多个第一图像和多个第二图像,得到多个拼凑图像时,所述确定模块还具体用于:
根据式1确定所述追踪位置误差,式1:
Figure BDA0001414993000000051
其中,X为所述追踪位置误差,Zi为根据第i个第一图像和第二图像确定的误差。
附图说明
图1为本发明实施例提供的一种测试追踪位置误差的方法的流程示意图;
图2为本发明另一实施例提供的一种测试追踪位置误差的方法的流程示意图;
图3为本发明另一实施例提供的一种测试追踪位置误差的方法的流程示意图;
图4为本发明另一实施例提供的一种测试追踪位置误差的方法的流程示意图;
图5为本发明实施例提供的一种测试追踪位置误差的系统的结构示意图。
图6为本发明实施例提供的确定追踪位置误差的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透切理解本发明。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
本发明提供了一种测试追踪位置误差的方法和系统。
根据本发明的一个方面,本发明实施例提供了一种测试追踪位置误差的方法。
请参阅图1,图1为本发明实施例提供的一种测试追踪位置误差的方法的流程示意图。
如图1所示,该方法包括:
步骤S100:在VR显示场景中选取第一中心点;
步骤S200:根据第一中心点获取第一图像;
步骤S300:以第一中心点为基点,将图像获取设备转动预设角度后,在VR显示场景中选取第二中心点;
步骤S400:根据第二中心点获取第二图像;
步骤S500:根据第一图像和第二图像确定追踪位置误差。
本发明的技术方案应用于VR显示场景中,用于待测虚拟现实系统的头戴设备显示器追踪位置误差的信号。在本实施例中,根据在VR显示场景中选取第一中心点获取第一图像。再以第一中心点为基点,将图像获取设备转动预设角度,可以理解的是,第一中心点在转动后已经不再是中心点,可能是整个场景中的某个点。根据第二中心点获取第二图像。根据得到的第一图像和第二图像对追踪位置误差进行确定。
根据本实施例提供的技术方案,一方面,避免了现有技术中,通过额外的测量工具获取追踪误差时,增加了成本;另一方面,由于在外接工具测量时,需要人工进行调节,所以,增加了测量结果的偏差,影响了测量结果的准确性;再一方面,在人工进行调节时,无疑增加了资源的耗费,浪费了人力和物力。所以,通过本实施例提供的技术方案,在降低成本,节约资源的同时,提高了测量的效率,且提高了测量结果的精确性。
请参阅图2,图2为本发明另一实施例提供的一种测试追踪位置误差的方法的流程示意图。
如图2所示,步骤S200具体包括:
步骤S210:获取第一中心点的坐标(H/2,W/2),其中,H为高度像素,W为宽度像素;
步骤S220:将第一黑块和第一白块的宽度像素均设置为第一宽度像素,第一黑块和第一白块为图像的测试标尺的基本单元;
步骤S230:根据第一中心点的坐标以及,多组第一黑块和多组第一白块组合的第一总宽度像素获取第一图像。
在本实施例中,对根据第一中心获取第一图像的技术方案进行了详细的阐述。获取第一中心点的坐标,根据第一中心点的坐标和第一总宽度像素对第一图像进行获取。
例如:在4096×2048或其他分辨率的2:1幅型比(指电视画面宽度和高度的比值)VR显示场景中,第一中心点A的坐标为(H/2,W/2),其中,H为高度像素,W为宽度像素。此时,H=2W,即第一中心点A的坐标还可表示为:(H/2,H/4)。可以理解的是,第一黑块和第一白块为图像的测试标尺的基本单元,此时,灰阶可设为128或其他与0(黑色)和256(白色)有明显区别的数值,优选地,第一宽度像素为10。
一个第一白块和一个第一黑块为一个第一单元组,A点两侧分别列有12个第一单元组,当然,可以根据测试需要增加更多的第一单元组,此处的12个第一单元组只是为了举例说明,且,此时,12个第一单元组组合为第一总宽度像素。此时,获取到的第一图像详见图6中的6-1。
通过本实施例提供的技术方案,实现了快速且精准的获取第一图像的技术效果,进而实现了快速且精准的得到追踪位置误差的技术效果。
请参阅图3,图3为本发明另一实施例提供的一种测试追踪位置误差的方法的流程示意图。
如图3所示,步骤S400具体包括:
步骤S410:获取第二中心点的坐标(H/2+α*H/360,W/2),其中,H为高度像素,W为宽度像素,α为旋转角度;
步骤S420:将第二黑块和第二白块的宽度像素均设置为第二宽度像素,第二黑块和第二白块为图像的测试标尺的基本单元;
步骤S430:根据第二中心点的坐标和第二宽度像素获取第二图像;
其中,第一宽度像素大于第二宽度像素。
在本实施例中,一个第二白块和一个第二黑块为一个第二单元组,第二中心点B的坐标为(H/2+α*H/360,W/2)。此时,H=2W,即第二中心点B的坐标还可表示为:(H/2,H/4)。B点两侧分别列有5个第二单元组,当然,可以根据测试需要增加更多的第二单元组,此处的5个第二单元组只是为了举例说明,且,此时,5个第二单元组组合为第二总宽度像素。其中,第二宽度像素为9。当第一宽度像素为10,第二宽度像素为9时,第一宽度像素比第二宽度像素大1个像素。此时,获取到的第二图像详见图6中的6-2。
通过本实施例提供的技术方案,实现了快速且精准的获取第二图像的技术效果,进而实现了快速且精准的得到追踪位置误差的技术效果。
请参阅图4,图4为本发明另一实施例提供的一种测试追踪位置误差的方法的流程示意图。
如图4所示,步骤S500具体包括:
步骤S510:获取第一图像的第一水平中心线;
步骤S520:根据第一水平中心线截取第一图像,选取第一图像的上半部分;
步骤S530:获取第二图像的第二水平中心线;
步骤S540:根据第二水平中心线截取第二图像,选取第二图像的下半部分;
步骤S550:将第一图像的上半部分中的第一中心点与第二图像的下半部分中的第二中心点重合,得到拼凑图像;
步骤S560:根据拼凑图像确定追踪位置误差。
在本实施例中,第一图像中有第一水平中心线和第一竖直中心线,选取第一水平中心线。第一水平中心线将第一图像分为上半部分和下半部分。根据第一水平中心线截取第一图像的上半部分。
同理,第二图像中有第二水平中心线和第二竖直中心线,选取第二水平中心线。第二水平中心线将第二图像分为上半部分和下半部分。根据第二水平中心线截取第二图像的下半部分。
将第一图像的上半部分图像中的A点与第二图像的下半部分图像中的B点重合,重合后得到第一图像和第二图像的拼凑图像,详见图6中的6-3。
如图6中的6-3所示,其中,第一图像的上半部分图像类似于游标卡尺的主标尺,第二图像的下半部分图像类似于游标卡尺的副标尺,根据拼凑图像确定追踪位置误差,即为根据游标卡尺的主标尺和副标尺进行读数。如图6中的6-3所示,将第一中心点A和第二中心点B进行重合后,刚好构成一把完成的游标卡尺,此时读数为0,即追踪位置误差为0。
可以理解是,根据游标卡尺读数方法,从主标尺上读出主读数,从副标尺与主标尺刻度重合点读出子读数,二者之和即为最终读数。此时追踪位置误差的单位为像素。进一步地,若第二中心点B在第一中心点A的右侧,则追踪位置误差为正;若第二中心点B在第一中心点A的左侧,则追踪位置误差为负。
更具体地,当根据多个第一图像和多个第二图像,得到多个拼凑图像时,根据拼凑图像确定追踪位置误差具体包括:
根据式1确定追踪位置误差,式1:
Figure BDA0001414993000000091
其中,X为追踪位置误差,Zi为根据第i个第一图像和第二图像确定的误差。
为使追踪位置误差更精准,提出了本实施例的技术方案。
在本实施例中,多次获取第一图像和第二图像,例如:
获取第一图像和第二图像的次数为十次。可以理解的是,在十次获取第一图像和第二图像的过程中,每次获取第一图像的第一中心点可能相同,也可能不相同。同理,每次获取第二图像的第二中心点可能相同,也可能不相同。且,每一次获取到第一图像和第二图像后,就根据第一图像和第二图像确定当次的误差,总有十次获取第一图像和第二图像,则共得到十个误差。求该十个误差的平均值,则该平均值即为追踪位置误差。
通过本实施例提供的技术方案,进一步实现了追踪位置误差的精确和精准的技术效果。
进一步地,根据式2得到以度为单位的追踪位置误差,式2:
X(度)=X/(H/360)
根据本实施例提供的技术方案,实现了快速高效的获取以度为单元的追踪位置误差的技术效果。
根据本发明的另一方面,本发明实施例提供与上述方法相对应的一种测试追踪位置误差的系统。
请参阅图5,图5为本发明实施例提供的一种测试追踪位置误差的系统的结构示意图。
如图5所示,该系统包括:
第一选取模块:用于在VR显示场景中选取第一中心点;
第一获取模块:用于根据第一中心点获取第一图像;
第二选取模块:用于以第一中心点为基点,将图像获取设备转动预设角度后,在VR显示场景中选取第二中心点;
第二获取模块:用于根据第二中心点获取第二图像;
确定模块:用于根据第一图像和第二图像确定追踪位置误差。
更具体地,第一获取模块具体用于:
获取第一中心点的坐标(H/2,W/2),其中,H为高度像素,W为宽度像素;
将第一黑块和第一白块的宽度像素均设置为第一宽度像素,第一黑块和第一白块为图像的测试标尺的基本单元;
根据第一中心点的坐标和第一宽度像素获取第一图像。
更具体地,第二获取模块具体用于:
获取第二中心点的坐标(H/2+α*H/360,W/2),其中,H为高度像素,W为宽度像素,α为旋转角度;
将第二黑块和第二白块的宽度像素均设置为第二宽度像素,第二黑块和第二白块为图像的测试标尺的基本单元;
根据第二中心点的坐标和第二宽度像素获取第二图像;
其中,第一宽度像素大于第二宽度像素。
更具体地,确定模块具体用于:
获取第一图像的第一水平中心线;
根据第一水平中心线截取第一图像,选取第一图像的上半部分;
获取第二图像的第二水平中心线;
根据第二水平中心线截取第二图像,选取第二图像的下半部分;
将第一图像的上半部分中的第一中心点与第二图像的下半部分中的第二中心点重合,得到拼凑图像;
根据拼凑图像确定追踪位置误差。
更具体地,当根据多个第一图像和多个第二图像,得到多个拼凑图像时,确定模块还具体用于:
根据式1确定追踪位置误差,式1:
Figure BDA0001414993000000101
其中,X为追踪位置误差,Zi为根据第i个第一图像和第二图像确定的误差。
读者应理解,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (6)

1.一种测试追踪位置误差的方法,其特征在于,所述方法包括:
在VR显示场景中选取第一中心点;
根据所述第一中心点获取第一图像;
以所述第一中心点为基点,将图像获取设备转动预设角度后,在所述VR显示场景中选取第二中心点;
根据所述第二中心点获取第二图像;
根据所述第一图像和所述第二图像确定所述追踪位置误差;
所述根据所述第一图像和所述第二图像确定所述追踪位置误差,具体包括:
获取所述第一图像的第一水平中心线;
根据所述第一水平中心线截取所述第一图像,选取所述第一图像的上半部分;
获取所述第二图像的第二水平中心线;
根据所述第二水平中心线截取所述第二图像,选取所述第二图像的下半部分;
将所述第一图像的上半部分中的第一中心点与所述第二图像的下半部分中的第二中心点重合,得到拼凑图像;
根据所述拼凑图像确定所述追踪位置误差;
当根据多个第一图像和多个第二图像,得到多个拼凑图像时,所述根据所述拼凑图像确定所述追踪位置误差具体包括:
根据式1确定所述追踪位置误差,式1:
Figure FDA0002152352130000011
其中,X为所述追踪位置误差,Zi为根据第i个第一图像和第二图像确定的误差。
2.根据权利要求1所述的一种测试追踪位置误差的方法,其特征在于,所述根据第一中心点获取第一图像,具体包括:
获取所述第一中心点的坐标(H/2,W/2),其中,H为高度像素,W为宽度像素;
将第一黑块和第一白块的宽度像素均设置为第一宽度像素,所述第一黑块和所述第一白块为图像的测试标尺的基本单元;
根据所述第一中心点的坐标以及,多组所述第一黑块和多组所述第一白块组合的第一总宽度像素,获取所述第一图像。
3.根据权利要求2所述的一种测试追踪位置误差的方法,其特征在于,所述根据所述第二中心点获取第二图像,具体包括:
获取所述第二中心点的坐标(H/2+α*H/360,W/2),其中,α为旋转角度;
将第二黑块和第二白块的宽度像素均设置为第二宽度像素,所述第二黑块和所述第二白块为图像的测试标尺的基本单元;
根据所述第二中心点的坐标以及,多组所述第二黑块和多组所述第二白块组合的第二总宽度像素,获取所述第二图像;
其中,所述第一宽度像素大于所述第二宽度像素。
4.一种测试追踪位置误差的系统,其特征在于,所述系统包括:
第一选取模块:用于在VR显示场景中选取第一中心点;
第一获取模块:用于根据第一中心点获取第一图像;
第二选取模块:用于以所述第一中心点为基点,将图像获取设备转动预设角度后,在所述VR显示场景中选取第二中心点;
第二获取模块:用于根据所述第二中心点获取第二图像;
确定模块:用于根据所述第一图像和所述第二图像确定所述追踪位置误差;
所述确定模块具体用于:
获取所述第一图像的第一水平中心线;
根据所述第一水平中心线截取所述第一图像,选取所述第一图像的上半部分;
获取所述第二图像的第二水平中心线;
根据所述第二水平中心线截取所述第二图像,选取所述第二图像的下半部分;
将所述第一图像的上半部分中的第一中心点与所述第二图像的下半部分中的第二中心点重合,得到拼凑图像;
根据所述拼凑图像确定所述追踪位置误差;
当根据多个第一图像和多个第二图像,得到多个拼凑图像时,所述确定模块还具体用于:
根据式1确定所述追踪位置误差,式1:
其中,X为所述追踪位置误差,Zi为根据第i个第一图像和第二图像确定的误差。
5.根据权利要求4所述的一种测试追踪位置误差的系统,其特征在于,所述第一获取模块具体用于:
获取所述第一中心点的坐标(H/2,W/2),其中,H为高度像素,W为宽度像素;
将第一黑块和第一白块的宽度像素均设置为第一宽度像素,所述第一黑块和所述第一白块为图像的测试标尺的基本单元;
根据所述第一中心点的坐标以及,多组所述第一黑块和多组所述第一白块组合的第一总宽度像素获取所述第一图像。
6.根据权利要求5所述的一种测试追踪位置误差的系统,其特征在于,所述第二获取模块具体用于:
获取所述第二中心点的坐标(H/2+α*H/360,W/2),其中,α为旋转角度;
将第二黑块和第二白块的宽度像素均设置为第二宽度像素,所述第二黑块和所述第二白块为图像的测试标尺的基本单元;
根据所述第二中心点的坐标以及,多组所述第二黑块和多组所述第二白块组合的第二总宽度像素获取所述第二图像;
其中,所述第一宽度像素大于所述第二宽度像素。
CN201710860649.4A 2017-09-21 2017-09-21 一种测试追踪位置误差的方法和系统 Active CN107657607B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710860649.4A CN107657607B (zh) 2017-09-21 2017-09-21 一种测试追踪位置误差的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710860649.4A CN107657607B (zh) 2017-09-21 2017-09-21 一种测试追踪位置误差的方法和系统

Publications (2)

Publication Number Publication Date
CN107657607A CN107657607A (zh) 2018-02-02
CN107657607B true CN107657607B (zh) 2020-01-03

Family

ID=61130611

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710860649.4A Active CN107657607B (zh) 2017-09-21 2017-09-21 一种测试追踪位置误差的方法和系统

Country Status (1)

Country Link
CN (1) CN107657607B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114646457B (zh) * 2022-05-20 2022-08-12 南昌虚拟现实研究院股份有限公司 眼动追踪精准度测试方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012131947A1 (ja) * 2011-03-30 2012-10-04 パイオニア株式会社 画像処理装置、及び画像表示装置
CN103618894A (zh) * 2013-12-05 2014-03-05 北京牡丹视源电子有限责任公司 一种立体电视系统左右眼中心误差测试方法及系统
CN105427282A (zh) * 2015-11-05 2016-03-23 浙江宇视科技有限公司 一种3d定位精度的测试方法和装置
CN106250863A (zh) * 2016-08-09 2016-12-21 北京旷视科技有限公司 对象追踪方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012131947A1 (ja) * 2011-03-30 2012-10-04 パイオニア株式会社 画像処理装置、及び画像表示装置
CN103618894A (zh) * 2013-12-05 2014-03-05 北京牡丹视源电子有限责任公司 一种立体电视系统左右眼中心误差测试方法及系统
CN105427282A (zh) * 2015-11-05 2016-03-23 浙江宇视科技有限公司 一种3d定位精度的测试方法和装置
CN106250863A (zh) * 2016-08-09 2016-12-21 北京旷视科技有限公司 对象追踪方法和装置

Also Published As

Publication number Publication date
CN107657607A (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
US8031210B2 (en) Method and apparatus for creating a composite image
US20190096092A1 (en) Method and device for calibration
CN110047107B (zh) 相机标定方法及图像配准方法、基因测序仪及系统
WO2014090090A1 (zh) 角度测量方法和装置
CN111127559A (zh) 光学动捕系统中标定杆检测方法、装置、设备和存储介质
CN108108293B (zh) 一种测试拖尾时间的方法和系统
CN110120087B (zh) 三维虚拟沙盘的标签标注方法、装置及终端设备
CN106954054A (zh) 一种图像矫正方法、装置及投影仪
CN116051551A (zh) 基于图像处理的显示屏缺陷检测方法及相关装置
CN107657607B (zh) 一种测试追踪位置误差的方法和系统
JP6729585B2 (ja) 情報処理装置および方法、並びにプログラム
CN105427282A (zh) 一种3d定位精度的测试方法和装置
CN115546016B (zh) Pcb的2d和3d图像的采集和处理方法及相关装置
CN108564571B (zh) 图像区域选取方法及终端设备
CN104318236B (zh) 一种获取图像局部特征的方法及系统
CN108416759A (zh) 显示故障的检测方法、装置及设备、可读介质
CN105486227A (zh) 数字仪表字体大小测试方法及装置
CN105427315A (zh) 数字仪表图像位置测试方法及装置
CN115546417A (zh) 三维重建方法、系统、电子设备及计算机可读存储介质
CN115588196A (zh) 基于机器视觉的指针型仪表读数方法和装置
CN108303640B (zh) 一种线路检测的方法和装置
CN112729160B (zh) 基于远心成像的投影标定方法、装置、系统及存储介质
CN111982468B (zh) 一种视场角的测量方法、设备、系统及计算机存储介质
CN113766312A (zh) 设备间的响应延迟计算方法、装置、设备及存储介质
US10229522B2 (en) Fixed size scope overlay for digital images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant