KR20240020051A - A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera - Google Patents

A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera Download PDF

Info

Publication number
KR20240020051A
KR20240020051A KR1020220098030A KR20220098030A KR20240020051A KR 20240020051 A KR20240020051 A KR 20240020051A KR 1020220098030 A KR1020220098030 A KR 1020220098030A KR 20220098030 A KR20220098030 A KR 20220098030A KR 20240020051 A KR20240020051 A KR 20240020051A
Authority
KR
South Korea
Prior art keywords
image
measurement device
virtual image
pattern
measuring
Prior art date
Application number
KR1020220098030A
Other languages
Korean (ko)
Inventor
정영주
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020220098030A priority Critical patent/KR20240020051A/en
Priority to PCT/KR2023/003612 priority patent/WO2024029680A1/en
Publication of KR20240020051A publication Critical patent/KR20240020051A/en

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

실시예들에 따른 광학 특성 측정 방법은 다시점 영상을 생성하는 단계, 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함함; 다시점 영상을 위한 버츄얼 이미지의 위치를 표시하는 단계; 버츄얼 이미지의 위치의 뎁스를 계산하는 단계; 버츄얼 이미지의 뎁스를 추정하는 단계; 위치의 뎁스 및 버츄얼 이미지의 뎁스를 매칭하는 단계; 및 매칭된 뎁스에 기초하여, 다시점 영상의 오차를 캘리브레이션하는 단계; 를 포함할 수 있다. 또한, 광학 특성 측정 방법은 다시점 영상을 생성하는 단계, 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함함; 다시점 영상을 위한 버츄얼 이미지의 위치들을 표시하는 단계; 버츄얼 이미지의 위치들의 뎁스를 추정하는 단계; 뎁스에 기초하여, 위치들을 그룹핑하는 단계; 그룹핑된 위치들에서 일부 위치를 선택하는 단계; 및 선택된 일부 위치 및 뎁스에 기반하여 보정된 가상 오브젝트를 투사하는 단계; 를 포함할 수 있다.A method of measuring optical properties according to embodiments includes generating a multi-viewpoint image, the multi-viewpoint image including a left image, a center image, and a right image; Displaying the position of a virtual image for a multi-view image; calculating the depth of the position of the virtual image; estimating the depth of the virtual image; Matching the depth of the location and the depth of the virtual image; and calibrating the error of the multi-view image based on the matched depth; may include. In addition, the method of measuring optical properties includes generating a multi-view image, the multi-view image including a left image, a center image, and a right image; Displaying positions of virtual images for multi-view images; estimating the depth of locations in the virtual image; Grouping locations based on depth; selecting some locations from the grouped locations; and projecting the corrected virtual object based on some selected positions and depths. may include.

Description

자동차 내부 카메라를 이용한 HUD 캘리브레이션 방법 및 장치{A METHOD OF CALIBRATING A HEAD UP DISPLAY USING AN IN-CAR CAMERA AND AN APPARATUS OF CALIBRATING A HEAD UP DISPLAY USING AN IN-CAR CAMERA}HUD calibration method and device using a car interior camera {A METHOD OF CALIBRATING A HEAD UP DISPLAY USING AN IN-CAR CAMERA AND AN APPARATUS OF CALIBRATING A HEAD UP DISPLAY USING AN IN-CAR CAMERA}

본 발명은 자동차 내부 카메라를 이용한 HUD 캘리브레이션 방법 및 장치에 관한 것으로, 보다 상세하게는 증강현실 기기에 의해 생성되는 3차원 가상이미지의 광학적 특성을 측정하기 위한 방법 및 장치에 관한 것이다.The present invention relates to a HUD calibration method and device using an automobile interior camera, and more specifically, to a method and device for measuring optical characteristics of a three-dimensional virtual image generated by an augmented reality device.

증강현실(augmented reality, AR)은 가상현실(AR)의 한 분야로 실제 환경에 가상의 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법으로, 디지털 미디어에서 빈번하게 사용된다.Augmented reality (AR) is a field of virtual reality (AR) and is a computer graphics technique that synthesizes virtual objects or information in the real environment to make them look like objects that exist in the original environment. It is frequently used in digital media. It is used.

증강현실은 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(mixed reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국을 중심으로 연구 및 개발이 진행되고 있다.Augmented reality is also called mixed reality (MR) because it combines the real world with a virtual world with additional information in real time and displays it as a single image. Research and development has been underway in the United States since the late 1990s on a hybrid VR system that fuses real and virtual environments.

예컨대, 증강현실은 원격의료진단, 방송, 건축설계, 제조공정관리 등에 활용될 수 있다. 또한, 최근 스마트폰이 널리 보급되면서 본격적인 상업화 단계에 들어섰으며, 게임 및 모바일 솔루션 업계 및 교육 분야 등에서도 다양한 제품을 개발하고 있다.For example, augmented reality can be used in remote medical diagnosis, broadcasting, architectural design, and manufacturing process management. In addition, with the recent widespread adoption of smartphones, it has entered a full-fledged commercialization phase, and various products are being developed in the game and mobile solution industries as well as in the education field.

한편, 증강현실을 실외에서 실현하는 것이 웨어러블 컴퓨터(wearable computer)일 수 있다. 특히, 머리에 쓰는 형태의 디스플레이 장치(head mounted display, HMD)는 사용자가 보는 실제 환경에 컴퓨터 그래픽 및 문자 등을 겹쳐 실시간으로 보여줌으로써 증강현실을 가능하게 한다. 또한, 헤드업 디스플레이(head up display, HUD)는 차량의 윈드실드 외부에 차량의 운행에 필요한 각종 정보를 보여줌으로써 증강현실을 가능하게 한다.Meanwhile, a wearable computer may be used to realize augmented reality outdoors. In particular, a head mounted display (HMD) enables augmented reality by displaying computer graphics and text in real time over the actual environment seen by the user. Additionally, a head up display (HUD) enables augmented reality by displaying various information necessary for vehicle operation on the outside of the vehicle's windshield.

예컨대, 헤드업 디스플레이는 차량의 내부에서 윈드실드의 외부로 출력된 광원을 차량의 윈드실드 외부에 위치한 가상의 평면 상에 나타냄으로써, 운전자가 운전 중에 시선을 이동시키지 않고서도 그 가상의 평면에서 차량의 운행에 필요한 정보를 얻을 수 있도록 하여 증강현실을 구현할 수 있다. For example, a head-up display displays the light source output from the inside of the vehicle to the outside of the windshield on a virtual plane located outside the windshield of the vehicle, so that the driver can view the vehicle in that virtual plane without moving his or her eyes while driving. Augmented reality can be implemented by providing information necessary for operation.

이때, HMD 및 HUD 등과 같은 개별 증강현실 기기의 광학적 특성에 따라서 해당 증강현실 기기에 의해 형성되는 가상의 평면의 위치를 비롯한 기하학적 특성들이 결정될 수 있다.At this time, geometric characteristics, including the position of the virtual plane formed by the augmented reality device, can be determined according to the optical characteristics of individual augmented reality devices such as HMD and HUD.

따라서, 증강현실 기기의 출력에 대하여 광학적 특성을 측정할 수 있는 방법 및 장치에 관한 필요성이 대두되고 있다.Accordingly, there is an emerging need for methods and devices that can measure optical characteristics of the output of augmented reality devices.

관련 선행기술로는 한국공개특허 제10-2017-0114375호(발명의 명칭: 가상현실 컨텐츠 표시 방법 및 장치, 공개일자: 2017년 10월 16일)가 있다.Related prior art includes Korean Patent Publication No. 10-2017-0114375 (Title of the invention: Method and device for displaying virtual reality content, Publication date: October 16, 2017).

본 발명은 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 측정하는 방법 및 장치를 제공하고자 한다.The present invention seeks to provide a method and device for measuring optical characteristics of a virtual image generated by an augmented reality device.

또한, 본 발명은 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 이용하여, 증강현실 기기의 사용자를 기준으로 가상이미지까지의 거리(virtual image distance), 가상이미지의 룩다운/업 각도(look down/up angle), 수평/수직 화각(horizontal/vertical field of view), 정적 왜곡(static distortion), 고스팅 레벨(ghosting level) 등을 산출하는 방법 및 장치를 제공하고자 한다.In addition, the present invention uses the optical characteristics of the virtual image generated by the augmented reality device to determine the distance to the virtual image and the lookdown/up angle of the virtual image based on the user of the augmented reality device. It is intended to provide a method and device for calculating down/up angle, horizontal/vertical field of view, static distortion, ghosting level, etc.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and other problem(s) not mentioned will be clearly understood by those skilled in the art from the description below.

상기 목적을 달성하기 위해, 본 발명에서 제공하는 증강현실 기기의 광학 특성 측정 방법은 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영하는 단계; 상기 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 상기 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득하는 단계; 및 상기 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 측정기준위치를 기준으로 하는 상기 복수의 패턴의 좌표를 산출하는 단계를 포함한다.In order to achieve the above object, the method for measuring the optical properties of an augmented reality device provided by the present invention uses a plurality of cameras arranged around a predetermined measurement reference position, and multiple cameras are output on a virtual plane by the augmented reality device. Taking a test image including a pattern; Obtaining angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras; and calculating coordinates of the plurality of patterns based on the measurement reference position based on the plurality of captured images captured by the plurality of cameras, the angle of view information, and the arrangement information.

바람직하게는, 상기 복수의 카메라가 상기 측정기준위치에 위치한 중앙카메라, 상기 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 상기 테스트이미지에 상기 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 상기 복수의 패턴의 좌표를 산출하는 단계는 상기 복수의 촬영이미지의 가로 픽셀수, 상기 복수의 촬영이미지에서의 상기 복수의 패턴의 좌표, 상기 화각정보에 포함된 상기 복수의 카메라의 화각 및 상기 배치정보에 포함된 상기 좌측카메라와 상기 우측카메라 간의 거리를 이용하여, 상기 복수의 패턴의 좌표를 산출할 수 있다.Preferably, the plurality of cameras are a central camera located at the measurement reference position, a left camera and a right camera located symmetrically around the measurement reference position, and the plurality of patterns are aligned horizontally and vertically in the test image. When arranged, the step of calculating the coordinates of the plurality of patterns includes the number of horizontal pixels of the plurality of captured images, the coordinates of the plurality of patterns in the plurality of captured images, and the plurality of cameras included in the angle of view information. The coordinates of the plurality of patterns can be calculated using the angle of view and the distance between the left camera and the right camera included in the arrangement information.

바람직하게는, 상기 복수의 패턴의 좌표를 산출하는 단계는 수학식 1을 이용하여 상기 복수의 패턴의 좌표를 산출할 수 있다.Preferably, in calculating the coordinates of the plurality of patterns, the coordinates of the plurality of patterns may be calculated using Equation 1.

[수학식 1][Equation 1]

여기서, xij, yij, zij는 상기 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 상기 좌측카메라와 상기 우측카메라 간의 거리이고, M는 상기 복수의 촬영이미지의 가로 픽셀수이고, θ는 상기 복수의 카메라의 화각이고, mL ij는 상기 좌측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 상기 우측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 상기 중심카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.Here, x ij , y ij , and z ij are the x, y, and z-axis coordinates of the horizontal i-th and vertical j-th patterns based on the measurement reference position, and α is the distance between the left camera and the right camera, M is the number of horizontal pixels of the plurality of captured images, θ is the angle of view of the plurality of cameras, m L ij is the horizontal coordinate of the i-th horizontal and j-th pattern in the captured images of the left camera, m R ij is the horizontal coordinate of the i-th horizontal and j-th pattern vertically in the captured image of the right camera, and m C ij is the horizontal coordinate of the i-th horizontal and j-th vertical pattern in the captured image of the center camera. It is a direction coordinate.

바람직하게는, 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치와 상기 가상평면 간의 가상이미지거리(virtual image distance)를 산출하는 단계를 더 포함할 수 있다.Preferably, calculating a virtual image distance between the measurement reference position and the virtual plane using the coordinates of the measurement reference position and the coordinates of at least one of the plurality of patterns on the virtual plane. More may be included.

바람직하게는, 상기 가상이미지거리를 산출하는 단계는 수학식 2를 이용하여 상기 가상이미지거리를 산출할 수 있다.Preferably, in calculating the virtual image distance, the virtual image distance may be calculated using Equation 2.

[수학식 2][Equation 2]

여기서, DVI는 상기 가상이미지거리이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.Here, D VI is the virtual image distance, and x 22 , y 22 , and z 22 are the coordinates of one of the plurality of patterns.

바람직하게는, 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치로부터 상기 가상평면에 대한 룩다운/업각도(look down/up angle)를 산출하는 단계를 더 포함할 수 있다.Preferably, a look down/up angle from the measurement reference position to the virtual plane is determined by using the coordinates of the measurement reference position and the coordinates of at least one of the plurality of patterns on the virtual plane. It may further include a step of calculating .

바람직하게는, 상기 룩다운/업각도를 산출하는 단계는 수학식 3을 이용하여 상기 룩다운/업각도를 산출할 수 있다.Preferably, in calculating the lookdown/up angle, the lookdown/up angle may be calculated using Equation 3.

[수학식 3][Equation 3]

여기서, θdown/up은 상기 룩다운/업각도이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.Here, θ down/up is the lookdown/up angle, and x 22 , y 22 , and z 22 are the coordinates of one of the plurality of patterns.

바람직하게는, 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수평시야각(horizontal field of view)을 산출하는 단계를 더 포함할 수 있다.Preferably, the horizontal field of view of the measurement reference position is calculated using the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the horizontal direction among the plurality of patterns on the virtual plane. Additional steps may be included.

바람직하게는, 상기 수평시야각을 산출하는 단계는 수학식 4를 이용하여 상기 수평시야각을 산출할 수 있다.Preferably, in calculating the horizontal viewing angle, the horizontal viewing angle may be calculated using Equation 4.

[수학식 4][Equation 4]

여기서, θH FOV는 상기 수평시야각이고, O는 상기 측정기준위치의 좌표이고, P21 및 P23은 상기 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ H FOV is the horizontal viewing angle, O is the coordinate of the measurement reference position, and P 21 and P 23 are the coordinates of the two patterns located at both ends in the horizontal direction.

바람직하게는, 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수직시야각(vertical field of view)을 산출하는 단계를 더 포함할 수 있다.Preferably, the vertical field of view of the measurement reference position is calculated using the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the vertical direction among the plurality of patterns on the virtual plane. Additional steps may be included.

바람직하게는, 상기 수직시야각을 산출하는 단계는 수학식 5를 이용하여 상기 수직시야각을 산출할 수 있다.Preferably, in calculating the vertical viewing angle, the vertical viewing angle may be calculated using Equation 5.

[수학식 5][Equation 5]

여기서, θV FOV는 상기 수직시야각이고, O는 상기 측정기준위치의 좌표이고, P12 및 P32은 상기 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ V FOV is the vertical viewing angle, O is the coordinate of the measurement reference position, and P 12 and P 32 are the coordinates of the two patterns located at both ends in the vertical direction.

바람직하게는, 상기 가상평면 상의 상기 복수의 패턴의 좌표에 기초하여, 상기 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡(static distortion)을 산출하는 단계를 더 포함할 수 있다.Preferably, the step of calculating static distortion for each of the three axes based on the measurement reference position may be further included, based on the coordinates of the plurality of patterns on the virtual plane.

바람직하게는, 상기 복수의 패턴의 좌표를 산출하는 단계는 상기 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고, 상기 복수의 패턴의 좌표 및 상기 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨(ghosting level)을 산출하는 단계를 더 포함할 수 있다.Preferably, the step of calculating the coordinates of the plurality of patterns further calculates the coordinates of a plurality of ghost patterns corresponding to each of the plurality of patterns, based on the coordinates of the plurality of patterns and the coordinates of the plurality of ghost patterns. Therefore, a step of calculating a ghosting level may be further included.

또한, 상기 목적을 달성하기 위해, 본 발명에서 제공하는 증강현실 기기의 광학 특성 측정 장치는 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영하는 촬영부; 상기 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 상기 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득하는 획득부; 및 상기 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 측정기준위치를 기준으로 하는 상기 복수의 패턴의 좌표를 산출하는 산출부를 포함한다.In addition, in order to achieve the above object, the optical characteristic measuring device of the augmented reality device provided by the present invention uses a plurality of cameras arranged around a predetermined measurement reference position, and outputs the output on a virtual plane by the augmented reality device. a photographing unit that photographs a test image including a plurality of patterns; an acquisition unit that acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras; and a calculation unit that calculates coordinates of the plurality of patterns based on the measurement reference position, based on the plurality of captured images captured by the plurality of cameras, the angle of view information, and the arrangement information.

바람직하게는, 상기 복수의 카메라가 상기 측정기준위치에 위치한 중앙카메라, 상기 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 상기 테스트이미지에 상기 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 상기 산출부는 상기 복수의 촬영이미지의 가로 픽셀수, 상기 복수의 촬영이미지에서의 상기 복수의 패턴의 좌표, 상기 화각정보에 포함된 상기 복수의 카메라의 화각 및 상기 배치정보에 포함된 상기 좌측카메라와 상기 우측카메라 간의 거리를 이용하여, 상기 복수의 패턴의 좌표를 산출할 수 있다.Preferably, the plurality of cameras are a central camera located at the measurement reference position, a left camera and a right camera located symmetrically around the measurement reference position, and the plurality of patterns are aligned horizontally and vertically in the test image. When arranged, the calculation unit determines the number of horizontal pixels of the plurality of captured images, the coordinates of the plurality of patterns in the plurality of captured images, the angle of view of the plurality of cameras included in the angle of view information, and the arrangement information. Using the distance between the left camera and the right camera, the coordinates of the plurality of patterns can be calculated.

바람직하게는, 상기 산출부는 수학식 6을 이용하여 상기 복수의 패턴의 좌표를 산출할 수 있다.Preferably, the calculation unit may calculate the coordinates of the plurality of patterns using Equation 6.

[수학식 6][Equation 6]

여기서, xij, yij, zij는 상기 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 상기 좌측카메라와 상기 우측카메라 간의 거리이고, M는 상기 복수의 촬영이미지의 가로 픽셀수이고, θ는 상기 복수의 카메라의 화각이고, mL ij는 상기 좌측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 상기 우측카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 상기 중심카메라의 상기 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.Here, x ij , y ij , and z ij are the x, y, and z-axis coordinates of the horizontal i-th and vertical j-th patterns based on the measurement reference position, and α is the distance between the left camera and the right camera, M is the number of horizontal pixels of the plurality of captured images, θ is the angle of view of the plurality of cameras, m L ij is the horizontal coordinate of the i-th horizontal and j-th pattern in the captured images of the left camera, m R ij is the horizontal coordinate of the i-th horizontal and j-th pattern vertically in the captured image of the right camera, and m C ij is the horizontal coordinate of the i-th horizontal and j-th vertical pattern in the captured image of the center camera. It is a direction coordinate.

바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치와 상기 가상평면 간의 가상이미지거리를 더 산출할 수 있다.Preferably, the calculation unit may further calculate a virtual image distance between the measurement reference position and the virtual plane using the coordinates of the measurement reference position and the coordinates of at least one of the plurality of patterns on the virtual plane.

바람직하게는, 상기 산출부는 수학식 7을 이용하여 상기 가상이미지거리를 산출할 수 있다.Preferably, the calculation unit may calculate the virtual image distance using Equation 7.

[수학식 7][Equation 7]

여기서, DVI는 상기 가상이미지거리이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다. Here, D VI is the virtual image distance, and x 22 , y 22 , and z 22 are the coordinates of one of the plurality of patterns.

바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표 및 상기 가상평면 상의 상기 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 상기 측정기준위치로부터 상기 가상평면에 대한 룩다운/업각도를 더 산출할 수 있다.Preferably, the calculation unit further calculates the lookdown/up angle with respect to the virtual plane from the measurement reference position using the coordinates of the measurement reference position and the coordinates of at least one of the plurality of patterns on the virtual plane. You can.

바람직하게는, 상기 산출부는 수학식 8을 이용하여 상기 룩다운/업각도를 산출할 수 있다.Preferably, the calculation unit may calculate the lookdown/up angle using Equation 8.

[수학식 8][Equation 8]

여기서, θdown/up은 상기 룩다운/업각도이고, x22, y22, z22는 상기 복수의 패턴 중 하나의 패턴의 좌표이다.Here, θ down/up is the lookdown/up angle, and x 22 , y 22 , and z 22 are the coordinates of one of the plurality of patterns.

바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수평시야각을 더 산출할 수 있다.Preferably, the calculation unit may further calculate the horizontal viewing angle of the measurement reference position using the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the horizontal direction among the plurality of patterns on the virtual plane. there is.

바람직하게는, 상기 산출부는 수학식 9를 이용하여 상기 수평시야각을 산출할 수 있다.Preferably, the calculation unit may calculate the horizontal viewing angle using Equation 9.

[수학식 9][Equation 9]

여기서, θH FOV는 상기 수평시야각이고, O는 상기 측정기준위치의 좌표이고, P21 및 P23은 상기 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ H FOV is the horizontal viewing angle, O is the coordinate of the measurement reference position, and P 21 and P 23 are the coordinates of the two patterns located at both ends in the horizontal direction.

바람직하게는, 상기 산출부는 상기 측정기준위치의 좌표, 상기 가상평면 상의 상기 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 상기 측정기준위치의 수직시야각을 더 산출할 수 있다.Preferably, the calculation unit may further calculate the vertical viewing angle of the measurement reference position using the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the vertical direction among the plurality of patterns on the virtual plane. there is.

바람직하게는, 상기 산출부는 수학식 10을 이용하여 상기 수직시야각을 산출할 수 있다.Preferably, the calculation unit may calculate the vertical viewing angle using Equation 10.

[수학식 10][Equation 10]

여기서, θV FOV는 상기 수직시야각이고, O는 상기 측정기준위치의 좌표이고, P12 및 P32은 상기 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ V FOV is the vertical viewing angle, O is the coordinate of the measurement reference position, and P 12 and P 32 are the coordinates of the two patterns located at both ends in the vertical direction.

바람직하게는, 상기 산출부는 상기 가상평면 상의 상기 복수의 패턴의 좌표에 기초하여, 상기 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡을 더 산출할 수 있다.Preferably, the calculation unit may further calculate static distortion for each of the three axes based on the measurement reference position, based on the coordinates of the plurality of patterns on the virtual plane.

바람직하게는, 상기 산출부가 상기 복수의 촬영이미지, 상기 화각정보 및 상기 배치정보에 기초하여, 상기 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고, 상기 복수의 패턴의 좌표 및 상기 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨을 더 산출할 수 있다.Preferably, the calculation unit further calculates coordinates of a plurality of ghost patterns corresponding to each of the plurality of patterns based on the plurality of captured images, the angle of view information, and the arrangement information, and calculates the coordinates of the plurality of patterns and Based on the coordinates of the plurality of ghost patterns, the ghosting level can be further calculated.

본 발명은 복수의 카메라를 이용함으로써, 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 용이하게 측정할 수 있는 효과가 있다.The present invention has the effect of easily measuring the optical characteristics of a virtual image generated by an augmented reality device by using a plurality of cameras.

또한, 본 발명은 증강현실 기기에 의해 생성되는 가상이미지의 광학적 특성을 이용하여, 증강현실 기기의 사용자를 기준으로 가상이미지까지의 거리(virtual image distance), 가상이미지의 룩다운/업 각도(look down/up angle), 수평/수직 화각(horizontal/vertical field of view), 정적 왜곡(static distortion), 고스팅 레벨(ghosting level) 등을 산출할 수 있는 효과가 있다.In addition, the present invention uses the optical characteristics of the virtual image generated by the augmented reality device to determine the distance to the virtual image and the lookdown/up angle of the virtual image based on the user of the augmented reality device. It has the effect of calculating down/up angle, horizontal/vertical field of view, static distortion, ghosting level, etc.

도 1은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 방법을 나타내는 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 가상이미지거리 산출 방법을 나타내는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 룩다운/업각도 산출 방법을 나타내는 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 수평시야각 산출 방법을 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 수직시야각 산출 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 정적 왜곡 산출 방법을 나타내는 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 고스팅 레벨 산출 방법을 나타내는 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 장치를 나타내는 블록도이다.
도 9a 및 9b는 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정을 위한 환경을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 복수의 카메라를 이용하여 가상평면 상의 테스트이미지를 촬영한 결과를 설명하기 위한 도면이다.
도 11a 및 11b는 본 발명의 일 실시예에 따른 복수의 카메라를 이용하여 촬영한 촬영이미지에 포함된 복수의 패턴의 좌표를 설명하기 위한 도면이다.
도 12a 및 12b는 본 발명의 일 실시예에 따른 복수의 패턴의 좌표를 산출하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따른 가상이미지거리를 산출하는 방법을 설명하기 위한 도면이다.
도 14a 및 14b는 본 발명의 일 실시예에 따른 룩다운/업각도를 산출하는 방법을 설명하기 위한 도면이다.
도 15a 및 15b는 본 발명의 일 실시예에 따른 수평시야각 및 수직시야각을 산출하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 정적 왜곡을 산출하는 방법을 설명하기 위한 도면이다.
도 17은 본 발명의 일 실시예에 따른 고스팅 레벨을 산출하는 방법을 설명하기 위한 도면이다.
도18은 실시예들에 따른 광학 특성 측정 방법을 나타낸다.
도19는 실시예들에 따른 다시점 영상의 예시를 나타낸다.
도20은 버츄얼 이미지의 위치를 표시하는 방법을 나타낸다.
도21은 실시예들에 따른 포인트 및 뎁스를 생성하는 과정을 나타낸다.
도22는 실시예들에 따른 동일 뎁스 그룹핑을 나타낸다.
도23은 실시예들에 따른 HUD 가상 오브젝트 투사를 나타낸다.
도24는 실시예들에 따른 광학 특정 장치를 나타낸다.
1 is a flowchart showing a method of measuring optical characteristics of an augmented reality device according to an embodiment of the present invention.
Figure 2 is a flowchart showing a method for calculating a virtual image distance according to an embodiment of the present invention.
Figure 3 is a flowchart showing a lookdown/up angle calculation method according to an embodiment of the present invention.
Figure 4 is a flowchart showing a method for calculating a horizontal viewing angle according to an embodiment of the present invention.
Figure 5 is a flowchart showing a method for calculating a vertical viewing angle according to an embodiment of the present invention.
Figure 6 is a flowchart showing a method for calculating static distortion according to an embodiment of the present invention.
Figure 7 is a flowchart showing a method for calculating a ghosting level according to an embodiment of the present invention.
Figure 8 is a block diagram showing an apparatus for measuring optical characteristics of an augmented reality device according to an embodiment of the present invention.
9A and 9B are diagrams for explaining an environment for measuring optical characteristics of an augmented reality device according to an embodiment of the present invention.
Figure 10 is a diagram for explaining the results of shooting a test image on a virtual plane using a plurality of cameras according to an embodiment of the present invention.
11A and 11B are diagrams for explaining the coordinates of a plurality of patterns included in a captured image using a plurality of cameras according to an embodiment of the present invention.
Figures 12a and 12b are diagrams for explaining a method of calculating coordinates of a plurality of patterns according to an embodiment of the present invention.
Figure 13 is a diagram for explaining a method of calculating a virtual image distance according to an embodiment of the present invention.
Figures 14a and 14b are diagrams for explaining a method of calculating lookdown/up angles according to an embodiment of the present invention.
15A and 15B are diagrams for explaining a method of calculating the horizontal viewing angle and vertical viewing angle according to an embodiment of the present invention.
Figure 16 is a diagram for explaining a method of calculating static distortion according to an embodiment of the present invention.
Figure 17 is a diagram for explaining a method of calculating a ghosting level according to an embodiment of the present invention.
Figure 18 shows a method of measuring optical properties according to embodiments.
Figure 19 shows an example of a multi-viewpoint image according to embodiments.
Figure 20 shows a method for displaying the location of a virtual image.
Figure 21 shows a process for generating points and depth according to embodiments.
Figure 22 shows equal depth grouping according to embodiments.
Figure 23 shows HUD virtual object projection according to embodiments.
Figure 24 shows an optical specific device according to embodiments.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention. While describing each drawing, similar reference numerals are used for similar components.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings.

본 발명은 가상현실 기기의 광학적 특성을 측정하는 방법 및 장치에 관한 것으로, 다음과 같은 환경에서 그 측정이 수행될 수 있다. 예컨대, 도 9a를 참조하면, 사용자의 눈이 아이박스(eye box)에 위치하고, 가상현실 기기의 출력에 의한 가상평면이 투명 또는 반투명의 스크린(예, 차량의 윈드실드) 외부에 형성될 수 있다. 이때, 사용자는 눈만을 움직여서 가상평면의 전체를 볼 수 있다. 또한, 도 9b를 참조하면, 아이박스에는 측정기준위치를 중심으로 복수의 카메라가 배치될 수 있다. 보다 구체적으로, 측정기준위치에 camC가 배치되고, 그 양 옆으로 대칭되는 위치에 camL 및 camR이 배치될 수 있다. 한편, 테스트이미지에는 복수의 패턴이 가로 및 세로로 정렬(예, 3x3)되어 위치할 수 있다. The present invention relates to a method and device for measuring the optical characteristics of a virtual reality device, and the measurement can be performed in the following environment. For example, referring to FIG. 9A, the user's eyes are located in the eye box, and a virtual plane generated by the output of the virtual reality device may be formed outside a transparent or translucent screen (e.g., a vehicle's windshield). . At this time, the user can see the entire virtual plane by moving only his eyes. Additionally, referring to FIG. 9B, a plurality of cameras may be arranged in the eye box centered on the measurement reference position. More specifically, cam C may be placed at the measurement reference position, and cam L and cam R may be placed at positions symmetrical to both sides. Meanwhile, a plurality of patterns may be arranged horizontally and vertically (e.g., 3x3) in the test image.

그러나, 본 발명은 이와 같은 환경에서만 실시되는 것으로 한정되지 않으며, 상이한 여러 환경에서 실시될 수 있음은 물론이다. 예컨대, 아이박스의 위치 및 크기, 카메라의 개수 및 배치, 테스트이미지에 포함된 패턴의 개수 및 배치 등이 측정 환경에 따라 달라질 수 있다.However, the present invention is not limited to being practiced only in such environments, and of course can be practiced in many different environments. For example, the location and size of the eye box, the number and arrangement of cameras, the number and arrangement of patterns included in the test image, etc. may vary depending on the measurement environment.

도 1은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 방법을 나타내는 흐름도이다.1 is a flowchart showing a method of measuring optical characteristics of an augmented reality device according to an embodiment of the present invention.

단계 S110에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.In step S110, the optical properties measurement device uses a plurality of cameras arranged around a predetermined measurement reference position to capture a test image including a plurality of patterns output on a virtual plane by the augmented reality device.

예컨대, 도 9b를 참조하면, 아이박스의 중심에 위치한 측정기준위치에 한대의 카메라가 배치되고, 그 양 옆으로 동일한 높이에 나머지 카메라가 정면을 향해 대칭되어 배치될 수 있다.For example, referring to FIG. 9B, one camera may be placed at the measurement reference position located in the center of the eye box, and the remaining cameras may be placed symmetrically toward the front at the same height on both sides of the camera.

이때, 광학 특성 측정 장치는 복수의 카메라와 무선 또는 유선을 통해 연결되어, 가상평면 상의 테스트이미지를 촬영하도록 하는 명령을 전송할 수 있다.At this time, the optical characteristic measurement device can be connected to a plurality of cameras wirelessly or wired and transmit a command to photograph a test image on a virtual plane.

단계 S120에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.In step S120, the optical characteristic measuring device acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

예컨대, 광학 특성 측정 장치는 사용자로부터 카메라의 화각에 대한 정보 및 카메라의 배치에 관한 정보를 입력받아, 화각정보 및 배치정보를 획득할 수 있다. 바람직하게는, 카메라의 화각에 관한 정보는 수평 화각이고, 카메라의 배치에 관한 정보는 측정기준위치의 양 옆에 대칭되어 배치된 카메라 간의 이격 거리일 수 있다.For example, the optical characteristic measuring device may receive information about the angle of view of the camera and information about the arrangement of the camera from the user, and obtain angle of view information and arrangement information. Preferably, the information regarding the camera's angle of view may be a horizontal angle of view, and the information regarding the arrangement of the camera may be the separation distance between cameras symmetrically arranged on both sides of the measurement reference position.

마지막으로 단계 S130에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.Finally, in step S130, the optical characteristic measurement device calculates the coordinates of a plurality of patterns based on the measurement reference position based on the plurality of captured images, view angle information, and arrangement information captured by the plurality of cameras.

이때, 광학 특성 측정 장치는 복수의 촬영이미지의 크기에 관한 정보, 복수의 촬영이미지에 포함된 복수의 패턴의 이미지 내에서의 좌표에 관한 정보, 복수의 카메라의 화각에 관한 정보, 복수의 카메라의 배치에 관한 정보를 이용하여, 측정기준위치를 원점(0, 0, 0)으로 하는 가상평면 상의 복수의 패턴의 3차원 좌표를 산출할 수 있다.At this time, the optical characteristic measuring device includes information about the size of the plurality of captured images, information about the coordinates within the image of the plurality of patterns included in the plurality of captured images, information about the angle of view of the plurality of cameras, and information about the angle of view of the plurality of cameras. Using information about the arrangement, the three-dimensional coordinates of a plurality of patterns on a virtual plane with the measurement reference position as the origin (0, 0, 0) can be calculated.

한편, 복수의 패턴의 좌표를 산출하는 자세한 방법에 대하여는 아래의 실시예에서 구체적으로 후술한다.Meanwhile, a detailed method of calculating the coordinates of a plurality of patterns will be described in detail later in the examples below.

다른 실시예에서는, 광학 특성 측정 장치가 그 복수의 카메라가 측정기준위치에 위치한 중앙카메라, 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 테스트이미지에 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 복수의 촬영이미지의 가로 픽셀수, 복수의 촬영이미지에서의 복수의 패턴의 좌표, 화각정보에 포함된 그 복수의 카메라의 화각 및 배치정보에 포함된 좌측카메라와 우측카메라 간의 거리를 이용하여, 복수의 패턴의 좌표를 산출할 수 있다.In another embodiment, the optical property measurement device includes a central camera located at the measurement reference position, a left camera and a right camera located symmetrically around the measurement reference position, and a plurality of patterns are displayed horizontally and vertically in the test image. When aligned and arranged, the number of horizontal pixels in the plurality of captured images, the coordinates of the plurality of patterns in the plurality of captured images, the angle of view of the plurality of cameras included in the angle of view information, and the left camera and right camera included in the arrangement information. The coordinates of a plurality of patterns can be calculated using the distance between them.

예컨대, 도 9b를 참조하면, 복수의 카메라가 측정기준위치에 위치한 중앙카메라(camC)와 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라(camL) 및 우측카메라(camR)일 수 있다. 또한, 테스트이미지에 9개의 패턴이 가로 및 세로로 정렬되어 배치될 수 있다.For example, referring to FIG. 9B, the plurality of cameras may be a central camera (cam C ) located at the measurement reference position, and a left camera (cam L ) and a right camera (cam R ) located symmetrically around the measurement reference position. Additionally, nine patterns can be arranged horizontally and vertically in the test image.

이때, 광학 특성 측정 장치는 복수의 촬영이미지의 가로 픽셀수, 복수의 촬영이미지에서의 복수의 패턴의 좌표, 화각정보에 포함된 그 복수의 카메라의 화각 및 배치정보에 포함된 좌측카메라와 우측카메라 간의 거리를 이용하여, 측정기준위치를 원점(0, 0, 0)으로 하는 가상평면 상의 9개 패턴의 3차원 좌표를 각각 산출할 수 있다.At this time, the optical characteristic measurement device includes the number of horizontal pixels of the plurality of captured images, the coordinates of the plurality of patterns in the plurality of captured images, the angle of view of the plurality of cameras included in the angle of view information, and the left and right cameras included in the arrangement information. Using the distance between them, the three-dimensional coordinates of each of the nine patterns on a virtual plane with the measurement reference position as the origin (0, 0, 0) can be calculated.

또 다른 실시예에서는, 광학 특성 측정 장치가 수학식 1을 이용하여 복수의 패턴의 좌표를 산출할 수 있다.In another embodiment, an optical property measuring device may calculate the coordinates of a plurality of patterns using Equation 1.

[수학식 1][Equation 1]

여기서, xij, yij, zij는 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 좌측카메라와 우측카메라 간의 거리이고, M는 복수의 촬영이미지의 가로 픽셀수이고, θ는 복수의 카메라의 화각이고, mL ij는 좌측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 우측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 중심카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.Here, x ij , y ij , and z ij are the x, y, and z-axis coordinates of the horizontal i-th and vertical j-th patterns based on the measurement reference position, α is the distance between the left and right cameras, and M is a plurality of is the number of horizontal pixels of the captured image, θ is the angle of view of multiple cameras, m L ij is the horizontal coordinate of the i-th horizontal and j-th pattern in the captured image of the left camera, and m R ij is the horizontal coordinate of the j-th pattern in the captured image of the left camera. These are the horizontal coordinates of the horizontal i-th and vertical j-th patterns in the captured image, and m C ij are the horizontal coordinates of the horizontal i-th and vertical j-th patterns in the captured image of the central camera.

이때, 도 10을 참조하면, 아이박스의 중심인 측정기준위치에 중앙카메라(camC)가 배치되고, 좌측카메라(camL) 및 우측카메라(camR)가 α의 거리를 두고 이격되어 배치될 수 있다. 그리고, 광학 특성 측정 장치가 정면을 향하도록 배치된 중앙카메라(camC), 좌측카메라(camL) 및 우측카메라(camR)를 이용하여, 가상평면 상의 테스트이미지를 촬영할 수 있다. 그 결과, 좌측카메라(camL)를 이용하여 촬영한 촬영이미지(captured image by camL)는 테스트이미지가 우측으로 치우치고, 중앙카메라(camC)를 이용하여 촬영한 촬영이미지(captured image by camC)는 테스트이미지가 치우치지 않고, 우측카메라(camR)를 이용하여 촬영한 촬영이미지(captured image by camR)는 테스트이미지가 좌측으로 치우칠 수 있다.At this time, referring to Figure 10, the central camera (cam C ) is placed at the measurement reference position, which is the center of the eye box, and the left camera (cam L ) and right camera (cam R ) are placed spaced apart at a distance of α. You can. In addition, the optical characteristic measurement device can shoot a test image on the virtual plane using the central camera (cam C ), left camera (cam L ), and right camera (cam R ) arranged to face the front. As a result, the test image captured using the left camera (cam L ) (captured image by cam L ) is biased to the right, and the test image captured using the central camera (cam C ) (captured image by cam C ) is biased to the right. ), the test image is not biased, and the test image captured using the right camera (cam R ) (captured image by cam R ) may be biased to the left.

한편, 도 11a를 참조하면, 가상평면 상에 나타나는 9개의 패턴의 3차원 좌표는 Pij = (xij, yij, zij)로 나타낼 수 있으며, i는 패턴의 가로인덱스(i=1,2,3), j는 패턴의 세로인덱스(j=1,2,3)일 수 있다. 즉, Pij는 가로 i번째, 세로 j번째 패턴의 중심부의 3차원 좌표일 수 있다.Meanwhile, referring to Figure 11a, the three-dimensional coordinates of nine patterns appearing on the virtual plane can be expressed as P ij = (x ij , y ij , z ij ), where i is the horizontal index of the pattern (i = 1, 2,3), j may be the vertical index of the pattern (j=1,2,3). In other words, P ij may be the three-dimensional coordinate of the center of the horizontal i-th and vertical j-th pattern.

또한, 도 11b를 참조하면, 촬영이미지에 나타나는 9개의 패턴의 픽셀 좌표는 PL ij, PC ij, PR ij로 나타낼 수 있고, 각각 좌측카메라(camL), 중앙카메라(camC), 우측카메라(camR)의 촬영이미지에 나타나는 패턴의 좌표를 의미할 수 있다. 이때, PL ij = (mL ij, nL ij), PC ij = (mC ij, nC ij), PR ij = (mR ij, nR ij)일 수 있다. 이때, PL ij, PC ij, PR ij는 가로 i번째, 세로 j번째 패턴의 중심부의 픽셀 좌표일 수 있다.Additionally, referring to FIG. 11b, the pixel coordinates of the nine patterns appearing in the captured image can be expressed as P L ij , P C ij , and P R ij , respectively, for the left camera (cam L ), central camera (cam C ), and It may refer to the coordinates of the pattern that appears in the image captured by the right camera (cam R ). At this time, P L ij = (m L ij , n L ij ), P C ij = (m C ij , n C ij ), P R ij = (m R ij , n R ij ). At this time, P L ij , P C ij , and P R ij may be the pixel coordinates of the center of the i-th horizontal and j-th pattern.

한편, 도 12a를 참조하면, 아래의 수학식 2와 같은 비례 관계가 성립함을 알 수 있다.Meanwhile, referring to FIG. 12a, it can be seen that the proportional relationship shown in Equation 2 below is established.

[수학식 2][Equation 2]

여기서, z는 측정기준위치로부터 가상평면까지의 z축으로의 거리이고, θ는 카메라의 화각이고, α는 좌측카메라와 우측카메라 간의 거리이고, mL ij는 좌측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 우측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, M은 촬영이미지의 가로 픽셀수이다.Here, z is the distance along the z-axis from the measurement reference position to the virtual plane, θ is the camera's angle of view, α is the distance between the left and right cameras, and m L ij is the horizontal i in the captured image of the left camera. are the horizontal coordinates of the th and vertical j-th patterns, m R ij are the horizontal coordinates of the i-th horizontal and j-th vertical patterns in the image captured by the right camera, and M is the number of horizontal pixels in the captured image.

이때, 수학식 2를 변형하면 수학식 1을 얻을 수 있음은 자명하다.At this time, it is obvious that equation 1 can be obtained by modifying equation 2.

예컨대, 도 12b를 참조하면, 광학 특성 측정 장치가 동일한 패턴(i=1, j=1)에 관하여 중앙카메라(camC), 좌측카메라(camL) 및 우측카메라(camR)를 이용하여 촬영한 결과를 이용하여, 수학식 1을 통해 x11, y11, z11을 산출할 수 있다.For example, referring to Figure 12b, the optical characteristic measurement device takes pictures of the same pattern (i=1, j=1) using the central camera (cam C ), left camera (cam L ), and right camera (cam R ). Using one result, x 11 , y 11 , and z 11 can be calculated through Equation 1.

도 2는 본 발명의 일 실시예에 따른 가상이미지거리 산출 방법을 나타내는 흐름도이다.Figure 2 is a flowchart showing a method for calculating a virtual image distance according to an embodiment of the present invention.

*112단계 S210에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.*112 In step S210, the optical properties measurement device uses a plurality of cameras arranged around a predetermined measurement reference position to capture a test image containing a plurality of patterns output on a virtual plane by the augmented reality device. .

단계 S220에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.In step S220, the optical characteristic measuring device acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

단계 S230에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.In step S230, the optical characteristic measurement device calculates the coordinates of a plurality of patterns based on the measurement reference position based on the plurality of captured images captured by the plurality of cameras, the angle of view information, and the arrangement information.

마지막으로 단계 S240에서는, 광학 특성 측정 장치가 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치와 가상평면 간의 가상이미지거리(virtual image distance)를 산출한다.Finally, in step S240, the optical property measurement device calculates a virtual image distance between the measurement reference position and the virtual plane using the coordinates of the measurement reference position and the coordinates of at least one of a plurality of patterns on the virtual plane. .

예컨대, 도 13을 참조하면, 광학 특성 측정 장치는 측정기준위치인 (0, 0, 0)을 기준으로 P22의 좌표(x22, y22, z22)까지의 거리를 산출하여 가상이미지거리를 산출할 수 있다.For example, referring to Figure 13, the optical properties measurement device calculates the distance to the coordinates (x 22 , y 22 , z 22 ) of P 22 based on the measurement reference position (0, 0, 0) to obtain a virtual image distance. can be calculated.

다른 실시예에서는, 광학 특성 측정 장치가 수학식 3을 이용하여 가상이미지거리를 산출할 수 있다.In another embodiment, the optical characteristic measurement device may calculate the virtual image distance using Equation 3.

[수학식 3][Equation 3]

여기서, DVI는 가상이미지거리이고, x22, y22, z22는 i=2, j=2인 패턴의 3차원 좌표이다.Here, D VI is the virtual image distance, and x 22 , y 22 , and z 22 are the three-dimensional coordinates of the pattern with i=2 and j=2.

도 3은 본 발명의 일 실시예에 따른 룩다운/업각도 산출 방법을 나타내는 흐름도이다.Figure 3 is a flowchart showing a lookdown/up angle calculation method according to an embodiment of the present invention.

단계 S310에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.In step S310, the optical properties measurement device uses a plurality of cameras arranged around a predetermined measurement reference position to capture a test image including a plurality of patterns output on a virtual plane by the augmented reality device.

단계 S320에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.In step S320, the optical characteristic measuring device acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

단계 S330에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.In step S330, the optical characteristic measurement device calculates the coordinates of a plurality of patterns based on the measurement reference position based on the plurality of captured images, view angle information, and arrangement information captured by the plurality of cameras.

마지막으로 단계 S340에서는, 광학 특성 측정 장치가 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치로부터 가상평면에 대한 룩다운/업각도(look down/up angle)를 산출한다.Finally, in step S340, the optical property measurement device determines a look down/up angle from the measurement reference position to the virtual plane using the coordinates of the measurement reference position and at least one coordinate of a plurality of patterns on the virtual plane. angle) is calculated.

이때, 룩다운/업각도는 아이박스와 가상평면의 높이의 차이를 나타내는 각도로서, 사용자가 가상평면을 올려보는지 또는 내려보는지를 나타낸다.At this time, the lookdown/up angle is an angle representing the difference between the height of the eyebox and the virtual plane, and indicates whether the user is looking up or down at the virtual plane.

예컨대, 사용자의 눈이 위치하는 측정기준위치인 (0, 0, 0)을 기준으로 P22의 좌표(x22, y22, z22)를 산출하였을 때, y22 < 0이면 도 14a와 같이 내려보는 룩다운(look down)의 상황이 되고, y22 > 0이면 도 14b와 같이 올려보는 룩업(look up)의 상황이 될 수 있다.For example, when the coordinates (x 22 , y 22 , z 22 ) of P 22 are calculated based on (0, 0, 0), which is the measurement reference position where the user's eyes are located, if y 22 < 0, as shown in Figure 14a It can be a look down situation, and if y 22 > 0, it can be a look up situation as shown in FIG. 14b.

다른 실시예에서는, 광학 특성 측정 장치가 수학식 4를 이용하여 룩다운/업각도를 산출할 수 있다.In another embodiment, the optical property measurement device may calculate the lookdown/up angle using Equation 4.

[수학식 4][Equation 4]

여기서, θdown/up은 룩다운/업각도이고, x22, y22, z22는 i=2, j=2인 패턴의 3차원 좌표이다.Here, θ down/up is the lookdown/up angle, and x 22 , y 22 , and z 22 are the three-dimensional coordinates of the pattern with i=2 and j=2.

도 4는 본 발명의 일 실시예에 따른 수평시야각 산출 방법을 나타내는 흐름도이다.Figure 4 is a flowchart showing a method for calculating a horizontal viewing angle according to an embodiment of the present invention.

단계 S410에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.In step S410, the optical properties measurement device uses a plurality of cameras arranged around a predetermined measurement reference position to capture a test image including a plurality of patterns output on a virtual plane by the augmented reality device.

단계 S420에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.In step S420, the optical characteristic measuring device acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

단계 S430에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.In step S430, the optical characteristic measurement device calculates the coordinates of a plurality of patterns based on the measurement reference position based on the plurality of captured images captured by the plurality of cameras, view angle information, and arrangement information.

마지막으로 단계 S440에서는, 광학 특성 측정 장치가 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수평시야각(horizontal field of view)을 산출한다.Finally, in step S440, the optical properties measurement device uses the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the horizontal direction among a plurality of patterns on the virtual plane to determine the horizontal field of view of the measurement reference position. ) is calculated.

예컨대, 도 15a를 참조하면, 광학 특성 측정 장치는 측정기준위치의 3차원 좌표 O = (0, 0, 0), 가상평면 상의 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴인 P21 = (x21, y21, z21) 및 P23 = (x23, y23, z23)의 3차원 좌표를 이용하여, 각도 ∠P21OP23를 수평시야각으로 산출할 수 있다.For example, referring to Figure 15a, the optical properties measurement device has three-dimensional coordinates O = (0, 0, 0) of the measurement reference position, and P 21 = two patterns located at both ends in the horizontal direction among a plurality of patterns on the virtual plane. Using the three-dimensional coordinates of (x 21 , y 21 , z 21 ) and P 23 = (x 23 , y 23 , z 23 ), the angle ∠P 21 OP 23 can be calculated as the horizontal viewing angle.

다른 실시예에서는, 광학 특성 측정 장치가 수학식 5를 이용하여 수평시야각을 산출할 수 있다.In another embodiment, the optical characteristic measuring device may calculate the horizontal viewing angle using Equation 5.

[수학식 5][Equation 5]

여기서, θH FOV는 수평시야각이고, O는 측정기준위치의 좌표이고, P21 및 P23은 복수의 패턴 중에서 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ H FOV is the horizontal viewing angle, O is the coordinate of the measurement reference position, and P 21 and P 23 are the coordinates of the two patterns located at both ends in the horizontal direction among the plurality of patterns.

도 5는 본 발명의 일 실시예에 따른 수직시야각 산출 방법을 나타내는 흐름도이다.Figure 5 is a flowchart showing a method for calculating a vertical viewing angle according to an embodiment of the present invention.

단계 S510에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.In step S510, the optical properties measurement device uses a plurality of cameras arranged around a predetermined measurement reference position to capture a test image including a plurality of patterns output on a virtual plane by the augmented reality device.

단계 S520에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.In step S520, the optical characteristic measuring device acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

단계 S530에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.In step S530, the optical characteristic measurement device calculates the coordinates of a plurality of patterns based on the measurement reference position based on the plurality of captured images captured by the plurality of cameras, the angle of view information, and the arrangement information.

마지막으로 단계 S540에서는, 광학 특성 측정 장치가 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수직시야각(vertical field of view)을 산출한다.Finally, in step S540, the optical property measurement device uses the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the vertical direction among a plurality of patterns on the virtual plane to determine the vertical field of view of the measurement reference position. ) is calculated.

예컨대, 도 15b를 참조하면, 광학 특성 측정 장치는 측정기준위치의 3차원 좌표 O = (0, 0, 0), 가상평면 상의 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴인 P12 = (x12, y12, z12) 및 P32 = (x32, y32, z32)의 3차원 좌표를 이용하여, 각도 ∠P12OP32를 수직시야각으로 산출할 수 있다.For example, referring to FIG. 15b, the optical properties measurement device has three-dimensional coordinates O = (0, 0, 0) of the measurement reference position, and P 12 = two patterns located at both ends in the vertical direction among a plurality of patterns on the virtual plane. Using the three-dimensional coordinates of (x 12 , y 12 , z 12 ) and P 32 = (x 32 , y 32 , z 32 ), the angle ∠P 12 OP 32 can be calculated as the vertical viewing angle.

다른 실시예에서는, 광학 특성 측정 장치가 수학식 6을 이용하여 수직시야각을 산출할 수 있다.In another embodiment, the optical property measurement device may calculate the vertical viewing angle using Equation 6.

[수학식 6][Equation 6]

여기서, θV FOV는 수직시야각이고, O는 측정기준위치의 좌표이고, P12 및 P32은 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ V FOV is the vertical viewing angle, O is the coordinate of the measurement reference position, and P 12 and P 32 are the coordinates of the two patterns located at both ends in the vertical direction.

도 6은 본 발명의 일 실시예에 따른 정적 왜곡 산출 방법을 나타내는 흐름도이다.Figure 6 is a flowchart showing a method for calculating static distortion according to an embodiment of the present invention.

단계 S610에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.In step S610, the optical properties measurement device uses a plurality of cameras arranged around a predetermined measurement reference position to capture a test image including a plurality of patterns output on a virtual plane by the augmented reality device.

단계 S620에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.In step S620, the optical characteristic measuring device acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

단계 S630에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.In step S630, the optical characteristic measurement device calculates the coordinates of a plurality of patterns based on the measurement reference position based on the plurality of captured images captured by the plurality of cameras, the angle of view information, and the arrangement information.

마지막으로 단계 S640에서는, 광학 특성 측정 장치는 가상평면 상의 복수의 패턴의 좌표에 기초하여, 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡(static distortion)을 산출한다.Finally, in step S640, the optical properties measurement device calculates static distortion for each of the three axes based on the measurement reference position, based on the coordinates of a plurality of patterns on the virtual plane.

이때, 정적 왜곡은 가상현실 기기의 프로젝션에 의해 유발되는 것으로서, 도 16을 참조하면, 3개의 축(x, y, z) 각각에 대응되는 선형을 기준으로 하는 복수의 패턴의 3차원 좌표의 편차 정도(deviation degree)를 나타낸다. At this time, static distortion is caused by the projection of the virtual reality device. Referring to FIG. 16, the deviation of the three-dimensional coordinates of a plurality of patterns based on the line corresponding to each of the three axes (x, y, z) Indicates deviation degree.

한편, 광학 특성 측정 장치는 수학식 7을 이용하여 3개 축 각각에 대한 정적 왜곡을 산출할 수 있다.Meanwhile, the optical properties measurement device can calculate the static distortion for each of the three axes using Equation 7.

[수학식 7][Equation 7]

여기서, DTx Linearity, DTy Linearity, DTz Linearity는 각각 x, y, z축을 기준으로 하는 한 선형 왜곡값이고, xab, yab, zab는 가로 a(a=1,2,3)번째, 세로 b(b=1,2,3)번째 패턴의 x, y, z좌표이다. Here , DT _ _ _ _ _ _ These are the x, y, and z coordinates of the vertical b (b=1,2,3)th pattern.

도 7은 본 발명의 일 실시예에 따른 고스팅 레벨 산출 방법을 나타내는 흐름도이다.Figure 7 is a flowchart showing a method for calculating a ghosting level according to an embodiment of the present invention.

단계 S710에서는, 광학 특성 측정 장치가 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.In step S710, the optical property measurement device uses a plurality of cameras arranged around a predetermined measurement reference position to capture a test image including a plurality of patterns output on a virtual plane by the augmented reality device.

단계 S720에서는, 광학 특성 측정 장치가 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.In step S720, the optical characteristic measuring device acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

단계 S730에서는, 광학 특성 측정 장치가 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표 및 복수의 고스트 패턴의 좌표를 산출한다.In step S730, the optical characteristic measurement device determines the coordinates of a plurality of patterns and the coordinates of a plurality of ghost patterns based on the measurement reference position based on the plurality of captured images, view angle information, and arrangement information captured by the plurality of cameras. Calculate .

예컨대, 고스트 패턴은 입력되는 빛의 절반은 투과시키고, 나머지 절반은 반사시키는 차량의 윈드실드에서 나타날 수 있다. 보다 구체적으로, 도 17을 참조하면, 윈드실드의 2개의 물리적 레이어가 고스트 현상을 일으켜, 사용자에게 가상평면 상의 패턴과 그 패턴에 대응되는 고스트 패턴이 이중 이미지(double images)로 겹쳐져 보이거나, 흐리게(blurred)보일 수 있다.For example, a ghost pattern may appear on a vehicle's windshield, which transmits half of the incoming light and reflects the other half. More specifically, referring to FIG. 17, the two physical layers of the windshield cause a ghost phenomenon, so that the pattern on the virtual plane and the ghost pattern corresponding to the pattern appear to the user as double images overlapping or blurred. It can be seen (blurred).

이때, 광학 특성 측정 장치는 복수의 패턴의 좌표를 산출하는 방법과 동일한 방법으로, 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 산출할 수 있다.At this time, the optical characteristic measuring device may calculate the coordinates of a plurality of ghost patterns corresponding to each of the plurality of patterns using the same method as the method of calculating the coordinates of the plurality of patterns.

마지막으로 단계 S740에서는, 광학 특성 측정 장치가 복수의 패턴의 좌표 및 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨(ghosting level)을 산출할 수 있다.Finally, in step S740, the optical characteristic measuring device may calculate a ghosting level based on the coordinates of a plurality of patterns and the coordinates of a plurality of ghost patterns.

이때, 광학 특성 측정 장치는 원래의 패턴과 대응되는 고스트 패턴과의 차이(gap)으로부터 고스팅 레벨을 산출할 수 있다.At this time, the optical characteristic measuring device can calculate the ghosting level from the gap between the original pattern and the corresponding ghost pattern.

보다 구체적으로, 광학 특성 측정 장치는 수학식 8을 이용하여 고스팅 레벨을 산출할 수 있다.More specifically, the optical property measurement device can calculate the ghosting level using Equation 8.

[수학식 8][Equation 8]

여기서, Ghost는 고스팅 레벨이고, xij, yij, zij는 가로 i(i=1,2,3)번째, 세로 j(j=1,2,3)번째 패턴의 x, y, z좌표이고, xGij, yGij, zGij는 가로 i번째, 세로 j번째 고스트 패턴의 x, y, z좌표이다.Here, Ghost is the ghosting level, and x ij , y ij , and z ij are the x, y, z of the horizontal i (i=1,2,3)th and vertical j(j=1,2,3)th patterns. These are the coordinates, and x Gij , y Gij , and z Gij are the x, y, z coordinates of the ith horizontal and jth ghost pattern vertically.

도 8은 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 장치를 나타내는 블록도이다.Figure 8 is a block diagram showing an apparatus for measuring optical characteristics of an augmented reality device according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 증강현실 기기의 광학 특성 측정 장치(800)는 촬영부(810), 획득부(820) 및 산출부(830)를 포함한다.Referring to FIG. 8, an apparatus 800 for measuring optical characteristics of an augmented reality device according to an embodiment of the present invention includes a photographing unit 810, an acquisition unit 820, and a calculation unit 830.

촬영부(810)는 소정의 측정기준위치를 중심으로 배치된 복수의 카메라를 이용하여, 증강현실 기기에 의해 가상평면 상에 출력되는 복수의 패턴을 포함하는 테스트이미지를 촬영한다.The photographing unit 810 uses a plurality of cameras arranged around a predetermined measurement reference position to photograph a test image including a plurality of patterns output on a virtual plane by an augmented reality device.

획득부(820)는 그 복수의 카메라의 화각에 관한 정보를 포함하는 화각정보 및 그 복수의 카메라의 배치에 관한 정보를 포함하는 배치정보를 획득한다.The acquisition unit 820 acquires angle of view information including information about the angle of view of the plurality of cameras and arrangement information including information about the arrangement of the plurality of cameras.

마지막으로 산출부(830)는 그 복수의 카메라에 의해 촬영된 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 측정기준위치를 기준으로 하는 복수의 패턴의 좌표를 산출한다.Finally, the calculation unit 830 calculates the coordinates of a plurality of patterns based on the measurement reference position based on the plurality of captured images, view angle information, and arrangement information captured by the plurality of cameras.

다른 실시예에서는, 복수의 카메라가 측정기준위치에 위치한 중앙카메라, 측정기준위치를 중심으로 대칭되도록 위치한 좌측카메라 및 우측카메라이고, 테스트이미지에 복수의 패턴이 가로 및 세로로 정렬되어 배치되어 있을 때, 산출부(830)는 복수의 촬영이미지의 가로 픽셀수, 복수의 촬영이미지에서의 복수의 패턴의 좌표, 화각정보에 포함된 복수의 카메라의 화각 및 배치정보에 포함된 좌측카메라와 우측카메라 간의 거리를 이용하여, 복수의 패턴의 좌표를 산출할 수 있다.In another embodiment, the plurality of cameras are a central camera located at the measurement reference position, a left camera and a right camera located symmetrically around the measurement reference position, and when a plurality of patterns are arranged horizontally and vertically in the test image. , the calculation unit 830 calculates the number of horizontal pixels of the plurality of captured images, the coordinates of the plurality of patterns in the plurality of captured images, the angle of view of the plurality of cameras included in the angle of view information, and the distance between the left and right cameras included in the arrangement information. Using the distance, the coordinates of a plurality of patterns can be calculated.

또 다른 실시예에서는, 산출부(830)는 수학식 9를 이용하여 복수의 패턴의 좌표를 산출할 수 있다.In another embodiment, the calculation unit 830 may calculate the coordinates of a plurality of patterns using Equation 9.

[수학식 9][Equation 9]

여기서, xij, yij, zij는 측정기준위치를 기준으로 하는 가로 i번째, 세로 j번째 패턴의 x, y, z축 좌표이고, α는 좌측카메라와 우측카메라 간의 거리이고, M는 복수의 촬영이미지의 가로 픽셀수이고, θ는 복수의 카메라의 화각이고, mL ij는 좌측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mR ij는 우측카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이고, mC ij는 중심카메라의 촬영이미지에서의 가로 i번째, 세로 j번째 패턴의 가로 방향 좌표이다.Here, x ij , y ij , and z ij are the x, y, and z-axis coordinates of the horizontal i-th and vertical j-th patterns based on the measurement reference position, α is the distance between the left and right cameras, and M is a plurality of is the number of horizontal pixels of the captured image, θ is the angle of view of multiple cameras, m L ij is the horizontal coordinate of the i-th horizontal and j-th pattern in the captured image of the left camera, and m R ij is the horizontal coordinate of the j-th pattern in the captured image of the left camera. These are the horizontal coordinates of the horizontal i-th and vertical j-th patterns in the captured image, and m C ij are the horizontal coordinates of the horizontal i-th and vertical j-th patterns in the captured image of the central camera.

또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치와 가상평면 간의 가상이미지거리를 더 산출할 수 있다.In another embodiment, the calculation unit 830 may further calculate the virtual image distance between the measurement reference position and the virtual plane using the coordinates of the measurement reference position and the coordinates of at least one of a plurality of patterns on the virtual plane.

또 다른 실시예에서는, 산출부(830)는 수학식 10을 이용하여 가상이미지거리를 산출할 수 있다.In another embodiment, the calculation unit 830 may calculate the virtual image distance using Equation 10.

[수학식 10][Equation 10]

여기서, DVI는 가상이미지거리이고, x22, y22, z22는 복수의 패턴 중 하나의 패턴의 좌표이다. Here, D VI is the virtual image distance, and x 22 , y 22 , and z 22 are the coordinates of one pattern among a plurality of patterns.

또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표 및 가상평면 상의 복수의 패턴 중 적어도 하나의 좌표를 이용하여, 측정기준위치로부터 가상평면에 대한 룩다운/업각도를 더 산출할 수 있다.In another embodiment, the calculation unit 830 may further calculate the lookdown/up angle with respect to the virtual plane from the measurement reference position using the coordinates of the measurement reference position and at least one coordinate of a plurality of patterns on the virtual plane. You can.

또 다른 실시예에서는, 산출부(830)는 수학식 11을 이용하여 룩다운/업각도를 산출할 수 있다.In another embodiment, the calculation unit 830 may calculate the lookdown/up angle using Equation 11.

[수학식 11][Equation 11]

여기서, θdown/up은 룩다운/업각도이고, x22, y22, z22는 복수의 패턴 중 하나의 패턴의 좌표이다.Here, θ down/up is the lookdown/up angle, and x 22 , y 22 , and z 22 are the coordinates of one pattern among a plurality of patterns.

또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수평시야각을 더 산출할 수 있다.In another embodiment, the calculation unit 830 further calculates the horizontal viewing angle of the measurement reference position using the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the horizontal direction among a plurality of patterns on the virtual plane. You can.

또 다른 실시예에서는, 산출부(830)는 수학식 12를 이용하여 수평시야각을 산출할 수 있다.In another embodiment, the calculation unit 830 may calculate the horizontal viewing angle using Equation 12.

[수학식 12][Equation 12]

여기서, θH FOV는 수평시야각이고, O는 측정기준위치의 좌표이고, P21 및 P23은 수평 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ H FOV is the horizontal viewing angle, O is the coordinate of the measurement reference position, and P 21 and P 23 are the coordinates of the two patterns located at both ends in the horizontal direction.

또 다른 실시예에서는, 산출부(830)는 측정기준위치의 좌표, 가상평면 상의 복수의 패턴 중 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표를 이용하여, 측정기준위치의 수직시야각을 더 산출할 수 있다.In another embodiment, the calculation unit 830 further calculates the vertical viewing angle of the measurement reference position using the coordinates of the measurement reference position and the coordinates of two patterns located at both ends in the vertical direction among a plurality of patterns on the virtual plane. You can.

또 다른 실시예에서는, 산출부(830)는 수학식 13을 이용하여 수직시야각을 산출할 수 있다.In another embodiment, the calculation unit 830 may calculate the vertical viewing angle using Equation 13.

[수학식 13][Equation 13]

여기서, θV FOV는 수직시야각이고, O는 측정기준위치의 좌표이고, P12 및 P32은 수직 방향으로 양쪽 끝에 위치한 두개의 패턴의 좌표이다.Here, θ V FOV is the vertical viewing angle, O is the coordinate of the measurement reference position, and P 12 and P 32 are the coordinates of the two patterns located at both ends in the vertical direction.

또 다른 실시예에서는, 산출부(830)는 가상평면 상의 복수의 패턴의 좌표에 기초하여, 측정기준위치를 기준으로 하는 3개 축 각각에 대한 정적 왜곡을 더 산출할 수 있다.In another embodiment, the calculation unit 830 may further calculate static distortion for each of the three axes based on the measurement reference position, based on the coordinates of a plurality of patterns on the virtual plane.

또 다른 실시예에서는, 산출부(830)는 복수의 촬영이미지, 화각정보 및 배치정보에 기초하여, 복수의 패턴 각각에 대응되는 복수의 고스트 패턴의 좌표를 더 산출하고, 복수의 패턴의 좌표 및 복수의 고스트 패턴의 좌표에 기초하여, 고스팅 레벨을 더 산출할 수 있다.In another embodiment, the calculation unit 830 further calculates the coordinates of a plurality of ghost patterns corresponding to each of the plurality of patterns based on the plurality of captured images, view angle information, and arrangement information, and calculates the coordinates of the plurality of patterns and Based on the coordinates of a plurality of ghost patterns, the ghosting level can be further calculated.

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium.

상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 를 포함한다.The computer-readable recording media includes magnetic storage media (eg, ROM, floppy disk, hard disk, etc.) and optical read media (eg, CD-ROM, DVD, etc.).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been examined focusing on its preferred embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

도9-10를 참조하면, 실시예들에 따른 카메라는 광 측정 디바이스(light measuring device, LMD)에 대응할 수 있다. 실시예들에 따른 광 측정 디바이스는 버츄얼 이미지 플레인을 생성할 수 있고, 서로 다른 위치에서 패턴들을 포함하는 이미지를 생성할 수 있다. 실시예들에 따른 광학 특성 측정 방법은 버츄얼 이미지 플레인(virtual image plane)을 위한 각 패턴 내 포인트들을 포함하는 이미지들을 하나 또는 하나 이상의 광 측정 디바이스들을 사용하여 생성하는 단계, 각 이미지는 하나 또는 하나 이상의 광 측정 디바이스들에 기초하여 캡쳐되고, 각 이미지는 좌측 이미지, 중앙 이미지, 우측 이미지 중 적어도 하나에 대응함; 및 포인트들의 포지션을 하나 또는 하나 이상의 광 측정 디바이스들 및 각 패턴에 기초하여 생성하는 단계; 를 포함하고, 포지션은 하나 또는 하나 이상의 광 측정 디바이스들의 필드 오브 뷰(field of view), 좌측 광 측정 디바이스 및 우측 광 측정 디바이스 간 갭에 기초하여 획득될 수 있다.9-10, cameras according to embodiments may correspond to a light measuring device (LMD). An optical measurement device according to embodiments may generate a virtual image plane and generate images including patterns at different positions. Methods for measuring optical properties according to embodiments include generating images including points in each pattern for a virtual image plane using one or more optical measurement devices, each image comprising one or more Captured based on light measurement devices, each image corresponding to at least one of a left image, a central image, and a right image; and generating positions of points based on one or more light measurement devices and each pattern; and the position may be obtained based on a field of view of one or more light measurement devices and a gap between the left light measurement device and the right light measurement device.

도10을 참조하면, 하나의 LDM이 중앙, 좌측, 우측 위치에서 버츄얼 플레인을 위한 세 개의 이미지들을 캡쳐할 수 있고, 복수의 LDM이 중앙, 좌측, 우측 위치에서 버츄얼 플레인을 위한 세 개의 이미지들을 캡쳐할 수 있다.Referring to Figure 10, one LDM can capture three images for the virtual plane at the center, left, and right positions, and multiple LDMs can capture three images for the virtual plane at the center, left, and right positions. can do.

도12를 참조하면, 포인트들의 포지션이, 예를 들어, 좌측 LDM 위치에 대한 캡쳐 각도, 우측 LDM 위치에 대한 캡쳐 각도에 기반하여 추정될 수 있다. Referring to Figure 12, the positions of the points may be estimated based on, for example, the capture angle for the left LDM location and the capture angle for the right LDM location.

수학식 1에 기초하여, 이미지의 패턴에 대한 포지션의 좌표값이 산출될 수 있다.Based on Equation 1, the coordinate value of the position of the pattern of the image can be calculated.

수학식1을 참조하면, 실시예들에 따른 광학 특성 측정 방법/장치에 의해, 패턴 내 포인트들을 포함하는 좌측 이미지는 하나 또는 하나 이상의 광 측정 디바이스들의 좌측 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 중앙 이미지는 하나 또는 하나 이상의 광 측정 디바이스들의 중앙 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 우측 이미지는 하나 또는 하나 이상의 광 측정 디바이스들의 우측 광 측정 디바이스에 기초하여 캡쳐될 수 있다. 실시예들에 따른 인덱스는 몇 번째인지 순서를 나타낼 수 있고, 필드 오브 뷰은 화각에 대응할 수 있다.Referring to Equation 1, by the method/apparatus for measuring optical properties according to embodiments, a left image including points in the pattern is captured based on the left light measurement device of one or more light measurement devices, and The central image containing the points is captured based on the central optical measurement device of one or more optical measuring devices, and the right image containing points in the pattern is captured based on the right optical measuring device of the one or more optical measuring devices. It can be. The index according to embodiments may indicate the number of positions, and the field of view may correspond to the angle of view.

도13및 수학식2를 참조하면, 포지션의 좌표값들은 좌측 광 측정 디바이스의 수평 픽셀 인덱스, 우측 광 측정 디바이스의 수평 픽셀 인덱스, 중앙 광 측정 디바이스의 수평 픽셀 인덱스, 좌측 광 측정 디바이스의 필드 오브 뷰에 기초하여 계산될 수 있다.Referring to Figure 13 and Equation 2, the position coordinate values are the horizontal pixel index of the left light measurement device, the horizontal pixel index of the right light measurement device, the horizontal pixel index of the center light measurement device, and the field of view of the left light measurement device. It can be calculated based on .

도14및 수학식4를 참조하면, 실시예들에 따른 광학 특성 측정 방법은 중앙의 상기 패턴 내 포지션 및 광 측정 디바이스에 기초하여 버츄얼 이미지 플레인을 위한 버츄얼 이미지 디스턴스를 측정하는 단계를 더 포함할 수 있다.Referring to FIG. 14 and Equation 4, the method of measuring optical properties according to embodiments may further include measuring a virtual image distance for a virtual image plane based on the position in the pattern at the center and an optical measurement device. there is.

도15를 참조하면, 패턴 내 포지션 및 버츄얼 이미지 디스턴스에 기초하여, 버츄얼 이미지 플레인을 위한 룩 다운 앵글 및 룩 업 앵글을 측정하는 단계를 더 포함할 수 있다.Referring to FIG. 15, the step of measuring the look down angle and look up angle for the virtual image plane may be further included based on the position within the pattern and the virtual image distance.

도16을 참조하면, 중앙의 좌측 포인트에 대한 거리 및 중앙의 우측 포인트에 대한 거리에 기초하여, 버츄얼 이미지 플레인에 대한 수평 필드 오브 뷰를 측정하는 단계; 및 중앙의 탑 포인트에 대한 거리 및 상기 중앙의 바닥 포인트에 대한 거리에 기초하여, 버츄얼 이미지 플레인에 대한 수직 필드 오브 뷰를 측정하는 단계; 를 더 포함할 수 있다.16, measuring a horizontal field of view for the virtual image plane based on a distance to a point left of center and a distance to a point right of center; and measuring a vertical field of view for the virtual image plane based on the distance to a central top point and the distance to the central bottom point; It may further include.

실시예들에 따른 광학 특성 측정 방법은 중앙 및 중앙의 탑 포인트 및 중앙의 바닥 포인트 간 라인에 기초하여 버츄얼 이미지 플레인에 대한 수평 디스토션을 측정하는 단계; 및 중앙 및 중앙의 좌측 포인트 및 중앙의 우측 포인트 간 라인에 기초하여 버츄얼 이미지 플레인에 대한 수직 디스토션을 측정하는 단계; 를 포함할 수 있다.A method for measuring optical properties according to embodiments includes measuring horizontal distortion for a virtual image plane based on the center and a line between the center top point and the center bottom point; and measuring vertical distortion for the virtual image plane based on a line between center and a point left of center and a point right of center; may include.

실시예들에 따른 광학 특정 측정 방법/장치는 실시예들에 따른 방법/장치로 지칭할 수 있다.An optical specific measurement method/device according to embodiments may be referred to as a method/device according to embodiments.

도18은 실시예들에 따른 광학 특성 측정 방법을 나타낸다.Figure 18 shows a method of measuring optical properties according to embodiments.

도8, 25의 실시예들에 따른 광학 특성 측정 장치는 도1 내지 7, 도18 등에 기반하여 광학 특성을 측정할 수 있다.The optical properties measuring device according to the embodiments of FIGS. 8 and 25 can measure optical properties based on FIGS. 1 to 7, 18, etc.

1800, 실시예들에 따른 광학 특성 측정 방법은 다시점 영상을 생성하는 단계(i=1)를 포함할 수 있다.1800, a method of measuring optical properties according to embodiments may include generating a multi-viewpoint image (i=1).

촬영부(810)는 적어도 하나의 영상을 생성할 수 있다. 도25의 실시예들에 따른 광학 특성 측정 장치는 적어도 하나의 다시점 영상을 생성할 수 있다. 예를 들어, n개의 다시점 영상들이 생성될 수 있다. The photographing unit 810 may generate at least one image. The optical properties measuring apparatus according to the embodiments of FIG. 25 may generate at least one multi-viewpoint image. For example, n multi-view images may be generated.

도8, 도25에 도시된 장치는 LMD(light measuring device), 카메라, 카메라를 구비한 프로세서, 광학 특성 측정 장치 등으로 지칭될 수 있다. The devices shown in FIGS. 8 and 25 may be referred to as a light measuring device (LMD), a camera, a processor equipped with a camera, an optical characteristic measuring device, etc.

실시예들에 따른 다시점 영상은 차량에 탑재된 실시예들에 따른 광학 특성 측정 장치, 차량과 탈부착이 가능한 광학 특성 측정 장치, LMD(light measuring device), 카메라, 카메라를 구비한 프로세서 등에 의해서 획득될 수 있다. 차량은 대시보드, 블랙박스, 백미러 부근에 광학 특성 측정 장치, 차량과 탈부착이 가능한 광학 특성 측정 장치, LMD(light measuring device), 카메라, 카메라를 구비한 프로세서 등을 포함할 수 있다. 1대 이상의 카메라가 다시점 영상을 획득할 수 있고, 차량의 다양한 위치에 구비될 수 있다.Multi-view images according to embodiments are acquired by an optical properties measurement device according to embodiments mounted on a vehicle, an optical properties measurement device detachable from the vehicle, a light measuring device (LMD), a camera, a processor equipped with a camera, etc. It can be. The vehicle may include an optical characteristic measuring device near the dashboard, black box, and rearview mirror, an optical characteristic measuring device detachable from the vehicle, a light measuring device (LMD), a camera, and a processor equipped with a camera. One or more cameras can acquire multi-view images and can be installed at various locations in the vehicle.

1801~1802, 실시예들에 따른 광학 특성 측정 방법은 하나 이상의 다시점 영상들에 대해 다음의 동작을 수행할 수 있다. 예를 들어, 다시점 영상이 n개가 획든된 경우, n개의 영상마다 다음과 같은 캘리브레이션 동작을 적용할 수 있다. 1801 to 1802, the method for measuring optical properties according to embodiments may perform the following operations on one or more multi-viewpoint images. For example, when n multi-viewpoint images are captured, the following calibration operation can be applied to each n images.

1803, 실시예들에 따른 광학 특성 측정 방법은 버츄얼 이미지의 위치를 표시하는 단계를 더 포함할 수 있다.1803, the method of measuring optical properties according to embodiments may further include displaying the position of the virtual image.

1804, 실시예들에 따른 광학 특성 측정 방법은 버츄얼 이미지의 위치의 뎁스를 계산하는 단계를 더 포함할 수 있다.1804, the method of measuring optical properties according to embodiments may further include calculating the depth of the position of the virtual image.

1805, 실시예들에 따른 광학 특성 측정 방법은 버츄얼 이미지의 뎁스를 추정하는 단계를 더 포함할 수 있다.1805, the method of measuring optical properties according to embodiments may further include estimating the depth of the virtual image.

1806, 실시예들에 따른 광학 특성 측정 방법은 위치의 뎁스 및 버츄얼 이미지의 뎁스를 매칭하는 단계를 더 포함할 수 있다.1806, the method of measuring optical properties according to embodiments may further include matching the depth of the position and the depth of the virtual image.

1807, 실시예들에 따른 광학 특성 측정 방법은 캘리브레이션하는 단계를 더 포함할 수 있다.1807, the method of measuring optical properties according to embodiments may further include a calibration step.

1800단계에서 획득된 다시점 영상은 카메라 또는 광 측정 디바이스에서 촬영된 좌측 영상(1900), 중앙 영상(1901), 우측 영상(1902)일 수 있다.The multi-view image acquired in step 1800 may be a left image 1900, a center image 1901, and a right image 1902 captured by a camera or an optical measurement device.

1803 단계에서 HUD 버츄얼 이미지의 1 내지 9 (변화 가능) 위치를 다시점 영상에 표시할 수 있다(도20 참조). In step 1803, positions 1 to 9 (changeable) of the HUD virtual image can be displayed on the multi-view image (see FIG. 20).

VID 에 HUD 가상 오브젝트를 투사할 수 있다. 가상 오브젝트는 사용자 눈에 보이는 영상일 수 있다. HUD 가상 오브젝트는 도20의 1내지9원과 같이 투사될 수 있다.You can project HUD virtual objects on VID. The virtual object may be an image visible to the user's eyes. The HUD virtual object may be projected as circles 1 to 9 in FIG. 20.

1804단계에서, 사용자가 도20의 1내지9 원에 해당하는 위치의 뎁스를 계산할 수 있다. 적어도 하나 이상의 카메라 또는 광 측정 디바이스에 의해 1내지9 패턴의 원의 뎁스를 계산할 수 있다.In step 1804, the user can calculate the depth of the positions corresponding to circles 1 to 9 of FIG. 20. The depth of circles in patterns 1 to 9 may be calculated by at least one camera or light measurement device.

1805 단계에서, 다시점 영상의 ?bㄴ트 및 뎁스를 획득할 수 있다(도21 참조).In step 1805, the frame and depth of the multi-view image can be acquired (see Figure 21).

1805 단계에서, 버츄얼 이미지의 지오메트리 포지션의 좌표값을 획득할 수 있다. 좌표값을 획득하는 과정은 수학식 1 내지 수학식 4 등의 설명을 참조한다.In step 1805, the coordinate value of the geometric position of the virtual image can be obtained. For the process of obtaining coordinate values, refer to the explanations of Equation 1 to Equation 4.

실시예들에 따른 뎁스는 도11 등 버츄얼 플레인(이미지)의 포인트의 z값을 의미할 수 있다.Depth according to embodiments may mean the z value of a point of a virtual plane (image), such as in FIG. 11.

1806 단계에서, 도22와 같이 매칭여부를 표시할 수 있다.In step 1806, matching can be displayed as shown in FIG. 22.

1807단계에서, 서로 뎁스가 같은 위치(예를 들어, 5번, 도22참조)를 저장하는 것이 캘리브레리션을 의미한다. 실시예들에 따른 차량은 HUD 구현 시 카메라에 의한 뎁스 및 HUD에 의한 뎁스가 동일한 위치(예를 들어, 5번)를 이용하고, 상이한 뎁스의 위치(예를 들어, 6번 및 8번, 도22참조)를 무시함으로써 정확한 HUD를 구현할 수 있다.In step 1807, storing positions with the same depth (for example, number 5, see FIG. 22) means calibration. Vehicles according to embodiments use the same location (e.g., No. 5) for the depth by the camera and the depth by the HUD when implementing the HUD, and use locations with different depths (e.g., No. 6 and No. 8, Figure 2). By ignoring (see 22), an accurate HUD can be implemented.

1803은 HUD에 의한 뎁스 i상 버츄얼 이미지를 표시하는 단계를 나타낸다.1803 indicates the step of displaying a depth i-phase virtual image by the HUD.

1804는 카메라에 의한 뎁스 i를 계산하는 과정을 나타낸다.1804 shows the process of calculating depth i by the camera.

1805는 HUD에 의한 뎁스 i를 추정하는 과정을 나타낸다.1805 shows the process of estimating depth i by HUD.

따라서, HUD의 광학 특성을 측정하고, 운전자 기준에서 HUD 품질을 개선하기 위한 캘리브레이션을 수행하기 위해서, 버츄얼 이미지의 뎁스의 매칭 여부를 운전자가 선택해서, HUD 보정을 수행할 수 있다.Therefore, in order to measure the optical characteristics of the HUD and perform calibration to improve HUD quality on a driver basis, the driver can select whether to match the depth of the virtual image and perform HUD correction.

도19는 실시예들에 따른 다시점 영상의 예시를 나타낸다.Figure 19 shows an example of a multi-viewpoint image according to embodiments.

도18에서 생성하는 다시점 영상은 도19와 같다. The multi-view image generated in Figure 18 is the same as Figure 19.

사용자를 기준으로, 좌측 영상(1900), 중앙 영상(1901), 우측 영상(1902)와 같이 3개의 영상들이 생성될 수 있다. Based on the user, three images may be generated: a left image 1900, a center image 1901, and a right image 1902.

실시예들에 따른 광학 특정 측정 장치가 적어도 하나의 카메라를 포함할 수 있다. 실시예들에 따른 광학 특정 측정 장치가 광 측정 유닛을 포함할 수 있다. 차량에 탑재된 위치에서 광학 특정 측정 장치의 광 측정 유닛의 위치가 변경되거나, 광 측정 유닛이 움직일 수 있다. 예를 들어, 중앙, 좌측, 우측 등으로 광 측정 유닛이 움직이면서, 다시점 영상을 도19와 같이 생성(획득)할 수 있다.An optical specific measurement device according to embodiments may include at least one camera. An optical specific measurement device according to embodiments may include an optical measurement unit. The position of the light measurement unit of the specific optical measurement device may change or the light measurement unit may move in the position mounted on the vehicle. For example, as the light measurement unit moves to the center, left, right, etc., a multi-view image can be generated (acquired) as shown in FIG. 19.

도20은 버츄얼 이미지의 위치를 표시하는 방법을 나타낸다.Figure 20 shows a method for displaying the location of a virtual image.

도20은 도19의 1803 단계를 나타낸다. 광학 특정 측정 방법 및 장치는 HUD 버츄얼 이미지의 복수의 위치들을 다시점 영상에 표시할 수 있다. 실시예들에 따른 위치는 1내지9의 위치를 포함할 수 있다. 버츄얼 이미지는 HUD를 위한 이미지이고 뎁스 i를 가질 수 있다.Figure 20 shows step 1803 of Figure 19. An optical specific measurement method and device can display multiple positions of a HUD virtual image in a multi-view image. Positions according to embodiments may include positions 1 to 9. The virtual image is an image for the HUD and can have depth i.

다시점 영상(2000)은 도18-19에서 설명한 다시점 영상(좌, 중앙, 우)이다. The multi-view image 2000 is the multi-view image (left, center, right) described in FIGS. 18-19.

버츄얼 이미지(2001)은 HUD의 버츄얼 이미지이다. 버츄얼 이미지는 일정한 뎁스를 가질 수 있다. 버츄얼 이미지는 도20의 박스 영역(2001)일 수 있다.Virtual Image (2001) is a virtual image of the HUD. A virtual image can have a certain depth. The virtual image may be the box area 2001 in Figure 20.

위치(2002)는 버츄얼 이미지(2001)을 위한 위치이다. 위치(2002)는 변경이 가능한 값이다. 위치(2002)는 하나 이상의 위치 값을 가질 수 있다. 예를 들어, 9개의 위치들이 버츄얼 이미지에 대해 존재할 수 있고, 제1위치, 제2위치, .., 제9위치 등으로 지칭될 수 있다. Location (2002) is the location for virtual image (2001). Location (2002) is a changeable value. Location 2002 may have one or more location values. For example, there may be 9 locations for the virtual image, and may be referred to as first location, second location, ..., ninth location, etc.

차량은 VID(Vehicle Information Device)에 HUD 가상 오브젝트를 투사할 수 있다. 차량의 운전자, 사용자는 가상 오브젝트를 시각적으로 볼 수 있다. A vehicle can project a HUD virtual object on a VID (Vehicle Information Device). The driver and user of the vehicle can visually see the virtual object.

버츄얼 이미지의 위치 표시를 운전자가 UI에 기반하여 선택할 수 있다. 카메라 화면에 터치 방식, 신호 입력 전달 방식 등에 기반하여 제1내지 9 위치 중 일부를 표시할 수 있다. The driver can select the location of the virtual image based on the UI. Some of the first to ninth positions may be displayed on the camera screen based on touch method, signal input transmission method, etc.

실시예들에 따른 광학 특성 측정 방법/장치는 2001과 같이 숫자에 기반하여 버츄얼 이미지의 위치들을 표시할 수 있다.The method/device for measuring optical properties according to embodiments may display positions of the virtual image based on numbers, such as 2001.

HUD상에 버츄얼 이미지 및 위치를 표시하고, UI에 기반하여 운전자사 하나 또는 하나 이상의 위치들을 선택할 수 있다. 2001은 표시된 결과 예시를 도시한다.Virtual images and locations are displayed on the HUD, and the driver can select one or more locations based on the UI. 2001 shows an example of the displayed results.

도21은 실시예들에 따른 포인트 및 뎁스를 생성하는 과정을 나타낸다.Figure 21 shows a process for generating points and depth according to embodiments.

다시점 영상(2100, 2101, 2102)은 전술한 다시점 영상이다. 포인트(2103)은 각 다시점 영상의 대응하는 포인트(corresponding points)이다. The multi-view images 2100, 2101, and 2102 are the above-described multi-view images. Points 2103 are corresponding points of each multi-view image.

1805 단계에 의해서, 포인트2103의 좌표값을 계산할 수 있다. 그리고, 포인트2103의 뎁스를 획득할 수 있다.By step 1805, the coordinate value of point 2103 can be calculated. And, you can obtain a depth of point 2103.

버츄얼 이미지으 뎁스를 추정하기 위해서, 버츄얼 이미지의 포인트2103의 값을 이용할 수 있다.To estimate the depth of the virtual image, the value of point 2103 of the virtual image can be used.

포인트2103의 뎁스i가 버츄얼 이미지의 뎁스일 수 있다. 뎁스i는 HUD 뎁스 i일 수 있다.The depth i of point 2103 may be the depth of the virtual image. Depth i may be HUD depth i.

SW 프로세싱을 통해 다수의 카메라들 또는 카메라(LDM)의 위치를 변경해가며 대응하는 포인트들 및 뎁스를 획득할 수 있다.Through SW processing, corresponding points and depth can be obtained by changing the positions of multiple cameras or cameras (LDM).

도22는 실시예들에 따른 동일 뎁스 그룹핑을 나타낸다.Figure 22 shows equal depth grouping according to embodiments.

실시예들에 따른 방법/장치는 도22와 같이, HUD 버츄얼 이미지 상 뎁스를 계산하고, 계산된 뎁스가 동일한 위치끼리 RGB 컬러를 통해 그룹핑할 수 있다.As shown in FIG. 22, the method/device according to embodiments can calculate the depth on the HUD virtual image and group positions with the same calculated depth using RGB colors.

예를 들어, 1번, 2번, 4번, 5번은 뎁스가 계산된 뎁스가 동일한 위치에 해당하여 레드 컬러로 표시되고, 3번, 6번은 그린 컬러로 그룹핑되고, 7번 내지 9번은 블루 컬러로 그룹핑될 수 있다.For example, numbers 1, 2, 4, and 5 correspond to the same calculated depth location and are displayed in red color, numbers 3 and 6 are grouped in green color, and numbers 7 to 9 are grouped in blue color. Can be grouped into .

운전가가 UI에 기반하여 위치들을 선택할 수 있다. 카메라 화면 또는 HUD 화면 등에 터치 드응로 레드, 그린, 블루 중 HUD의 버츄얼 오브젝트와 동일한 뎁스를 선택할 수 있다.Drivers can select locations based on the UI. By touching the camera screen or HUD screen, you can select the same depth as the HUD's virtual object among red, green, and blue.

예를 들어, 5번 위치에서 뎁스가 서로 같으면, O를 표시하고, 서로 상이한 뎁스를 가지면, X를 표시할 수 있다.For example, if the depths at position 5 are the same, O can be displayed, and if the depths are different, X can be displayed.

SW 프로세싱을 통해서, 동일 뎁스를 색 정보를 사용하여 그룹핑할 수 있다. UI로 표시하여 운전자가 1번 내지 9번 위치를 선택할 수 있다. Through SW processing, the same depth can be grouped using color information. By displaying it in the UI, the driver can select positions 1 to 9.

선택된 컬러들로부터 HUD 캘리브레이션을 수행할 수 있다. VID는 계산된 뎁스에 기반하여 정보를 표시할 수 있다.HUD calibration can be performed from selected colors. VID can display information based on the calculated depth.

1번 내지 9번 위치의 뎁스들과 HUD 버츄얼 이미지(오브젝트)의 뎁스를 비교하여 동일한 뎁스만 선택될 수 있다. 뎁스가 일치하면 HUD 품질이 더 좋을 수 있다.By comparing the depths of positions 1 to 9 with the depth of the HUD virtual image (object), only the same depth can be selected. If the depth matches, the HUD quality may be better.

도23은 실시예들에 따른 HUD 가상 오브젝트 투사를 나타낸다.Figure 23 shows HUD virtual object projection according to embodiments.

실시예들에 따른 방법/장치는 캘리브레이션 과정 이후, VID에 HUD 가상 오브젝트를 도23과 같이 투사할 수 있다. 오브젝트 투사 시 오차 허용 범위(예를 들어, +X미터, -미터)가 있을 수 있다.The method/device according to embodiments may project a HUD virtual object on the VID as shown in FIG. 23 after the calibration process. When projecting an object, there may be an error tolerance range (e.g., +X meters, -meters).

전술한 과정에서 뎁스를 계산하고, 보정되고 선택된 뎁스에 기반하여 HUD 가상 오브젝트를 투사할 수 있다.In the above-described process, the depth can be calculated, and the HUD virtual object can be projected based on the corrected and selected depth.

도18의 과정을 적어도 한번 이상 수행하여, 운전자에 최적화된 HUD 캘리브레이션을 수행할 수 있다.By performing the process of Figure 18 at least once, HUD calibration optimized for the driver can be performed.

도24는 실시예들에 따른 광학 특정 장치를 나타낸다.Figure 24 shows an optical specific device according to embodiments.

도18 등의 방법은 도24의 장치에 의해 수행될 수 있다. 도24의 각 구성요소는 하드웨어, 소프트웨어, 프로세서, 및/또는 그것들의 조합에 대응할 수 있다. 도24는 도8의 장치에 대응할 수 있다.The method of Figure 18 can be performed by the device of Figure 24. Each component in Figure 24 may correspond to hardware, software, processor, and/or a combination thereof. Figure 24 may correspond to the device of Figure 8.

광 측정 유닛은 카메라일 수 있다. 도1 내지 도7, 도18에서 버츄얼 이미지를 획득하는 광 측정부일 수 있다.The light measurement unit may be a camera. It may be a light measurement unit that acquires virtual images in FIGS. 1 to 7 and 18.

프로세서는 도1내지 도7, 도18 등의 동작을 수행하는 프로세서일 수 있다. The processor may be a processor that performs the operations of Figures 1 to 7, Figure 18, etc.

메모리는 프로세서의 동작에 관련된 데이터 및 정보를 저장할 수 있다. 메모리는 필요한 데이터를 프로세서에 제공할 수 있다. 메모리는 광 측정 유닛, 프로세서 등과 연결될 수 있다.Memory can store data and information related to the operation of the processor. Memory can provide the necessary data to the processor. The memory may be connected to an optical measurement unit, processor, etc.

광 측정 유닛은 단계 1800 및 도19 등과 같이 다시점 영상을 촬영할 수 있다.The optical measurement unit may capture multi-view images as shown in step 1800 and FIG. 19.

프로세서는 단계1803과 같이 다시점 영상에 HUD 버츄얼 이미지의 1 내지 9번 위치를 표시할 수 있다.The processor may display positions 1 to 9 of the HUD virtual image on the multi-view image as in step 1803.

프로세서는 단계1804와 같이 버츄얼 이미지의 1번 내지 9번 위치의 뎁스를 계산할 수 있다. 이미지의 패턴의 뎁스(좌표 Z값)를 계산하는 과정은 수학식 1내지 수학식4를 참조할 수 있다.The processor may calculate the depth of positions 1 to 9 of the virtual image as in step 1804. The process of calculating the depth (coordinate Z value) of the pattern of the image can refer to Equations 1 to 4.

계산된 1번 내지 9번 위치의 뎁스는 카메라 뎁스i일 수 있다.The calculated depth at positions 1 to 9 may be the camera depth i.

프로세서는 단계1805와 같이 HUD 버츄얼 이미지의 뎁스를 추정할 수 있다. 여러 위치들에서 카메라 또는 또는 광 측정 장치 LDM에 의해 대응하는 포인트들을 획득하고, 포인트의 좌표를 계산하고, 뎁스를 계산할 수 있다. The processor may estimate the depth of the HUD virtual image as in step 1805. Corresponding points can be acquired at various locations by a camera or a light measurement device LDM, the coordinates of the points can be calculated, and the depth can be calculated.

프로세서는 다시점 영상에서 계산(추정)된 카메라 뎁스i (1번 내지 9번 위치: 운전자에 의해 일부 위치가 선택될 수 있다) 및 버츄얼 이미지 HUD depth i(2103)을 비교하여, 서로 같은 위치를 UI상에 표시하고, 그룹핑할 수 있다.The processor compares the camera depth i calculated (estimated) from the multi-view image (positions 1 to 9: some positions may be selected by the driver) and the virtual image HUD depth i (2103), and selects the same position. It can be displayed on the UI and grouped.

카메라 또는 광 측정 장치 LDM에 의해 획득된 다시점 영상에서 특정 위치들에 대한 뎁스를 통해 동일 뎁스들을 그룹핑하고 선택하여 캘리브레이션된 HUD 가상 오브젝트를 투사할 수 있다.A calibrated HUD virtual object can be projected by grouping and selecting the same depths through the depths for specific locations in a multi-view image acquired by a camera or a light measurement device LDM.

프로세서는 도18과 같이, 1) VID에 HUD 가상 오브젝트를 투사하고(사용자 눈에 보이는 영상), 1-1) 운전자가 오브젝트를 UI기반하여 선택할 수 있고, 1-2) 카메라 화면에 터치 등 신호를 수신하여 1-9 위치 중 일부를 표시할 수 있고, 2) SW 프로세싱을 통해서, 여러 LDM 획득 정보에 기반하여 대응하는 포인트들 및 뎁스를 획득하고, 3) SW 프로세싱을 통해서, 동일 뎁스를 색 정보를 이용해서 그룹핑하고, 4) 운전자에게 UI기반 선택 정보를 제공하고, 4-1) 카메라, LDM, VID 등 화면에 대한 터치 등 정보를 수신하여, 특정 컬러들 중에서 HUD 버츄얼 오브젝트와 동일한 뎁스의 위치를 선택할 수 있다. 선택된 위치 및 위치의 뎁스에 기반하여 VID에 운전에 필요한 정보를 캘리브레이션하여 표시할 수 있다. 5) VID에 HUD 가상 오브젝트를 투사할 수 있다. 1 내지 5번 과정을 반복해서 수행할 수 있다.As shown in Figure 18, the processor 1) projects a HUD virtual object on the VID (image visible to the user's eyes), 1-1) allows the driver to select the object based on the UI, 1-2) signals such as a touch on the camera screen can be received to display some of the positions 1-9, 2) through SW processing, obtain corresponding points and depth based on multiple LDM acquisition information, and 3) through SW processing, color the same depth. Grouping using information, 4) Providing UI-based selection information to the driver, 4-1) Receiving information such as touches on the screen such as camera, LDM, VID, etc., and selecting a HUD virtual object of the same depth as the HUD virtual object among specific colors. You can choose a location. Information required for driving can be calibrated and displayed on the VID based on the selected location and depth of the location. 5) HUD virtual objects can be projected onto the VID. Processes 1 to 5 can be performed repeatedly.

도18을 참조하면, 실시예들에 따른 광학 특성 측정 방법은 다시점 영상을 생성하는 단계, 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함함; 다시점 영상을 위한 버츄얼 이미지의 위치를 표시하는 단계; 버츄얼 이미지의 위치의 뎁스를 계산하는 단계; 버츄얼 이미지의 뎁스를 추정하는 단계; 위치의 뎁스 및 상기 버츄얼 이미지의 뎁스를 매칭하는 단계; 및 매칭된 뎁스에 기초하여, 다시점 영상의 오차를 캘리브레이션하는 단계; 를 포함할 수 있다.Referring to Figure 18, the method for measuring optical properties according to embodiments includes generating a multi-viewpoint image, the multi-viewpoint image including a left image, a center image, and a right image; Displaying the position of a virtual image for a multi-view image; calculating the depth of the position of the virtual image; estimating the depth of the virtual image; matching the depth of the location and the depth of the virtual image; and calibrating the error of the multi-view image based on the matched depth; may include.

또한, 수학식 1 내지 4 등을 참조하면, 버츄얼 이미지는 버츄얼 이미지를 위한 각 패턴 내 포인트들을 포함하고, 포인트들의 포지션은 하나 또는 하나 이상의 광 측정 디바이스들 및 각 패턴에 기초하여 생성된다.Additionally, referring to Equations 1 to 4, the virtual image includes points in each pattern for the virtual image, and the positions of the points are generated based on one or more light measurement devices and each pattern.

또한, 버츄얼 이미지의 패턴 내 포인트들을 포함하는 좌측 영상은 하나 또는 하나 이상의 광 측정 디바이스들의 좌측 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 중앙 영상은 하나 또는 하나 이상의 광 측정 디바이스들의 중앙 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 우측 영상은 하나 또는 하나 이상의 광 측정 디바이스들의 우측 광 측정 디바이스에 기초하여 캡쳐된다.Additionally, the left image including points within the pattern of the virtual image is captured based on the left side of one or more light measurement devices, and the center image including points within the pattern is captured based on the center of one or more light measurement devices. A right image is captured based on a light measurement device, and a right image comprising points in the pattern is captured based on a right light measurement device of one or more light measurement devices.

또한, 포지션의 좌표값들은 좌측 광 측정 디바이스의 수평 픽셀 인덱스, 우측 광 측정 디바이스의 수평 픽셀 인덱스, 중앙 광 측정 디바이스의 수평 픽셀 인덱스, 좌측 광 측정 디바이스의 필드 오브 뷰에 기초하여 계산된다.Additionally, the coordinate values of the position are calculated based on the horizontal pixel index of the left light measurement device, the horizontal pixel index of the right light measurement device, the horizontal pixel index of the central light measurement device, and the field of view of the left light measurement device.

또한, 광학 특성 측정 방법은 중앙의 패턴 내 포지션 및 광 측정 디바이스에 기초하여 버츄얼 이미지를 위한 버츄얼 이미지 디스턴스를 측정하는 단계를 더 포함할 수 있다.Additionally, the method of measuring optical properties may further include measuring a virtual image distance for a virtual image based on the position within the central pattern and the optical measurement device.

또한, 광학 특성 측정 방법은 패턴 내 포지션 및 버츄얼 이미지 디스턴스에 기초하여, 버츄얼 이미지 플레인을 위한 룩 다운 앵글 및 룩 업 앵글을 측정하는 단계를 더 포함할 수 있다.Additionally, the method of measuring optical properties may further include measuring the look-down angle and look-up angle for the virtual image plane based on the position within the pattern and the virtual image distance.

또한, 광학 특성 측정 방법은 중앙의 좌측 포인트에 대한 거리 및 중앙의 우측 포인트에 대한 거리에 기초하여, 버츄얼 이미지 플레인에 대한 수평 필드 오브 뷰를 측정하는 단계; 및 중앙의 탑 포인트에 대한 거리 및 중앙의 바닥 포인트에 대한 거리에 기초하여, 버츄얼 이미지 플레인에 대한 수직 필드 오브 뷰를 측정하는 단계; 를 더 포함할 수 있다.Additionally, the optical property measurement method includes measuring a horizontal field of view for a virtual image plane based on a distance to a point to the left of center and a distance to a point to the right of center; and measuring a vertical field of view for the virtual image plane based on the distance to the central top point and the distance to the central bottom point; It may further include.

또한, 광학 특성 측정 방법은 중앙 및 중앙의 탑 포인트 및 중앙의 바닥 포인트 간 라인에 기초하여 버츄얼 이미지 플레인에 대한 수평 디스토션을 측정하는 단계; 및 중앙 및 중앙의 좌측 포인트 및 중앙의 우측 포인트 간 라인에 기초하여 버츄얼 이미지 플레인에 대한 수직 디스토션을 측정하는 단계; 를 포함하라 수 있다.Additionally, the optical property measurement method includes measuring horizontal distortion for a virtual image plane based on a center and a line between the center top point and the center bottom point; and measuring vertical distortion for the virtual image plane based on a line between center and a point left of center and a point right of center; You can include .

실시예들에 따른 광학 특성 측정 방법은 다시점 영상을 생성하는 단계, 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함함; 다시점 영상을 위한 버츄얼 이미지의 위치들을 표시하는 단계; 버츄얼 이미지의 위치들의 뎁스를 추정하는 단계; 뎁스에 기초하여, 위치들을 그룹핑하는 단계; 그룹핑된 위치들에서 일부 위치를 선택하는 단계; 및 선택된 일부 위치 및 뎁스에 기반하여 보정된 가상 오브젝트를 투사하는 단계; 를 포함할 수 있다.A method of measuring optical properties according to embodiments includes generating a multi-viewpoint image, the multi-viewpoint image including a left image, a center image, and a right image; Displaying positions of virtual images for multi-view images; estimating the depth of locations in the virtual image; Grouping locations based on depth; selecting some locations from the grouped locations; and projecting the corrected virtual object based on some selected positions and depths. may include.

실시예들에 따른 광학 특성 측정 방법을 수행하는 장치는, 예를 들어, 도25 등을 참조하면, 메모리; 메모리와 연결된 프로세서; 및 프로세서와 연결된 광 측정 유닛;을 포함하고, 프로세서는, 다시점 영상을 생성하고, 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함하고, 다시점 영상을 위한 버츄얼 이미지의 위치를 표시하고, 버츄얼 이미지의 위치의 뎁스를 계산하고, 버츄얼 이미지의 뎁스를 추정하고, 위치의 뎁스 및 버츄얼 이미지의 뎁스를 매칭하고, 및 매칭된 뎁스에 기초하여, 다시점 영상의 오차를 캘리브레이션할 수 있다.For example, referring to FIG. 25, a device that performs a method for measuring optical properties according to embodiments includes a memory; Processor associated with memory; and an optical measurement unit connected to the processor, wherein the processor generates a multi-view image, the multi-view image includes a left image, a center image, and a right image, and displays the position of the virtual image for the multi-view image. , calculate the depth of the position of the virtual image, estimate the depth of the virtual image, match the depth of the position and the depth of the virtual image, and based on the matched depth, the error of the multi-view image can be calibrated.

또한, 광학 특성 측정 장치는 메모리; 메모리와 연결된 프로세서; 및 프로세서와 연결된 광 측정 유닛;을 포함하고, 프로세서는, 다시점 영상을 생성하고, 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함하고, 다시점 영상을 위한 버츄얼 이미지의 위치들을 표시하고, 버츄얼 이미지의 위치들의 뎁스를 추정하고, 뎁스에 기초하여, 위치들을 그룹핑하고, 그룹핑된 위치들에서 일부 위치를 선택하고, 선택된 일부 위치 및 뎁스에 기반하여 보정된 가상 오브젝트를 투사할 수 있다.Additionally, the optical property measurement device includes memory; Processor associated with memory; and an optical measurement unit connected to the processor, wherein the processor generates a multi-view image, the multi-view image includes a left image, a center image, and a right image, and displays positions of the virtual image for the multi-view image. , it is possible to estimate the depth of the positions of the virtual image, group the positions based on the depth, select some positions from the grouped positions, and project the corrected virtual object based on the selected partial positions and depth.

이로 인하여, 3D HUD 차량 서비스를 운전자의 시안성 및 편의성 관점에서 개선할 수 있다. 또한, 광 측정 디바이스를 차량에 탑재하여 HUD 가상 이미지를 위한 포인트 및 뎁스 등 광학 특성 측정을 위한 측정 파라미터들을 효율적으로 획득할 수 있다. 획득된 파라미터 정보에 기반하여, 운전자 관점에서 오차를 줄일 수 있는 캘리브레이션 과정을 효율적으로 수행할 수 있다. 3D HUD는 자율 주행 기술과 결합하여, 안전하고 정확한 자율 주행을 가능하게 할 수 있다.As a result, 3D HUD vehicle service can be improved from the perspective of driver visibility and convenience. Additionally, by mounting an optical measurement device on a vehicle, measurement parameters for measuring optical characteristics, such as points and depth for a HUD virtual image, can be efficiently obtained. Based on the obtained parameter information, a calibration process that can reduce errors from the driver's perspective can be efficiently performed. 3D HUD can be combined with autonomous driving technology to enable safe and accurate autonomous driving.

실시예들은 방법 및/또는 장치 관점에서 설명되었으며, 방법의 설명 및 장치의 설명은 상호 보완하여 적용될 수 있다.The embodiments have been described in terms of a method and/or an apparatus, and the description of the method and the description of the apparatus may be applied to complement each other.

설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다. 그리고, 통상의 기술자의 필요에 따라, 이전에 설명된 실시 예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 실시예들의 권리범위에 속한다. 실시예들에 따른 장치 및 방법은 상술한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. 실시예들의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 실시예들은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 실시예들의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 실시예들의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.For convenience of explanation, each drawing has been described separately, but it is also possible to design a new embodiment by merging the embodiments described in each drawing. In addition, according to the needs of those skilled in the art, designing a computer-readable recording medium on which programs for executing the previously described embodiments are recorded also falls within the scope of the rights of the embodiments. The apparatus and method according to the embodiments are not limited to the configuration and method of the embodiments described above, but all or part of the embodiments can be selectively combined so that various modifications can be made. It may be composed. Although preferred embodiments of the embodiments have been shown and described, the embodiments are not limited to the specific embodiments described above, and are within the scope of common knowledge in the technical field to which the invention pertains without departing from the gist of the embodiments claimed in the claims. Of course, various modifications are possible by those who have, and these modifications should not be understood individually from the technical ideas or perspectives of the embodiments.

실시예들의 장치의 다양한 구성요소들은 하드웨어, 소프트웨어, 펌웨어 또는 그것들의 조합에 의해 수행될 수 있다. 실시예들의 다양한 구성요소들은 하나의 칩, 예를 들면 하나의 하드웨어 서킷으로 구현될 수 있다 실시예들에 따라, 실시예들에 따른 구성요소들은 각각 별도의 칩들로 구현될 수 있다. 실시예들에 따라, 실시예들에 따른 장치의 구성요소들 중 적어도 하나 이상은 하나 또는 그 이상의 프로그램들을 실행 할 수 있는 하나 또는 그 이상의 프로세서들로 구성될 수 있으며, 하나 또는 그 이상의 프로그램들은 실시예들에 따른 동작/방법들 중 어느 하나 또는 그 이상의 동작/방법들을 수행시키거나, 수행시키기 위한 인스트럭션들을 포함할 수 있다. 실시예들에 따른 장치의 방법/동작들을 수행하기 위한 실행 가능한 인스트럭션들은 하나 또는 그 이상의 프로세서들에 의해 실행되기 위해 구성된 일시적이지 않은 CRM 또는 다른 컴퓨터 프로그램 제품들에 저장될 수 있거나, 하나 또는 그 이상의 프로세서들에 의해 실행되기 위해 구성된 일시적인 CRM 또는 다른 컴퓨터 프로그램 제품들에 저장될 수 있다. 또한 실시예들에 따른 메모리는 휘발성 메모리(예를 들면 RAM 등)뿐 만 아니라 비휘발성 메모리, 플래쉬 메모리, PROM등을 전부 포함하는 개념으로 사용될 수 있다. 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함될 수 있다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The various components of the devices of the embodiments may be implemented by hardware, software, firmware, or a combination thereof. Various components of the embodiments may be implemented with one chip, for example, one hardware circuit. Depending on the embodiments, the components according to the embodiments may be implemented with separate chips. Depending on the embodiments, at least one or more of the components of the device according to the embodiments may be composed of one or more processors capable of executing one or more programs, and the one or more programs may be executed. It may perform one or more of the operations/methods according to the examples, or may include instructions for performing them. Executable instructions for performing methods/operations of a device according to embodiments may be stored in a non-transitory CRM or other computer program product configured for execution by one or more processors, or may be stored in one or more processors. It may be stored in temporary CRM or other computer program products configured for execution by processors. Additionally, memory according to embodiments may be used as a concept that includes not only volatile memory (eg, RAM, etc.) but also non-volatile memory, flash memory, and PROM. Additionally, it may also be implemented in the form of a carrier wave, such as transmission over the Internet. Additionally, the processor-readable recording medium is distributed in a computer system connected to a network, so that the processor-readable code can be stored and executed in a distributed manner.

이 문서에서 “/”와 “,”는 “및/또는”으로 해석된다. 예를 들어, “A/B”는 “A 및/또는 B”로 해석되고, “A, B”는 “A 및/또는 B”로 해석된다. 추가적으로, “A/B/C”는 “A, B 및/또는 C 중 적어도 하나”를 의미한다. 또한, “A, B, C”도 “A, B 및/또는 C 중 적어도 하나”를 의미한다. 추가적으로, 이 문서에서 “또는”는 “및/또는”으로 해석된다. 예를 들어, “A 또는 B”은, 1) “A” 만을 의미하고, 2) “B” 만을 의미하거나, 3) “A 및 B”를 의미할 수 있다. 달리 표현하면, 본 문서의 “또는”은 “추가적으로 또는 대체적으로(additionally or alternatively)”를 의미할 수 있다. In this document, “/” and “,” are interpreted as “and/or.” For example, “A/B” is interpreted as “A and/or B”, and “A, B” is interpreted as “A and/or B”. Additionally, “A/B/C” means “at least one of A, B and/or C.” Additionally, “A, B, C” also means “at least one of A, B and/or C.” Additionally, in this document, “or” is interpreted as “and/or.” For example, “A or B” may mean 1) only “A”, 2) only “B”, or 3) “A and B”. In other words, “or” in this document may mean “additionally or alternatively.”

제1, 제2 등과 같은 용어는 실시예들의 다양한 구성요소들을 설명하기 위해 사용될 수 있다. 하지만 실시예들에 따른 다양한 구성요소들은 위 용어들에 의해 해석이 제한되어서는 안된다. 이러한 용어는 하나의 구성요소를 다른 구성요소와 구별하기 위해 사?熾幷? 것에 불과하다. 것에 불과하다. 예를 들어, 제1 사용자 인풋 시그널은 제2사용자 인풋 시그널로 지칭될 수 있다. 이와 유사하게, 제2사용자 인풋 시그널은 제1사용자 인풋시그널로 지칭될 수 있다. 이러한 용어의 사용은 다양한 실시예들의 범위 내에서 벗어나지 않는 것으로 해석되어야만 한다. 제1사용자 인풋 시그널 및 제2사용자 인풋 시그널은 모두 사용자 인풋 시그널들이지만, 문맥 상 명확하게 나타내지 않는 한 동일한 사용자 인풋 시그널들을 의미하지 않는다.Terms such as first, second, etc. may be used to describe various components of the embodiments. However, the interpretation of various components according to the embodiments should not be limited by the above terms. These terms are used to distinguish one component from another. It's just a thing. It's just a thing. For example, a first user input signal may be referred to as a second user input signal. Similarly, the second user input signal may be referred to as the first user input signal. Use of these terms should be interpreted without departing from the scope of the various embodiments. The first user input signal and the second user input signal are both user input signals, but do not mean the same user input signals unless clearly indicated in the context.

실시예들을 설명하기 위해 사용된 용어는 특정 실시예들을 설명하기 위한 목적으로 사용되고, 실시예들을 제한하기 위해서 의도되지 않는다. 실시예들의 설명 및 청구항에서 사용된 바와 같이, 문맥 상 명확하게 지칭하지 않는 한 단수는 복수를 포함하는 것으로 의도된다. 및/또는 표현은 용어 간의 모든 가능한 결합을 포함하는 의미로 사용된다. 포함한다 표현은 특징들, 수들, 단계들, 엘리먼트들, 및/또는 컴포넌트들이 존재하는 것을 설명하고, 추가적인 특징들, 수들, 단계들, 엘리먼트들, 및/또는 컴포넌트들을 포함하지 않는 것을 의미하지 않는다. 실시예들을 설명하기 위해 사용되는, ~인 경우, ~때 등의 조건 표현은 선택적인 경우로만 제한 해석되지 않는다. 특정 조건을 만족하는 때, 특정 조건에 대응하여 관련 동작을 수행하거나, 관련 정의가 해석되도록 의도되었다.The terminology used to describe the embodiments is for the purpose of describing specific embodiments and is not intended to limit the embodiments. As used in the description of the embodiments and the claims, the singular is intended to include the plural unless the context clearly dictates otherwise. The expressions and/or are used in a sense that includes all possible combinations between the terms. The expression includes describes the presence of features, numbers, steps, elements, and/or components and does not imply the absence of additional features, numbers, steps, elements, and/or components. . Conditional expressions such as when, when, etc. used to describe the embodiments are not limited to optional cases. It is intended that when a specific condition is satisfied, the relevant action is performed or the relevant definition is interpreted in response to the specific condition.

또한, 본 문서에서 설명하는 실시예들에 따른 동작은 실시예들에 따라서 메모리 및/또는 프로세서를 포함하는 송수신 장치에 의해 수행될 수 있다. 메모리는 실시예들에 따른 동작을 처리/제어하기 위한 프로그램들을 저장할 수 있고, 프로세서는 본 문서에서 설명한 다양한 동작을 제어할 수 있다. 프로세서는 컨트롤러 등으로 지칭가능하다. 실시예들에 동작들은 펌웨어, 소프트웨어, 및/또는 그것들의 조합에 의해 수행될 수 있고, 펌웨어, 소프트웨어, 및/또는 그것들의 조합은 프로세서에 저장되거나 메모리에 저장될 수 있다.Additionally, operations according to embodiments described in this document may be performed by a transmitting and receiving device including a memory and/or a processor depending on the embodiments. The memory may store programs for processing/controlling operations according to embodiments, and the processor may control various operations described in this document. The processor may be referred to as a controller, etc. In embodiments, operations may be performed by firmware, software, and/or a combination thereof, and the firmware, software, and/or combination thereof may be stored in a processor or stored in memory.

한편, 상술한 실시예들에 따른 동작은 실시예들 따른 송신 장치 및/또는 수신 장치에 의해서 수행될 수 있다. 송수신 장치는 미디어 데이터를 송수신하는 송수신부, 실시예들에 따른 프로세스에 대한 인스트럭션(프로그램 코드, 알고리즘, flowchart 및/또는 데이터)을 저장하는 메모리, 송/수신 장치의 동작들을 제어하는 프로세서를 포함할 수 있다.Meanwhile, operations according to the above-described embodiments may be performed by a transmitting device and/or a receiving device according to the embodiments. The transmitting and receiving device may include a transmitting and receiving unit that transmits and receives media data, a memory that stores instructions (program code, algorithm, flowchart and/or data) for the process according to embodiments, and a processor that controls the operations of the transmitting and receiving device. You can.

프로세서는 컨트롤러 등으로 지칭될 수 있고, 예를 들어, 하드웨어, 소프트웨어, 및/또는 그것들의 조합에 대응할 수 있다. 상술한 실시예들에 따른 동작은 프로세서에 의해 수행될 수 있다. 또한, 프로세서는 상술한 실시예들의 동작을 위한 인코더/디코더 등으로 구현될 수 있다.A processor may be referred to as a controller, etc., and may correspond to, for example, hardware, software, and/or a combination thereof. Operations according to the above-described embodiments may be performed by a processor. Additionally, the processor may be implemented as an encoder/decoder, etc. for the operations of the above-described embodiments.

Claims (23)

다시점 영상을 생성하는 단계,
상기 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함함;
상기 다시점 영상을 위한 버츄얼 이미지의 위치를 표시하는 단계;
상기 버츄얼 이미지의 상기 위치의 뎁스를 계산하는 단계;
상기 버츄얼 이미지의 뎁스를 추정하는 단계;
상기 위치의 상기 뎁스 및 상기 버츄얼 이미지의 상기 뎁스를 매칭하는 단계; 및
상기 매칭된 뎁스에 기초하여, 상기 다시점 영상의 오차를 캘리브레이션하는 단계; 를 포함하는,
광학 특성 측정 방법.
Step of generating a multi-view image,
The multi-view image includes a left image, a center image, and a right image;
displaying the location of a virtual image for the multi-viewpoint image;
calculating a depth of the location of the virtual image;
estimating the depth of the virtual image;
matching the depth of the location and the depth of the virtual image; and
Calibrating an error of the multi-view image based on the matched depth; Including,
Methods for measuring optical properties.
제1항에 있어서,
상기 버츄얼 이미지는 상기 버츄얼 이미지를 위한 각 패턴 내 포인트들을 포함하고,
상기 포인트들의 포지션은 하나 또는 하나 이상의 광 측정 디바이스들 및 각 패턴에 기초하여 생성되는,
광학 특성 측정 방법.
According to paragraph 1,
The virtual image includes points in each pattern for the virtual image,
The positions of the points are generated based on one or more optical measurement devices and each pattern,
Methods for measuring optical properties.
제2항에 있어서,
상기 버츄얼 이미지의 패턴 내 포인트들을 포함하는 상기 좌측 영상은 하나 또는 하나 이상의 광 측정 디바이스들의 좌측 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 중앙 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 중앙 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 우측 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 상기 우측 광 측정 디바이스에 기초하여 캡쳐되는,
광학 특성 측정 방법.
According to paragraph 2,
The left image containing the points in the pattern of the virtual image is captured based on the left optical measurement device of one or more optical measuring devices, and the central image containing the points in the pattern is captured based on the one or more optical measuring devices. wherein the right image comprising points in a pattern is captured based on the right light measurement device of the one or more light measurement devices.
Methods for measuring optical properties.
제2항에 있어서,
상기 포지션의 좌표값들은 상기 좌측 광 측정 디바이스의 수평 픽셀 인덱스, 상기 우측 광 측정 디바이스의 수평 픽셀 인덱스, 중앙 광 측정 디바이스의 수평 픽셀 인덱스, 상기 좌측 광 측정 디바이스의 필드 오브 뷰에 기초하여 계산되는,
광학 특성 측정 방법.
According to paragraph 2,
The coordinate values of the position are calculated based on the horizontal pixel index of the left light measurement device, the horizontal pixel index of the right light measurement device, the horizontal pixel index of the central light measurement device, and the field of view of the left light measurement device.
Methods for measuring optical properties.
제2항에 있어서, 상기 방법은
중앙의 상기 패턴 내 포지션 및 상기 광 측정 디바이스에 기초하여 상기 버츄얼 이미지를 위한 버츄얼 이미지 디스턴스를 측정하는 단계를 더 포함하는,
광학 특성 측정 방법.
The method of claim 2, wherein the method
further comprising measuring a virtual image distance for the virtual image based on the position in the pattern of a center and the optical measurement device.
Methods for measuring optical properties.
제5항에 있어서, 상기 방법은
상기 패턴 내 포지션 및 상기 버츄얼 이미지 디스턴스에 기초하여, 상기 버츄얼 이미지 플레인을 위한 룩 다운 앵글 및 룩 업 앵글을 측정하는 단계를 더 포함하는,
광학 특성 측정 방법.
The method of claim 5, wherein the method
Based on the position within the pattern and the virtual image distance, further comprising measuring a look down angle and a look up angle for the virtual image plane,
Methods for measuring optical properties.
제2항에 있어서, 상기 방법은
중앙의 좌측 포인트에 대한 거리 및 상기 중앙의 우측 포인트에 대한 거리에 기초하여, 상기 버츄얼 이미지 플레인에 대한 수평 필드 오브 뷰를 측정하는 단계; 및
상기 중앙의 탑 포인트에 대한 거리 및 상기 중앙의 바닥 포인트에 대한 거리에 기초하여, 상기 버츄얼 이미지 플레인에 대한 수직 필드 오브 뷰를 측정하는 단계; 를 더 포함하는,
광학 특성 측정 방법.
The method of claim 2, wherein the method
measuring a horizontal field of view for the virtual image plane based on the distance to a left-of-center point and the distance to the right-of-center point; and
measuring a vertical field of view for the virtual image plane based on the distance to the central top point and the distance to the central bottom point; Containing more,
Methods for measuring optical properties.
제2항에 있어서, 상기 방법은,
중앙 및 상기 중앙의 탑 포인트 및 상기 중앙의 바닥 포인트 간 라인에 기초하여 상기 버츄얼 이미지 플레인에 대한 수평 디스토션을 측정하는 단계; 및
상기 중앙 및 상기 중앙의 좌측 포인트 및 상기 중앙의 우측 포인트 간 라인에 기초하여 상기 버츄얼 이미지 플레인에 대한 수직 디스토션을 측정하는 단계; 를 포함하는,
광학 특성 측정 방법.
The method of claim 2, wherein
measuring horizontal distortion for the virtual image plane based on a center and a line between the center top point and the center bottom point; and
measuring vertical distortion for the virtual image plane based on a line between the center and a point to the left of the center and a point to the right of the center; Including,
Methods for measuring optical properties.
다시점 영상을 생성하는 단계,
상기 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함함;
상기 다시점 영상을 위한 버츄얼 이미지의 위치들을 표시하는 단계;
상기 버츄얼 이미지의 위치들의 뎁스를 추정하는 단계;
상기 뎁스에 기초하여, 상기 위치들을 그룹핑하는 단계;
상기 그룹핑된 위치들에서 일부 위치를 선택하는 단계; 및
상기 선택된 일부 위치 및 상기 뎁스에 기반하여 보정된 가상 오브젝트를 투사하는 단계; 를 포함하는
광학 특성 측정 방법.
Step of generating a multi-view image,
The multi-view image includes a left image, a center image, and a right image;
displaying positions of virtual images for the multi-viewpoint image;
estimating depth of locations in the virtual image;
Based on the depth, grouping the locations;
selecting some locations from the grouped locations; and
Projecting a corrected virtual object based on the selected partial location and the depth; containing
Methods for measuring optical properties.
제9항에 있어서,
상기 버츄얼 이미지는 상기 버츄얼 이미지를 위한 각 패턴 내 포인트들을 포함하고,
상기 포인트들의 포지션은 하나 또는 하나 이상의 광 측정 디바이스들 및 각 패턴에 기초하여 생성되는,
광학 특성 측정 방법.
According to clause 9,
The virtual image includes points in each pattern for the virtual image,
The positions of the points are generated based on one or more optical measurement devices and each pattern,
Methods for measuring optical properties.
제10항에 있어서,
상기 버츄얼 이미지의 패턴 내 포인트들을 포함하는 상기 좌측 영상은 하나 또는 하나 이상의 광 측정 디바이스들의 좌측 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 중앙 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 중앙 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 우측 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 상기 우측 광 측정 디바이스에 기초하여 캡쳐되는,
광학 특성 측정 방법.
According to clause 10,
The left image containing the points in the pattern of the virtual image is captured based on the left optical measurement device of one or more optical measuring devices, and the central image containing the points in the pattern is captured based on the one or more optical measuring devices. wherein the right image comprising points in a pattern is captured based on the right light measurement device of the one or more light measurement devices.
Methods for measuring optical properties.
제10항에 있어서,
상기 포지션의 좌표값들은 상기 좌측 광 측정 디바이스의 수평 픽셀 인덱스, 상기 우측 광 측정 디바이스의 수평 픽셀 인덱스, 중앙 광 측정 디바이스의 수평 픽셀 인덱스, 상기 좌측 광 측정 디바이스의 필드 오브 뷰에 기초하여 계산되는,
광학 특성 측정 방법.
According to clause 10,
The coordinate values of the position are calculated based on the horizontal pixel index of the left light measurement device, the horizontal pixel index of the right light measurement device, the horizontal pixel index of the central light measurement device, and the field of view of the left light measurement device.
Methods for measuring optical properties.
제10항에 있어서, 상기 방법은
중앙의 상기 패턴 내 포지션 및 상기 광 측정 디바이스에 기초하여 상기 버츄얼 이미지를 위한 버츄얼 이미지 디스턴스를 측정하는 단계를 더 포함하는,
광학 특성 측정 방법.
The method of claim 10, wherein the method
further comprising measuring a virtual image distance for the virtual image based on the position in the pattern of a center and the optical measurement device.
Methods for measuring optical properties.
메모리;
상기 메모리와 연결된 프로세서; 및
상기 프로세서와 연결된 광 측정 유닛;을 포함하고,
상기 프로세서는,
다시점 영상을 생성하고,
상기 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함하고,
상기 다시점 영상을 위한 버츄얼 이미지의 위치를 표시하고,
상기 버츄얼 이미지의 상기 위치의 뎁스를 계산하고,
상기 버츄얼 이미지의 뎁스를 추정하고,
상기 위치의 상기 뎁스 및 상기 버츄얼 이미지의 상기 뎁스를 매칭하고, 및
상기 매칭된 뎁스에 기초하여, 상기 다시점 영상의 오차를 캘리브레이션하는,
광학 특성 측정 장치.
Memory;
a processor connected to the memory; and
It includes a light measurement unit connected to the processor,
The processor,
Create a multi-view image,
The multi-view image includes a left image, a center image, and a right image,
Displaying the location of the virtual image for the multi-view image,
Calculate the depth of the location of the virtual image,
Estimate the depth of the virtual image,
Matching the depth of the location and the depth of the virtual image, and
Based on the matched depth, calibrating the error of the multi-view image,
Optical properties measurement device.
제14항에 있어서,
상기 버츄얼 이미지는 상기 버츄얼 이미지를 위한 각 패턴 내 포인트들을 포함하고,
상기 포인트들의 포지션은 하나 또는 하나 이상의 광 측정 디바이스들 및 각 패턴에 기초하여 생성되는,
광학 특성 측정 장치.
According to clause 14,
The virtual image includes points in each pattern for the virtual image,
The positions of the points are generated based on one or more optical measurement devices and each pattern,
Optical properties measurement device.
제15항에 있어서,
상기 버츄얼 이미지의 패턴 내 포인트들을 포함하는 상기 좌측 영상은 하나 또는 하나 이상의 광 측정 디바이스들의 좌측 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 중앙 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 중앙 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 우측 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 상기 우측 광 측정 디바이스에 기초하여 캡쳐되는,
광학 특성 측정 장치.
According to clause 15,
The left image containing the points in the pattern of the virtual image is captured based on the left optical measurement device of one or more optical measuring devices, and the central image containing the points in the pattern is captured based on the one or more optical measuring devices. wherein the right image comprising points in a pattern is captured based on the right light measurement device of the one or more light measurement devices.
Optical properties measurement device.
제15항에 있어서,
상기 포지션의 좌표값들은 상기 좌측 광 측정 디바이스의 수평 픽셀 인덱스, 상기 우측 광 측정 디바이스의 수평 픽셀 인덱스, 중앙 광 측정 디바이스의 수평 픽셀 인덱스, 상기 좌측 광 측정 디바이스의 필드 오브 뷰에 기초하여 계산되는,
광학 특성 측정 장치.
According to clause 15,
The coordinate values of the position are calculated based on the horizontal pixel index of the left light measurement device, the horizontal pixel index of the right light measurement device, the horizontal pixel index of the central light measurement device, and the field of view of the left light measurement device.
Optical properties measurement device.
제15항에 있어서, 상기 프로세서는
중앙의 상기 패턴 내 포지션 및 상기 광 측정 디바이스에 기초하여 상기 버츄얼 이미지를 위한 버츄얼 이미지 디스턴스를 측정하는,
광학 특성 측정 장치.
The method of claim 15, wherein the processor
measuring a virtual image distance for the virtual image based on the position in the pattern of a center and the optical measurement device,
Optical properties measurement device.
메모리;
상기 메모리와 연결된 프로세서; 및
상기 프로세서와 연결된 광 측정 유닛;을 포함하고,
상기 프로세서는,
다시점 영상을 생성하고,
상기 다시점 영상은 좌측 영상, 중앙 영상, 우측 영상을 포함하고,
상기 다시점 영상을 위한 버츄얼 이미지의 위치들을 표시하고,
상기 버츄얼 이미지의 위치들의 뎁스를 추정하고,
상기 뎁스에 기초하여, 상기 위치들을 그룹핑하고,
상기 그룹핑된 위치들에서 일부 위치를 선택하고,
상기 선택된 일부 위치 및 상기 뎁스에 기반하여 보정된 가상 오브젝트를 투사하는,
광학 특성 측정 장치.
Memory;
a processor connected to the memory; and
It includes a light measurement unit connected to the processor,
The processor,
Create a multi-view image,
The multi-view image includes a left image, a center image, and a right image,
Displaying the positions of the virtual image for the multi-view image,
Estimate the depth of the locations of the virtual image,
Based on the depth, group the locations,
Select some locations from the grouped locations,
Projecting a corrected virtual object based on the selected location and the depth,
Optical properties measurement device.
제19항에 있어서,
상기 버츄얼 이미지는 상기 버츄얼 이미지를 위한 각 패턴 내 포인트들을 포함하고,
상기 포인트들의 포지션은 하나 또는 하나 이상의 광 측정 디바이스들 및 각 패턴에 기초하여 생성되는,
광학 특성 측정 장치.
According to clause 19,
The virtual image includes points in each pattern for the virtual image,
The positions of the points are generated based on one or more optical measurement devices and each pattern,
Optical properties measurement device.
제20항에 있어서,
상기 버츄얼 이미지의 패턴 내 포인트들을 포함하는 상기 좌측 영상은 하나 또는 하나 이상의 광 측정 디바이스들의 좌측 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 중앙 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 중앙 광 측정 디바이스에 기초하여 캡쳐되고, 패턴 내 포인트들을 포함하는 상기 우측 영상은 상기 하나 또는 하나 이상의 광 측정 디바이스들의 상기 우측 광 측정 디바이스에 기초하여 캡쳐되는,
광학 특성 측정 장치.
According to clause 20,
The left image containing the points in the pattern of the virtual image is captured based on the left optical measurement device of one or more optical measuring devices, and the central image containing the points in the pattern is captured based on the one or more optical measuring devices. wherein the right image comprising points in a pattern is captured based on the right light measurement device of the one or more light measurement devices.
Optical properties measurement device.
제20항에 있어서,
상기 포지션의 좌표값들은 상기 좌측 광 측정 디바이스의 수평 픽셀 인덱스, 상기 우측 광 측정 디바이스의 수평 픽셀 인덱스, 중앙 광 측정 디바이스의 수평 픽셀 인덱스, 상기 좌측 광 측정 디바이스의 필드 오브 뷰에 기초하여 계산되는,
광학 특성 측정 장치.
According to clause 20,
The coordinate values of the position are calculated based on the horizontal pixel index of the left light measurement device, the horizontal pixel index of the right light measurement device, the horizontal pixel index of the central light measurement device, and the field of view of the left light measurement device.
Optical properties measurement device.
제20항에 있어서, 상기 프로세서는,
중앙의 상기 패턴 내 포지션 및 상기 광 측정 디바이스에 기초하여 상기 버츄얼 이미지를 위한 버츄얼 이미지 디스턴스를 측정하는,
광학 특성 측정 장치.
21. The method of claim 20, wherein the processor:
measuring a virtual image distance for the virtual image based on the position in the pattern of a center and the optical measurement device,
Optical properties measurement device.
KR1020220098030A 2022-08-05 2022-08-05 A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera KR20240020051A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220098030A KR20240020051A (en) 2022-08-05 2022-08-05 A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera
PCT/KR2023/003612 WO2024029680A1 (en) 2022-08-05 2023-03-17 Method and device for hud calibration using camera inside vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220098030A KR20240020051A (en) 2022-08-05 2022-08-05 A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera

Publications (1)

Publication Number Publication Date
KR20240020051A true KR20240020051A (en) 2024-02-14

Family

ID=89849063

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220098030A KR20240020051A (en) 2022-08-05 2022-08-05 A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera

Country Status (2)

Country Link
KR (1) KR20240020051A (en)
WO (1) WO2024029680A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107318027B (en) * 2012-12-27 2020-08-28 日本电信电话株式会社 Image encoding/decoding method, image encoding/decoding device, and image encoding/decoding program
KR102143472B1 (en) * 2013-07-26 2020-08-12 삼성전자주식회사 Multi view image processing apparatus and image processing method thereof
KR20190072742A (en) * 2017-12-18 2019-06-26 전자부품연구원 Calibrated Multi-Camera based Real-time Super Multi-View Image Synthesis Method and System
KR20190118846A (en) * 2018-04-11 2019-10-21 한국과학기술연구원 Multi-focal augmented reality device
KR102327304B1 (en) * 2020-02-25 2021-11-17 광운대학교 산학협력단 A method of improving the quality of 3D images acquired from RGB-depth camera

Also Published As

Publication number Publication date
WO2024029680A1 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
KR102686690B1 (en) Method and apparatus for measuring optical properties of augmented reality device
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
JP2018535402A (en) System and method for fusing outputs of sensors having different resolutions
JP2015142383A (en) Range calibration of binocular optical augmented reality system
CN112926428A (en) Method and system for training object detection algorithm using composite image and storage medium
CN110377148B (en) Computer readable medium, method of training object detection algorithm, and training apparatus
Wientapper et al. A camera-based calibration for automotive augmented reality head-up-displays
US20100302234A1 (en) Method of establishing dof data of 3d image and system thereof
US9760263B2 (en) Image processing device, image processing method, and stereoscopic image display device
US20180213156A1 (en) Method for displaying on a screen at least one representation of an object, related computer program, electronic display device and apparatus
WO2021257126A1 (en) System for correcting rolling shutter artifacts
KR20220022340A (en) Device and method to visualize content
JP6020009B2 (en) Head mounted display, method and program for operating the same
KR20220032448A (en) Method and apparatus of correcting crosstalk
US8983125B2 (en) Three-dimensional image processing device and three dimensional image processing method
KR20110087112A (en) Image display device using tof priciple and method thereof
TWI486054B (en) A portrait processing device, a three-dimensional image display device, a method and a program
KR20240020051A (en) A method of calibrating a head up display using an in-car camera and an apparatus of calibrating a head up display using an in-car camera
US12095978B2 (en) Perspective-dependent display of surrounding environment
KR102675906B1 (en) A method of measuring a head up display ghost image and an apparatus of measuring a head up display ghost image
KR101831978B1 (en) Generation method of elemental image contents for display system with rotated lenticular sheet
US20230306676A1 (en) Image generation device and image generation method
CN115665400B (en) Augmented reality head-up display imaging method, device, equipment and storage medium
CN118004035B (en) Auxiliary driving method and device based on vehicle-mounted projector and electronic equipment
WO2019147237A1 (en) Augmented reality display