KR101866804B1 - Method and apparatus for calculating surface curve of transparent material - Google Patents

Method and apparatus for calculating surface curve of transparent material Download PDF

Info

Publication number
KR101866804B1
KR101866804B1 KR1020170028152A KR20170028152A KR101866804B1 KR 101866804 B1 KR101866804 B1 KR 101866804B1 KR 1020170028152 A KR1020170028152 A KR 1020170028152A KR 20170028152 A KR20170028152 A KR 20170028152A KR 101866804 B1 KR101866804 B1 KR 101866804B1
Authority
KR
South Korea
Prior art keywords
camera
curved surface
observation point
transparent material
coordinates
Prior art date
Application number
KR1020170028152A
Other languages
Korean (ko)
Inventor
설상훈
윤성욱
최태현
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020170028152A priority Critical patent/KR101866804B1/en
Application granted granted Critical
Publication of KR101866804B1 publication Critical patent/KR101866804B1/en

Links

Images

Classifications

    • H04N5/217
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/23216

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The present invention relates to a method for calculating a surface curvature of a transparent material and an apparatus thereof. The method for calculating a surface curvature of a transparent material comprises a step in which a distortion camera coordinate calculation unit calculates a distortion observation point camera coordinate based on a transparent material transmission image including an arbitrary observation point located on an arbitrary observation plane; a step in which a non-distortion camera coordinate calculation unit calculates a non-distortion observation point camera coordinate based on a transparent material removal image including an arbitrary observation point photographed after removing a transparent material; a step in which a curved surface parameter determination unit determines a plurality of curved surface parameters based on a difference between the distortion observation point camera coordinate and the non-distortion observation point camera coordinate; and a step in which a transparent material surface curvature calculation unit calculates a surface curvature of the transparent material by applying the determined curved surface parameters to a pre-stored transparent material curved surface model.

Description

투명 소재 곡면값 산출 방법 및 장치{METHOD AND APPARATUS FOR CALCULATING SURFACE CURVE OF TRANSPARENT MATERIAL}METHOD AND APPARATUS FOR CALCULATING SURFACE CURVE OF TRANSPARENT MATERIAL

본 발명은 투명 소재를 투과하여 촬영한 영상에 기초하여 투명 소재의 곡면값을 산출하기 위한 투명 소재 곡면값 산출 방법 및 장치에 관한 것이다.The present invention relates to a method and an apparatus for calculating a transparent material curvature value for calculating a curvature value of a transparent material based on an image captured through a transparent material.

최근 들어, 차량의 주행보조 및 차량의 자율주행과 관련된 각종 기능들을 제공하기 위하여, 차량 내부에 설치되어 차량 외부를 감시하는 각종 카메라 제품들이 개발, 사용되고 있다.2. Description of the Related Art In recent years, various camera products installed inside a vehicle to monitor the outside of a vehicle have been developed and used in order to provide various functions related to driving assistance of a vehicle and autonomous driving of the vehicle.

상술한 차량 내부에 설치되어 차량 외부를 감시하는 각종 카메라 제품들은 차량의 유리를 비롯한 투명 소재를 투과하여 차량의 외부를 감시하기 때문에, 상술한 각종 카메라 제품들이 촬영한 영상은 왜곡이 발생한다.Various camera products installed inside the vehicle and monitoring the outside of the vehicle transmit transparent materials including the glass of the vehicle to monitor the outside of the vehicle, so that images captured by the various camera products described above are distorted.

이러한, 투명 소재에 의한 왜곡은 카메라, 투명 소재, 피사체의 기하학적 구조에 따라 결정되게 되며, 종래에는 이러한 왜곡을 보정하기 위하여 카메라 외에도 별도의 3차원 위치 측정 장비를 활용하였다.The distortion caused by the transparent material is determined by the geometry of the camera, the transparent material, and the subject. Conventionally, a separate three-dimensional position measuring device is used in addition to the camera to correct such distortion.

그러나, 이러한 별도의 3차원 위치 측정 장비를 활용하는 경우, 3차원 위치 측정 장비를 구비하기 위한 추가적인 비용이 소요될 뿐만 아니라, 카메라와 3차원 위치 측정 장비 간의 좌표계를 일치시키기 위하여 추가적인 시간 및 노력이 소요되는 문제가 있다.However, the use of such a separate three-dimensional position measuring instrument requires additional time and effort to match the coordinate system between the camera and the three-dimensional position measuring instrument as well as the additional cost to provide the three-dimensional position measuring instrument There is a problem.

한국 공개특허공보 제10-2001-0017356호(2001.03.05.)Korean Patent Publication No. 10-2001-0017356 (Mar.

본 발명의 목적은, 상기 문제점을 해결하기 위한 것으로, 임의의 관찰 평면 상에 위치한 임의의 관찰점에 대해 투명 소재를 투과하여 촬영된 왜곡 관찰점 카메라 좌표와 투명 소재를 제거하여 촬영된 비왜곡 관찰점 카메라 좌표의 차이에 기초하여 복수의 곡면 파라미터를 결정한 뒤, 결정된 복수의 곡면 파라미터에 기초하여 투명 소재의 곡면값을 산출하기 위함이다.SUMMARY OF THE INVENTION The object of the present invention is to solve the above-mentioned problems, and it is an object of the present invention to provide an apparatus and a method for correcting distortion of an image by transmitting a transparent material through an observation point located on an arbitrary observation plane, And a plurality of curved surface parameters are determined on the basis of the difference of the point camera coordinates, and then the curved surface value of the transparent material is calculated based on the determined plurality of curved surface parameters.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problem (s), and another problem (s) not mentioned can be clearly understood by those skilled in the art from the following description.

상기한 목적을 달성하기 위하여 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법은, 투명 소재의 곡면값을 산출하기 위한 투명 소재 곡면값 산출 방법에 있어서, 왜곡 카메라 좌표 산출부가, 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 단계, 비왜곡 카메라 좌표 산출부가, 투명 소재를 제거하고 촬영된 임의의 관찰점을 포함하는 투명 소재 제거 영상에 기초하여 비왜곡 관찰점 카메라 좌표를 산출하는 단계, 곡면 파라미터 결정부가, 왜곡 관찰점 카메라 좌표와 비왜곡 관찰점 카메라 좌표의 차이에 기초하여 복수의 곡면 파라미터를 결정하는 단계 및 투명 소재 곡면값 산출부가, 결정된 복수의 곡면 파라미터를 미리 저장된 투명 소재 곡면 모델에 적용하여 투명 소재의 곡면값을 산출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of calculating a transparent material curve value for calculating a curve value of a transparent material, the method comprising the steps of: Calculating a distorted observation point camera coordinate based on a transparent material transmission image including an arbitrary observation point located on the transparent material; Calculating a plurality of curved surface parameters based on the difference between the distortion observation point camera coordinates and the non-distortion observation point point camera coordinates; Value calculation unit applies a plurality of determined curved surface parameters to a previously stored transparent material curved surface model, And calculating a curved surface value of the workpiece.

일 실시예에 따라, 왜곡 관찰점 카메라 좌표를 산출하는 단계는, 미리 저장된 투명 소재 곡면 모델, 투명 소재의 두께(d0) 및 굴절률(nw)에 기초하여 카메라의 중심으로부터 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계 및 광 굴절 경로와 임의의 관찰 평면 간의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 단계를 포함한다.According to one embodiment, the step of calculating the distortion observation point camera coordinates may comprise the step of calculating the distortion observation point camera coordinates based on the previously stored transparent material surface model, the thickness (d 0 ) and the refractive index (n w ) And calculating a distortion observation point camera coordinate based on an intersection between the optical refraction path and an arbitrary observation plane.

예컨대, 복수의 곡면 파라미터를 결정하는 단계는, 비왜곡 관찰점 카메라 좌표와 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점 각각에 해당하는 적어도 하나의 제1 끝점 및 제2 끝점 간의 카메라 좌표 거리가 적어도 하나의 선분의 길이와 각각 같도록 하는 조건을 모두 만족하도록 복수의 곡면 파라미터를 결정하는 단계를 포함한다.For example, the step of determining the plurality of curved surface parameters may include a condition that the difference between the non-distorted observation point camera coordinates and the distortion observation point camera coordinates is minimized, and a condition that the amount of at least one line segment disposed in advance on the first surface of the transparent material Determining a plurality of curved surface parameters such that the camera coordinate distance between at least one first end point and the second end point corresponding to each of the end points is equal to the length of at least one line segment, respectively.

일 실시예에 따라, 복수의 곡면 파라미터는 아래 수학식 13에 기초하여 결정된다.According to one embodiment, a plurality of curved surface parameters are determined based on Equation (13) below.

[수학식 13]&Quot; (13) "

Figure 112017022039266-pat00001
Figure 112017022039266-pat00001

S*는 결정된 복수의 곡면 파라미터를 포함하는 곡면 파라미터 집합, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합,

Figure 112017022039266-pat00002
는 k번째 관찰점에 대한 비왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00003
는 k번째 관찰점에 대한 왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00004
는 k번째 관찰점의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00005
는 k번째 관찰점의 아지무스(azimuth) 각도 좌표,
Figure 112017022039266-pat00006
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제1 끝점 카메라 좌표,
Figure 112017022039266-pat00007
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제2 끝점 카메라 좌표, Li는 i번째 선분의 길이를 의미한다.S * is a set of curved surface parameters including a plurality of determined curved surface parameters, S is a set of curved surface parameter estimates including a plurality of curved surface parameter estimates,
Figure 112017022039266-pat00002
Is the non-distortion observation point camera coordinate for the kth observation point,
Figure 112017022039266-pat00003
Is the distortion observation point camera coordinates for the kth observation point,
Figure 112017022039266-pat00004
Is the inclination angle coordinate of the kth observation point,
Figure 112017022039266-pat00005
Is the azimuth angle coordinate of the kth observation point,
Figure 112017022039266-pat00006
The first end camera coordinates of the i-th line segment disposed on the first surface of the transparent material,
Figure 112017022039266-pat00007
Is the coordinates of the second end point camera of the i-th line segment arranged on the first side of the transparent material, and L i is the length of the i-th line segment.

예컨대, 투명 소재 곡면 모델은 아래 수학식 4에 기초하여 정의된다.For example, the transparent material surface model is defined based on Equation (4) below.

[수학식 4]&Quot; (4) "

Figure 112017022039266-pat00008
Figure 112017022039266-pat00008

r은 구면 좌표계의 거리 좌표,

Figure 112017022039266-pat00009
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00010
는 구면 좌표계의 아지무스(azimuth) 각도 좌표, ax는 제1 곡면 파라미터, ay는 제2 곡면 파라미터, az는 제3 곡면 파라미터 및 ar은 제4 곡면 파라미터를, Am,n은 제1 곡면 파라미터 행렬의 m행 n열, Bm,n은 제2 곡면 파라미터 행렬의 m행 n열을 의미한다.r is the distance coordinate of the spherical coordinate system,
Figure 112017022039266-pat00009
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00010
A x is a first curved surface parameter, a y is a second curved surface parameter, a z is a third curved surface parameter, and a r is a fourth curved surface parameter, and A m, n is a M rows and n columns of the first curved surface parameter matrix, B m, n means m rows and n columns of the second curved surface parameter matrix.

예를 들어, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법은, 카메라 좌표 보정부가, 결정된 복수의 곡면 파라미터 및 적어도 하나의 카메라로 촬영한 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 단계를 더 포함한다.For example, a method for calculating a transparent material curve value according to an embodiment of the present invention is a method for calculating a transparent material curve value based on a plurality of determined curved surface parameters and a transparent material transmitted image captured with at least one camera, And calculating the corrected observation point camera coordinates by calculating the corrected observation point camera coordinates.

일 실시예에 따라, 적어도 하나의 카메라가 한 개의 카메라인 경우, 보정 관찰점 카메라 좌표를 산출하는 단계는, 결정된 복수의 곡면 파라미터에 기초하여 한 개의 카메라로부터 임의의 관찰 평면 상에 위치한 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계 및 광 굴절 경로 및 임의의 관찰 평면의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 단계를 포함한다.According to one embodiment, when at least one camera is a single camera, calculating the corrected viewing point camera coordinates may include calculating, based on the determined plurality of curved surface parameters, an arbitrary observation located on an arbitrary observation plane from one camera Calculating a corrected observation point camera coordinate by calculating a distortion observation point camera coordinate based on an intersection of the light refraction path and an arbitrary observation plane;

예를 들어, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우, 보정 관찰점 카메라 좌표를 산출하는 단계는, 제1 카메라에 대한 복수의 곡면 파라미터인 복수의 제1 카메라 곡면 파라미터에 기초하여 제1 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제1 카메라 광 굴절 경로를 산출하는 단계, 제2 카메라에 대한 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터에 기초하여 제2 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제2 카메라 광 굴절 경로를 산출하는 단계, 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 단계를 포함한다.For example, when at least one camera includes a first camera and a second camera, the step of calculating the corrected observation point camera coordinates may include calculating the corrected observation point camera coordinates based on a plurality of first camera curved surface parameters Calculating a first camera photographic refraction path that is a photorefractive path from the first camera to an arbitrary observation point on the basis of the plurality of curved surface parameters for the first camera, Calculating a second camera photographic refraction path that is a photorefractive path from the first camera photoreflection path to an arbitrary observation point, calculating the distortion observation point camera coordinates based on the intersection of the first camera photoreflection path and the second camera photoreflection path, And calculating point camera coordinates.

예를 들어, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법은, 영상 좌표 보정부가, 미리 설정된 카메라 좌표와 2차원 영상 좌표 간의 좌표 관계에 기초하여 보정 관찰점 카메라 좌표를 대응되는 보정 2차원 영상 좌표로 변환하는 단계를 더 포함한다.For example, in a method of calculating a transparent material curve value according to an embodiment of the present invention, an image coordinate correction unit calculates a correction coordinate value of a corrected observation point camera coordinate based on a coordinate relationship between a camera coordinate and a two- Into image coordinates.

예컨대, 복수의 제2 카메라 곡면 파라미터가 결정되지 않은 경우, 복수의 제2 카메라 곡면 파라미터를 결정하는 단계를 더 포함하며, 복수의 제2 카메라 곡면 파라미터를 결정하는 단계는, 미리 결정된 복수의 제1 카메라 곡면 파라미터를 투명 소재 곡면 모델에 적용하여 제1 카메라 곡면값을 산출하는 단계, 복수의 제2 카메라 곡면 파라미터 추정값을 투명 소재 곡면 모델에 적용하여 추정 제2 카메라 곡면값을 산출하는 단계, 미리 설정된 제1 카메라 좌표와 제2 카메라 좌표 간의 관계에 기초하여 추정 제2 카메라 곡면값에 대응되는 가상의 제1 카메라 곡면값을 산출하는 단계, 제1 카메라 곡면값과 가상의 제1 카메라 곡면값 간의 차이가 최소가 되도록 하는 복수의 제2 카메라 곡면 파라미터 추정값을 복수의 제2 카메라 곡면 파라미터로 결정하는 단계를 포함한다.For example, if a plurality of second camera curved surface parameters are not determined, the method further comprises the step of determining a plurality of second camera curved surface parameters, wherein the step of determining the plurality of second camera curved surface parameters comprises: Calculating a first camera curved surface value by applying a camera curved surface parameter to a transparent curved surface model, calculating a second estimated camera curved surface value by applying a plurality of second camera curved surface parameter estimates to a transparent curved surface model, Calculating an imaginary first camera curved surface value corresponding to the estimated second camera curved surface value based on the relationship between the first camera coordinate and the second camera coordinate, calculating a difference between the first camera curved surface value and the virtual first camera curved surface value Determining a plurality of second camera curved surface parameter estimation values as a plurality of second camera curved surface parameters, .

상기한 목적을 달성하기 위하여, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 장치는, 투명 소재의 곡면값을 산출하기 위한 투명 소재 곡면값 산출 장치에 있어서, 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 왜곡 카메라 좌표 산출부, 투명 소재를 제거하고 촬영된 임의의 관찰점을 포함하는 투명 소재 제거 영상에 기초하여 비왜곡 관찰점 카메라 좌표를 산출하는 비왜곡 카메라 좌표 산출부, 왜곡 관찰점 카메라 좌표와 비왜곡 관찰점 카메라 좌표의 차이에 기초하여 복수의 곡면 파라미터를 결정하는 곡면 파라미터 결정부 및 결정된 복수의 곡면 파라미터를 미리 저장된 투명 소재 곡면 모델에 적용하여 투명 소재의 곡면값을 산출하는 투명 소재 곡면값 산출부를 포함한다.According to another aspect of the present invention, there is provided a transparent material curvature value calculating device for calculating a curvature value of a transparent material, A distortion camera coordinate calculation unit for calculating a distortion observation camera coordinate based on a transparent material transmission image including an observation point, a distortion camera coordinate calculation unit for calculating a distortion camera coordinate value based on a transparent material removal image based on a transparent material removal image, A non-distorted camera coordinate calculation unit for calculating point camera coordinates, a curved surface parameter determination unit for determining a plurality of curved surface parameters based on the difference between the distortion observation camera coordinates and the non-distorted observation point camera coordinates, and a plurality of determined curved surface parameters A transparent material curved surface value calculating unit for calculating the curved surface value of the transparent material by applying the curved surface model to the transparent material curved surface model It includes.

일 실시예에 따라, 왜곡 카메라 좌표 산출부는, 미리 저장된 투명 소재 곡면 모델, 투명 소재의 두께(d0) 및 굴절률(nw)에 기초하여 카메라의 중심으로부터 임의의 관찰점에 이르는 광 굴절 경로를 산출하고, 광 굴절 경로와 임의의 관찰 평면 간의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출한다.According to one embodiment, the distorted camera coordinate calculator calculates a refractive index of the light from the center of the camera to an arbitrary observation point based on a previously stored transparent material surface model, the thickness (d 0 ) and the refractive index (n w ) And the distortion observation point camera coordinates are calculated based on the intersection point between the optical refraction path and the arbitrary observation plane.

예컨대, 곡면 파라미터 결정부는, 비왜곡 관찰점 카메라 좌표와 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점 각각에 해당하는 적어도 하나의 제1 끝점 및 제2 끝점 간의 카메라 좌표 거리가 적어도 하나의 선분의 길이와 각각 같도록 하는 조건을 모두 만족하도록 복수의 곡면 파라미터를 결정한다.For example, the curved surface parameter determination unit may determine that the difference between the non-distorted observation point camera coordinate and the distortion observation point camera coordinate is minimized and the condition that the distances between the non- A plurality of curved surface parameters are determined so as to satisfy all the conditions that the camera coordinate distance between the at least one first end point and the second end point is equal to the length of at least one line segment.

일 실시예에 따라, 복수의 곡면 파라미터는 아래 수학식 13에 기초하여 결정된다.According to one embodiment, a plurality of curved surface parameters are determined based on Equation (13) below.

[수학식 13]&Quot; (13) "

Figure 112017022039266-pat00011
Figure 112017022039266-pat00011

S*는 결정된 복수의 곡면 파라미터를 포함하는 곡면 파라미터 집합, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합,

Figure 112017022039266-pat00012
는 k번째 관찰점에 대한 비왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00013
는 k번째 관찰점에 대한 왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00014
는 k번째 관찰점의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00015
는 k번째 관찰점의 아지무스(azimuth) 각도 좌표,
Figure 112017022039266-pat00016
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제1 끝점 카메라 좌표,
Figure 112017022039266-pat00017
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제2 끝점 카메라 좌표, Li는 i번째 선분의 길이를 의미한다.S * is a set of curved surface parameters including a plurality of determined curved surface parameters, S is a set of curved surface parameter estimates including a plurality of curved surface parameter estimates,
Figure 112017022039266-pat00012
Is the non-distortion observation point camera coordinate for the kth observation point,
Figure 112017022039266-pat00013
Is the distortion observation point camera coordinates for the kth observation point,
Figure 112017022039266-pat00014
Is the inclination angle coordinate of the kth observation point,
Figure 112017022039266-pat00015
Is the azimuth angle coordinate of the kth observation point,
Figure 112017022039266-pat00016
The first end camera coordinates of the i-th line segment disposed on the first surface of the transparent material,
Figure 112017022039266-pat00017
Is the coordinates of the second end point camera of the i-th line segment arranged on the first side of the transparent material, and L i is the length of the i-th line segment.

예컨대, 투명 소재 곡면 모델은 아래 수학식 4에 기초하여 정의된다.For example, the transparent material surface model is defined based on Equation (4) below.

[수학식 4]&Quot; (4) "

Figure 112017022039266-pat00018
Figure 112017022039266-pat00018

r은 구면 좌표계의 거리 좌표,

Figure 112017022039266-pat00019
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00020
는 구면 좌표계의 아지무스(azimuth) 각도 좌표, ax는 제1 곡면 파라미터, ay는 제2 곡면 파라미터, az는 제3 곡면 파라미터 및 ar은 제4 곡면 파라미터를, Am,n은 제1 곡면 파라미터 행렬의 m행 n열, Bm,n은 제2 곡면 파라미터 행렬의 m행 n열을 의미한다.r is the distance coordinate of the spherical coordinate system,
Figure 112017022039266-pat00019
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00020
A x is a first curved surface parameter, a y is a second curved surface parameter, a z is a third curved surface parameter, and a r is a fourth curved surface parameter, and A m, n is a M rows and n columns of the first curved surface parameter matrix, B m, n means m rows and n columns of the second curved surface parameter matrix.

예컨대, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 장치는, 결정된 복수의 곡면 파라미터 및 적어도 하나의 카메라로 촬영한 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 카메라 좌표 보정부를 더 포함한다.For example, the transparent material surface value calculating device according to the embodiment of the present invention calculates the distortion observation point camera coordinates based on the determined plurality of curved surface parameters and the transparent material transmission image captured with at least one camera, And a camera coordinate correcting unit for calculating a camera coordinate correcting unit.

일 실시예에 따라, 적어도 하나의 카메라가 한 개의 카메라인 경우, 카메라 좌표 보정부는, 결정된 복수의 곡면 파라미터에 기초하여 한 개의 카메라로부터 임의의 관찰 평면 상에 위치한 임의의 관찰점에 이르는 광 굴절 경로를 산출하고, 광 굴절 경로 및 임의의 관찰 평면의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출한다.According to one embodiment, when at least one camera is a single camera, the camera coordinate correction unit may be configured to calculate, based on the determined plurality of curved surface parameters, a light refraction path from one camera to an arbitrary observation point located on an arbitrary observation plane And calculates the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on the intersection of the optical refraction path and the arbitrary observation plane.

예를 들어, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우, 카메라 좌표 보정부는, 제1 카메라에 대한 복수의 곡면 파라미터인 복수의 제1 카메라 곡면 파라미터에 기초하여 제1 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제1 카메라 광 굴절 경로를 산출하고, 제2 카메라에 대한 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터에 기초하여 제2 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제2 카메라 광 굴절 경로를 산출하고, 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출한다.For example, when at least one camera includes a first camera and a second camera, the camera coordinate correcting unit may obtain, from the first camera, based on a plurality of first camera curved surface parameters that are a plurality of curved surface parameters for the first camera Calculating a first camera photographic refraction path that is a photorefractive path toward an arbitrary observation point and calculating a first camera photorefractive path from the second camera to an arbitrary observation point based on a plurality of second camera surface parameters that are a plurality of curved surface parameters for the second camera A second camera photographic refraction path that is a photorefractive path is calculated, and the distortion observation point camera coordinates are calculated based on the intersection of the first camera photoreflection path and the second camera photorefractive path to calculate corrected viewing point camera coordinates.

일 실시예에 따라, 투명 소재 곡면값 산출 장치는, 미리 설정된 카메라 좌표와 2차원 영상 좌표 간의 좌표 관계에 기초하여 보정 관찰점 카메라 좌표를 대응되는 보정 2차원 영상 좌표로 변환하는 영상 좌표 보정부를 더 포함한다.According to one embodiment, the transparent material curvature value calculating device further includes an image coordinate correcting unit for converting the corrected observation point camera coordinates into corresponding corrected two-dimensional image coordinates on the basis of the coordinate relationship between the previously set camera coordinate and the two- .

예컨대, 복수의 제2 카메라 곡면 파라미터가 결정되지 않은 경우, 카메라 좌표 보정부는, 미리 결정된 복수의 제1 카메라 곡면 파라미터를 투명 소재 곡면 모델에 적용하여 제1 카메라 곡면값을 산출하고, 복수의 제2 카메라 곡면 파라미터 추정값을 투명 소재 곡면 모델에 적용하여 추정 제2 카메라 곡면값을 산출하고, 미리 설정된 제1 카메라 좌표와 제2 카메라 좌표 간의 관계에 기초하여 추정 제2 카메라 곡면값에 대응되는 가상의 제1 카메라 곡면값을 산출하고, 제1 카메라 곡면값과 가상의 제1 카메라 곡면값 간의 차이가 최소가 되도록 하는 복수의 제2 카메라 곡면 파라미터 추정값을 복수의 제2 카메라 곡면 파라미터로 결정한다.For example, when a plurality of second camera curved surface parameters are not determined, the camera coordinate correction unit applies a plurality of predetermined first camera curved surface parameters to the transparent material curved surface model to calculate a first camera curved surface value, Calculating an estimated second camera curvature value by applying the camera curved surface parameter estimation value to the transparent material curved surface model, calculating a virtual second curvature value based on a relationship between the first camera coordinate and a second camera coordinate set in advance, A plurality of second camera curved surface parameter estimates are determined as a plurality of second camera curved surface parameters so as to minimize the difference between the first camera curved surface value and the virtual first camera curved surface value.

본 발명에 의하면, 임의의 관찰 평면 상에 위치한 임의의 관찰점에 대해 투명 소재를 투과하여 촬영된 왜곡 관찰점 카메라 좌표와 투명 소재를 제거하여 촬영된 비왜곡 관찰점 카메라 좌표의 차이에 기초하여 복수의 곡면 파라미터를 결정한 뒤, 결정된 복수의 곡면 파라미터에 기초하여 투명 소재의 곡면값을 산출하여 카메라에 의해 촬영된 영상 만으로도 투명 소재를 투과하여 촬영한 영상의 왜곡을 보정할 수 있다.According to the present invention, based on the difference between the camera coordinates of the distortion observation point camera, which is obtained by transmitting the transparent material, and the coordinates of the non-distortion observation point camera, which are obtained by removing the transparent material, from an arbitrary observation point located on an arbitrary observation plane, It is possible to calculate the curved surface value of the transparent material on the basis of the determined plurality of curved surface parameters and correct the distortion of the photographed image by transmitting the transparent material through only the image captured by the camera.

도 1은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 장치를 설명하기 위한 구성도이다.
도 2은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법에서 왜곡 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 순서도이다.
도 4는 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법에서 왜곡 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 순서도이다.
도 5는 본 발명의 제1 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 순서도이다.
도 6는 본 발명의 제2 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 순서도이다.
도 7은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법 및 장치에서 카메라 좌표와 영상 좌표의 관계를 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법 및 장치에서 투명 소재 곡면 모델을 설명하기 위한 도면이다.
도 9a 및 도 9b는 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법 및 장치에서 왜곡 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 도면이다.
도 10은 본 발명의 제1 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 도면이다.
도 11은 본 발명의 제2 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 도면이다.
BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a block diagram illustrating a transparent material curvature value calculating apparatus according to an embodiment of the present invention. FIG.
2 is a flowchart illustrating a method of calculating a transparent material curve value according to an embodiment of the present invention.
FIG. 3 is a flowchart for explaining a step of calculating the distortion observation point camera coordinates in the transparent material curve value calculating method according to the embodiment of the present invention.
FIG. 4 is a flowchart for explaining a step of calculating the distortion observation point camera coordinates in the transparent material curve value calculating method according to the embodiment of the present invention.
5 is a flowchart for explaining a step of calculating corrected viewing point camera coordinates according to the first embodiment of the present invention.
6 is a flowchart for explaining a step of calculating corrected viewing point camera coordinates according to a second embodiment of the present invention.
7 is a diagram for explaining the relationship between camera coordinates and image coordinates in a transparent material surface value calculating method and apparatus according to an embodiment of the present invention.
8 is a view for explaining a transparent material surface model in a transparent material surface value calculating method and apparatus according to an embodiment of the present invention.
FIGS. 9A and 9B are diagrams for explaining a step of calculating the distortion observation point camera coordinates in the transparent material surface value calculating method and apparatus according to the embodiment of the present invention. FIG.
10 is a diagram for explaining the step of calculating the corrected viewing point camera coordinates according to the first embodiment of the present invention.
11 is a diagram for explaining the step of calculating the corrected observation point camera coordinates according to the second embodiment of the present invention.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시예를 첨부 도면을 참조하여 설명하기로 한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to facilitate a person skilled in the art to easily carry out the technical idea of the present invention. . In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법 및 장치를 첨부된 도면을 참조하여 상세하게 설명하면 아래와 같다.Hereinafter, a method and an apparatus for calculating a transparent material surface value according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법 및 장치를 설명하기에 앞서, 이하 도 7을 참조하여 카메라 좌표와 영상 좌표의 관계를 나타내는 종래의 기술을 설명한다.Before describing a method and an apparatus for calculating a transparent material curved surface value according to an embodiment of the present invention, a conventional technique for describing the relationship between camera coordinates and image coordinates will be described with reference to FIG.

도 7은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법 및 장치에서 카메라 좌표와 영상 좌표의 관계를 설명하기 위한 도면이다.7 is a diagram for explaining the relationship between camera coordinates and image coordinates in a transparent material surface value calculating method and apparatus according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 카메라의 중심(C)을 기준으로 제1 관찰점(W1)을 촬영하면 카메라가 촬영한 영상에는 제1 관찰점(W1)이 제1 영상 좌표(I1)와 같이 표현되며, 마찬가지로 카메라의 중심(C)을 기준으로 제2 관찰점(W2)을 촬영하면 카메라가 촬영한 영상에는 제2 관찰점(W2)이 제2 영상 좌표(I2)와 같이 표현되게 된다.7, when the first observation point W1 is photographed with respect to the center C of the camera, the first observation point W1 is imaged on the image photographed by the camera as shown in the first image coordinate I1 Similarly, when the second observation point W2 is photographed based on the center C of the camera, the second observation point W2 is expressed as the second image coordinate I2 in the image photographed by the camera.

이때, 특정 관찰점에 대한 영상 좌표는 (x1, x2)와 같은 2차원 좌표로 나타나게 되며, 특정 관찰점에 대한 카메라 좌표는 (r, θ,

Figure 112017022039266-pat00021
)와 같은 3차원 구면 좌표로 나타나게 된다.In this case, the image coordinates for a specific observation point are represented by two-dimensional coordinates such as (x 1 , x 2 ), and the camera coordinates for a specific observation point are (r,
Figure 112017022039266-pat00021
) As the three-dimensional spherical coordinates.

이하, 카메라가 촬영한 영상에 포함된 2차원 좌표인 영상 좌표를 3차원 좌표인 카메라 좌표로 변환하는 종래의 기술에 대해 설명한다.Hereinafter, a conventional technique for converting image coordinates, which are two-dimensional coordinates included in an image taken by a camera, into camera coordinates, which are three-dimensional coordinates, will be described.

종래의 기술에서, 카메라를 통해 얻은 영상 좌표를 카메라 좌표로 변환하기 위해서는 카메라 파라미터가 필요하며, 이러한 카메라 파라미터는 초점, 주점 등을 포함하는 내부 파라미터와 카메라 좌표계와 실제 좌표계간의 변환과 관련된 외부 파라미터로 나뉘게 된다.In the prior art, camera parameters are required to convert image coordinates obtained through a camera to camera coordinates, and these camera parameters include internal parameters including focus, principal point, etc., and external parameters related to conversion between the camera coordinate system and the actual coordinate system It is divided.

이때, 2차원 좌표인 영상 좌표와 3차원 좌표인 카메라 좌표간의 관계는 아래 수학식 1과 같이 표현될 수 있다.In this case, the relationship between the image coordinate, which is a two-dimensional coordinate, and the camera coordinate, which is a three-dimensional coordinate, can be expressed by the following equation (1).

[수학식 1][Equation 1]

Figure 112017022039266-pat00022
Figure 112017022039266-pat00022

이때, x는 2차원 영상 좌표, K는 내부 파라미터 행렬, R은 회전행렬, t는 이동벡터, w는 3차원 좌표, λ는 비례 계수를 의미한다.Here, x denotes a two-dimensional image coordinate, K denotes an internal parameter matrix, R denotes a rotation matrix, t denotes a motion vector, w denotes a three-dimensional coordinate, and λ denotes a proportional coefficient.

나아가, 3차원 좌표(w)가 카메라 좌표(wc)인 경우 회전행렬(R)은 아이덴티티(identity) 행렬이고 이동벡터(t)는 영벡터를 의미하게 된다.Further, when the three-dimensional coordinate w is the camera coordinate w c , the rotation matrix R is an identity matrix and the motion vector t is a zero vector.

이때, 특정 2차원 영상 좌표인 (x1, x2)에 대한 3차원 카메라 좌표인 (r, θ,

Figure 112017022039266-pat00023
)를 계산하기 위해서는, 상술한 특정 관찰점이 이미 좌표 정보를 알고 있는 특정 관찰 평면 상에 위치하는 것을 가정해야 한다.In this case, the 3D camera coordinates for a given two-dimensional image coordinates of (x 1, x 2) ( r, θ,
Figure 112017022039266-pat00023
), It is to be assumed that the above-mentioned specific observation point is already located on a specific observation plane which already knows the coordinate information.

즉, 이미 좌표 정보를 알고 있는 특정 관찰 평면상에 위치한 특정 관찰점의 2차원 영상 좌표인 (x1, x2)를 상술한 수학식 1에 기초하여 3차원 카메라 좌표로 변환하면 3차원 카메라 좌표인 (r, θ,

Figure 112017022039266-pat00024
)가 산출된다.That is, if (x 1 , x 2 ), which is two-dimensional image coordinates of a specific observation point located on a specific observation plane already known to coordinate information, is converted into three-dimensional camera coordinates based on the above- (R,?,
Figure 112017022039266-pat00024
) Is calculated.

여기서, 카메라 좌표는 카메라의 중심을 기준으로 한 특정 지점의 3차원 좌표를 의미할 수 있다.Here, the camera coordinates may mean three-dimensional coordinates of a specific point with respect to the center of the camera.

한편, 특정 관찰 평면을 전제함이 없이 특정 관찰점의 2차원 영상 좌표인 (x1, x2)를 상술한 수학식 1에 기초하여 3차원 카메라 좌표로 변환하면 3차원 카메라 좌표는 광 경로의 방향 벡터인

Figure 112017022039266-pat00025
를 포함하도록 산출되게 되며, 그 좌표는 (
Figure 112017022039266-pat00026
, θ,
Figure 112017022039266-pat00027
)로 산출되게 된다.On the other hand, if (x 1 , x 2 ), which is a two-dimensional image coordinate of a specific observation point without assuming a specific observation plane, is transformed into three-dimensional camera coordinates based on the above-described expression (1) Direction vector
Figure 112017022039266-pat00025
, And the coordinates are calculated to include (
Figure 112017022039266-pat00026
,?,?
Figure 112017022039266-pat00027
).

즉, 특정 관찰 평면을 전제함이 없이 특정 관찰점의 2차원 영상 좌표인 (x1, x2)를 3차원 카메라 좌표인 (

Figure 112017022039266-pat00028
, θ,
Figure 112017022039266-pat00029
)로 변환하는 경우에서도, 방향에 대한 정보는 얻을 수 있음을 확인할 수 있으며, 이는 특정 2차원 영상 좌표에 해당하는 3차원 카메라 좌표는 카메라의 광 경로의 직선 상에만 존재하기 때문이다.That is, without assuming a specific observation plane, the two-dimensional image coordinates (x 1 , x 2 ) of a specific observation point are converted into three-dimensional camera coordinates
Figure 112017022039266-pat00028
,?,?
Figure 112017022039266-pat00029
), It can be seen that information on the direction can be obtained even if the three-dimensional camera coordinates corresponding to the specific two-dimensional image coordinates exist only on the straight line of the optical path of the camera.

한편, 특정 관찰 평면을 전제하지 않는 경우에서도, 복수 개의 카메라를 활용하는 경우에는 특정 관찰점의 3차원 카메라 좌표가 (r, θ,

Figure 112017022039266-pat00030
)로 결정될 수 있다.On the other hand, even when a specific observation plane is not assumed, when a plurality of cameras are used, the three-dimensional camera coordinates of a specific observation point are (r,
Figure 112017022039266-pat00030
). ≪ / RTI >

즉, 복수 개의 카메라에 의해 촬영된 특정 관찰점에 대한 2차원 영상 좌표 각각을 3차원 카메라 좌표 각각으로 변환하는 경우, 복수 개의 카메라 각각으로부터 특정 관찰점으로 향하는 광 경로의 교점에 기초하여 3차원 카메라 좌표인 (r, θ,

Figure 112017022039266-pat00031
)가 산출될 수 있으며, 이는 특정 관찰 평면을 전제하지 않더라도 복수 개의 광 경로의 교점을 산출할 수 있는 경우 3차원 카메라 좌표는 특정한 카메라 좌표로 결정될 수 있기 때문이다.That is, when each of the two-dimensional image coordinates of a specific observation point photographed by the plurality of cameras is converted into each of the three-dimensional camera coordinates, the three-dimensional camera coordinates are calculated based on the intersection of the optical paths from each of the plurality of cameras to the specific observation point. The coordinates (r,?,
Figure 112017022039266-pat00031
) Can be calculated because if the intersection point of a plurality of optical paths can be calculated without assuming a specific observation plane, the three-dimensional camera coordinate can be determined to a specific camera coordinate.

다시 말해, 종래의 기술에서는 상술한 내부 파라미터 및 외부 파라미터를 산출하기 위하여 카메라 칼리브레이션(calibration)을 수행하게 되며, 이러한 과정은 실제 좌표를 아는 점의 영상 좌표를 관찰함으로써 이루어진다.In other words, in the conventional technique, a camera calibration is performed to calculate the internal parameters and the external parameters described above, and this process is performed by observing the image coordinates of a point at which the actual coordinates are known.

이 때, 특정한 관찰 평면 위에 있는 점을 관찰하기 때문에 관찰점의 좌표를 계산할 수 있고 계산된 좌표와 실제 좌표간의 오차를 최소화하여 상술한 내부 파라미터 및 외부 파라미터를 결정한다.At this time, since the point on the specific observation plane is observed, the coordinates of the observation point can be calculated, and the error between the calculated coordinate and the actual coordinate is minimized to determine the internal and external parameters.

카메라 좌표와 영상 좌표의 관계 및 카메라 좌표와 영상 좌표의 상호 변환과 관련된 종래의 기술에 대한 보다 구체적인 설명은 생략한다.The detailed description of the related art relating to the relationship between the camera coordinates and the image coordinates and the mutual conversion between the camera coordinates and the image coordinates will be omitted.

이제, 도 1을 참조하여 본 발명의 실시예에 따른 투명 소재 곡면값 산출 장치를 설명한다.Now, a transparent material curvature value calculating apparatus according to an embodiment of the present invention will be described with reference to FIG.

도 1은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 장치를 설명하기 위한 구성도이다.BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a block diagram illustrating a transparent material curvature value calculating apparatus according to an embodiment of the present invention. FIG.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 장치(100)는 왜곡 카메라 좌표 산출부(110), 비왜곡 카메라 좌표 산출부(120), 곡면 파라미터 결정부(130) 및 투명 소재 곡면값 산출부(140)를 포함한다.1, the transparent material curvature value calculating apparatus 100 according to the embodiment of the present invention includes a distortion camera coordinate calculating unit 110, a non-distorted camera coordinate calculating unit 120, a curved surface parameter determining unit 130 and a transparent material curvature value calculation unit 140.

일 실시예에 따르면, 투명 소재 곡면값 산출 장치(100)는 카메라 좌표 보정부(150) 또는 영상 좌표 보정부(미도시)를 더 포함할 수도 있으나, 본 발명은 이에 한정되지 않는다.According to an exemplary embodiment, the transparent material surface value calculation apparatus 100 may further include a camera coordinate correction unit 150 or an image coordinate correction unit (not shown), but the present invention is not limited thereto.

일 실시예에 따르면, 투명 소재 곡면값 산출 장치(100)는 투명 소재의 곡면값을 산출하기 위한 투명 소재 곡면값 산출 장치(100)를 의미할 수 있다.According to one embodiment, the transparent material curve value calculation device 100 may mean a transparent material curve value calculation device 100 for calculating a curve value of a transparent material.

예컨대, 투명 소재 곡면값 산출 장치(100)는 투명 소재를 투과하여 촬영한 영상의 왜곡을 보정하기 위한 투명 소재 곡면값 산출 장치를 의미할 수 있다.For example, the transparent material curvature value calculating device 100 may mean a transparent material curvature value calculating device for correcting distortion of an image taken through a transparent material.

왜곡 카메라 좌표 산출부(110)는 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출할 수 있다.The distortion camera coordinate calculation unit 110 may calculate the distortion observation point camera coordinates based on the transparent material transmission image including any observation point located on an arbitrary observation plane.

일 실시예에 따르면, 왜곡 카메라 좌표 산출부(110)는 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 투명 소재 투과 영상 외에도 복수의 곡면 파라미터 추정값 및 미리 저장된 투명 소재 곡면 모델에 더 기초하여 왜곡 관찰점 카메라 좌표를 산출할 수도 있으나, 본 발명은 이에 한정되지 않는다.According to one embodiment, the distorted camera coordinate calculation section 110 may calculate, based on a plurality of surface parameter estimates and a previously stored transparent material surface model, in addition to the transparent material transmission image including any observation point located on any observation plane The distortion observation point camera coordinates may be calculated, but the present invention is not limited thereto.

여기서, 복수의 곡면 파라미터 추정값은 아직 결정되지 않은 복수의 곡면 파라미터를 의미할 수 있으며, 복수의 곡면 파라미터 추정값은 복수의 곡면 파라미터 각각을 미지수의 형태로 포함할 수 있다.Here, the plurality of curved surface parameter estimates may mean a plurality of curved surface parameters that have not yet been determined, and the plurality of curved surface parameter estimates may include each of the plurality of curved surface parameters in an unknown form.

예컨대, 왜곡 카메라 좌표 산출부(110)는 투명 소재를 투과하여 촬영된 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 촬영 영상인 투명 소재 투과 영상에 기초하여 카메라의 중심을 기준으로 하는 임의의 관찰점에 대한 카메라 좌표인 왜곡 관찰점 카메라 좌표를 산출할 수 있다.For example, the distorted camera coordinate calculation unit 110 may calculate an arbitrary reference point based on the center of the camera based on the transparent material transmitted image, which is an imaging image including an arbitrary observation point positioned on an arbitrary observation plane photographed through a transparent material, Which is the camera coordinate with respect to the observation point of the distortion observation point camera.

비왜곡 카메라 좌표 산출부(120)는 투명 소재를 제거하고 촬영된 임의의 관찰점을 포함하는 투명 소재 제거 영상에 기초하여 비왜곡 관찰점 카메라 좌표를 산출한다.The non-distorted camera coordinate calculation unit 120 removes the transparent material and calculates the unoriented observation point camera coordinates based on the transparent material removed image including any observed observation point.

예컨대, 비왜곡 카메라 좌표 산출부(120)는 투명 소재를 제거하고 촬영된 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 촬영 영상인 투명 소재 제거 영상에 기초하여 카메라의 중심을 기준으로 하는 임의의 관찰점에 대한 카메라 좌표인 비왜곡 관찰점 카메라 좌표를 산출할 수 있다.For example, the non-distorted camera coordinate calculation unit 120 calculates a non-distorted camera coordinate value based on the center of the camera based on the transparent material removal image, which is a photographed image including an arbitrary observation point positioned on an arbitrary observation plane photographed, It is possible to calculate the non-distorted observation point camera coordinates which is the camera coordinates for an arbitrary observation point.

이때 왜곡 카메라 좌표 산출부(110)는 카메라(10)로부터 투명 소재 투과 영상을 수신할 수 있으며, 비왜곡 카메라 좌표 산출부(120)는 카메라(10)로부터 투명 소재 제거 영상을 수신할 수 있다.At this time, the distortion camera coordinate calculation unit 110 may receive the transparent material transmission image from the camera 10, and the non-distorted camera coordinate calculation unit 120 may receive the transparent material removal image from the camera 10. [

도 1에는, 카메라(10)는 한 개인 것으로 도시되었으나, 이는 설명의 편의를 위한 것으로, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 장치(100)가 각종 영상을 수신하는 카메라의 개수는 한 개로 한정되지 않는다.In FIG. 1, the camera 10 is shown as one person, but this is for convenience of explanation. The number of cameras receiving the various images by the transparent material surface value calculating device 100 according to the embodiment of the present invention is But is not limited to dogs.

곡면 파라미터 결정부(130)는 왜곡 관찰점 카메라 좌표와 비왜곡 관찰점 카메라 좌표의 차이에 기초하여 복수의 곡면 파라미터를 결정한다.The curved surface parameter determination unit 130 determines a plurality of curved surface parameters based on the difference between the distortion observation point camera coordinates and the non-distortion observation point camera coordinates.

이때, 곡면 파라미터 결정부(130)에 의하여 상술한 복수의 곡면 파라미터 추정값은 특정한 복수의 곡면 파라미터로 결정될 수 있다.At this time, the plurality of curved surface parameter estimation values described above by the curved surface parameter determination unit 130 can be determined by a plurality of specific curved surface parameters.

투명 소재 곡면값 산출부(140)는 결정된 복수의 곡면 파라미터를 미리 저장된 투명 소재 곡면 모델에 적용하여 투명 소재의 곡면값을 산출한다.The transparent material curvature value calculation unit 140 calculates a curvature value of the transparent material by applying a plurality of determined curvature parameters to a previously stored transparent curvilinear surface model.

예컨대, 왜곡 카메라 좌표 산출부(110)는, 미리 저장된 투명 소재 곡면 모델, 투명 소재의 두께(d0) 및 굴절률(nw)에 기초하여 카메라의 중심으로부터 임의의 관찰점에 이르는 광 굴절 경로를 산출하고, 광 굴절 경로와 상기 임의의 관찰 평면 간의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출할 수 있다.For example, the distorted camera coordinate calculation unit 110 calculates the optical axis of the optical path from the center of the camera to an arbitrary observation point based on the previously stored transparent material surface model, the thickness (d 0 ) and the refractive index (n w ) And the distortion observation point camera coordinates can be calculated based on the intersection point between the optical refraction path and the arbitrary observation plane.

예컨대, 왜곡 카메라 좌표 산출부(110)는, 상술한 투명 소재 곡면 모델, 투명 소재의 두께(d0) 및 굴절률(nw)에 외에도 복수의 곡면 파라미터의 추정값에 더 기초하여 카메라의 중심으로부터 임의의 관찰점에 이르는 광 굴절 경로를 산출하고, 광 굴절 경로와 임의의 관찰 평면 간의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출할 수도 있으나, 본 발명은 이에 한정되지 않는다.For example, the distorted camera coordinate calculation unit 110, the aforementioned transparent material surface models, in addition to the thickness of the transparent material (d 0) and refractive index (n w) further based on the estimated value of the plurality of curved surface parameters random from the center of the camera The distortion-observation-point camera coordinates may be calculated based on the intersection between the optical refraction path and the arbitrary observation plane, but the present invention is not limited thereto.

예컨대, 왜곡 카메라 좌표 산출부(110)는, 카메라의 중심(C)과 투명 소재의 제1 면과 광 경로의 교점인 입사 교점(X)간의 거리(r) 및 카메라의 중심(C)으로부터 입사 교점(X)으로 향하는 입사방향벡터(

Figure 112017022039266-pat00032
)에 기초하여 카메라의 중심(C)을 기준으로 하는 입사 교점(X)에 대한 카메라 좌표인 입사 교점 카메라 좌표(
Figure 112017022039266-pat00033
)를 산출하고, 투명 소재의 두께(d0), 내부 굴절각(j) 및 내부 굴절 방향 벡터(
Figure 112017022039266-pat00034
)에 기초하여 입사 교점(X)을 기준으로 하는 투명 소재의 제2 면과 광 경로의 교점인 굴절 교점(Y)에 대한 3차원 좌표인 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00035
)를 산출하고, 굴절 교점(Y)을 기준으로 하는 상기 임의의 관찰점(W)에 대한 3차원 좌표인 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00036
)와 입사 교점 카메라 좌표(
Figure 112017022039266-pat00037
)의 비례 관계를 나타내는 비례 계수(λ)에 기초하여 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00038
)를 산출하고, 입사 교점 카메라 좌표(
Figure 112017022039266-pat00039
), 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00040
) 및 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00041
)의 벡터합에 기초하여 왜곡 관찰점 카메라 좌표를 산출한다.For example, the distorted camera coordinate calculation unit 110 calculates the distortion camera coordinate calculation unit 110 based on the distance r between the center C of the camera and the incident intersection X that is the intersection of the first surface of the transparent material and the optical path, The incident direction vector (X)
Figure 112017022039266-pat00032
), Which is a camera coordinate for an incident intersection X based on the center C of the camera,
Figure 112017022039266-pat00033
), And calculates the thickness d o of the transparent material, the internal refraction angle j and the internal refraction direction vector
Figure 112017022039266-pat00034
Dimensional coordinate of the intersection of the intersection of the second surface of the transparent material and the optical path on the basis of the incident intersection X based on the three-
Figure 112017022039266-pat00035
), And calculates three-dimensional coordinates of the arbitrary observation point (W) with reference to the refraction intersection (Y) as three-dimensional coordinates
Figure 112017022039266-pat00036
) And intersection camera coordinates (
Figure 112017022039266-pat00037
) Based on the proportional coefficient (?) Indicating the proportional relationship of the refraction intersection reference observation point 3-dimensional coordinates
Figure 112017022039266-pat00038
), And calculates the incidence intersection camera coordinates (
Figure 112017022039266-pat00039
), Incidence intersection reference refraction intersection three-dimensional coordinates (
Figure 112017022039266-pat00040
) And refraction intersection reference observation point three-dimensional coordinates (
Figure 112017022039266-pat00041
) Of the distortion-observation-point camera.

예컨대, 투명 소재의 두께(d0)는 일정할 수 있으나, 본 발명은 이에 한정되지 않는다.For example, the thickness (d 0 ) of the transparent material may be constant, but the present invention is not limited thereto.

여기서, 투명 소재의 제1 면은 카메라의 중심(C)으로부터 시작한 광 경로가 투명 소재에 입사하는 면을 의미할 수 있으며, 투명 소재의 제2 면은 투명 소재에 의해 굴절된 광 경로가 임의의 관찰점으로 향하기 위하여 투명소재를 벗어나는 면을 의미할 수 있다.Here, the first surface of the transparent material may mean a surface on which the light path starting from the center C of the camera is incident on the transparent material, and the second surface of the transparent material may have a light path refracted by the transparent material, It can mean a plane that goes out of the transparent material to point to the observation point.

이때, 투명 소재의 제1 면은 입사 교점(X)를 포함하는 면이며, 투명 소재의 제2 면은 굴절 교점(Y)를 포함하는 면을 의미할 수 있다.At this time, the first surface of the transparent material may be a surface including the incident intersection X, and the second surface of the transparent material may include a surface including the refraction intersection Y.

예컨대, 왜곡 관찰점 카메라 좌표는, 비례 계수(λ), 카메라의 중심(C)을 기준으로 하는 투명 소재의 제1 면과 광 경로의 교점인 입사 교점(X)에 대한 카메라 좌표인 입사 교점 카메라 좌표(

Figure 112017022039266-pat00042
), 투명 소재의 두께(d0), 내부 굴절각(j) 및 내부 굴절 방향 벡터(
Figure 112017022039266-pat00043
)에 기초하여 산출된다.For example, the distortion observation point camera coordinate is a camera coordinate of an incident intersection X that is an intersection of a first surface of a transparent material and a light path on the basis of a proportional coefficient (?) And a center C of the camera, location(
Figure 112017022039266-pat00042
), The thickness (d 0 ) of the transparent material, the internal refraction angle (j) and the internal refraction direction vector
Figure 112017022039266-pat00043
).

예를 들어, 복수의 곡면 파라미터는, 비왜곡 관찰점 카메라 좌표와 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점 각각에 해당하는 적어도 하나의 제1 끝점 및 제2 끝점 간의 카메라 좌표 거리가 적어도 하나의 선분의 길이와 각각 같도록 하는 조건을 모두 만족하도록 결정될 수 있다.For example, the plurality of curved surface parameters may include a condition for minimizing the difference between the non-distorted observation point camera coordinates and the distortion observation point camera coordinates, and a condition for minimizing the difference between both end points of at least one line segment disposed in advance on the first surface of the transparent material And the camera coordinate distance between the at least one first end point and the second end point corresponding to the first end point is equal to the length of at least one line segment, respectively.

보다 상세하게, 곡면 파라미터 결정부(130)는, 비왜곡 관찰점 카메라 좌표와 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 카메라의 중심을 기준으로 하는 투명 소재의 제1 면 상에 미리 배치된 선분의 양 끝점 각각의 카메라 좌표인 제1 끝점 카메라 좌표 및 제2 끝점 카메라 좌표 간의 좌표 거리가 선분의 길이와 같도록 하는 조건을 모두 만족하도록 복수의 곡면 파라미터를 결정할 수 있다.More specifically, the curved surface parameter determination unit 130 determines whether the difference between the non-distorted observation point camera coordinate and the distortion observation point camera coordinate is minimized or not, A plurality of curved surface parameters can be determined so as to satisfy all the conditions that both the coordinate distance between the first end camera coordinates and the second end point camera coordinates, which are the camera coordinates of the end points of the arranged line segments, are equal to the length of the line segment.

이때, 투명 소재의 제1 면 상에 미리 배치된 선분은 투명 소재의 제1 면상에 미리 배치된 막대를 비롯한 각종 직선형 소재를 의미할 수 있으며, 본 발명은 특정 선분에 한정되지 않는다.In this case, the line segment previously arranged on the first surface of the transparent material may mean various linear materials including bars arranged in advance on the first surface of the transparent material, and the present invention is not limited to a specific line segment.

예를 들어, 투명 소재 곡면 모델은, 제1 곡면 파라미터 행렬(A)와 제2 곡면 파라미터 행렬(B)을 포함하는 곡면 정의 함수(

Figure 112017022039266-pat00044
), 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az) 및 제4 곡면 파라미터(ar)를 포함한다.For example, the transparent material surface model may include a surface definition function (" A ") including a first surface parameter matrix A and a second surface parameter matrix B
Figure 112017022039266-pat00044
, A first curved surface parameter (a x ), a second curved surface parameter (a y ), a third curved surface parameter (a z ), and a fourth curved surface parameter (a r ).

카메라 좌표 보정부(150)는 결정된 복수의 곡면 파라미터 및 적어도 하나의 카메라로 촬영한 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출한다.The camera coordinate correcting unit 150 calculates the corrected observation point camera coordinate by calculating the distortion observation point camera coordinates based on the determined plurality of curved surface parameters and the transparent material transmission image captured by at least one camera.

예컨대, 카메라 좌표 보정부(150)는, 적어도 하나의 카메라에 의해 촬영된 투명 소재 투과 영상에 기초하여 산출된 왜곡 관찰점 카메라 좌표를 결정된 복수의 곡면 파라미터 및 곡면값에 기초하여 보정함으로써 보정 관찰점 카메라 좌표를 산출할 수도 있다.For example, the camera coordinate correction unit 150 corrects the distortion observation point camera coordinates calculated based on the transparent material transmission image photographed by at least one camera based on a plurality of determined curved surface parameters and curved surface values, The camera coordinates can also be calculated.

일 실시예에 따라, 적어도 하나의 카메라가 한 개의 카메라인 경우, 카메라 좌표 보정부(150)는, 결정된 복수의 곡면 파라미터에 기초하여 한 개의 카메라로부터 임의의 관찰 평면 상에 위치한 임의의 관찰점에 이르는 광 굴절 경로를 산출하고, 광 굴절 경로 및 임의의 관찰 평면의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 상기 보정 관찰점 카메라 좌표를 산출할 수 있다.According to one embodiment, when at least one camera is a single camera, the camera coordinate correcting unit 150 corrects the camera coordinate correction unit 150 based on a plurality of determined curved surface parameters, from one camera to an arbitrary observation point located on an arbitrary observation plane And calculating the distortion observation point camera coordinates on the basis of the intersection of the optical refraction path and the arbitrary observation plane, the corrected observation observation point camera coordinates can be calculated.

다른 실시예에 따라, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우, 카메라 좌표 보정부(150)는, 제1 카메라에 대한 복수의 곡면 파라미터인 복수의 제1 카메라 곡면 파라미터에 기초하여 제1 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제1 카메라 광 굴절 경로를 산출하고, 제2 카메라에 대한 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터에 기초하여 제2 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제2 카메라 광 굴절 경로를 산출하고, 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출할 수 있다.According to another embodiment, when at least one camera includes a first camera and a second camera, the camera coordinate correction unit 150 corrects a plurality of first camera curved surface parameters, which are a plurality of curved surface parameters for the first camera, Based on a plurality of second camera curved surface parameters, which are a plurality of curved surface parameters for the second camera, from the second camera, based on the first camera curved surface parameters, A second camera photographic refraction path that is a photorefractive path toward an arbitrary observation point is calculated and the distortion observation point camera coordinates are calculated based on the intersection of the first camera photoreflection path and the second camera photoreflection path, The coordinates can be calculated.

영상 좌표 보정부(미도시)는 미리 설정된 카메라 좌표와 2차원 영상 좌표 간의 좌표 관계에 기초하여 보정 관찰점 카메라 좌표를 대응되는 보정 2차원 영상 좌표로 변환한다.The image coordinate correcting unit (not shown) converts the corrected observation point camera coordinates into the corresponding corrected two-dimensional image coordinates based on the coordinate relationship between the camera coordinates and the two-dimensional image coordinate set in advance.

일 실시예에 따라, 복수의 제2 카메라 곡면 파라미터가 결정되지 않은 경우, 복수의 제2 카메라 곡면 파라미터는 아래 수학식 16에 기초하여 산출될 수 있다.According to one embodiment, when a plurality of second camera curved surface parameters are not determined, a plurality of second camera curved surface parameters may be calculated based on the following equation (16).

[수학식 16]&Quot; (16) "

Figure 112017022039266-pat00045
Figure 112017022039266-pat00045

S2는 산출된 복수의 제2 카메라 곡면 파라미터를 포함하는 제2 카메라 곡면 파라미터 집합, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합, R은 제1 카메라의 중심의 위치와 제2 카메라의 중심의 위치 간의 회전(Rotation) 행렬, T는 제1 카메라의 중심의 위치와 제2 카메라의 중심의 위치 간의 이동(Translation) 벡터, S1은 복수의 제1 카메라 곡면 파라미터를 포함하는 제1 카메라 곡면 파라미터 집합,

Figure 112017022039266-pat00046
은 복수의 제1 카메라 곡면 파라미터에 기초하여 산출된 제1 카메라의 중심(C1)을 기준으로 하는 투명 소재의 제1 면과 제1 카메라 광 굴절 경로의 k 번째 교점인 k번째 입사 교점(Xk)의 카메라 좌표,
Figure 112017022039266-pat00047
는 복수의 곡면 파라미터 추정값에 기초하여 산출된 제2 카메라(C2)의 중심을 기준으로 하는 투명 소재의 제1 면과 제2 카메라 광 굴절 경로의 k 번째 교점인 k번째 입사 교점(Xk)의 카메라 좌표를 의미한다.S 2 is a set of second camera curved surface parameters including a plurality of calculated second camera curved surface parameters, S is a set of curved surface parameter estimation values including a plurality of curved surface parameter estimates, R is a position of the center of the first camera, T is a translation vector between a position of the center of the first camera and a position of the center of the second camera, S 1 is a rotation vector between the center of the first camera surface parameter and the first camera surface parameter, Camera surface parameter sets,
Figure 112017022039266-pat00046
(X), which is the kth intersection of the first camera photorefractive path and the first surface of the transparent material, which is based on the center (C 1 ) of the first camera calculated based on the plurality of first camera curved surface parameters, k ), < / RTI >
Figure 112017022039266-pat00047
A first surface and a second k-th intersection point in the k-th incidence of the camera photorefractive path intersection of the transparent material which on the basis of the center of the second camera (C 2) is calculated based on a plurality of surfaces parameter estimate (X k) Quot; camera coordinates "

본 발명의 실시예에 따른, 투명 소재 곡면값 산출 장치(100)의 각각의 구성에 대한 보다 구체적인 설명은 이하 도 2 내지 도 10을 참조하여 후술하도록 하며, 중복되는 설명은 생략한다.A more detailed description of each configuration of the transparent material surface value calculation device 100 according to the embodiment of the present invention will be described later with reference to FIG. 2 to FIG. 10, and redundant description will be omitted.

이제 도 2를 참조하여, 본 발명의 실시예에 따른 투면 소재 곡면값 산출 방법을 설명한다.Referring now to FIG. 2, a method of calculating a two-dimensional material surface value according to an embodiment of the present invention will be described.

도 2은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method of calculating a transparent material curve value according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법은 왜곡 관찰점 카메라 좌표 산출 단계(S210), 비왜곡 관찰점 카메라 좌표 산출 단계(S230), 복수의 곡면 파라미터를 결정하는 단계(S250) 및 투명 소재의 곡면값 산출 단계(S270)를 포함한다.2, the transparent material curve value calculating method according to the embodiment of the present invention includes a distortion observation camera coordinate calculation step S210, a non-distortion observation observation point camera coordinate calculation step S230, a plurality of curved surface parameters (S250), and calculating a curved surface value of the transparent material (S270).

예를 들어, 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법은 투명 소재의 곡면값을 산출하기 위한 투명 소재 곡면값 산출 방법을 의미할 수 있다.For example, the transparent material curve value calculating method according to the embodiment of the present invention may mean a method of calculating a transparent material curve value for calculating a curve value of a transparent material.

예컨대, 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법은 투명 소재를 투과하여 촬영한 영상의 왜곡을 보정하기 위한 투명 소재 곡면값 산출 방법을 의미할 수 있다.For example, the method of calculating a transparent material curve value according to an embodiment of the present invention may mean a method of calculating a transparent material curve value for correcting distortion of an image photographed through a transparent material.

이하, 본 발명의 실시예에 대한 이해를 돕기 위하여, S270 단계에서 활용되는 투명 소재 곡면 모델에 대해 먼저 설명하도록 하나, 본 발명은 설명의 순서에 한정되지 않는다.Hereinafter, in order to facilitate understanding of the embodiment of the present invention, the transparent material surface model used in step S270 will be described first, but the present invention is not limited to the description order.

이제, 도 8을 참조하여 투명 소재 곡면 모델을 설명한다.A transparent material surface model will now be described with reference to Fig.

도 8은 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법 및 장치에서 투명 소재 곡면 모델을 설명하기 위한 도면이다.8 is a view for explaining a transparent material surface model in a transparent material surface value calculating method and apparatus according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 투명 소재에 위치한 각각의 지점들은 (x, y, z) 3차원 좌표로 표현되거나, (r, θ,

Figure 112017022039266-pat00048
) 3차원 좌표로 표현될 수 있다.8, each point located in the transparent material is represented by (x, y, z) three-dimensional coordinates, or (r,?,
Figure 112017022039266-pat00048
) Three-dimensional coordinates.

즉, 투명 소재에 위치한 각각의 지점들은 특정 원점을 기준으로 x축 방향 거리, y축 방향 거리 및 z축 방향 거리로 표현될 수 있으며, 마찬가지로 투명 소재에 위치한 각각의 지점들은 특정 원점을 기준으로 구면 좌표계의 거리 좌표(r), 구면 좌표계의 인클라이네이션(inclination) 각도 좌표(

Figure 112017022039266-pat00049
), 구면 좌표계의 아지무스(azimuth) 각도 좌표(
Figure 112017022039266-pat00050
)로 표현될 수 있기 때문에, 투명 소재 곡면 모델은 x, y 및 z 상호간의 관계로 정의되거나, r, θ 및
Figure 112017022039266-pat00051
상호간의 관계로 정의될 수 있다.That is, each of the points located in the transparent material can be represented by x-axis direction distance, y-axis direction distance and z-axis direction distance based on a specific origin, and similarly, The distance coordinate (r) of the coordinate system, the inclination angle coordinate of the spherical coordinate system (
Figure 112017022039266-pat00049
), The azimuth angle coordinate of the spherical coordinate system (
Figure 112017022039266-pat00050
), The transparent material surface model is defined as the relationship between x, y and z, or r, &thetas; and
Figure 112017022039266-pat00051
Can be defined as a mutual relationship.

예를 들어, 차량의 창으로써 사용되는 투명 소재인 유리창은 공통적으로 두께가 일정하고, 표면이 충분히 매끄럽다는 특징을 가지기 때문에, 유리창에 대한 투명 소재 곡면 모델은 투명소재의 두께값과 내부 표면 모델(inner surface model)로 표현될 수 있으며, 카메라를 원점으로 한 구면 좌표계 내에서 2변수 함수로 투명 소재 곡면 모델을 정의하면 아래 수학식 2와 같다.For example, since glass windows, which are transparent materials used as vehicle windows, have a uniform thickness and a sufficiently smooth surface, a transparent material curved surface model for a glass window can be obtained by using the thickness value of the transparent material and the inner surface model inner surface model), and a transparent material surface model is defined as a bivariate function in a spherical coordinate system having a camera as an origin.

[수학식 2]&Quot; (2) "

Figure 112017022039266-pat00052
Figure 112017022039266-pat00052

이때, r은 구면 좌표계의 거리 좌표,

Figure 112017022039266-pat00053
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00054
는 구면 좌표계의 아지무스(azimuth) 각도 좌표,
Figure 112017022039266-pat00055
는 곡면 정의 함수, ax는 제1 곡면 파라미터, ay는 제2 곡면 파라미터, az는 제3 곡면 파라미터 및 ar은 제4 곡면 파라미터를 의미한다.In this case, r is the distance coordinate of the spherical coordinate system,
Figure 112017022039266-pat00053
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00054
Is the azimuth angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00055
A x is a first curved surface parameter, a y is a second curved surface parameter, a z is a third curved surface parameter, and a r is a fourth curved surface parameter.

여기서, 곡면 정의 함수(

Figure 112017022039266-pat00056
)는 곡면을 정의하기 위한 임의의 정의 함수를 의미할 수 있으며, 예컨대, 곡면 정의 함수(
Figure 112017022039266-pat00057
)가
Figure 112017022039266-pat00058
에 대한 테일러 시리즈(Taylor Series)와
Figure 112017022039266-pat00059
에 대한 변형된 푸리에 시리즈(Fourier Series)를 사용하여 정의된 임의의 함수인 경우, 곡면 정의 함수(
Figure 112017022039266-pat00060
)는 아래 수학식 3과 같이 표현될 수 있다.Here, the surface definition function (
Figure 112017022039266-pat00056
) May refer to any definition function for defining a surface, such as a surface definition function (
Figure 112017022039266-pat00057
)end
Figure 112017022039266-pat00058
With Taylor Series (Taylor Series)
Figure 112017022039266-pat00059
For any function defined using a modified Fourier Series for a surface definition function (< RTI ID = 0.0 >
Figure 112017022039266-pat00060
) Can be expressed by the following equation (3).

[수학식 3]&Quot; (3) "

Figure 112017022039266-pat00061
Figure 112017022039266-pat00061

여기서,

Figure 112017022039266-pat00062
는 곡면 정의 함수,
Figure 112017022039266-pat00063
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00064
는 구면 좌표계의 아지무스(azimuth) 각도 좌표, Am,n은 제1 곡면 파라미터 행렬의 m행 n열, Bm,n은 제2 곡면 파라미터 행렬의 m행 n열을 의미한다.here,
Figure 112017022039266-pat00062
Is a surface definition function,
Figure 112017022039266-pat00063
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00064
Denotes an azimuth angle coordinate of the spherical coordinate system, A m, n denotes an m row and n column of the first curved surface parameter matrix, and B m and n denotes an m row and n column of the second curved surface parameter matrix.

이때, 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az) 및 제4 곡면 파라미터(ar), 제1 곡면 파라미터 행렬(A) 및 제2 곡면 파라미터 행렬(B) 각각의 값이 결정되지 않아 아직 변수의 형태로 남아 있는 경우를 곡면 파라미터 추정값이라 정의하고, 상술한 곡면 파라미터 각각의 값이 결정된 경우를 결정된 곡면 파라미터라 정의한다.At this time, the first curved surface parameter a x , the second curved surface parameter a y , the third curved surface parameter a z , and the fourth curved surface parameter a r , the first curved surface parameter matrix A, A case in which the value of each parameter matrix B is not determined and remains in the form of a variable is defined as a surface parameter estimation value, and a case where each value of the above-described surface parameter is determined is defined as a determined surface parameter.

이때, 본 발명은 특정 곡면 정의 함수에 한정되지 않고 제1 곡면 파라미터 행렬과 제2 곡면 파라미터 행렬은 임의의 크기를 가질 수 있다.At this time, the present invention is not limited to a specific surface defining function, and the first surface parameter matrix and the second surface parameter matrix may have arbitrary sizes.

즉, 상술한 예시에서 곡면 정의 함수(

Figure 112017022039266-pat00065
)는, 구면 좌표계의 인클라이네이션(inclination) 각도 좌표(
Figure 112017022039266-pat00066
) 및 구면 좌표계의 아지무스(azimuth) 각도 좌표(
Figure 112017022039266-pat00067
)를 변수로 하되, 제1 곡면 파라미터 행렬(A)과 제2 곡면 파라미터 행렬(B)를 포함하는 함수를 의미할 수 있다.That is, in the above example,
Figure 112017022039266-pat00065
) Is the inclination angle coordinate of the spherical coordinate system (
Figure 112017022039266-pat00066
) And the azimuth angle coordinate of the spherical coordinate system (
Figure 112017022039266-pat00067
) May be a function including a first curved surface parameter matrix A and a second curved surface parameter matrix B as variables.

즉, 수학식 2 및 수학식 3을 통해, 일 실시예에 따른 투명 소재 곡면 모델은 구면 좌표계의 거리 좌표(r)와 구면 좌표계의 인클라이네이션(inclination) 각도 좌표(

Figure 112017022039266-pat00068
), 구면 좌표계의 아지무스(azimuth) 각도 좌표(
Figure 112017022039266-pat00069
) 상호 간의 관계식으로 표현되되, 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az), 제4 곡면 파라미터(ar), 제1 곡면 파라미터 행렬(A) 및 제2 곡면 파라미터 행렬(B) 각각의 파라미터 값에 따라 의미하는 곡면이 달라지는 일반화된 곡면식을 의미할 수 있다.In other words, through the expressions (2) and (3), the transparent material curve model according to one embodiment is obtained by calculating the distance coordinate (r) of the spherical coordinate system and the inclination angle coordinate
Figure 112017022039266-pat00068
), The azimuth angle coordinate of the spherical coordinate system (
Figure 112017022039266-pat00069
(A x ), a second curved surface parameter (a y ), a third curved surface parameter (a z ), a fourth curved surface parameter (a r ), a first curved surface parameter matrix ( A) and the second curved surface parameter matrix (B), respectively.

예컨대, 투명 소재 곡면 모델은

Figure 112017022039266-pat00070
를 만족하며, 평면성 및 곡면성을 쉽게 가지도록 설정될 수 있다.For example, the transparent material surface model
Figure 112017022039266-pat00070
, And can be set to have easy planarity and curvature.

예를 들어, 투명 소재 곡면 모델에서 상술한 복수의 곡면 파라미터들을 조정하면,

Figure 112017022039266-pat00071
가 되어 상술한 투명 소재 곡면 모델은 평면을 의미하게 되며, 상술한 복수의 파라미터를 다르게 조정하면,
Figure 112017022039266-pat00072
가 되어 상술한 투명 소재 곡면 모델은 구면을 의미하게 될 수 있다.For example, by adjusting the plurality of curved surface parameters described above in the transparent material surface model,
Figure 112017022039266-pat00071
The above-mentioned transparent material curve model means plane, and if the above-mentioned plurality of parameters are adjusted differently,
Figure 112017022039266-pat00072
And the above-mentioned transparent material surface model may mean spherical surface.

여기서, 곡면 정의함수에 대한 수학식인 상기 수학식 3을 투명 소재 곡면 모델에 대한 상기 수학식 2에 대입하면 아래 수학식 4가 도출될 수 있다.Substituting Equation (3) for the surface definition function into Equation (2) for the transparent material surface model, Equation (4) below can be derived.

[수학식 4]&Quot; (4) "

Figure 112017022039266-pat00073
Figure 112017022039266-pat00073

이때, 수학식 4에 포함된 각각의 변수들에 대한 구체적인 설명은 상기한 수학식 2 및 수학식 3에서와 동일하므로, 중복되는 설명은 생략한다.Here, the detailed description of each variable included in Equation (4) is the same as Equation (2) and Equation (3), and a duplicate explanation will be omitted.

설명의 편의를 위하여, 상술한 복수의 곡면 파라미터인 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az), 제4 곡면 파라미터(ar), 제1 곡면 파라미터 행렬(A) 및 제2 곡면 파라미터 행렬(B)를 모두 포함하는 집합을 곡면 파라미터 집합(S)로 정의하여 상기한 수학식 2 또는 수학식 4를 다시 표현하면 아래 수학식 5와 같다.For convenience of explanation, the first curved surface parameter (a x ), the second curved surface parameter (a y ), the third curved surface parameter (a z ), the fourth curved surface parameter (a r ) (2) or (4) by defining a set including both the first curved surface parameter matrix A and the second curved surface parameter matrix B as a curved surface parameter set S, .

[수학식 5]&Quot; (5) "

Figure 112017022039266-pat00074
Figure 112017022039266-pat00074

이때, r은 구면 좌표계의 거리 좌표,

Figure 112017022039266-pat00075
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00076
는 구면 좌표계의 아지무스(azimuth) 각도 좌표, S는 복수의 곡면 파라미터를 포함하는 곡면 파라미터 집합,
Figure 112017022039266-pat00077
는 투명 소재 곡면 모델을 의미한다.In this case, r is the distance coordinate of the spherical coordinate system,
Figure 112017022039266-pat00075
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00076
Azimuth angle coordinate of the spherical coordinate system, S is a set of curved surface parameters including a plurality of curved surface parameters,
Figure 112017022039266-pat00077
Means a transparent material surface model.

이제, 도 2를 참조하여, 본 발명의 실시예에 따른, 투명 소재 곡면값 산출 방법을 계속 설명한다.Now, with reference to FIG. 2, a method of calculating a transparent material curve value according to an embodiment of the present invention will be described.

S210 단계는, 왜곡 카메라 좌표 산출부(110)가, 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.Step S210 may mean that the distorted camera coordinate calculation unit 110 calculates the distortion observation point camera coordinates based on the transparent material transmitted image including any observation point located on an arbitrary observation plane.

일 실시예에 따라, S210 단계는 왜곡 카메라 좌표 산출부(110)가, 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 투명 소재 투과 영상 외에도 복수의 곡면 파라미터 추정값 및 미리 저장된 투명 소재 곡면 모델에 더 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 단계를 의미할 수도 있으나, 본 발명은 이에 한정되지 않는다.According to one embodiment, in operation S210, the distorted camera coordinate calculation unit 110 may calculate a plurality of curved surface parameter estimates and a previously stored transparent material curved surface model, in addition to the transparent material transmitted image including any observation point located on an arbitrary observation plane, But it should be understood that the present invention is not limited thereto.

예를 들어, S210 단계는, 왜곡 카메라 좌표 산출부(110)가, 투명 소재를 투과하여 촬영된 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 촬영 영상인 투명 소재 투과 영상에 기초하여 카메라의 중심을 기준으로 하는 임의의 관찰점에 대한 카메라 좌표인 왜곡 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.For example, in step S210, the distortion camera coordinate calculation unit 110 calculates the distortion of the camera based on the transparent material transmission image, which is an imaging image including an arbitrary observation point positioned on an arbitrary observation plane photographed through transparent material, Which is a camera coordinate for an arbitrary observation point based on the center of the viewpoint camera.

예컨대, S210 단계에서 왜곡 카메라 좌표 산출부(110)는 카메라의 중심(C)으로부터 투명 소재를 투과하여 임의의 관찰 평면(P) 상에 위치한 임의의 관찰점(W)에 이르는 광 굴절 경로를 산출함으로써, 카메라의 중심(C)을 기준으로 하는 임의의 관찰점(W)의 상대적인 카메라 좌표인 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00078
)를 산출할 수 있다.For example, in step S210, the distorted camera coordinate calculation unit 110 calculates a light refraction path passing through the transparent material from the center C of the camera to an arbitrary observation point W located on an arbitrary observation plane P The camera position of the distortion observation point camera, which is the relative camera coordinate of the arbitrary observation point W with respect to the center C of the camera
Figure 112017022039266-pat00078
) Can be calculated.

이제, 도 3, 도 4, 도 9a 및 도 9b를 동시에 참조하여, S210 단계에 대해 보다 구체적으로 설명한다.Now, with reference to FIG. 3, FIG. 4, FIG. 9A and FIG. 9B simultaneously, step S210 will be described in more detail.

도 3에 도시된 바와 같이, S210 단계는 카메라로부터 임의의 관찰점에 이르는 광 굴절 경로 산출 단계(S211) 및 왜곡 관찰점 카메라 좌표 산출 단계(S212)를 포함할 수 있다.As shown in FIG. 3, step S210 may include a light refraction path calculation step S211 and a distortion observation point camera coordinate calculation step S212 from the camera to an arbitrary observation point.

S211 단계는 미리 저장된 투명 소재 곡면 모델, 상기 투명 소재의 두께(d0) 및 굴절률(nw)에 기초하여 카메라의 중심으로부터 상기 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계를 의미할 수 있다.Step S211 may be a step of calculating a light refraction path from the center of the camera to the arbitrary observation point based on a previously stored transparent material surface model, the thickness (d 0 ) and the refractive index (n w ) of the transparent material have.

S211 단계는, 상술한 투명 소재 곡면 모델, 투명 소재의 두께(d0) 및 굴절률(nw)에 외에도 복수의 곡면 파라미터의 추정값에 더 기초하여 카메라의 중심으로부터 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계를 의미할 수도 있으나, 본 발명은 이에 한정되지 않는다.The step S211 is a step of calculating, based on the above-described transparent material surface model, the thickness (d 0 ) and the refractive index (n w ) of the transparent material, in addition to the estimated values of a plurality of curved surface parameters, , But the present invention is not limited thereto.

S212 단계는, 광 굴절 경로와 임의의 관찰 평면 간의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.Step S212 may mean calculating the distortion observation point camera coordinates based on an intersection between the optical refraction path and an arbitrary observation plane.

이제 도 4에 도시된 S215, S216, S217 및 S218 단계를 통해, 상술한 S211 단계 및 S212 단계를 보다 구체적으로 설명하도록 한다.Now, the steps S211 and S212 will be described in more detail through the steps S215, S216, S217 and S218 shown in FIG.

도 4에 도시된 바와 같이, S210 단계는 입사 교점 카메라 좌표 산출 단계(S215), 입사 교점 기준 굴절 교점 3차원 좌표 산출 단계(S216), 굴절 교점 기준 관찰점 3차원 좌표 산출 단계(S217) 및 입사 교점 카메라 좌표, 입사 교점 기준 굴절 교점 3차원 좌표 및 굴절 교점 기준 관찰점 3차원 좌표의 벡터합에 기초하여 왜곡 관찰점 카메라 좌표 산출 단계(S218)를 포함한다.As shown in FIG. 4, step S210 includes steps of calculating intersection intersection camera coordinates S215, incidence intersection reference refraction intersection three-dimensional coordinate calculation step S216, refraction intersection reference observation point three-dimensional coordinate calculation step S217, View camera coordinate calculation step S218 based on the vector sum of the intersection camera coordinates, the incidence intersection reference refraction intersection three-dimensional coordinates, and the refraction intersection reference observation point three-dimensional coordinates.

도 9b에 도시된 바와 같이 카메라의 중심(C)을 기준으로 투명 소재를 투과하여 임의의 관찰 평면(P) 상에 위치한 임의의 관찰점(W)을 나타내는 카메라 좌표인 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00079
)는 카메라의 중심(C)을 기준으로 하는 투명 소재의 제1 면과 광 경로의 교점인 입사 교점(X)에 대한 카메라 좌표인 입사 교점 카메라 좌표(
Figure 112017022039266-pat00080
), 입사 교점(X)을 기준으로 하는 투명 소재의 제2 면과 광 경로의 교점인 굴절 교점(Y)에 대한 3차원 좌표인 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00081
) 및 굴절 교점(Y)을 기준으로 하는 임의의 관찰점(W)에 대한 3차원 좌표인 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00082
)의 벡터합을 통해 산출될 수 있다.As shown in FIG. 9B, the distortion observation point camera coordinates ((X, Y, Z)), which is a camera coordinate indicating an arbitrary observation point W positioned on an arbitrary observation plane P by transmitting a transparent material with respect to the center C of the camera
Figure 112017022039266-pat00079
Is an intersection camera coordinate (x, y), which is the camera coordinate of the incident intersection X, which is the intersection of the first surface of the transparent material and the optical path with respect to the center C of the camera
Figure 112017022039266-pat00080
), A three-dimensional coordinate of the intersection of the second surface of the transparent material with respect to the incident intersection X and the refractive intersection Y that is the intersection of the optical path and the three-dimensional coordinates of the incident intersection reference intersection
Figure 112017022039266-pat00081
) And refraction intersection reference observation point three-dimensional coordinates (three-dimensional coordinates of an arbitrary observation point W based on the refraction intersection Y)
Figure 112017022039266-pat00082
). ≪ / RTI >

또한, 상술한 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00083
)는 S211단계의 산출 대상이 되는 카메라로부터 임의의 관찰점에 이르는 광 굴절 경로를 의미할 수 있으며, 그 결과 S211 단계의 광 굴절 경로는 상술한, 입사 교점 카메라 좌표(
Figure 112017022039266-pat00084
), 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00085
) 및 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00086
)의 벡터합을 의미하게 된다.In addition, the above-mentioned distortion observation camera coordinates (
Figure 112017022039266-pat00083
) May mean a light refraction path from the camera to be calculated to an arbitrary observation point in step S211. As a result, the light refraction path in step S211 is the incident intersection camera coordinates
Figure 112017022039266-pat00084
), Incidence intersection reference refraction intersection three-dimensional coordinates (
Figure 112017022039266-pat00085
) And intersection reference observation point 3-dimensional coordinates (
Figure 112017022039266-pat00086
). ≪ / RTI >

즉, S210 단계에서 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00087
)는 상술한 입사 교점 카메라 좌표(
Figure 112017022039266-pat00088
), 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00089
) 및 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00090
)를 산출함으로써 산출될 수 있다.That is, in step S210, the distortion observation camera coordinates
Figure 112017022039266-pat00087
) Is the intersection of the incident intersection camera coordinates (
Figure 112017022039266-pat00088
), Incidence intersection reference refraction intersection three-dimensional coordinates (
Figure 112017022039266-pat00089
) And refraction intersection reference observation point three-dimensional coordinates (
Figure 112017022039266-pat00090
). ≪ / RTI >

예컨대, 도 4에 도시된 S215 단계는 입사 교점 카메라 좌표(

Figure 112017022039266-pat00091
)를 산출하는 단계를 의미할 수 있다.For example, in step S215 shown in FIG. 4, the incident intersection camera coordinates (
Figure 112017022039266-pat00091
). ≪ / RTI >

S215 단계는, 카메라의 중심(C)과 투명 소재의 제1 면과 광 경로의 교점인 입사 교점(X)간의 거리(r) 및 카메라의 중심(C)으로부터 입사 교점(X)으로 향하는 입사방향벡터(

Figure 112017022039266-pat00092
)에 기초하여 카메라의 중심(C)을 기준으로 하는 입사 교점(X)에 대한 카메라 좌표인 입사 교점 카메라 좌표(
Figure 112017022039266-pat00093
)를 산출하는 단계를 의미할 수 있다.In step S215, the distance r between the center C of the camera and the first intersection of the optical path and the incident intersection X of the transparent material and the incident direction X from the center C of the camera to the incident intersection X vector(
Figure 112017022039266-pat00092
), Which is a camera coordinate for an incident intersection X based on the center C of the camera,
Figure 112017022039266-pat00093
). ≪ / RTI >

예컨대, 도 4에 도시된 S216 단계는 입사 교점 기준 굴절 교점 3차원 좌표(

Figure 112017022039266-pat00094
)를 산출하는 단계를 의미할 수 있다.For example, in step S216 shown in FIG. 4, the incidence intersection reference refraction intersection three-dimensional coordinates (
Figure 112017022039266-pat00094
). ≪ / RTI >

S216 단계는, 투명 소재의 두께(d0), 내부 굴절각(j) 및 내부 굴절 방향 벡터(

Figure 112017022039266-pat00095
)에 기초하여 입사 교점(X)을 기준으로 하는 투명 소재의 제2 면과 광 경로의 교점인 굴절 교점(Y)에 대한 3차원 좌표인 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00096
)를 산출하는 단계를 의미할 수 있다.In step S216, the thickness d o of the transparent material, the internal refraction angle j, and the internal refraction direction vector
Figure 112017022039266-pat00095
Dimensional coordinate of the intersection of the intersection of the second surface of the transparent material and the optical path on the basis of the incident intersection X based on the three-
Figure 112017022039266-pat00096
). ≪ / RTI >

예컨대, 도 4에 도시된 S217 단계는 굴절 교점 기준 관찰점 3차원 좌표(

Figure 112017022039266-pat00097
)를 산출하는 단계를 의미할 수 있다.For example, in step S217 shown in FIG. 4, the three-dimensional coordinates of the refraction intersection reference viewing point
Figure 112017022039266-pat00097
). ≪ / RTI >

S217 단계는 굴절 교점(Y)을 기준으로 하는 임의의 관찰점(W)에 대한 3차원 좌표인 굴절 교점 기준 관찰점 3차원 좌표(

Figure 112017022039266-pat00098
)와 입사 교점 카메라 좌표(
Figure 112017022039266-pat00099
)의 비례 관계를 나타내는 비례 계수(λ)에 기초하여 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00100
)를 산출하는 단계를 의미할 수 있다.In step S217, the three-dimensional coordinates of the arbitrary observation point W with reference to the refraction intersection Y as refraction intersection reference observation point three-dimensional coordinates
Figure 112017022039266-pat00098
) And intersection camera coordinates (
Figure 112017022039266-pat00099
) Based on the proportional coefficient (?) Indicating the proportional relationship of the refraction intersection reference observation point 3-dimensional coordinates
Figure 112017022039266-pat00100
). ≪ / RTI >

예를 들어, 도 4에 도시된 S218 단계는, 입사 교점 카메라 좌표(

Figure 112017022039266-pat00101
), 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00102
) 및 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00103
)의 벡터합에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.For example, in step S218 shown in FIG. 4, the incident intersection camera coordinates (
Figure 112017022039266-pat00101
), Incidence intersection reference refraction intersection three-dimensional coordinates (
Figure 112017022039266-pat00102
) And refraction intersection reference observation point three-dimensional coordinates (
Figure 112017022039266-pat00103
) Of the distortion-observation-point camera coordinates.

이때, S218 단계에서 산출된 벡터합은, 결과적으로 S212 단계의 광 굴절 경로와 임의의 관찰 평면 간의 교점을 의미하게 된다.At this time, the vector sum calculated in step S218 means the intersection between the optical refraction path in step S212 and an arbitrary observation plane.

상술한 왜곡 관찰점 카메라 좌표를 산출하는 과정을 수학식으로 표현하면 아래 수학식 6와 같다.The process of calculating the above-described distortion observation point camera coordinates is expressed by Equation (6) below.

즉, 왜곡 관찰점 카메라 좌표는 아래 수학식 6에 기초하여 산출될 수 있다.That is, the distortion observation point camera coordinates can be calculated based on Equation (6) below.

[수학식 6]&Quot; (6) "

Figure 112017022039266-pat00104
Figure 112017022039266-pat00104

Figure 112017022039266-pat00105
Figure 112017022039266-pat00106
는 왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00107
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00108
는 구면 좌표계의 아지무스(azimuth) 각도 좌표, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합, λ는 비례 계수,
Figure 112017022039266-pat00109
는 카메라의 중심(C)을 기준으로 하는 투명 소재의 제1 면과 광 경로의 교점인 입사 교점(X)에 대한 카메라 좌표인 입사 교점 카메라 좌표, d0는 투명 소재의 두께, j는 내부 굴절각,
Figure 112017022039266-pat00110
는 내부 굴절 방향 벡터를 의미한다.
Figure 112017022039266-pat00105
And
Figure 112017022039266-pat00106
Distortion observation point Camera coordinates,
Figure 112017022039266-pat00107
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00108
Is an azimuth angle coordinate of a spherical coordinate system, S is a set of curved surface parameter estimates including a plurality of curved surface parameter estimates,? Is a proportional coefficient,
Figure 112017022039266-pat00109
Is incident in the camera coordinates of the first surface and the incident point of intersection (X) intersecting point of the optical path of transparent material which on the basis of the center (C) of the camera intersection camera coordinates, d 0 is the thickness of the transparent material, j is the internal refraction angle ,
Figure 112017022039266-pat00110
Denotes an internal refraction direction vector.

이제 도 9a 및 상술한 수학식 6을 참조하여, S215 단계, S216 단계, S217 단계 및 S218 단계에 대하여 설명한다.Now, the steps S215, S216, S217, and S218 will be described with reference to FIG. 9A and the above-described Equation 6.

수학식 6에 표현된 바와 같이, 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00111
)는
Figure 112017022039266-pat00112
로 표현될 수도 있으며, 이는, 왜곡 관찰점 카메라 좌표가 구면 좌표계의 인클라이네이션(inclination) 각도 좌표(
Figure 112017022039266-pat00113
) 및 구면 좌표계의 아지무스(azimuth) 각도 좌표(
Figure 112017022039266-pat00114
)의 2변수 함수로 표현될 수 있음을 의미한다.As expressed in Equation (6), the distortion observation point camera coordinates (
Figure 112017022039266-pat00111
)
Figure 112017022039266-pat00112
This is because the distortion observation point camera coordinates may be expressed by the inclination angle coordinates of the spherical coordinate system (
Figure 112017022039266-pat00113
) And the azimuth angle coordinate of the spherical coordinate system (
Figure 112017022039266-pat00114
) Can be expressed as a two-variable function.

또한, 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00115
)는 곡면 파라미터 추정값 집합(S)에 포함된 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az), 제4 곡면 파라미터(ar), 제1 곡면 파라미터 행렬(A) 및 제2 곡면 파라미터 행렬(B) 각각의 파라미터 값에 따라 의미하는 좌표 지점이 달라지는 일반화된 카메라 좌표식을 의미한다.In addition, the distortion observation point camera coordinates (
Figure 112017022039266-pat00115
(A x ), a second curved surface parameter (a y ), a third curved surface parameter (a z ), a fourth curved surface parameter (a r ) included in the set of curved surface parameter estimation values S, Means a generalized camera coordinate expression in which the coordinate points that are determined according to the parameter values of the curved surface parameter matrix A and the second curved surface parameter matrix B vary.

이때, S215 단계에서 산출하는 입사 교점 카메라 좌표(

Figure 112017022039266-pat00116
)는 수학식 6 상에서 1×
Figure 112017022039266-pat00117
의 형태로 표현되었다.At this time, the incident intersection camera coordinates (
Figure 112017022039266-pat00116
) Is expressed by 1 x
Figure 112017022039266-pat00117
In this case.

도 9a에 도시된 바와 같이, 입사 교점 카메라 좌표(

Figure 112017022039266-pat00118
)는 카메라의 중심(C)과 투명 소재의 제1 면과 광 경로의 교점인 입사 교점(X)간의 거리(r) 및 카메라의 중심(C)으로부터 입사 교점(X)으로 향하는 입사방향벡터(
Figure 112017022039266-pat00119
)의 곱으로 표현될 수 있으며, 이를 수학식으로 표현하면 아래 수학식 7과 같다.As shown in FIG. 9A, the incident intersection camera coordinates (
Figure 112017022039266-pat00118
Is defined by the distance r between the center C of the camera and the first face of the transparent material and the incident intersection X that is the intersection of the optical path and the incident direction vector from the center C of the camera to the incident intersection X
Figure 112017022039266-pat00119
), And this can be expressed by the following equation (7). &Quot; (7) "

[수학식 7]&Quot; (7) "

Figure 112017022039266-pat00120
Figure 112017022039266-pat00120

여기서,

Figure 112017022039266-pat00121
는 입사 교점 카메라 좌표, r은 카메라의 중심(C)과 입사 교점(X)간의 거리,
Figure 112017022039266-pat00122
는 카메라의 중심(C)으로부터 입사 교점(X)으로 향하는 입사방향벡터를 의미한다.here,
Figure 112017022039266-pat00121
R is the distance between the center of the camera (C) and the incident intersection (X)
Figure 112017022039266-pat00122
Means an incident direction vector directed from the center C of the camera to the incident intersection X.

또한, S216 단계에서 산출하는 입사 교점 기준 굴절 교점 3차원 좌표(

Figure 112017022039266-pat00123
)는 수학식 6 상에서
Figure 112017022039266-pat00124
의 형태로 표현되었으며, 도 9a에 도시된 바와 같이, d0는 투명 소재의 두께를 의미하고, 내부 굴절각(j)는 입사 교점(X)와 굴절 교점(Y)를 연결하는 직선과 굴절 교점(Y)의 법선 간의 사이각을 의미하고, 내부 굴절 방향 벡터(
Figure 112017022039266-pat00125
)는 입사 교점 기준 굴절 교점 3차원 좌표(
Figure 112017022039266-pat00126
)의 방향 벡터를 의미한다.In addition, the incident intersection reference refraction intersection three-dimensional coordinates (
Figure 112017022039266-pat00123
) ≪ RTI ID = 0.0 >
Figure 112017022039266-pat00124
9A, d 0 denotes the thickness of the transparent material, and the internal refraction angle j is a sum of a straight line connecting the incident intersection X and the refraction intersection Y, Y), and the internal refractive direction vector (
Figure 112017022039266-pat00125
) Is a three-dimensional coordinate
Figure 112017022039266-pat00126
).

이때, 내부 굴절각(j)는 투명 소재 굴절률(nw)에 기초하여 스넬의 법칙으로 결정될 수 있으며, 내부 굴절각(j)은 아래 수학식 8에 기초하여 결정될 수 있다.At this time, the internal refraction angle j can be determined by Snell's law based on the refractive index n w of the transparent material, and the internal refraction angle j can be determined based on Equation 8 below.

[수학식 8]&Quot; (8) "

Figure 112017022039266-pat00127
Figure 112017022039266-pat00127

이때, i는 입사각, nw는 투명 소재 굴절률, j는 내부 굴절각, f는 외부 굴절각을 의미한다.Where i is the incident angle, n w is the refractive index of the transparent material, j is the internal refraction angle, and f is the external refraction angle.

보다 상세하게, 도 9a에 도시된 바와 같이, 입사각(i)는 카메라의 중심(C)과 입사 교점(X)을 연결하는 직선과 입사 교점(X)의 법선 간의 사이각을 의미하고, 외부 굴절각(f)는 굴절 교점(Y)과 임의의 관찰점(W)를 연결하는 직선과 굴절 교점(Y)의 법선 간의 사이각을 의미할 수 있다.9A, the incident angle i means an angle between a straight line connecting the center C of the camera and the incident intersection X and a normal line of the incident intersection X, (f) can mean the angle between the straight line connecting the refraction point Y and the arbitrary observation point W and the normal line of the refraction point Y.

여기서, 입사각(i)는 아래 수학식 9에 기초하여 산출될 수 있다.Here, the incident angle (i) can be calculated based on the following equation (9).

[수학식 9]&Quot; (9) "

Figure 112017022039266-pat00128
Figure 112017022039266-pat00128

이때, i는 입사각,

Figure 112017022039266-pat00129
는 카메라의 중심(C)으로부터 입사 교점(X)으로 향하는 입사방향벡터,
Figure 112017022039266-pat00130
는 입사 교점(X)에서의 법선 벡터를 의미한다.In this case, i is an incident angle,
Figure 112017022039266-pat00129
The incident direction vector from the center C of the camera to the incident intersection X,
Figure 112017022039266-pat00130
Denotes a normal vector at the incident intersection X.

한편, S216 단계에서 입사 교점 기준 굴절 교점 3차원 좌표(

Figure 112017022039266-pat00131
)를 산출하기 위한 내부 굴절 방향 벡터(
Figure 112017022039266-pat00132
)는 아래 수학식 10에 기초하여 산출될 수 있다.On the other hand, in step S216, the three-dimensional coordinates
Figure 112017022039266-pat00131
The internal refractive direction vector < RTI ID = 0.0 >
Figure 112017022039266-pat00132
) Can be calculated based on Equation (10) below.

[수학식 10]&Quot; (10) "

Figure 112017022039266-pat00133
Figure 112017022039266-pat00133

여기서,

Figure 112017022039266-pat00134
은 내부 굴절 방향 벡터, nw는 투명 소재 굴절률,
Figure 112017022039266-pat00135
는 카메라의 중심(C)으로부터 입사 교점(X)으로 향하는 입사방향벡터, j는 내부 굴절각, i는 입사각,
Figure 112017022039266-pat00136
는 입사 교점(X)에서의 법선 벡터를 의미한다.here,
Figure 112017022039266-pat00134
Is an internal refractive index vector, n w is a refractive index of a transparent material,
Figure 112017022039266-pat00135
Is an incidence direction vector directed from the center C of the camera to the incidence intersection X, j is an internal refraction angle, i is an incidence angle,
Figure 112017022039266-pat00136
Denotes a normal vector at the incident intersection X.

이때, 수학식 9 및 수학식 10에서 공통적으로 사용되는 입사 교점(X)에서의 법선 벡터인

Figure 112017022039266-pat00137
는 아래 수학식 11에 기초하여 산출될 수 있다.At this time, the normal vector at the incident intersection X commonly used in the equations (9) and (10)
Figure 112017022039266-pat00137
Can be calculated based on Equation (11) below.

[수학식 11]&Quot; (11) "

Figure 112017022039266-pat00138
Figure 112017022039266-pat00138

Figure 112017022039266-pat00139
는 입사 교점(X)에서의 법선 벡터, r은 카메라의 중심(C)과 입사 교점(X)간의 거리,
Figure 112017022039266-pat00140
는 투명 소재 곡면 모델을 의미한다.
Figure 112017022039266-pat00139
Is the normal vector at the incidence intersection X, r is the distance between the center C of the camera and the incidence intersection X,
Figure 112017022039266-pat00140
Means a transparent material surface model.

즉, 수학식 11에서 투명 소재 곡면 모델(

Figure 112017022039266-pat00141
)이 왜곡 관찰점 카메라 좌표를 정의하기 위해 활용되기 때문에, 왜곡 관찰점 카메라 좌표(
Figure 112017022039266-pat00142
)는 곡면 파라미터 추정값 집합(S)에 포함된 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az), 제4 곡면 파라미터(ar), 제1 곡면 파라미터 행렬(A) 및 제2 곡면 파라미터 행렬(B) 각각의 파라미터 값에 따라 의미하는 좌표 지점이 달라지는 일반화된 카메라 좌표식으로 산출될 수 있게 된다.That is, in Expression (11), the transparent material surface model
Figure 112017022039266-pat00141
) Is utilized to define the distortion observation point camera coordinates, the distortion observation point camera coordinates (
Figure 112017022039266-pat00142
(A x ), a second curved surface parameter (a y ), a third curved surface parameter (a z ), a fourth curved surface parameter (a r ) included in the set of curved surface parameter estimation values S, It can be calculated by a generalized camera coordinate expression in which the coordinate points that are different according to the parameter values of the curved surface parameter matrix A and the second curved surface parameter matrix B are changed.

한편, S217 단계에서 산출하는 굴절 교점 기준 관찰점 3차원 좌표(

Figure 112017022039266-pat00143
)는 수학식 6 상에서 λ×
Figure 112017022039266-pat00144
의 형태로 표현되었다.On the other hand, the three-dimensional coordinates of the refraction intersection reference viewing point calculated in step S217
Figure 112017022039266-pat00143
) Is expressed as < EMI ID =
Figure 112017022039266-pat00144
In this case.

이는 외부 굴절각(f)와 입사각(i)가 같고 하나의 평면 위에 있으므로, 입사 교점 카메라 좌표(

Figure 112017022039266-pat00145
)와 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00146
)는 서로 평행하기 때문이며, 그 결과, 입사 교점 카메라 좌표(
Figure 112017022039266-pat00147
)와 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00148
) 상호 간의 비례 계수(λ)를 산출하면, 굴절 교점 기준 관찰점 3차원 좌표(
Figure 112017022039266-pat00149
)를 산출할 수 있게 된다.This is because the external refraction angle f and the incident angle i are the same and are on one plane,
Figure 112017022039266-pat00145
) And refraction intersection reference observation point three-dimensional coordinates (
Figure 112017022039266-pat00146
) Are parallel to each other, and as a result, the incident intersection camera coordinates (
Figure 112017022039266-pat00147
) And refraction intersection reference observation point three-dimensional coordinates (
Figure 112017022039266-pat00148
) Is calculated, the three-dimensional coordinates of the refraction intersection reference observation point (
Figure 112017022039266-pat00149
) Can be calculated.

이때, 비례 계수(λ)는 관찰 평면(P)와 광 경로의 교점을 구하는 선형 방정식인 아래 수학식 12의 해로써 산출될 수 있다.At this time, the proportional coefficient? Can be calculated by the following equation (12), which is a linear equation for obtaining the intersection of the observation plane P and the optical path.

[수학식 12]&Quot; (12) "

Figure 112017022039266-pat00150
Figure 112017022039266-pat00150

W는 임의의 관찰점, P는 임의의 관찰 평면, Z는

Figure 112017022039266-pat00151
조건을 만족하는 모든 점,
Figure 112017022039266-pat00152
는 카메라의 중심(C)을 기준으로 한 Z의 카메라 좌표,
Figure 112017022039266-pat00153
는 카메라의 중심(C)을 기준으로 한 굴절 교점(Y)의 카메라 좌표,
Figure 112017022039266-pat00154
는 카메라의 중심(C)을 기준으로 한 입사 교점(X)의 카메라 좌표, λ는 비례 계수를 의미한다.W is an arbitrary observation point, P is an arbitrary observation plane, Z is
Figure 112017022039266-pat00151
All points that satisfy the condition,
Figure 112017022039266-pat00152
The camera coordinates of Z with reference to the center C of the camera,
Figure 112017022039266-pat00153
The camera coordinates of the refraction intersection Y with reference to the center C of the camera,
Figure 112017022039266-pat00154
Is the camera coordinate of the incidence intersection X with reference to the center C of the camera, and? Is a proportional coefficient.

여기서, 수학식 12에 해당하는 선형 방정식의 해를 산출하는 구체적인 방법에 대한 설명은 종래에 공지된 바와 같으므로 생략한다.Here, the description of the concrete method of calculating the solution of the linear equation corresponding to the equation (12) is omitted since it is known in the prior art.

한편, 수학식 6 내지 수학식 12에서 활용되는 입사방향벡터(

Figure 112017022039266-pat00155
), 구면 좌표계의 인클라이네이션(inclination) 각도 좌표(
Figure 112017022039266-pat00156
) 및 구면 좌표계의 아지무스(azimuth) 각도 좌표(
Figure 112017022039266-pat00157
)는 상술한 종래의 기술에 대한 수학식 1에 기초하여 산출될 수 있다.On the other hand, the incidence direction vector < RTI ID = 0.0 >
Figure 112017022039266-pat00155
), Inclination angle coordinates of the spherical coordinate system (
Figure 112017022039266-pat00156
) And the azimuth angle coordinate of the spherical coordinate system (
Figure 112017022039266-pat00157
) Can be calculated based on Equation (1) for the conventional technique described above.

다시 말해, 왜곡 관찰점 카메라 좌표는, 비례 계수(λ), 카메라의 중심(C)을 기준으로 하는 투명 소재의 제1 면과 광 경로의 교점인 입사 교점(X)에 대한 카메라 좌표인 입사 교점 카메라 좌표(

Figure 112017022039266-pat00158
), 투명 소재의 두께(d0), 내부 굴절각(j) 및 내부 굴절 방향 벡터(
Figure 112017022039266-pat00159
)에 기초하여 산출될 수 있다.In other words, the distortion observation point camera coordinates are the camera coordinates for the incident intersection X, which is the intersection of the optical path and the first surface of the transparent material with respect to the center C of the camera, Camera coordinates (
Figure 112017022039266-pat00158
), The thickness (d 0 ) of the transparent material, the internal refraction angle (j) and the internal refraction direction vector
Figure 112017022039266-pat00159
). ≪ / RTI >

이제 도 2를 계속 참조하여, S230 단계를 설명한다.With continued reference to FIG. 2, step S230 will now be described.

S230 단계는, 비왜곡 카메라 좌표 산출부(120)가, 투명 소재를 제거하고 촬영된 임의의 관찰점을 포함하는 투명 소재 제거 영상에 기초하여 비왜곡 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.Step S230 may mean that the non-distorted camera coordinate calculation section 120 calculates the unoriented observation point camera coordinates based on the transparent material removal image including the arbitrary observation point photographed by removing the transparent material have.

보다 구체적으로, S230 단계는, 비왜곡 카메라 좌표 산출부(120)가, 투명 소재를 제거하고 촬영된 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 촬영 영상인 투명 소재 제거 영상에 기초하여 카메라의 중심을 기준으로 하는 임의의 관찰점에 대한 카메라 좌표인 비왜곡 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.More specifically, in step S230, the non-distorted camera coordinate calculation unit 120 calculates a non-distorted camera coordinate based on the transparent material removal image, which is a photographed image including an arbitrary observation point located on any photographed observation plane, And may be a step of calculating the camera coordinates of the non-distorted observation point camera, which is the camera coordinate of an arbitrary observation point based on the center of the camera.

이때, S230 단계에서 투명 소재를 제거하고 촬영된 임의의 관찰점에 대한 카메라 좌표인 비왜곡 관찰점 카메라 좌표를 산출하는 방법은 상술한 종래의 기술에 대한 수학식 1에 기초하여 수행될 수 있으며, 그 구체적인 설명은 생략한다.At this time, the method of removing the transparent material in step S230 and calculating the camera coordinates of the non-distorted observation point camera as the camera coordinates with respect to any observation point can be performed based on Equation (1) for the conventional technique described above, A detailed description thereof will be omitted.

이제 도 2를 계속 참조하여, S250 단계를 계속 설명한다.With continued reference to FIG. 2, step S250 will continue.

S250 단계는 곡면 파라미터 결정부(130)가, 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00160
)와 비왜곡 관찰점 카메라 좌표(
Figure 112017022039266-pat00161
)의 차이에 기초하여 복수의 곡면 파라미터를 결정하는 단계를 의미할 수 있다.In operation S250, the curved surface parameter determination unit 130 determines whether or not the distortion observation point camera coordinates
Figure 112017022039266-pat00160
) And non-distortion observation point camera coordinates (
Figure 112017022039266-pat00161
) Of the plurality of curved surface parameters.

이때, S250 단계를 통하여 복수의 곡면 파라미터 추정값 각각은 특정한 곡면 파라미터 값으로 결정될 수 있다.In this case, each of the plurality of curved surface parameter estimation values may be determined as a specific curved surface parameter value through step S250.

예컨대, S250 단계에서 복수의 곡면 파라미터는, 비왜곡 관찰점 카메라 좌표와 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 카메라의 중심을 기준으로 하는 투명 소재의 제1 면 상에 미리 배치된 선분의 양 끝점 각각의 카메라 좌표인 제1 끝점 카메라 좌표 및 제2 끝점 카메라 좌표 간의 좌표 거리가 선분의 길이와 같도록 하는 조건을 모두 만족하도록 결정될 수 있다.For example, in step S250, the plurality of curved surface parameters include a condition for minimizing the difference between the non-distorted observation point camera coordinates and the distortion observation point camera coordinates, And the coordinate distance between the first end-point camera coordinate and the second end-point camera coordinate, which are the camera coordinates of both end points of the segment, is equal to the length of the line segment.

예를 들어, S250 단계는, 비왜곡 관찰점 카메라 좌표와 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점 각각에 해당하는 적어도 하나의 제1 끝점 및 제2 끝점 간의 카메라 좌표 거리가 적어도 하나의 선분의 길이와 각각 같도록 하는 조건을 모두 만족하도록 복수의 곡면 파라미터를 결정하는 단계를 포함할 수 있다.For example, in step S250, the condition for minimizing the difference between the non-distorted observation point camera coordinates and the distortion observation point camera coordinates and the condition for making the difference between the both ends of at least one line segment disposed in advance on the first surface of the transparent material Determining a plurality of curved surface parameters such that the camera coordinate distance between the at least one first end point and the second end point is equal to the length of at least one line segment, respectively.

예를 들어, S250 단계에서 복수의 곡면 파라미터는 아래 수학식 13에 기초하여 결정될 수 있다.For example, in step S250, a plurality of curved surface parameters may be determined based on Equation (13) below.

[수학식 13]&Quot; (13) "

Figure 112017022039266-pat00162
Figure 112017022039266-pat00162

S*는 결정된 복수의 곡면 파라미터를 포함하는 곡면 파라미터 집합, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합,

Figure 112017022039266-pat00163
는 카메라의 중심(C)을 기준으로 하는 k번째 관찰점에 대한 비왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00164
는 카메라의 중심(C)을 기준으로 하는 k번째 관찰점에 대한 왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00165
는 k번째 관찰점의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00166
는 k번째 관찰점의 아지무스(azimuth) 각도 좌표,
Figure 112017022039266-pat00167
는 카메라의 중심(C)을 기준으로 하는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제1 끝점 카메라 좌표,
Figure 112017022039266-pat00168
는 카메라의 중심(C)을 기준으로 하는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제2 끝점 카메라 좌표,
Figure 112017022039266-pat00169
는 복수의 곡면 파라미터로 표현된 i번째 선분의 제1 끝점 카메라 좌표 및 제2 끝점 카메라 좌표 간의 좌표 거리, Li는 i번째 선분의 길이를 의미한다.S * is a set of curved surface parameters including a plurality of determined curved surface parameters, S is a set of curved surface parameter estimates including a plurality of curved surface parameter estimates,
Figure 112017022039266-pat00163
Distortion observation point camera coordinates for the k-th observation point with respect to the center C of the camera,
Figure 112017022039266-pat00164
Is a distortion observation point camera coordinate for the kth observation point with respect to the center C of the camera,
Figure 112017022039266-pat00165
Is the inclination angle coordinate of the kth observation point,
Figure 112017022039266-pat00166
Is the azimuth angle coordinate of the kth observation point,
Figure 112017022039266-pat00167
Coordinates of the first end point camera of the i-th line segment disposed in advance on the first surface of the transparent material with reference to the center C of the camera,
Figure 112017022039266-pat00168
Coordinates of the second end point camera of the i-th line segment arranged on the first surface of the transparent material with reference to the center C of the camera,
Figure 112017022039266-pat00169
Is the coordinate distance between the first end camera coordinate and the second end point camera coordinate of the i-th line segment expressed by a plurality of curved surface parameters, and L i is the length of the i-th line segment.

예를 들어, S250 단계에서 ax는 제1 곡면 파라미터, ay는 제2 곡면 파라미터, az는 제3 곡면 파라미터, ar은 제4 곡면 파라미터, 제1 곡면 파라미터 행렬(A) 및 제2 곡면 파라미터 행렬(B)를 포함하는 복수의 곡면 파라미터를 모두 결정하기 위해서는, 비왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00170
)와 왜곡 관찰점 카메라 좌표(
Figure 112017022039266-pat00171
)의 차이가 최소가 되도록 하는 관계식 이외에도 추가적이 관계식이 더 필요할 수 있다.For example, in step S250, a x is a first curved surface parameter, a y is a second curved surface parameter, a z is a third curved surface parameter, a r is a fourth curved surface parameter, a first curved surface parameter matrix A, In order to determine all of the plurality of curved surface parameters including the curved surface parameter matrix B, the non-distorted observation point camera coordinates (
Figure 112017022039266-pat00170
) And distortion observation point camera coordinates (
Figure 112017022039266-pat00171
) May be minimized, but this additional relationship may be necessary.

이 경우, S250 단계에서 곡면 파라미터 결정부(130)는 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점에 대한 카메라 좌표인 제1 끝점 카메라 좌표 및 제2 끝점 카메라 좌표를 활용하여, 복수의 곡면 파라미터를 결정하기 위한 추가적인 관계식을 더 생성할 수 있다.In this case, in step S250, the curved surface parameter determination unit 130 uses the coordinates of the first end point camera coordinates and the coordinates of the second end point camera, which are camera coordinates of the end points of at least one segment segment arranged in advance on the first surface of the transparent material Thereby further generating additional relational expressions for determining a plurality of curved surface parameters.

이를 위해서, 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점에 대한 카메라 좌표인 제1 끝점 카메라 좌표 및 제2 끝점 카메라 좌표 각각이 구면 좌표계 상에서 복수의 곡면 파라미터를 포함하도록 표현되어야 한다.To this end, each of the first end-point camera coordinates and the second end-point camera coordinates, which are camera coordinates with respect to both end points of at least one line segment disposed on the first surface of the transparent material, are respectively represented by a plurality of curved surface parameters on the spherical coordinate system .

이를 위해, 상술한 수학식 5를 활용하여 제1 끝점 카메라 좌표(

Figure 112017022039266-pat00172
)를 복수의 곡면 파라미터를 포함하도록 표현하면
Figure 112017022039266-pat00173
와 같이 표현될 수 있으며, 마찬가지로 제2 끝점 카메라 좌표(
Figure 112017022039266-pat00174
)를 복수의 곡면 파라미터를 포함하도록 표현하면
Figure 112017022039266-pat00175
와 같이 표현될 수 있다.To this end, the coordinates of the first end point camera (
Figure 112017022039266-pat00172
) Is expressed to include a plurality of curved surface parameters
Figure 112017022039266-pat00173
And similarly, the coordinates of the second end point camera (
Figure 112017022039266-pat00174
) Is expressed to include a plurality of curved surface parameters
Figure 112017022039266-pat00175
Can be expressed as

이때,

Figure 112017022039266-pat00176
Figure 112017022039266-pat00177
각각은 구면 좌표계 상에서의 i 번째 선분의 제1 끝점 카메라 좌표의 방향 성분으로 상술한 수학식 1 및 종래의 기술에 의하여 산출될 수 있으며, 마찬가지로
Figure 112017022039266-pat00178
Figure 112017022039266-pat00179
각각은 구면 좌표계 상에서의 i 번째 선분의 제2 끝점 카메라 좌표의 방향 성분으로 상술한 수학식 1 및 종래의 기술에 의하여 산출될 수 있다.At this time,
Figure 112017022039266-pat00176
And
Figure 112017022039266-pat00177
Each can be calculated by the above-described Equation 1 and the conventional technique as the direction component of the first end point camera coordinate of the i-th line segment on the spherical coordinate system,
Figure 112017022039266-pat00178
And
Figure 112017022039266-pat00179
Each can be calculated by the above-described equation (1) and the conventional technique as the direction component of the second end point camera coordinate of the i-th line segment on the spherical coordinate system.

나아가,

Figure 112017022039266-pat00180
는 상술한 투명 소재 곡면 모델에 의해 산출된 복수의 곡면 파라미터로 표현된 구면 좌표계 상에서의 i 번째 선분의 제1 끝점 카메라 좌표의 거리 성분을 의미할 수 있으며, 마찬가지로
Figure 112017022039266-pat00181
는 상술한 투명 소재 곡면 모델에 의해 산출된 복수의 곡면 파라미터로 표현된 구면 좌표계 상에서의 i 번째 선분의 제2 끝점 카메라 좌표의 거리 성분을 의미할 수 있다.Furthermore,
Figure 112017022039266-pat00180
May mean the distance component of the coordinates of the first end point camera of the i-th line segment on the spherical coordinate system expressed by a plurality of curved surface parameters calculated by the transparent material curved surface model described above,
Figure 112017022039266-pat00181
May refer to a distance component of a second end point camera coordinate of an i-th line segment on a spherical coordinate system represented by a plurality of curved surface parameters calculated by the transparent material curve model described above.

그 결과, 복수의 곡면 파라미터로 표현된 제1 끝점 카메라 좌표 및 복수의 곡면 파라미터로 표현된 제2 끝점 카메라 좌표 상호 간의 좌표 거리가 미리 저장된 실제 선분의 길이와 같도록 하는 관계식이 도출될 수 있다.As a result, a relational expression can be derived such that the coordinate distance between the coordinates of the first end point camera coordinates represented by the plurality of curved surface parameters and the coordinates of the second end point camera coordinates expressed with the plurality of curved surface parameters is equal to the length of the actual line segment stored in advance.

예를 들어, S250 단계에서 상술한 복수의 곡면 파라미터를 결정하기에 불충분한 개수의 선분을 활용하는 경우, 곡면 파라미터 결정부(130)는 복수의 곡면 파라미터 상호간의 관계식을 도출할 수 있으며, 트라이얼 앤 에러(Trial and Error) 방식을 활용하여 복수의 곡면 파라미터를 추정할 수 있다.For example, when the number of segments is insufficient to determine the plurality of curved surface parameters described above in step S250, the curved surface parameter determination unit 130 may derive a relational expression among a plurality of curved surface parameters, A plurality of curved surface parameters can be estimated by utilizing an error (Trial and Error) method.

예를 들어, S250 단계에서 상술한 복수의 곡면 파라미터를 모두 결정하기에 충분한 개수의 선분을 활용하는 경우, 곡면 파라미터 결정부(130)는 복수의 곡면 파라미터 각각의 값을 산출할 수 있다.For example, when a sufficient number of segments are used to determine all of the plurality of curved surface parameters described above in step S250, the curved surface parameter determination unit 130 may calculate the values of the plurality of curved surface parameters.

계속, 도 2를 참조하여 S270 단계를 설명한다.Step S270 will be described with reference to FIG.

S270 단계는 투명 소재 곡면값 산출부(140)가, 결정된 복수의 곡면 파라미터를 미리 저장된 투명 소재 곡면 모델에 적용하여 투명 소재의 곡면값을 산출하는 단계를 의미할 수 있다.In step S270, the transparent material curvature value calculation unit 140 may calculate the curvature value of the transparent material by applying the plurality of determined curvature parameters to the previously stored transparent curvilinear surface model.

상술한 바와 같이, 투명 소재 곡면 모델은, 제1 곡면 파라미터 행렬(A)와 제2 곡면 파라미터 행렬(B)을 포함하는 곡면 정의 함수(

Figure 112017022039266-pat00182
), 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az) 및 제4 곡면 파라미터(ar)를 포함한다.As described above, the transparent material surface model includes a surface defining function (A) including a first surface parameter matrix A and a second surface parameter matrix B
Figure 112017022039266-pat00182
, A first curved surface parameter (a x ), a second curved surface parameter (a y ), a third curved surface parameter (a z ), and a fourth curved surface parameter (a r ).

S250 단계에서, 제1 곡면 파라미터 행렬(A), 제2 곡면 파라미터 행렬(B), 제1 곡면 파라미터(ax), 제2 곡면 파라미터(ay), 제3 곡면 파라미터(az) 및 제4 곡면 파라미터(ar) 각각의 값이 특정한 값으로 결정되면, 투명 소재 곡면값 산출부(140)는 상술한 수학식 2 또는 수학식 4의 투명 소재 곡면 모델에 복수의 곡면 파라미터 값을 각각 대입함으로써 투명 소재의 곡면값을 산출할 수 있다.In step S250, the first curved surface parameter matrix A, the second curved surface parameter matrix B, the first curved surface parameter a x , the second curved surface parameter a y , the third curved surface parameter a z , When each value of the four curved surface parameters a r is determined to be a specific value, the transparent material curved surface value calculating unit 140 assigns a plurality of curved surface parameter values to the transparent material curved surface model of Equation (2) or (4) The curved surface value of the transparent material can be calculated.

여기서, 투명 소재의 곡면값은 투명 소재 곡면 모델에 복수의 곡면 파라미터가 대입된 r과

Figure 112017022039266-pat00183
,
Figure 112017022039266-pat00184
상호간의 관계식을 의미할 수도 있다.Here, the curved surface value of the transparent material is calculated by the following equation: r < RTI ID = 0.0 >
Figure 112017022039266-pat00183
,
Figure 112017022039266-pat00184
It may mean a mutual relationship.

여기서, 투명 소재의 곡면값은 투명 소재 곡면 모델에 복수의 곡면 파라미터가 대입된 r과

Figure 112017022039266-pat00185
,
Figure 112017022039266-pat00186
상호간의 관계식에서 특정
Figure 112017022039266-pat00187
,
Figure 112017022039266-pat00188
에 대한 특정 r 값을 의미할 수도 있다.Here, the curved surface value of the transparent material is calculated by the following equation: r < RTI ID = 0.0 >
Figure 112017022039266-pat00185
,
Figure 112017022039266-pat00186
In a mutual relationship,
Figure 112017022039266-pat00187
,
Figure 112017022039266-pat00188
Lt; RTI ID = 0.0 > r < / RTI >

설명의 편의를 위하여, 상술한 수학식 4를 아래 다시 기재하면, 투명 소재 곡면 모델은 아래 수학식 4에 기초하여 정의될 수 있다.For convenience of explanation, the above-described expression (4) will be described below, and the transparent material surface model can be defined based on the following equation (4).

[수학식 4]&Quot; (4) "

Figure 112017022039266-pat00189
Figure 112017022039266-pat00189

이때, 수학식 4에 포함된 각각의 변수들에 대한 구체적인 설명은 상기한 수학식 2 및 수학식 3에서와 동일하므로, 중복되는 설명은 생략한다.Here, the detailed description of each variable included in Equation (4) is the same as Equation (2) and Equation (3), and a duplicate explanation will be omitted.

도면에 도시되지 않았으나, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법은 S270 단계 이후에 카메라 좌표 보정부(150)가, 결정된 복수의 곡면 파라미터 및 적어도 하나의 카메라로 촬영한 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)를 더 포함할 수 있다.Although not shown in the drawing, in the transparent material curvature value calculating method according to the embodiment of the present invention, after step S270, the camera coordinate correcting unit 150 calculates the curvature radius of the transparent material transmission image captured by at least one camera (Not shown) of calculating the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on the corrected observation point camera coordinates.

S250 단계에서 복수의 곡면 파라미터는 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00190
)가 비왜곡 관찰점 카메라 좌표(
Figure 112017022039266-pat00191
)와 최대한 근사하도록 결정되었기 때문에, 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)에서 왜곡 관찰점 카메라 좌표(
Figure 112017022039266-pat00192
)에 결정된 복수의 곡면 파라미터를 대입하는 경우, 보정 관찰점 카메라 좌표가 산출될 수 있다.In step S250, the plurality of curved surface parameters include the distortion observation point camera coordinates
Figure 112017022039266-pat00190
) Is the non-distorted observation point camera coordinates (
Figure 112017022039266-pat00191
(Not shown) in the step of calculating the corrected observation point camera coordinates, the distortion observation point camera coordinates
Figure 112017022039266-pat00192
), The corrected observation point camera coordinates can be calculated.

즉, 상술한 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)에서 S250 단계를 통해 결정된 복수의 곡면 파라미터에 기초하여 상술한 왜곡 관찰점 카메라 좌표를 산출하면, 산출된 왜곡 관찰점 카메라 좌표는 보정 관찰점 카메라 좌표로써 결정될 수 있으며, 이는 결정된 복수의 곡면 파라미터가 이미 왜곡 관찰점 카메라 좌표와 비왜곡 관찰점 카메라 좌표가 서로 최대한 근사하도록 결정되었기 때문이다.That is, if the above-mentioned distortion observation point camera coordinates are calculated on the basis of the plurality of curved surface parameters determined in step S250 in the step of calculating the corrected observation observation camera coordinates (not shown), the calculated distortion observation camera coordinates are corrected Can be determined with observation point camera coordinates because the determined plurality of curved surface parameters have already been determined so that the distortion eye point camera coordinates and the anti-distortion eye point camera coordinates are as close as possible to each other.

이제 도 5 및 도 10을 참조하여, 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)에서 한 개의 카메라로 촬영된 임의의 관찰점에 대한 왜곡 관찰점 카메라 좌표를 보정하여 보정 관찰점 카메라 좌표를 산출하는 방법을 설명한다.5 and 10, in the step (not shown) of calculating the corrected observation point camera coordinates, the distortion observation point camera coordinates for any observation point photographed by one camera are corrected to obtain the correction observation point camera coordinates The method for calculating the value is described below.

도 5는 본 발명의 제1 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 순서도이다.5 is a flowchart for explaining a step of calculating corrected viewing point camera coordinates according to the first embodiment of the present invention.

도 10은 본 발명의 제1 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 도면이다.10 is a diagram for explaining the step of calculating the corrected viewing point camera coordinates according to the first embodiment of the present invention.

도 5에 도시된 바와 같이, 적어도 하나의 카메라가 한 개의 카메라인 경우, 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)는, 한 개의 카메라로부터 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계(S510) 및 보정 관찰점 카메라 좌표를 산출하는 단계(S520)를 포함한다.As shown in Fig. 5, when at least one camera is a single camera, the step of calculating the corrected observation point camera coordinates (not shown) calculates a light refraction path from one camera to an arbitrary observation point Step S510 and calculating the corrected observation point camera coordinates (S520).

S510 단계는, 결정된 복수의 곡면 파라미터에 기초하여 한 개의 카메라로부터 임의의 관찰 평면 상에 위치한 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계를 의미할 수 있다.Step S510 may mean calculating a light refraction path from one camera to an arbitrary observation point located on an arbitrary observation plane based on the determined plurality of curved surface parameters.

상술한 바와 같이, 한 개의 카메라를 이용하여 임의의 관찰점에 대한 카메라 좌표를 산출하기 위해서는, 해당되는 임의의 관찰점이 좌표 정보를 아는 임의의 관찰 평면 상에 위치하는 것을 전제해야 한다.As described above, in order to calculate the camera coordinates for an arbitrary observation point using one camera, it is assumed that the arbitrary observation point is located on an arbitrary observation plane that knows the coordinate information.

이때, S510 단계에서 카메라 좌표 보정부(150)는 상술한 수학식 6 내지 수학식 12에 S250 단계에서 결정된 복수의 곡면 파라미터를 대입하여, 한 개의 카메라의 중심(C)으로부터 시작하여 입사 교점(X) 및 굴절 교점(Y)를 순차적으로 통과하여 임의의 관찰 평면(P) 상에 위치한 임의의 관찰점(W)에 이르는 광 굴절 경로를 산출할 수 있다.At this time, in step S510, the camera coordinate correcting unit 150 substitutes the plurality of curved surface parameters determined in step S250 in the above-described equations (6) to (12) to calculate the incident intersection X ) And the refraction cross point Y to reach any observation point W located on an arbitrary observation plane P can be calculated.

S210 단계와 S510 단계의 차이점은, S210 단계에서는 아직 결정되지 않은 곡면 파라미터 추정값을 이용하여 왜곡 관찰점 카메라 좌표(

Figure 112017022039266-pat00193
)를 산출하기 때문에, 왜곡 관찰점 카메라 좌표(
Figure 112017022039266-pat00194
)는 복수의 곡면 파라미터의 값에 따라 의미하는 좌표 지점이 달라지는 임의의 관찰점에 대한 일반화된 카메라 좌표식인데 비하여, S510 단계에서 산출하는 광 굴절 경로는 S250 단계 및 S270 단계에서 각각 결정된 복수의 곡면 파라미터 및 곡면값을 이용하여 산출되기 때문에, 투명 소재를 제거하고 산출된 임의의 평면 관찰 평면 상에 위치한 임의의 관찰점에 대한 비왜곡 관찰점 카메라 좌표에 최대한 근사하는 광 굴절 경로로써 산출될 수 있다.The difference between step S210 and step S510 is that in step S210, the distorted observation point camera coordinates (
Figure 112017022039266-pat00193
), The distortion observation point camera coordinates (
Figure 112017022039266-pat00194
Is a generalized camera coordinate formula for an arbitrary observation point at which a coordinate point corresponding to a value of a plurality of curved surface parameters is changed. On the other hand, the light refraction path calculated in step S510 is a plurality of curved surfaces determined in steps S250 and S270 Can be calculated as a light refraction path that is closest to the non-distortion observation point camera coordinates for any observation point located on any of the calculated plane observation planes, by removing the transparent material and calculating it using the parameter and the surface value .

S520 단계는, 광 굴절 경로 및 임의의 관찰 평면의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.Step S520 may mean calculating the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on the intersection of the optical refraction path and the arbitrary observation plane.

예를 들어, S520 단계에서 카메라 좌표 보정부(150)는 광 굴절 경로를 벡터합 연산할 수 있으며, 그 결과 보정 관찰점 카메라 좌표가 산출될 수 있다.For example, in step S520, the camera coordinate correction unit 150 may perform a vector sum operation on the optical refraction path, and as a result, the corrected observation point camera coordinates can be calculated.

나아가, 도면에 도시되지는 않았으나, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법은 영상 좌표 보정부(미도시)가, 미리 설정된 카메라 좌표와 2차원 영상 좌표 간의 좌표 관계에 기초하여 보정 관찰점 카메라 좌표를 대응되는 보정 2차원 영상 좌표로 변환하는 단계(미도시)를 더 포함할 수 있다.In addition, although not shown in the drawing, a method for calculating a transparent material curve value according to an embodiment of the present invention is a method for calculating a transparent material curve value based on a coordinate relationship between a camera coordinate set in advance and a two- (Not shown) converting the point camera coordinates into the corresponding corrected two-dimensional image coordinates.

다시 말해, 보정 2차원 영상 좌표로 변환하는 단계(미도시)는 영상 좌표 보정부(미도시)가 S520 단계에서 생성된 보정 관찰점 카메라 좌표를 카메라 좌표와 2차원 영상 좌표 간의 관계에 기초하여 보정 관찰점 카메라 좌표에 대응되는 2차원 영상 좌표인 보정 2차원 영상 좌표로 변환하는 단계(미도시)를 의미할 수 있다.In other words, the step (not shown) of transforming the corrected two-dimensional image coordinates into the corrected two-dimensional image coordinates is performed such that the image coordinate correcting unit (not shown) corrects the corrected viewing point camera coordinates generated in step S520 based on the relationship between the camera coordinates and the two- (Not shown) of transforming the corrected two-dimensional image coordinates into two-dimensional corrected image coordinates corresponding to the observation point camera coordinates.

보정 2차원 영상 좌표로 변환하는 단계(미도시)의 수행 결과 도 10에 도시된 바와 같이, 보정 전 2차원 영상 좌표(a)는 보정 2차원 영상 좌표(b)로 변환될 수 있다.As shown in Fig. 10, the two-dimensional image coordinate (a) before correction can be converted into the corrected two-dimensional image coordinate (b).

예컨대, 보정 2차원 영상 좌표로 변환하는 단계(미도시)에서 이용하는 카메라 좌표와 2차원 영상 좌표 간의 관계는 영상 좌표 보정부(미도시)에 미리 저장될 수 있다.For example, the relationship between the camera coordinates and the two-dimensional image coordinates used in the step of converting to the corrected two-dimensional image coordinates (not shown) may be stored in advance in the image coordinate correction unit (not shown).

예컨대, 보정 2차원 영상 좌표로 변환하는 단계(미도시)에서 이용하는 카메라 좌표와 2차원 영상 좌표 간의 관계는 상술한 수학식 1에서 설명한 바와 같은 종래의 기술을 의미할 수도 있으며, 그 구체적인 설명은 생략한다.For example, the relationship between the camera coordinates and the two-dimensional image coordinates used in the step of converting to the corrected two-dimensional image coordinates (not shown) may refer to a conventional technique as described in Equation 1, do.

이제 도 6 및 도 11을 참조하여, 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)에서 두 개의 카메라로 촬영된 임의의 관찰점에 대한 왜곡 관찰점 카메라 좌표를 보정하여 보정 관찰점 카메라 좌표를 산출하는 방법을 설명한다.6 and 11, in the step of calculating the corrected observation point camera coordinates (not shown), the distortion observation point camera coordinates for any observation point photographed by the two cameras are corrected to obtain the corrected observation point camera coordinates The method for calculating the value is described below.

도 6은 본 발명의 제2 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 순서도이다.6 is a flowchart for explaining a step of calculating corrected viewing point camera coordinates according to the second embodiment of the present invention.

도 11은 본 발명의 제2 실시예에 따른, 보정 관찰점 카메라 좌표를 산출하는 단계를 설명하기 위한 도면이다.11 is a diagram for explaining the step of calculating the corrected observation point camera coordinates according to the second embodiment of the present invention.

도 6에 도시된 바와 같이, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우, 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)는, 제1 카메라로부터 임의의 관찰점에 이르는 제1 카메라 광 굴절 경로 산출 단계(S610), 제2 카메라로부터 임의의 관찰점에 이르는 제2 카메라 광 굴절 경로 산출 단계(S630) 및 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점에 기초하여 보정 관찰점 카메라 좌표 산출 단계(S650)를 포함할 수 있다.As shown in FIG. 6, when at least one camera includes the first camera and the second camera, the step of calculating the corrected viewing point camera coordinates (not shown) A first camera light refraction path calculation step S610, a second camera light refraction path calculation step S630 from the second camera to an arbitrary observation point, and an intersection point between the first camera light refraction path and the second camera light refraction path (S650) based on the corrected observation point camera coordinates.

S610 단계는, 제1 카메라에 대한 복수의 곡면 파라미터인 복수의 제1 카메라 곡면 파라미터에 기초하여 제1 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제1 카메라 광 굴절 경로를 산출하는 단계를 의미할 수 있다.Step S610 is a step of calculating a first camera light refraction path that is a light refraction path from the first camera to an arbitrary observation point on the basis of a plurality of first camera surface parameters, which are a plurality of curved surface parameters for the first camera can do.

S610 단계를 위해서, 제1 카메라에 대한 복수의 곡면 파라미터인 복수의 제1 카메라 곡면 파라미터가 필요할 수 있으며, 복수의 제1 카메라 곡면 파라미터는 제1 카메라에 대하여 상술한 S210 단계, S230 단계, S250 단계 및 S270 단계를 수행함으로써 산출될 수 있다.For the step S610, a plurality of first camera curved surface parameters, which are a plurality of curved surface parameters for the first camera, may be required, and a plurality of first camera curved surface parameters may be used for the first camera in steps S210, S230, And performing step S270.

또한, 제1 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제1 카메라 광 굴절 경로를 산출하는 방법은 제1 카메라에 대하여 상술한 S510 단계를 수행함으로써 산출될 수 있다.Further, a method of calculating the first camera photographic refraction path, which is a photorefractive path from the first camera to an arbitrary observation point, can be calculated by performing the above-described step S510 for the first camera.

S630 단계는, 제2 카메라에 대한 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터에 기초하여 제2 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제2 카메라 광 굴절 경로를 산출하는 단계를 의미할 수 있다.Step S630 is a step of calculating a second camera light refraction path that is a light refraction path from the second camera to an arbitrary observation point based on a plurality of second camera curved surface parameters, which are a plurality of curved surface parameters for the second camera can do.

S630 단계를 위해서, 제2 카메라에 대한 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터가 필요할 수 있으며, 복수의 제2 카메라 곡면 파라미터는 제2 카메라에 대하여 상술한 S210 단계, S230 단계, S250 단계 및 S270 단계를 수행함으로써 산출될 수 있다.For the step S630, a plurality of second camera curved surface parameters may be required for the second camera, and a plurality of second camera curved surface parameters may be required for the second camera in steps S210, S230, S250 And performing step S270.

또한, 제2 카메라로부터 임의의 관찰점으로 향하는 광 굴절 경로인 제2 카메라 광 굴절 경로를 산출하는 방법은 제2 카메라에 대하여 상술한 S510 단계를 수행함으로써 산출될 수 있다.Further, a method of calculating the second camera photographic refraction path, which is a photorefractive path from the second camera to an arbitrary observation point, can be calculated by performing the above-described step S510 for the second camera.

S650 단계는, 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점에 기초하여 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 단계를 의미할 수 있다.Step S650 may mean calculating the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on the intersection of the first camera light refraction path and the second camera light refraction path.

이때, S650 단계에서 산출되는 왜곡 관찰점 카메라 좌표는 결정된 복수의 제1 카메라 곡면 파라미터 및 결정된 복수의 제2 카메라 곡면 파라미터에 기초하여 산출되기 때문에, 왜곡 관찰점 카메라 좌표는 보정 관찰점 카메라 좌표를 의미하게 된다.At this time, since the distortion observation point camera coordinates calculated in step S650 are calculated based on the determined plurality of first camera curved surface parameters and the determined plurality of second camera curved surface parameters, the distortion observation point camera coordinates mean the corrected observation point camera coordinates .

예컨대, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우, 보정 관찰점 카메라 좌표를 산출하는 단계(미도시)는 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점을 보정 관찰점 카메라 좌표로 산출할 수 있기 때문에, 별도의 관찰 평면을 전제하지 않고도, 보정 관찰점 카메라 좌표를 산출할 수 있다.For example, when at least one camera includes the first camera and the second camera, the step of calculating the corrected observation point camera coordinates (not shown) corrects the intersection of the first camera light refraction path and the second camera light refraction path Since the observation point camera coordinates can be calculated, the corrected observation point camera coordinates can be calculated without assuming a separate observation plane.

예컨대, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우에서 왜곡 관찰점 카메라 좌표는, 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점을 아직 결정된 복수의 제1 카메라 곡면 파라미터 또는 복수의 제2 카메라 곡면 파라미터로 표현한 임의의 관찰점에 대한 카메라 좌표를 의미할 수 있다.For example, in the case where at least one camera includes the first camera and the second camera, the distortion observation point camera coordinates include coordinates of the first camera light refraction path and the second camera light refraction path, Parameter or a camera coordinate for any observation point expressed as a plurality of second camera surface parameters.

이제 도 11을 참조하여, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우, S650 단계에서 보정 관찰점 카메라 좌표를 산출하는 방법을 설명한다.Referring now to FIG. 11, when at least one camera includes a first camera and a second camera, a method of calculating the corrected observation point camera coordinates in step S650 will be described.

S650 단계에서, 보정 관찰점 카메라 좌표는 아래의 수학식 14 및 수학식 15에 기초하여 산출될 수 있다.In step S650, the corrected observation point camera coordinates can be calculated based on the following equations (14) and (15).

[수학식 14]&Quot; (14) "

Figure 112017022039266-pat00195
Figure 112017022039266-pat00195

[수학식 15]&Quot; (15) "

Figure 112017022039266-pat00196
Figure 112017022039266-pat00196

Figure 112017022039266-pat00197
는 제1 카메라의 중심(C1)을 기준으로 하는 제2 카메라의 중심(C2)의 카메라 좌표,
Figure 112017022039266-pat00198
는 제1 카메라의 중심(C1)을 기준으로 하는 투명 소재의 제2 면과 제1 카메라 광 굴절 경로의 교점인 제1 굴절 교점(Y1)의 카메라 좌표, λ1은 제1 비례 계수,
Figure 112017022039266-pat00199
는 제1 카메라 중심(C1)을 기준으로 하는 투명 소재의 제1 면과 제1 카메라 광 굴절 경로의 교점인 제1 입사 교점(X1)의 카메라 좌표,
Figure 112017022039266-pat00200
는 제2 카메라의 중심(C2)을 기준으로 하는 투명 소재의 제2 면과 제2 카메라 광 굴절 경로의 교점인 제2 굴절 교점(Y2)의 카메라 좌표, λ2는 제2 비례 계수,
Figure 112017022039266-pat00201
는 제2 카메라의 중심(C2)을 기준으로 하는 투명 소재의 제1 면과 제2 카메라 광 굴절 경로의 교점인 제2 입사 교점(X2)의 카메라 좌표,
Figure 112017022039266-pat00202
는 임의의 원점(O)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표,
Figure 112017022039266-pat00203
는 임의의 원점(O)을 기준으로 하는 제1 굴절 교점(Y1)의 3차원 좌표,
Figure 112017022039266-pat00204
는 임의의 원점(O)을 기준으로 하는 제2 굴절 교점(Y2)의 3차원 좌표를 의미한다.
Figure 112017022039266-pat00197
Is the camera coordinates of the center (C 2 ) of the second camera relative to the center (C 1 ) of the first camera,
Figure 112017022039266-pat00198
Of the camera coordinate, λ 1 of the first camera transparent second surface and the first of the first refractive intersection (Y 1) the intersection of the camera light refraction path of a material on the basis of the center (C 1) of a first proportional coefficient,
Figure 112017022039266-pat00199
Camera coordinates of the first incident intersection X 1, which is the intersection of the first surface of the transparent material with respect to the first camera center C 1 and the first camera light refraction path,
Figure 112017022039266-pat00200
A second camera, the center camera coordinate, λ 2 is a second proportion coefficient of the transparent second surface and the second of intersection of the camera photorefractive path second refractive intersection point of the material (Y 2) that, based on the (C 2) of,
Figure 112017022039266-pat00201
Camera coordinates of the second incident intersection X 2, which is the intersection of the first surface of the transparent material with respect to the center C 2 of the second camera and the second camera light refraction path,
Figure 112017022039266-pat00202
Dimensional coordinates of an arbitrary observation point W with respect to an arbitrary origin O,
Figure 112017022039266-pat00203
Dimensional coordinate of the first refractive intersection Y 1 with respect to an arbitrary origin O,
Figure 112017022039266-pat00204
Means a three-dimensional coordinate of a second refractive intersection Y 2 with respect to an arbitrary origin O as a reference.

상술한 수학식 14 및 수학식 15는 도 11에 도시된 각 지점들의 기하학적인 관계를 통해 생성될 수 있다.The above equations (14) and (15) can be generated through the geometric relationship of each point shown in FIG.

도 11을 참조하여, 먼저 수학식 14에 대해 설명하면, 수학식 14는 제1 카메라의 중심(C1)을 기준으로 하는 제2 카메라의 중심(C2)의 카메라 좌표(

Figure 112017022039266-pat00205
)는 제1 카메라의 중심(C1)에서 시작하여 제1 굴절 교점(Y1), 임의의 관찰점(W) 및 제2 굴절 교점(Y2)을 거쳐 제2 카메라의 중심(C2)으로 도달하는 경로의 벡터합과 동일하다는 의미이다.Referring to Equation (14), Equation (14) is the camera coordinate of the center (C 2 ) of the second camera relative to the center (C 1 ) of the first camera
Figure 112017022039266-pat00205
) Is first refractive intersection (Y 1), through the arbitrary observation point (W) and the second refractive intersection (Y 2) the center of the second camera (C 2), starting from the center (C 1) of the first camera, Is the same as the vector sum of the paths that reach

이때, 제1 카메라의 중심(C1)을 기준으로 하는 투명 소재의 제2 면과 제1 카메라 광 굴절 경로의 교점인 제1 굴절 교점(Y1)의 카메라 좌표(

Figure 112017022039266-pat00206
)는 제1 카메라의 중심(C1)을 기준으로 하는 투명 소재의 제1 면과 제1 카메라 광 굴절 경로의 교점인 제1 입사 교점(X1)의 카메라 좌표(
Figure 112017022039266-pat00207
)와 제1 입사 교점(X1)을 기준으로 하는 투명 소재의 제2 면과 제1 카메라 광 굴절 경로의 교점인 제1 굴절 교점(Y1)의 3차원 좌표(
Figure 112017022039266-pat00208
)의 벡터합 연산으로 산출될 수 있다.At this time, camera coordinates of a first refracting point (Y 1 ) intersecting the second surface of the transparent material with respect to the center (C 1 ) of the first camera and the first camera light refraction path
Figure 112017022039266-pat00206
Is the camera coordinate of the first incident intersection X 1, which is the intersection of the first surface of the transparent material with respect to the center C 1 of the first camera and the first camera light refraction path
Figure 112017022039266-pat00207
) And the three-dimensional coordinates of the first incident point of intersection (transparent second surface and the first point of intersection of the camera's optical path, the refractive first refractive intersection point of the material (Y 1) that, based on the X 1) (
Figure 112017022039266-pat00208
) Can be calculated by a vector sum operation.

또한, 제1 굴절 교점(Y1)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(

Figure 112017022039266-pat00209
)는 제1 카메라의 중심(C1)을 기준으로 하는 제1 입사 교점(X1)의 카메라 좌표(
Figure 112017022039266-pat00210
)와 평행하므로, 제1 비례 계수(λ1)을 활용하여
Figure 112017022039266-pat00211
으로 표현될 수 있다.In addition, three-dimensional coordinates (x, y, z) of arbitrary observation points W based on the first refractive intersection Y 1
Figure 112017022039266-pat00209
) Of the camera coordinates of the first camera, the first incident point of intersection (X 1) which on the basis of the center (C 1) of the (
Figure 112017022039266-pat00210
), So that the first proportional coefficient? 1 is utilized
Figure 112017022039266-pat00211
. ≪ / RTI >

이때, 결정된 복수의 제1 카메라 곡면 파라미터 및 결정된 제1 곡면값에 대응되는 제1 카메라의 중심(C1)을 기준으로 하는 제1 입사 교점(X1)의 카메라 좌표(

Figure 112017022039266-pat00212
) 및 제1 입사 교점(X1)을 기준으로 하는 제1 굴절 교점(Y1)의 3차원 좌표(
Figure 112017022039266-pat00213
) 각각은 제1 카메라에 대하여 상술한 수학식 6 내지 수학식 11을 적용하여 산출될 수 있다.At this time, camera coordinates (X 1 , X 2 ) of the first incident intersection X 1 based on the determined first camera curved surface parameter and the center C 1 of the first camera corresponding to the determined first curved surface value
Figure 112017022039266-pat00212
) And three-dimensional coordinates of the first incident point of intersection (first refractive intersection (Y 1) that, based on the X 1) (
Figure 112017022039266-pat00213
Can be calculated by applying Equations (6) to (11) to the first camera.

다만, 제1 비례 계수(λ1)는 상술한 수학식 12를 적용하여도 산출될 수가 없는데 이는, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우에서는 임의의 관찰 평면(P)을 전제하지 않기 때문에, 제1 굴절 교점(Y1)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(

Figure 112017022039266-pat00214
)와 제1 카메라의 중심(C1)을 기준으로 하는 제1 입사 교점(X1)의 카메라 좌표(
Figure 112017022039266-pat00215
) 간의 비례 관계를 알 수가 없기 때문이다.However, the first proportional coefficient? 1 can not be calculated even by applying Equation (12). This is because, in the case where at least one camera includes the first camera and the second camera, The three-dimensional coordinates of an arbitrary observation point W based on the first refractive intersection Y 1
Figure 112017022039266-pat00214
) And the camera coordinates of the first incident intersection (X 1 ) based on the center (C 1 ) of the first camera (
Figure 112017022039266-pat00215
) Can not be known.

마찬가지로, 제2 카메라의 중심(C2)을 기준으로 하는 투명 소재의 제2 면과 제2 카메라 광 굴절 경로의 교점인 제2 굴절 교점(Y2)의 카메라 좌표(

Figure 112017022039266-pat00216
)는 제2 카메라의 중심(C2)을 기준으로 하는 투명 소재의 제1 면과 제2 카메라 광 굴절 경로의 교점인 제2 입사 교점(X2)의 카메라 좌표(
Figure 112017022039266-pat00217
)와 제2 입사 교점(X2)을 기준으로 하는 투명 소재의 제2 면과 제2 카메라 광 굴절 경로의 교점인 제2 굴절 교점(Y2)의 3차원 좌표(
Figure 112017022039266-pat00218
)의 벡터합 연산으로 산출될 수 있다.Likewise, camera coordinates of the second refractive intersection Y 2, which is the intersection of the second surface of the transparent material with respect to the center C 2 of the second camera, and the second camera light refraction path
Figure 112017022039266-pat00216
Is the camera coordinate of the first incidence point (X 2 ), which is the intersection of the first surface of the transparent material with respect to the center (C 2 ) of the second camera, and the second camera light refraction path
Figure 112017022039266-pat00217
) And the three-dimensional coordinates of the second intersection is incident (the transparent second surface and the second intersection point of a camera bends light path intersecting point of the second refractive material (Y 2) that, based on the X 2) (
Figure 112017022039266-pat00218
) Can be calculated by a vector sum operation.

또한, 제2 굴절 교점(Y2)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(

Figure 112017022039266-pat00219
)는 제2 카메라의 중심(C2)을 기준으로 하는 제2 입사 교점(X2)의 카메라 좌표(
Figure 112017022039266-pat00220
)와 평행하므로, 제2 비례 계수(λ2)을 활용하여
Figure 112017022039266-pat00221
으로 표현될 수 있다.In addition, three-dimensional coordinates (x, y, z) of arbitrary observation point W based on the second refractive intersection Y 2
Figure 112017022039266-pat00219
Is the camera coordinate of the second incidence intersection X 2 based on the center C 2 of the second camera
Figure 112017022039266-pat00220
), So that the second proportional coefficient [lambda] 2 is utilized
Figure 112017022039266-pat00221
. ≪ / RTI >

이때, 결정된 복수의 제2 카메라 곡면 파라미터 및 결정된 제2 곡면값에 대응되는 제2 카메라의 중심(C2)을 기준으로 하는 제2 입사 교점(X2)의 카메라 좌표(

Figure 112017022039266-pat00222
) 및 제2 입사 교점(X2)을 기준으로 하는 제2 굴절 교점(Y2)의 3차원 좌표(
Figure 112017022039266-pat00223
) 각각은 제2 카메라에 대하여 상술한 수학식 6 내지 수학식 11을 적용하여 산출될 수 있다.At this time, the camera coordinates (X 2 , X 2 ) of the second incident intersection X 2 based on the determined second camera curved surface parameters and the center C 2 of the second camera corresponding to the determined second curved surface value
Figure 112017022039266-pat00222
) Of the second refraction intersection (Y 2 ) with respect to the second incidence point (X 2 )
Figure 112017022039266-pat00223
) Can be calculated by applying the above-described Equations (6) to (11) to the second camera.

다만, 제2 비례 계수(λ2)는 상술한 수학식 12를 적용하여도 산출될 수가 없는데 이는, 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우에서는 임의의 관찰 평면(P)을 전제하지 않기 때문에, 제2 굴절 교점(Y2)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(

Figure 112017022039266-pat00224
)와 제2 카메라의 중심(C2)을 기준으로 하는 제2 입사 교점(X2)의 카메라 좌표(
Figure 112017022039266-pat00225
) 간의 비례 관계를 알 수가 없기 때문이다.However, the second proportional coefficient? 2 can not be calculated even by applying Equation (12). This means that, in the case where at least one camera includes the first camera and the second camera, The three-dimensional coordinates of an arbitrary observation point W based on the second refractive intersection Y 2
Figure 112017022039266-pat00224
) Of the second incident intersection (X 2 ) with the center (C 2 ) of the second camera as a reference
Figure 112017022039266-pat00225
) Can not be known.

예컨대, 수학식 14에서 제1 카메라의 중심(C1)을 기준으로 하는 제2 카메라의 중심(C2)의 카메라 좌표(

Figure 112017022039266-pat00226
)는 제1 카메라의 중심(C1)과 제2 카메라의 중심(C2)간의 미리 설정된 위치 관계에 기초하여 산출될 수 있다.For example, in the formula (14), the camera coordinates of the center (C 2 ) of the second camera relative to the center (C 1 ) of the first camera
Figure 112017022039266-pat00226
) It can be calculated based on a preset positional relationship between the first center of the camera (C 1) and a second center of the camera (C 2).

일 실시예에 따르면, 수학식 14에서 제1 카메라의 중심(C1)을 기준으로 하는 제2 카메라의 중심(C2)의 카메라 좌표(

Figure 112017022039266-pat00227
)는 스테레오 카메라의 파라미터를 활용하여 산출될 수 있다.According to one embodiment, the camera coordinates of the center (C 2 ) of the second camera relative to the center (C 1 ) of the first camera in (14)
Figure 112017022039266-pat00227
) Can be calculated using the parameters of the stereo camera.

수학식 14에서 활용되는 제1 비례 계수(λ1) 및 제2 비례 계수(λ2)를 산출하기 위해서는 제1 비례 계수(λ1) 및 제2 비례 계수(λ2)를 포함하는 별도의 관계식이 필요하며, 그 관계식은 상술한 수학식 15와 같다.In order to calculate the first proportional coefficient (λ 1 ) and the second proportional coefficient (λ 2 ) utilized in the expression (14), a separate relation including the first proportional coefficient λ 1 and the second proportional coefficient λ 2 And the relational expression is the same as the above-mentioned expression (15).

예컨대, 수학식 15에서 활용하는 임의의 원점(O)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(

Figure 112017022039266-pat00228
), 임의의 원점(O)을 기준으로 하는 제1 굴절 교점(Y1)의 3차원 좌표(
Figure 112017022039266-pat00229
), 임의의 원점(O)을 기준으로 하는 제2 굴절 교점(Y2)의 3차원 좌표(
Figure 112017022039266-pat00230
) 각각은 상술한 수학식 1를 비롯한 종래의 기술을 활용하여 산출할 수 있으며, 그 구체적인 설명은 생략한다.For example, the three-dimensional coordinates of an arbitrary observation point W based on an arbitrary origin O utilized in Equation (15)
Figure 112017022039266-pat00228
), Three-dimensional coordinates of the first inflection point of intersection (Y 1) which on the basis of any origin (O) (
Figure 112017022039266-pat00229
), The three-dimensional coordinates of the second refraction intersection (Y 2 ) with respect to an arbitrary origin (O)
Figure 112017022039266-pat00230
Can be calculated using conventional techniques including the above-described Equation (1), and a detailed description thereof will be omitted.

상술한 수학식 15의 의미는, 임의의 원점(O)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(

Figure 112017022039266-pat00231
)는 임의의 원점(O)을 기준으로 하는 제1 굴절 교점(Y1)의 3차원 좌표(
Figure 112017022039266-pat00232
) 및 제1 굴절 교점(Y1)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(
Figure 112017022039266-pat00233
)의 벡터합과 같으며, 임의의 원점(O)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(
Figure 112017022039266-pat00234
)는 임의의 원점(O)을 기준으로 하는 제2 굴절 교점(Y2)의 3차원 좌표(
Figure 112017022039266-pat00235
) 및 제2 굴절 교점(Y2)을 기준으로 하는 임의의 관찰점(W)의 3차원 좌표(
Figure 112017022039266-pat00236
)의 벡터합과 같다는 것이다.The above-described expression (15) means that the three-dimensional coordinates of an arbitrary observation point W based on an arbitrary origin O
Figure 112017022039266-pat00231
) Is three-dimensional coordinates of the first inflection point of intersection (Y 1) which on the basis of any origin (O) (
Figure 112017022039266-pat00232
) And an arbitrary observation point W based on the first refractive intersection Y 1
Figure 112017022039266-pat00233
), And the three-dimensional coordinates of an arbitrary observation point W based on an arbitrary origin O (
Figure 112017022039266-pat00234
) Is a three-dimensional coordinate of the second refractive intersection Y 2 based on an arbitrary origin O (
Figure 112017022039266-pat00235
) And the arbitrary observation point W based on the second refractive intersection Y 2
Figure 112017022039266-pat00236
). ≪ / RTI >

S650 단계에서, 카메라 좌표 보정부(150)는 제1 카메라 광 굴절 경로 및 제2 카메라 광 굴절 경로의 교점에 기초하여 결정된 제1 비례 계수(λ1) 및 제2 비례 계수(λ2)에 대한 선형 방정식인 상기 수학식 14 및 수학식 15를 계산하여, 왜곡 관찰점 카메라 좌표를 산출할 수 있으며, 산출된 왜곡 관찰점 카메라 좌표는 보정 관찰점 카메라 좌표로 결정될 수 있다.In step S650, the camera coordinate correcting unit 150 corrects the first proportional coefficient? 1 and the second proportional coefficient? 2 based on the intersection of the first camera light refraction path and the second camera light refraction path, The distortion observation camera coordinates can be calculated by calculating the equations (14) and (15), which are linear equations, and the calculated distortion observation camera coordinates can be determined as the correction observation point camera coordinates.

다시 말해, 보정 관찰점 카메라 좌표는, 제1 카메라의 중심(C1)을 기준으로 하는 제2 카메라의 중심(C2)의 카메라 좌표(

Figure 112017022039266-pat00237
), 상기 제1 카메라의 중심(C1)을 기준으로 하는 상기 투명 소재의 제2 면과 상기 제1 카메라 광 굴절 경로의 교점인 제1 굴절 교점(Y1)의 카메라 좌표(
Figure 112017022039266-pat00238
), 제1 비례 계수(λ1), 상기 제1 카메라 중심(C1)을 기준으로 하는 상기 투명 소재의 제1 면과 상기 제1 카메라 광 굴절 경로의 교점인 제1 입사 교점(X1)의 카메라 좌표(
Figure 112017022039266-pat00239
), 상기 제2 카메라의 중심(C2)을 기준으로 하는 상기 투명 소재의 제2 면과 상기 제2 카메라 광 굴절 경로의 교점인 제2 굴절 교점(Y2)의 카메라 좌표(
Figure 112017022039266-pat00240
), 제2 비례 계수(λ2), 상기 제2 카메라의 중심(C2)을 기준으로 하는 상기 투명 소재의 제1 면과 상기 제2 카메라 광 굴절 경로의 교점인 제2 입사 교점(X2)의 카메라 좌표(
Figure 112017022039266-pat00241
), 임의의 원점(O)을 기준으로 하는 상기 임의의 관찰점(W)의 3차원 좌표(
Figure 112017022039266-pat00242
), 상기 임의의 원점(O)을 기준으로 하는 상기 제1 굴절 교점(Y1)의 3차원 좌표(
Figure 112017022039266-pat00243
) 및 상기 임의의 원점(O)을 기준으로 하는 상기 제2 굴절 교점(Y2)의 3차원 좌표(
Figure 112017022039266-pat00244
)에 기초하여 산출될 수 있다.In other words, the corrected viewing point camera coordinates are the camera coordinates of the center (C 2 ) of the second camera with respect to the center (C 1 ) of the first camera
Figure 112017022039266-pat00237
) Camera coordinates of a first refracting point (Y 1 ), which is an intersection of a second surface of the transparent material with respect to the center (C 1 ) of the first camera, and the first camera light refraction path
Figure 112017022039266-pat00238
), A first proportional coefficient (λ 1 ), a first incident intersection (X 1 ) intersecting the first surface of the transparent material with respect to the first camera center (C 1 ) and the first camera light refraction path, Camera coordinates (
Figure 112017022039266-pat00239
) Camera coordinates of a second refracting point (Y 2 ), which is an intersection of the second surface of the transparent material and the second camera light refraction path, with respect to the center (C 2 ) of the second camera
Figure 112017022039266-pat00240
), And the second proportion coefficient (λ 2), the first surface of the transparent material which on the basis of the center (C 2) of the second camera and the second camera photorefractive intersection of the second incident point of intersection of the path (X 2 ) Camera coordinates (
Figure 112017022039266-pat00241
), Three-dimensional coordinates of the arbitrary observation point W with respect to an arbitrary origin O (
Figure 112017022039266-pat00242
), The three-dimensional coordinates of the first refraction intersection (Y 1 ) based on the arbitrary origin (O)
Figure 112017022039266-pat00243
) And the three-dimensional coordinates of the second refractive intersection (Y 2 ) based on the arbitrary origin (O)
Figure 112017022039266-pat00244
). ≪ / RTI >

나아가, 도면에 도시되지는 않았으나, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법은 영상 좌표 보정부(미도시)가 S650 단계에서 생성된 보정 관찰점 카메라 좌표를 카메라 좌표와 2차원 영상 좌표 간의 관계에 기초하여 보정 관찰점 카메라 좌표에 대응되는 2차원 영상 좌표인 보정 2차원 영상 좌표로 변환하는 단계(미도시)를 더 포함할 수도 있다.In addition, although not shown in the drawings, in the method of calculating the transparent material curve value according to the embodiment of the present invention, the image coordinate correction unit (not shown) converts the corrected observation point camera coordinates generated in step S650 into camera coordinates and two- (Not shown) of transforming the corrected two-dimensional image coordinates into two-dimensional image coordinates corresponding to the corrected observation point camera coordinates based on the relationship between the corrected observation point camera coordinates.

예컨대, 보정 2차원 영상 좌표로 변환하는 단계(미도시)에서 이용하는 카메라 좌표와 2차원 영상 좌표 간의 관계는 영상 좌표 보정부(미도시)에 미리 저장될 수 있다.For example, the relationship between the camera coordinates and the two-dimensional image coordinates used in the step of converting to the corrected two-dimensional image coordinates (not shown) may be stored in advance in the image coordinate correction unit (not shown).

예컨대, 보정 2차원 영상 좌표로 변환하는 단계(미도시)에서 이용하는 카메라 좌표와 2차원 영상 좌표 간의 관계는 상술한 수학식 1에서 설명한 바와 같은 종래의 기술을 의미할 수도 있으며, 그 구체적인 설명은 생략한다.For example, the relationship between the camera coordinates and the two-dimensional image coordinates used in the step of converting to the corrected two-dimensional image coordinates (not shown) may refer to a conventional technique as described in Equation 1, do.

예를 들어, S610 단계 및 S630 단계에서 복수의 제1 카메라 곡면 파라미터는 결정되었으나, 복수의 제2 카메라 곡면 파라미터는 결정되지 않은 경우가 발생할 수 있다.For example, a plurality of first camera curved surface parameters are determined in steps S610 and S630, but a plurality of second camera curved surface parameters may not be determined.

이 경우, 카메라 좌표 보정부(150)는 복수의 제1 카메라 곡면 파라미터 및 제1 카메라의 중심(C1)과 제2 카메라의 중심(C2) 상호 간의 위치 관계에 기초하여, 복수의 제2 카메라 곡면 파라미터를 추정할 수 있다.In this case, the camera coordinate correcting unit 150 corrects the plurality of second camera curved surface parameters based on the positional relationship between the center C 1 of the first camera and the center C 2 of the second camera, The camera surface parameters can be estimated.

다시 말해, 복수의 제2 카메라 곡면 파라미터가 결정되지 않은 경우, 본 발명의 실시예에 따른 투명 소재 곡면값 산출 방법은 카메라 좌표 보정부(150)가 복수의 제2 카메라 곡면 파라미터를 결정하는 단계(미도시)를 더 포함한다.In other words, when a plurality of second camera curved surface parameters are not determined, the transparent material curved surface value calculation method according to the embodiment of the present invention includes a step of the camera coordinate correction unit 150 determining a plurality of second camera curved surface parameters (Not shown).

이때, 복수의 제2 카메라 곡면 파라미터를 결정하는 단계(미도시)는, 미리 결정된 복수의 제1 카메라 곡면 파라미터를 투명 소재 곡면 모델에 적용하여 제1 카메라 곡면값을 산출하는 단계(미도시), 복수의 제2 카메라 곡면 파라미터 추정값을 투명 소재 곡면 모델에 적용하여 추정 제2 카메라 곡면값을 산출하는 단계(미도시), 미리 설정된 제1 카메라 좌표와 제2 카메라 좌표 간의 관계에 기초하여 추정 제2 카메라 곡면값에 대응되는 가상의 제1 카메라 곡면값을 산출하는 단계(미도시), 제1 카메라 곡면값과 상기 가상의 제1 카메라 곡면값 간의 차이가 최소가 되도록 하는 상기 복수의 제2 카메라 곡면 파라미터 추정값을 복수의 제2 카메라 곡면 파라미터로 결정하는 단계(미도시)를 포함할 수 있다.The step (not shown) of determining the plurality of second camera curved surface parameters includes a step (not shown) of calculating a first camera curved surface value by applying a plurality of predetermined first camera curved surface parameters to the transparent curved surface model, A step (not shown) of calculating an estimated second camera curvature value by applying a plurality of second camera curved surface parameter estimation values to a transparent material curved surface model, calculating a second camera curved surface value based on a relationship between the first camera coordinate and the second camera coordinate, (Not shown) calculating a virtual first camera curved surface value corresponding to the camera curved surface value, calculating a virtual camera curved surface value corresponding to the first camera curved surface value (Not shown) of determining a parameter estimation value as a plurality of second camera curved surface parameters.

미리 결정된 복수의 제1 카메라 곡면 파라미터를 투명 소재 곡면 모델에 적용하여 제1 카메라 곡면값을 산출하는 단계(미도시)에서 카메라 좌표 보정부(150)는 제1 카메라에 대하여 미리 결정된 복수의 제1 카메라 곡면 파라미터를 활용하여 제1 카메라를 기준으로 하는 투명 소재 곡면값인 제1 카메라 곡면값을 산출할 수 있다.In a step (not shown) of calculating a first camera curved surface value by applying a plurality of predetermined first camera curved surface parameters to the transparent material curved surface model, the camera coordinate correcting unit 150 corrects a plurality of first The first camera curved surface value, which is a transparent material curved surface value based on the first camera, can be calculated using the camera curved surface parameter.

이때, 제1 카메라를 기준으로 하는 투명 소재 곡면값을 산출하는 구체적인 방법은 상술한 S270 단계에서와 같으므로, 중복되는 설명은 생략한다.At this time, a concrete method of calculating the transparent material curved surface value based on the first camera is the same as in step S270 described above, so duplicate explanation is omitted.

복수의 제2 카메라 곡면 파라미터 추정값을 투명 소재 곡면 모델에 적용하여 추정 제2 카메라 곡면값을 산출하는 단계(미도시)에서 카메라 좌표 보정부(150)는 제2 카메라에 대하여 추정된 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터 추정값을 상술한 투명 소재 곡면 모델에 적용하여 추정 제2 카메라 곡면값을 산출할 수 있다.In the step (not shown) of calculating the estimated second camera curvature values by applying a plurality of second camera curved surface parameter estimation values to the transparent material curved surface model, the camera coordinate correction unit 150 calculates a plurality of curved surface parameters estimated for the second camera The second camera curved surface parameter estimation value can be calculated by applying the second camera curved surface parameter estimation values to the transparent material curved surface model.

이때, 추정 제2 카메라 곡면값은, 결정되지 않은 복수의 제2 카메라 곡면 파라미터 추정값에 기초하여 생성된 제2 카메라를 기준으로 하는 투명 소재 곡면값을 의미할 수 있으며, 그 결과 추정 제2 카메라 곡면값은 특정한 값으로 결정되지 못하고 복수의 제2 카메라 곡면 파라미터 추정값을 변수로 하는 형태를 함수의 형태를 띌 수도 있으나 본 발명은 이에 한정되지 않는다.Here, the estimated second camera curved surface value may mean a transparent material curved surface value based on the second camera generated based on the plurality of second uncorrected camera curved surface parameter estimation values. As a result, Value may not be determined to be a specific value but may be a form of a function that takes a plurality of second camera curved surface parameter estimation values as a variable, but the present invention is not limited thereto.

미리 설정된 제1 카메라 좌표와 제2 카메라 좌표 간의 관계에 기초하여 추정 제2 카메라 곡면값에 대응되는 가상의 제1 카메라 곡면값을 산출하는 단계(미도시)에서 카메라 좌표 보정부(150)는 미리 설정된 제1 카메라 좌표와 제2 카메라 좌표 간의 좌표 관계에 기초하여, 추정 제2 카메라 곡면값을 제1 카메라를 기준으로 하는 좌표로 좌표 변환함으로써 상술한 가상의 제1 카메라 곡면값을 산출할 수 있다.In a step (not shown) of calculating a virtual first camera curved surface value corresponding to the estimated second camera curved surface value based on the relationship between the first camera coordinates and the second camera coordinates set in advance, the camera coordinate correction unit 150 The virtual first camera curved surface value described above can be calculated by performing coordinate conversion on the estimated second camera curved surface value into coordinates based on the first camera based on the coordinate relationship between the set first camera coordinate and the second camera coordinate .

즉, 가상의 제1 카메라 곡면값은, 복수의 제2 카메라 곡면 파라미터 추정값에 기초하여 결정된 추정 제2 카메라 곡면값을 제1 카메라를 기준으로 하는 곡면값으로 변환함으로써, 생성된 곡면값을 의미할 수 있다.That is, the virtual first camera curved surface value is obtained by converting the estimated second camera curved surface value determined based on the plurality of second camera curved surface parameter estimation values to the curved surface value based on the first camera, .

제1 카메라 곡면값과 상기 가상의 제1 카메라 곡면값 간의 차이가 최소가 되도록 하는 상기 복수의 제2 카메라 곡면 파라미터 추정값을 복수의 제2 카메라 곡면 파라미터로 결정하는 단계(미도시)에서 카메라 좌표 보정부(150)는 상술한 제1 카메라 곡면값과 가상의 제1 카메라 곡면값 간의 차이가 최소가 되도록 하는 복수의 제2 카메라 곡면 파라미터 추정값을 복수의 제2 카메라 곡면 파라미터로 결정한다.(Not shown) of determining the plurality of second camera curved surface parameter estimates as a plurality of second camera curved surface parameters to minimize the difference between the first camera curved surface value and the virtual first camera curved surface value, The controller 150 determines a plurality of second camera curved surface parameter estimates as a plurality of second camera curved surface parameters that minimize the difference between the first camera curved surface value and the virtual first camera curved surface value.

즉, 카메라 좌표 보정부(150)는 제2 카메라를 기준으로 추정된 추정 제2 카메라 곡면값을 좌표 변환하여 생성된 제1 카메라를 기준으로 하는 곡면값인 가상의 제1 카메라 곡면값과 실제 제1 카메라를 기준으로 산출된 제1 카메라 곡면값의 차이가 최소가 되도록 하는 복수의 제2 카메라 곡면 파라미터 추정값을 복수의 제2 카메라 곡면 파라미터로 결정할 수 있다.That is, the camera coordinate correction unit 150 corrects the first camera curvature value, which is a curved surface value based on the first camera generated by coordinate conversion of the estimated second camera curvature value estimated based on the second camera, A plurality of second camera curved surface parameter estimates may be determined as a plurality of second camera curved surface parameters so that the difference of the first camera curved surface values calculated based on one camera is minimized.

상술한 경우를 보다 상세히 설명하면, 카메라 좌표 보정부(150)는 복수의 제1 카메라 곡면 파라미터에 기초하여 제1 카메라의 중심(C1)을 기준으로 하는 복수의 굴절 교점(Xk)의 카메라 좌표(

Figure 112017022039266-pat00245
)를 산출한 뒤, 제1 카메라의 중심(C1)과 제2 카메라의 중심(C2) 상호 간의 관계를 나타내는 제1 카메라의 중심의 위치와 제2 카메라의 중심의 위치 간의 회전(Rotation) 행렬(R), 제1 카메라의 중심의 위치와 제2 카메라의 중심의 위치 간의 이동(Translation) 벡터(T)에 기초하여, 제1 카메라의 중심(C1)을 기준으로 하는 복수의 굴절 교점(Xk)의 카메라 좌표(
Figure 112017022039266-pat00246
)를 변형하여 제2 카메라의 중심(C2)을 기준으로 하는 복수의 굴절 교점(Xk)의 추정 카메라 좌표(
Figure 112017022039266-pat00247
)를 산출하고, 제2 카메라의 중심(C2)을 기준으로 하는 복수의 굴절 교점(Xk)의 카메라 좌표(
Figure 112017022039266-pat00248
)를 산출한 뒤, 제2 카메라의 중심(C2)을 기준으로 하는 복수의 굴절 교점(Xk)의 추정 카메라 좌표(
Figure 112017022039266-pat00249
)와 제2 카메라의 중심(C2)을 기준으로 하는 복수의 굴절 교점(Xk)의 카메라 좌표(
Figure 112017022039266-pat00250
)의 차이가 최소가 되도록 하는 복수의 곡면 파라미터를 복수의 제2 카메라 곡면 파라미터로 결정할 수 있다.The camera coordinate correcting unit 150 corrects the camera coordinate values of the plurality of refraction intersections X k based on the center C 1 of the first camera based on the plurality of first camera curved surface parameters, location(
Figure 112017022039266-pat00245
And then calculates the rotation between the center position of the first camera and the position of the center position of the second camera showing the relationship between the center C 1 of the first camera and the center C 2 of the second camera, A plurality of refractive intersections R 1 and R 2 based on the center C 1 of the first camera on the basis of a matrix R and a translation vector T between a position of the center of the first camera and a position of the center of the second camera. (X k )
Figure 112017022039266-pat00246
) Of the second camera to estimate camera coordinates of a plurality of refraction intersections X k based on the center C 2 of the second camera
Figure 112017022039266-pat00247
, And calculates the camera coordinates of a plurality of refraction intersections X k based on the center C 2 of the second camera
Figure 112017022039266-pat00248
And then calculates estimated camera coordinates of a plurality of refraction intersections X k based on the center C 2 of the second camera
Figure 112017022039266-pat00249
(X k ) with respect to the center (C 2 ) of the first camera and the center (C 2 ) of the second camera
Figure 112017022039266-pat00250
Can be determined as a plurality of second camera curved surface parameters.

이때, 두 카메라 간의 위치 관계를 나타내는 행렬인 회전(Rotation) 행렬(R) 및 두 카메라 간의 위치 관계를 나타내는 벡터인 이동(Translation) 벡터(T) 각각은 스테레오 카메라 파라미터를 활용하여 기 공지된 종래의 기술을 활용하여 산출할 수 있으며, 그 구체적인 설명은 생략한다.At this time, each of the rotation matrix R, which is a matrix indicating the positional relationship between the two cameras, and the translation vector T, which is a vector indicating the positional relationship between the two cameras, Technology, and a detailed description thereof will be omitted.

다시 말해, S610 및 S630 단계에서 복수의 제2 카메라 곡면 파라미터가 결정되지 않은 경우, 복수의 제2 카메라 곡면 파라미터는 아래 수학식 16에 기초하여 산출될 수 있다.In other words, if a plurality of second camera curved surface parameters are not determined in steps S610 and S630, a plurality of second camera curved surface parameters may be calculated based on the following equation (16).

[수학식 16]&Quot; (16) "

Figure 112017022039266-pat00251
Figure 112017022039266-pat00251

S2는 산출된 복수의 제2 카메라 곡면 파라미터를 포함하는 제2 카메라 곡면 파라미터 집합, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합, R은 제1 카메라의 중심의 위치와 제2 카메라의 중심의 위치 간의 회전(Rotation) 행렬, T는 제1 카메라의 중심의 위치와 제2 카메라의 중심의 위치 간의 이동(Translation) 벡터, S1은 복수의 제1 카메라 곡면 파라미터를 포함하는 제1 카메라 곡면 파라미터 집합,

Figure 112017022039266-pat00252
은 복수의 제1 카메라 곡면 파라미터에 기초하여 산출된 제1 카메라의 중심(C1)을 기준으로 하는 투명 소재의 제1 면과 제1 카메라 광 굴절 경로의 k 번째 교점인 k번째 입사 교점(Xk)의 카메라 좌표,
Figure 112017022039266-pat00253
는 복수의 임의의 곡면 파라미터에 기초하여 산출된 제2 카메라(C2)의 중심을 기준으로 하는 투명 소재의 제1 면과 제2 카메라 광 굴절 경로의 k 번째 교점인 k번째 입사 교점(Xk)의 카메라 좌표를 의미한다.S 2 is a set of second camera curved surface parameters including a plurality of calculated second camera curved surface parameters, S is a set of curved surface parameter estimation values including a plurality of curved surface parameter estimates, R is a position of the center of the first camera, T is a translation vector between a position of the center of the first camera and a position of the center of the second camera, S 1 is a rotation vector between the center of the first camera surface parameter and the first camera surface parameter, Camera surface parameter sets,
Figure 112017022039266-pat00252
(X), which is the kth intersection of the first camera photorefractive path and the first surface of the transparent material, which is based on the center (C 1 ) of the first camera calculated based on the plurality of first camera curved surface parameters, k ), < / RTI >
Figure 112017022039266-pat00253
Is a second camera (C 2) the transparent material first surface and a second of the k-th intersection point of a camera photorefractive path k th incident point of intersection (X k of which relative to the center of the calculation based on a plurality of arbitrary curved surface parameters ) Of the camera.

이상에서 본 발명에 따른 바람직한 실시예에 대해 설명하였으나, 다양한 형태로 변형이 가능하며, 본 기술분야에서 통상의 지식을 가진 자라면 본 발명의 특허청구범위를 벗어남이 없이 다양한 변형예 및 수정예를 실시할 수 있을 것으로 이해된다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but many variations and modifications may be made without departing from the scope of the present invention. It will be understood that the invention may be practiced.

10: 카메라
100: 투명 소재 곡면값 산출 장치
110: 왜곡 카메라 좌표 산출부
120: 비왜곡 카메라 좌표 산출부
130: 곡면 파라미터 결정부
140: 투명 소재 곡면값 산출부
150: 카메라 좌표 보정부
10: Camera
100: Transparent material surface value calculating device
110: distortion camera coordinate calculation unit
120: Non-distorted camera coordinate calculation unit
130: Curved surface parameter determination unit
140: Transparent material curve value calculating section
150: Camera coordinate correction unit

Claims (20)

투명 소재의 곡면값을 산출하기 위한 투명 소재 곡면값 산출 방법에 있어서,
왜곡 카메라 좌표 산출부가, 투명 소재를 사이에 두고 획득한 임의의 관찰 평면 상에 위치한 임의의 관찰점을 포함하는 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 단계;
비왜곡 카메라 좌표 산출부가, 상기 투명 소재를 제거하고 촬영된 상기 임의의 관찰점을 포함하는 투명 소재 제거 영상에 기초하여 비왜곡 관찰점 카메라 좌표를 산출하는 단계;
곡면 파라미터 결정부가, 상기 왜곡 관찰점 카메라 좌표와 상기 비왜곡 관찰점 카메라 좌표의 차이에 기초하여 복수의 곡면 파라미터를 결정하는 단계; 및
투명 소재 곡면값 산출부가, 결정된 상기 복수의 곡면 파라미터를 미리 저장된 투명 소재 곡면 모델에 적용하여 상기 투명 소재의 곡면값을 산출하는 단계를 포함하고,
상기 복수의 곡면 파라미터를 결정하는 단계는,
상기 비왜곡 관찰점 카메라 좌표와 상기 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 상기 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점 각각에 해당하는 적어도 하나의 제1 끝점 및 제2 끝점 간의 카메라 좌표 거리가 상기 적어도 하나의 선분의 길이와 각각 같도록 하는 조건을 모두 만족하도록 상기 복수의 곡면 파라미터를 결정하는, 투명 소재 곡면값 산출 방법.
A transparent material curved surface value calculating method for calculating a curved surface value of a transparent material,
Calculating a distortion observation camera coordinate based on a transparent material transmission image including an arbitrary observation point located on an arbitrary observation plane obtained through a transparent material;
Calculating a non-distorted observation point camera coordinate based on a transparent material removal image including the arbitrary observation point photographed by removing the transparent material;
Determining a plurality of curved surface parameters based on a difference between the distortion observation point camera coordinates and the non-distortion observation point camera coordinates; And
Wherein the transparent material curvature value calculating unit includes calculating the curvature value of the transparent material by applying the determined plurality of curvature parameters to a previously stored transparent material curvature model,
Wherein the determining of the plurality of curved surface parameters comprises:
And a condition for minimizing a difference between the non-distorted observation point camera coordinates and the distortion observation point camera coordinates, and a condition for setting at least one of the at least one segment corresponding to each of both end points of the at least one line segment arranged on the first surface of the transparent material Wherein the plurality of curved surface parameters are determined so as to satisfy all the conditions that the camera coordinate distance between the first end point and the second end point is equal to the length of the at least one line segment.
제1항에 있어서,
상기 왜곡 관찰점 카메라 좌표를 산출하는 단계는,
미리 저장된 투명 소재 곡면 모델, 상기 투명 소재의 두께(d0) 및 굴절률(nw)에 기초하여 카메라의 중심으로부터 상기 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계; 및
상기 광 굴절 경로와 상기 임의의 관찰 평면 간의 교점에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출하는 단계를 포함하는, 투명 소재 곡면값 산출 방법.
The method according to claim 1,
Wherein the step of calculating the distortion observation point camera coordinates comprises:
Calculating a light refraction path from the center of the camera to said arbitrary observation point based on a previously stored transparent material surface model, a thickness (d 0 ) and a refractive index (n w ) of said transparent material; And
And calculating the distortion observation point camera coordinates based on an intersection between the optical refraction path and the arbitrary observation plane.
삭제delete 제1항에 있어서,
상기 복수의 곡면 파라미터는 아래 수학식 13에 기초하여 결정되는, 투명 소재 곡면값 산출 방법.
[수학식 13]
Figure 112017022039266-pat00254

S*는 결정된 복수의 곡면 파라미터를 포함하는 곡면 파라미터 집합, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합,
Figure 112017022039266-pat00255
는 k번째 관찰점에 대한 비왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00256
는 k번째 관찰점에 대한 왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00257
는 k번째 관찰점의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00258
는 k번째 관찰점의 아지무스(azimuth) 각도 좌표,
Figure 112017022039266-pat00259
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제1 끝점 카메라 좌표,
Figure 112017022039266-pat00260
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제2 끝점 카메라 좌표, Li는 i번째 선분의 길이를 의미함.
The method according to claim 1,
Wherein the plurality of curved surface parameters are determined based on Equation (13) below.
&Quot; (13) "
Figure 112017022039266-pat00254

S * is a set of curved surface parameters including a plurality of determined curved surface parameters, S is a set of curved surface parameter estimates including a plurality of curved surface parameter estimates,
Figure 112017022039266-pat00255
Is the non-distortion observation point camera coordinate for the kth observation point,
Figure 112017022039266-pat00256
Is the distortion observation point camera coordinates for the kth observation point,
Figure 112017022039266-pat00257
Is the inclination angle coordinate of the kth observation point,
Figure 112017022039266-pat00258
Is the azimuth angle coordinate of the kth observation point,
Figure 112017022039266-pat00259
The first end camera coordinates of the i-th line segment disposed on the first surface of the transparent material,
Figure 112017022039266-pat00260
Is the coordinate of the second end point camera of the i-th line segment arranged in advance on the first surface of the transparent material, and L i is the length of the i-th line segment.
제1항에 있어서,
상기 투명 소재 곡면 모델은 아래 수학식 4에 기초하여 정의되는, 투명 소재 곡면값 산출 방법.
[수학식 4]
Figure 112017022039266-pat00261

r은 구면 좌표계의 거리 좌표,
Figure 112017022039266-pat00262
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00263
는 구면 좌표계의 아지무스(azimuth) 각도 좌표, ax는 제1 곡면 파라미터, ay는 제2 곡면 파라미터, az는 제3 곡면 파라미터 및 ar은 제4 곡면 파라미터를, Am,n은 제1 곡면 파라미터 행렬의 m행 n열, Bm,n은 제2 곡면 파라미터 행렬의 m행 n열을 의미함.
The method according to claim 1,
Wherein the transparent material surface model is defined based on Equation (4) below.
&Quot; (4) "
Figure 112017022039266-pat00261

r is the distance coordinate of the spherical coordinate system,
Figure 112017022039266-pat00262
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00263
A x is a first curved surface parameter, a y is a second curved surface parameter, a z is a third curved surface parameter, and a r is a fourth curved surface parameter, and A m, n is a M rows and n columns of the first surface parameter matrix, B m, n mean m rows and n columns of the second surface parameter matrix.
제1항에 있어서,
카메라 좌표 보정부가, 결정된 상기 복수의 곡면 파라미터 및 적어도 하나의 카메라로 촬영한 상기 투명 소재 투과 영상에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 단계를 더 포함하는, 투명 소재 곡면값 산출 방법.
The method according to claim 1,
Further comprising calculating the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on the plurality of curved surface parameters determined by the camera coordinate correction unit and the transparent material transmission image captured by the at least one camera, How to calculate a transparent material surface value.
제6항에 있어서,
상기 적어도 하나의 카메라가 한 개의 카메라인 경우,
상기 보정 관찰점 카메라 좌표를 산출하는 단계는,
결정된 상기 복수의 곡면 파라미터에 기초하여 상기 한 개의 카메라로부터 상기 임의의 관찰 평면 상에 위치한 상기 임의의 관찰점에 이르는 광 굴절 경로를 산출하는 단계; 및
상기 광 굴절 경로 및 상기 임의의 관찰 평면의 교점에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출함으로써 상기 보정 관찰점 카메라 좌표를 산출하는 단계를 포함하는, 투명 소재 곡면값 산출 방법.
The method according to claim 6,
If the at least one camera is a single camera,
The step of calculating the corrected observation point camera coordinates includes:
Calculating a light refraction path from the one camera to the arbitrary observation point located on the arbitrary observation plane based on the determined plurality of curved surface parameters; And
And calculating the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on an intersection of the optical refraction path and the arbitrary observation plane.
제6항에 있어서,
상기 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우,
상기 보정 관찰점 카메라 좌표를 산출하는 단계는,
상기 제1 카메라에 대한 복수의 곡면 파라미터인 복수의 제1 카메라 곡면 파라미터에 기초하여 상기 제1 카메라로부터 상기 임의의 관찰점으로 향하는 광 굴절 경로인 제1 카메라 광 굴절 경로를 산출하는 단계;
상기 제2 카메라에 대한 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터에 기초하여 상기 제2 카메라로부터 상기 임의의 관찰점으로 향하는 광 굴절 경로인 제2 카메라 광 굴절 경로를 산출하는 단계;
상기 제1 카메라 광 굴절 경로 및 상기 제2 카메라 광 굴절 경로의 교점에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출함으로써 상기 보정 관찰점 카메라 좌표를 산출하는 단계를 포함하는, 투명 소재 곡면값 산출 방법.
The method according to claim 6,
If the at least one camera comprises a first camera and a second camera,
The step of calculating the corrected observation point camera coordinates includes:
Calculating a first camera light refraction path that is a light refraction path from the first camera to the arbitrary observation point based on a plurality of first camera curved surface parameters that are a plurality of curved surface parameters for the first camera;
Calculating a second camera photographic refraction path that is a photorefractive path from the second camera to the arbitrary observation point based on a plurality of second camera curved surface parameters that are a plurality of curved surface parameters for the second camera;
And calculating the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on the intersection of the first camera light refraction path and the second camera light refraction path.
제7항 및 제8항 중 어느 한 항에 있어서,
영상 좌표 보정부가, 미리 설정된 카메라 좌표와 2차원 영상 좌표 간의 좌표 관계에 기초하여 상기 보정 관찰점 카메라 좌표를 대응되는 보정 2차원 영상 좌표로 변환하는 단계를 더 포함하는, 투명 소재 곡면값 산출 방법.
9. The method according to any one of claims 7 to 8,
Wherein the image coordinate correction unit further comprises a step of converting the corrected viewing point camera coordinates into corresponding corrected two-dimensional image coordinates based on a coordinate relationship between the camera coordinates and the two-dimensional image coordinate set in advance.
제8항에 있어서,
상기 복수의 제2 카메라 곡면 파라미터가 결정되지 않은 경우,
복수의 제2 카메라 곡면 파라미터를 결정하는 단계를 더 포함하며,
상기 복수의 제2 카메라 곡면 파라미터를 결정하는 단계는,
미리 결정된 복수의 제1 카메라 곡면 파라미터를 상기 투명 소재 곡면 모델에 적용하여 제1 카메라 곡면값을 산출하는 단계;
복수의 제2 카메라 곡면 파라미터 추정값을 상기 투명 소재 곡면 모델에 적용하여 추정 제2 카메라 곡면값을 산출하는 단계;
미리 설정된 제1 카메라 좌표와 제2 카메라 좌표 간의 관계에 기초하여 상기 추정 제2 카메라 곡면값에 대응되는 가상의 제1 카메라 곡면값을 산출하는 단계;
상기 제1 카메라 곡면값과 상기 가상의 제1 카메라 곡면값 간의 차이가 최소가 되도록 하는 상기 복수의 제2 카메라 곡면 파라미터 추정값을 상기 복수의 제2 카메라 곡면 파라미터로 결정하는 단계를 포함하는, 투명 소재 곡면값 산출 방법.
9. The method of claim 8,
If the plurality of second camera surface parameters are not determined,
Further comprising determining a plurality of second camera curved surface parameters,
Wherein determining the plurality of second camera curved surface parameters comprises:
Calculating a first camera curved surface value by applying a plurality of predetermined first camera curved surface parameters to the transparent curved surface model;
Applying a plurality of second camera curved surface parameter estimation values to the transparent material curved surface model to calculate an estimated second camera curved surface value;
Calculating an imaginary first camera curved surface value corresponding to the estimated second camera curved surface value based on a relationship between a first camera coordinate set and a second camera coordinate set in advance;
Determining the plurality of second camera curved surface parameter estimates as the plurality of second camera curved surface parameters to minimize the difference between the first camera curved surface value and the virtual first camera curved surface value, Method of calculating a curved surface value.
투명 소재의 곡면값을 산출하기 위한 투명 소재 곡면값 산출 장치에 있어서,
임의의 관찰 평면 상에 위치한 임의의 관찰점을 투명 소재를 사이에 두고 촬영한 투명 소재 투과 영상에 기초하여 왜곡 관찰점 카메라 좌표를 산출하는 왜곡 카메라 좌표 산출부;
상기 투명 소재를 제거하고 촬영된 상기 임의의 관찰점을 포함하는 투명 소재 제거 영상에 기초하여 비왜곡 관찰점 카메라 좌표를 산출하는 비왜곡 카메라 좌표 산출부;
상기 왜곡 관찰점 카메라 좌표와 상기 비왜곡 관찰점 카메라 좌표의 차이에 기초하여 복수의 곡면 파라미터를 결정하는 곡면 파라미터 결정부; 및
결정된 상기 복수의 곡면 파라미터를 미리 저장된 투명 소재 곡면 모델에 적용하여 상기 투명 소재의 곡면값을 산출하는 투명 소재 곡면값 산출부를 포함하고,
상기 곡면 파라미터 결정부는,
상기 비왜곡 관찰점 카메라 좌표와 상기 왜곡 관찰점 카메라 좌표의 차이가 최소가 되도록 하는 조건 및 상기 투명 소재의 제1 면 상에 미리 배치된 적어도 하나의 선분의 양 끝점 각각에 해당하는 적어도 하나의 제1 끝점 및 제2 끝점 간의 카메라 좌표 거리가 상기 적어도 하나의 선분의 길이와 각각 같도록 하는 조건을 모두 만족하도록 상기 복수의 곡면 파라미터를 결정하는, 투명 소재 곡면값 산출 장치.
A transparent material curvature value calculating device for calculating a curvature value of a transparent material,
A distortion camera coordinate calculator for calculating a distortion observation point camera coordinate based on a transparent material transmission image captured at an arbitrary observation point located on an arbitrary observation plane with a transparent material interposed therebetween;
A non-distorted camera coordinate calculation unit for calculating the coordinates of the non-distorted observation point camera based on the transparent material removal image including the arbitrary observation point photographed by removing the transparent material;
A curved surface parameter determination unit for determining a plurality of curved surface parameters based on a difference between the distortion observation camera coordinates and the non-distortion observation point camera coordinates; And
And a transparent material curvature value calculation unit for calculating the curvature value of the transparent material by applying the determined plurality of curvature parameters to a previously stored transparent material curvature model,
Wherein the curved surface parameter determination unit comprises:
And a condition for minimizing a difference between the non-distorted observation point camera coordinates and the distortion observation point camera coordinates, and a condition for setting at least one of the at least one segment corresponding to each of both end points of the at least one line segment arranged on the first surface of the transparent material Wherein the plurality of curved surface parameters are determined so as to satisfy all the conditions that the camera coordinate distance between the first end point and the second end point is equal to the length of the at least one line segment.
제11항에 있어서,
상기 왜곡 카메라 좌표 산출부는,
미리 저장된 투명 소재 곡면 모델, 상기 투명 소재의 두께(d0) 및 굴절률(nw)에 기초하여 카메라의 중심으로부터 상기 임의의 관찰점에 이르는 광 굴절 경로를 산출하고, 상기 광 굴절 경로와 상기 임의의 관찰 평면 간의 교점에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출하는, 투명 소재 곡면값 산출 장치.
12. The method of claim 11,
The distortion camera coordinate calculator calculates,
Calculating a light refraction path from the center of the camera to the arbitrary observation point based on a previously stored transparent material surface model, the thickness (d 0 ) and the refractive index (n w ) of the transparent material, And calculates the distortion observation point camera coordinates on the basis of an intersection point between the observation plane and the observation plane.
삭제delete 제11항에 있어서,
상기 복수의 곡면 파라미터는 아래 수학식 13에 기초하여 결정되는, 투명 소재 곡면값 산출 장치.
[수학식 13]
Figure 112017022039266-pat00264

S*는 결정된 복수의 곡면 파라미터를 포함하는 곡면 파라미터 집합, S는 복수의 곡면 파라미터 추정값을 포함하는 곡면 파라미터 추정값 집합,
Figure 112017022039266-pat00265
는 k번째 관찰점에 대한 비왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00266
는 k번째 관찰점에 대한 왜곡 관찰점 카메라 좌표,
Figure 112017022039266-pat00267
는 k번째 관찰점의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00268
는 k번째 관찰점의 아지무스(azimuth) 각도 좌표,
Figure 112017022039266-pat00269
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제1 끝점 카메라 좌표,
Figure 112017022039266-pat00270
는 투명 소재의 제1 면 상에 미리 배치된 i번째 선분의 제2 끝점 카메라 좌표, Li는 i번째 선분의 길이를 의미함.
12. The method of claim 11,
Wherein the plurality of curved surface parameters are determined based on Equation (13) below.
&Quot; (13) "
Figure 112017022039266-pat00264

S * is a set of curved surface parameters including a plurality of determined curved surface parameters, S is a set of curved surface parameter estimates including a plurality of curved surface parameter estimates,
Figure 112017022039266-pat00265
Is the non-distortion observation point camera coordinate for the kth observation point,
Figure 112017022039266-pat00266
Is the distortion observation point camera coordinates for the kth observation point,
Figure 112017022039266-pat00267
Is the inclination angle coordinate of the kth observation point,
Figure 112017022039266-pat00268
Is the azimuth angle coordinate of the kth observation point,
Figure 112017022039266-pat00269
The first end camera coordinates of the i-th line segment disposed on the first surface of the transparent material,
Figure 112017022039266-pat00270
Is the coordinate of the second end point camera of the i-th line segment arranged in advance on the first surface of the transparent material, and L i is the length of the i-th line segment.
제11항에 있어서,
상기 투명 소재 곡면 모델은 아래 수학식 4에 기초하여 정의되는, 투명 소재 곡면값 산출 장치.
[수학식 4]
Figure 112017022039266-pat00271

r은 구면 좌표계의 거리 좌표,
Figure 112017022039266-pat00272
는 구면 좌표계의 인클라이네이션(inclination) 각도 좌표,
Figure 112017022039266-pat00273
는 구면 좌표계의 아지무스(azimuth) 각도 좌표, ax는 제1 곡면 파라미터, ay는 제2 곡면 파라미터, az는 제3 곡면 파라미터 및 ar은 제4 곡면 파라미터를, Am,n은 제1 곡면 파라미터 행렬의 m행 n열, Bm,n은 제2 곡면 파라미터 행렬의 m행 n열을 의미함.
12. The method of claim 11,
Wherein the transparent material surface model is defined based on Equation (4) below.
&Quot; (4) "
Figure 112017022039266-pat00271

r is the distance coordinate of the spherical coordinate system,
Figure 112017022039266-pat00272
Is the inclination angle coordinate of the spherical coordinate system,
Figure 112017022039266-pat00273
A x is a first curved surface parameter, a y is a second curved surface parameter, a z is a third curved surface parameter, and a r is a fourth curved surface parameter, and A m, n is a M rows and n columns of the first surface parameter matrix, B m, n mean m rows and n columns of the second surface parameter matrix.
제11항에 있어서,
결정된 상기 복수의 곡면 파라미터 및 적어도 하나의 카메라로 촬영한 상기 투명 소재 투과 영상에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출함으로써 보정 관찰점 카메라 좌표를 산출하는 카메라 좌표 보정부를 더 포함하는, 투명 소재 곡면값 산출 장치.
12. The method of claim 11,
Further comprising a camera coordinate correcting unit for calculating the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on the determined plurality of curved surface parameters and the transparent material transmission image captured with at least one camera, Value calculating device.
제16항에 있어서,
상기 적어도 하나의 카메라가 한 개의 카메라인 경우,
상기 카메라 좌표 보정부는,
결정된 상기 복수의 곡면 파라미터에 기초하여 상기 한 개의 카메라로부터 상기 임의의 관찰 평면 상에 위치한 상기 임의의 관찰점에 이르는 광 굴절 경로를 산출하고, 상기 광 굴절 경로 및 상기 임의의 관찰 평면의 교점에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출함으로써 상기 보정 관찰점 카메라 좌표를 산출하는, 투명 소재 곡면값 산출 장치.
17. The method of claim 16,
If the at least one camera is a single camera,
Wherein the camera coordinate correction unit comprises:
Calculating a light refraction path from the one camera to the arbitrary observation point located on the arbitrary observation plane based on the determined plurality of curved surface parameters, and calculating, based on the intersection of the light refraction path and the arbitrary observation plane And calculates the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates.
제16항에 있어서,
상기 적어도 하나의 카메라가 제1 카메라 및 제2 카메라를 포함하는 경우,
상기 카메라 좌표 보정부는,
상기 제1 카메라에 대한 복수의 곡면 파라미터인 복수의 제1 카메라 곡면 파라미터에 기초하여 상기 제1 카메라로부터 상기 임의의 관찰점으로 향하는 광 굴절 경로인 제1 카메라 광 굴절 경로를 산출하고, 상기 제2 카메라에 대한 복수의 곡면 파라미터인 복수의 제2 카메라 곡면 파라미터에 기초하여 상기 제2 카메라로부터 상기 임의의 관찰점으로 향하는 광 굴절 경로인 제2 카메라 광 굴절 경로를 산출하고, 상기 제1 카메라 광 굴절 경로 및 상기 제2 카메라 광 굴절 경로의 교점에 기초하여 상기 왜곡 관찰점 카메라 좌표를 산출함으로써 상기 보정 관찰점 카메라 좌표를 산출하는, 투명 소재 곡면값 산출 장치.
17. The method of claim 16,
If the at least one camera comprises a first camera and a second camera,
Wherein the camera coordinate correction unit comprises:
A first camera light refraction path that is a light refraction path from the first camera to the arbitrary observation point on the basis of a plurality of first camera curved surface parameters that are a plurality of curved surface parameters for the first camera, Calculating a second camera light refraction path that is a light refraction path from the second camera to the arbitrary observation point based on a plurality of second camera curved surface parameters that are a plurality of curved surface parameters for the camera, And calculates the corrected observation point camera coordinates by calculating the distortion observation point camera coordinates based on an intersection of the path and the second camera light refraction path.
제17항 및 제18항 중 어느 한 항에 있어서,
미리 설정된 카메라 좌표와 2차원 영상 좌표 간의 좌표 관계에 기초하여 상기 보정 관찰점 카메라 좌표를 대응되는 보정 2차원 영상 좌표로 변환하는 영상 좌표 보정부를 더 포함하는, 투명 소재 곡면값 산출 장치.
19. A method according to any one of claims 17 to 18,
Further comprising an image coordinate correcting unit for converting the corrected observation point camera coordinates into corresponding corrected two-dimensional image coordinates on the basis of a coordinate relationship between a preset camera coordinate and a two-dimensional image coordinate.
제18항에 있어서,
상기 복수의 제2 카메라 곡면 파라미터가 결정되지 않은 경우,
상기 카메라 좌표 보정부는,
미리 결정된 복수의 제1 카메라 곡면 파라미터를 상기 투명 소재 곡면 모델에 적용하여 제1 카메라 곡면값을 산출하고, 복수의 제2 카메라 곡면 파라미터 추정값을 상기 투명 소재 곡면 모델에 적용하여 추정 제2 카메라 곡면값을 산출하고, 미리 설정된 제1 카메라 좌표와 제2 카메라 좌표 간의 관계에 기초하여 상기 추정 제2 카메라 곡면값에 대응되는 가상의 제1 카메라 곡면값을 산출하고, 상기 제1 카메라 곡면값과 상기 가상의 제1 카메라 곡면값 간의 차이가 최소가 되도록 하는 상기 복수의 제2 카메라 곡면 파라미터 추정값을 상기 복수의 제2 카메라 곡면 파라미터로 결정하는, 투명 소재 곡면값 산출 장치.
19. The method of claim 18,
If the plurality of second camera surface parameters are not determined,
Wherein the camera coordinate correction unit comprises:
Applying a plurality of predetermined first camera curved surface parameters to the transparent material curved surface model to calculate a first camera curved surface value and applying a plurality of second camera curved surface parameter estimates to the transparent curved surface model to obtain an estimated second camera curved surface value Calculates a virtual first camera curved surface value corresponding to the estimated second camera curved surface value based on a relationship between a first camera coordinate and a second camera coordinate set in advance, Wherein the second camera curved surface parameter estimating unit determines the plurality of second camera curved surface parameter estimates as the plurality of second camera curved surface parameters so that the difference between the first camera curved surface values of the first camera curved surface values is minimized.
KR1020170028152A 2017-03-06 2017-03-06 Method and apparatus for calculating surface curve of transparent material KR101866804B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170028152A KR101866804B1 (en) 2017-03-06 2017-03-06 Method and apparatus for calculating surface curve of transparent material

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170028152A KR101866804B1 (en) 2017-03-06 2017-03-06 Method and apparatus for calculating surface curve of transparent material

Publications (1)

Publication Number Publication Date
KR101866804B1 true KR101866804B1 (en) 2018-06-18

Family

ID=62765414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170028152A KR101866804B1 (en) 2017-03-06 2017-03-06 Method and apparatus for calculating surface curve of transparent material

Country Status (1)

Country Link
KR (1) KR101866804B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940004917B1 (en) * 1989-04-05 1994-06-04 닛뽕고오깡 가부시끼가이샤 Apparatus for measuring three dimensional curved surface shapes
KR20010017356A (en) 1999-08-10 2001-03-05 윤종용 Apparatus For Distortion Correction In Projectors
KR20110119531A (en) * 2010-04-26 2011-11-02 오므론 가부시키가이샤 Shape measuring device and calibration method
KR20160046746A (en) * 2014-10-21 2016-04-29 이스라 서피스 비젼 게엠베하 Method for determining a local refractive index and device therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940004917B1 (en) * 1989-04-05 1994-06-04 닛뽕고오깡 가부시끼가이샤 Apparatus for measuring three dimensional curved surface shapes
KR20010017356A (en) 1999-08-10 2001-03-05 윤종용 Apparatus For Distortion Correction In Projectors
KR20110119531A (en) * 2010-04-26 2011-11-02 오므론 가부시키가이샤 Shape measuring device and calibration method
KR20160046746A (en) * 2014-10-21 2016-04-29 이스라 서피스 비젼 게엠베하 Method for determining a local refractive index and device therefor

Similar Documents

Publication Publication Date Title
CN107657635B (en) Depth camera temperature error correction method and system
CN107730561B (en) Depth camera temperature error correction method and system
JP6444027B2 (en) Information processing apparatus, information processing apparatus control method, information processing system, and program
EP3158731B1 (en) System and method for adjusting a baseline of an imaging system with microlens array
CN102353340B (en) Cylinder-cover blank machining-size identifying method and device
CN107588721A (en) The measuring method and system of a kind of more sizes of part based on binocular vision
CN112985293B (en) Binocular vision measurement system and measurement method for single-camera double-spherical mirror image
CN109579695B (en) Part measuring method based on heterogeneous stereoscopic vision
CN107886477A (en) Unmanned neutral body vision merges antidote with low line beam laser radar
CN111127540B (en) Automatic distance measurement method and system for three-dimensional virtual space
CN109520480B (en) Distance measurement method and distance measurement system based on binocular stereo vision
JPWO2018042954A1 (en) In-vehicle camera, adjustment method of in-vehicle camera, in-vehicle camera system
CN110827360B (en) Photometric stereo measurement system and method for calibrating light source direction thereof
CN110686652B (en) Depth measurement method based on combination of depth learning and structured light
CN111709985A (en) Underwater target ranging method based on binocular vision
CN107560554A (en) A kind of three-dimensional information vision measuring method based on relay lens
CN116188558B (en) Stereo photogrammetry method based on binocular vision
JP3913901B2 (en) Camera internal parameter determination device
CN113393524A (en) Target pose estimation method combining deep learning and contour point cloud reconstruction
CN116625258A (en) Chain spacing measuring system and chain spacing measuring method
JP7283841B2 (en) Gaze measurement device
CN103258327B (en) A kind of single-point calibration method based on two degrees of freedom video camera
JP2021049130A (en) Eyeball structure estimation device
CN111998823B (en) Target ranging method based on binocular different-light-source ranging device
KR101866804B1 (en) Method and apparatus for calculating surface curve of transparent material

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant