KR102412275B1 - Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method - Google Patents

Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method Download PDF

Info

Publication number
KR102412275B1
KR102412275B1 KR1020210068250A KR20210068250A KR102412275B1 KR 102412275 B1 KR102412275 B1 KR 102412275B1 KR 1020210068250 A KR1020210068250 A KR 1020210068250A KR 20210068250 A KR20210068250 A KR 20210068250A KR 102412275 B1 KR102412275 B1 KR 102412275B1
Authority
KR
South Korea
Prior art keywords
distortion
pcg
image
pattern
distortion correction
Prior art date
Application number
KR1020210068250A
Other languages
Korean (ko)
Inventor
박용화
김정민
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020210068250A priority Critical patent/KR102412275B1/en
Application granted granted Critical
Publication of KR102412275B1 publication Critical patent/KR102412275B1/en

Links

Images

Classifications

    • G06T5/001
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

스테레오 방법을 이용한 3차원 형상정보 계측에 있어서의 이미지 왜곡 보정 방법 및 장치가 제시된다. 일 실시예에 따른 컴퓨터 장치에 의해 수행되는 이미지 왜곡 보정 방법은, 제1 패턴 세트 및 제2 패턴 세트로 구성되는 다수개의 PCG 패턴들을 생성하는 단계; 상기 PCG 패턴들 중 제1 패턴 세트를 촬영 후 격자점들을 검출하고, 검출한 상기 격자점들 중 하나의 행 또는 열을 이루는 격자점들을 선형 회귀하여 왜곡 중심점을 추정하는 단계; 상기 PCG 패턴들 중 제2 패턴 세트를 촬영 후 격자점들을 검출하고, 이미지에서 상기 왜곡 중심점으로부터 기설정된 범위 내의 영역을 미소 왜곡 영역이라 정의하고, 상기 미소 왜곡 영역 내에 있는 격자점들을 검출하여 행 방향 또는 열 방향의 소실점을 추정하는 단계; 추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 단계; 및 이미지 전체 영역에 산재되어 있는 상기 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정하는 단계를 포함하여 이루어질 수 있다. A method and apparatus for correcting image distortion in 3D shape information measurement using a stereo method are presented. An image distortion correction method performed by a computer device according to an embodiment includes: generating a plurality of PCG patterns including a first pattern set and a second pattern set; estimating a distortion center point by photographing a first set of patterns among the PCG patterns, detecting lattice points, and linearly regressing lattice points constituting one row or column among the detected lattice points; After photographing the second set of patterns among the PCG patterns, lattice points are detected, an area within a predetermined range from the distortion center point in the image is defined as a micro-distortion area, and lattice points within the micro-distortion area are detected in the row direction or estimating a vanishing point in a column direction; obtaining distortion amount data by performing distortion correction on all the grid points of the first pattern set based on the estimated vanishing point; and measuring the distortion amount map of the camera lens by curve fitting the distortion amount data scattered over the entire image area.

Description

스테레오 방법을 이용한 3차원 형상정보 계측에 있어서의 이미지 왜곡 보정 방법 및 장치{Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method}Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method}

아래의 실시예들은 스테레오 방법을 이용한 3차원 형상정보 계측에 있어서의 이미지 왜곡 보정 방법 및 장치에 관한 것으로, 더욱 상세하게는 3차원 스테레오 계측을 위하여 카메라의 왜곡량 맵을 사전에 추정하는 방법 및 장치에 관한 것이다. The following embodiments relate to a method and apparatus for correcting image distortion in 3D shape information measurement using a stereo method, and more particularly, a method and apparatus for estimating a distortion amount map of a camera in advance for 3D stereo measurement is about

카메라를 이용한 응용분야는 산업 전반에 걸쳐 다양하며 그 응용분야는 점점 방대해지고 있다. 예컨대, 조립라인의 로봇 제어, 상품의 품질 검사, 의료분야의 진단, 보안 시스템, 영상 시스템의 인식 등 카메라는 사람의 눈을 대신하여 산업계의 자동화에 활용되고 있는 추세이다.The field of application using a camera is diverse throughout the industry, and the field of application is becoming increasingly vast. For example, a camera such as robot control of an assembly line, product quality inspection, diagnosis in the medical field, security system, recognition of an image system, etc., is being used in industrial automation instead of the human eye.

일반적으로 대상체에 대한 정밀도 높은 영상을 얻으려 할 경우에는 협각의 렌즈를 카메라의 앞 부분에 장치하여 사용하고, 대상체의 크기가 커서 넓은 영역을 관찰하여야 할 경우에는 광각 렌즈(wide-angle lens)를 장치하여 사용한다. 광각 렌즈를 사용하는 경우, 넓은 시야를 확보할 수 있다는 장점을 가지는 반면, 렌즈의 중심부분은 해상도가 높고 렌즈의 외각부분으로 갈수록 점차 해상도가 떨어지는 단점이 있다.In general, to obtain a high-precision image of an object, a narrow-angle lens is installed in front of the camera, and a wide-angle lens is used when the object is large and it is necessary to observe a wide area. device and use it. In the case of using a wide-angle lens, it has the advantage of securing a wide field of view, but there is a disadvantage in that the central portion of the lens has high resolution and the resolution gradually decreases toward the outer angle portion of the lens.

또한, 광각 렌즈는 외각부분의 해상도 저하와 함께 외각부분으로 갈수록 영상이 휘어지는 왜곡, 즉 방사 왜곡(radial distortion)이 두드러진다. 이러한 방사 왜곡은 해상도 저하의 주요 요인이기도 하다.In addition, the wide-angle lens exhibits remarkable distortion, ie, radial distortion, in which the image is curved toward the outer part along with a decrease in the resolution of the outer part. Such radiation distortion is also a major factor in the degradation of resolution.

한국등록특허 10-1014572호는 이러한 영상 왜곡 보정 방법 및 그 보정 방법을 채용한 영상처리장치에 관한 기술을 기재하고 있다.Korean Patent No. 10-1014572 describes a technique for such an image distortion correction method and an image processing apparatus employing the image distortion correction method.

한국등록특허 10-1014572호Korean Patent Registration No. 10-1014572

Tan, L.;Wang, Y.; Yu, H.S.; Zhu, J. Automatic camera calibration using active displays of a virtual Pattern. Sensors 2017, 17, 685. Tan, L.; Wang, Y.; Yu, H. S.; Zhu, J. Automatic camera calibration using active displays of a virtual Pattern. Sensors 2017, 17, 685.

실시예들은 스테레오 방법을 이용한 3차원 형상정보 계측에 있어서의 이미지 왜곡 보정 방법 및 장치에 관하여 기술하며, 보다 구체적으로 3차원 스테레오 계측을 위하여 카메라의 왜곡량 맵을 사전에 추정하는 기술을 제공한다. The embodiments describe a method and apparatus for correcting image distortion in 3D shape information measurement using a stereo method, and more specifically, provide a technique for estimating a distortion amount map of a camera in advance for 3D stereo measurement.

실시예들은 왜곡량 맵을 근거리에서 사전에 추정함으로써, 대규모 상황에서 이미지의 캘리브레이션 영역과 3차원 정밀 계측 영역이 분리되는 문제를 해결할 수 있는 스테레오 방법을 이용한 3차원 형상정보 계측에 있어서의 이미지 왜곡 보정 방법 및 장치를 제공하는데 있다. The embodiments provide image distortion correction in 3D shape information measurement using a stereo method that can solve the problem that the calibration area and the 3D precision measurement area of the image are separated in a large-scale situation by estimating the distortion amount map in advance at a short distance. To provide a method and apparatus.

일 실시예에 따른 컴퓨터 장치에 의해 수행되는 이미지 왜곡 보정 방법은, 제1 패턴 세트 및 제2 패턴 세트로 구성되는 다수개의 PCG 패턴들을 생성하는 단계; 상기 PCG 패턴들 중 제1 패턴 세트를 촬영 후 격자점들을 검출하고, 검출한 상기 격자점들 중 하나의 행 또는 열을 이루는 격자점들을 선형 회귀하여 왜곡 중심점을 추정하는 단계; 상기 PCG 패턴들 중 제2 패턴 세트를 촬영 후 격자점들을 검출하고, 이미지에서 상기 왜곡 중심점으로부터 기설정된 범위 내의 영역을 미소 왜곡 영역이라 정의하고, 상기 미소 왜곡 영역 내에 있는 격자점들을 검출하여 행 방향 또는 열 방향의 소실점을 추정하는 단계; 추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 단계; 및 이미지 전체 영역에 산재되어 있는 상기 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정하는 단계를 포함하여 이루어질 수 있다. An image distortion correction method performed by a computer device according to an embodiment includes: generating a plurality of PCG patterns including a first pattern set and a second pattern set; estimating a distortion center point by photographing a first set of patterns among the PCG patterns, detecting lattice points, and linearly regressing lattice points constituting one row or column among the detected lattice points; After photographing the second set of patterns among the PCG patterns, lattice points are detected, an area within a predetermined range from the distortion center point in the image is defined as a micro-distortion area, and lattice points within the micro-distortion area are detected in the row direction or estimating a vanishing point in a column direction; obtaining distortion amount data by performing distortion correction on all the grid points of the first pattern set based on the estimated vanishing point; and measuring the distortion amount map of the camera lens by curve fitting the distortion amount data scattered over the entire image area.

상기 제1 패턴 세트는 기존 PCG 패턴들이고, 상기 제2 패턴 세트는 새로운 PCG 패턴들일 수 있다. The first pattern set may be existing PCG patterns, and the second pattern set may be new PCG patterns.

상기 PCG 패턴들을 생성하는 단계는, 가상 PCG 패턴을 생성하는 단계; 상기 가상 PCG 패턴을 가상 카메라로 투영한 이미지를 모니터에 디스플레이하는 단계; 및 상기 모니터에 디스플레이된 PCG 패턴을 실제 카메라로 촬영하여 이미지를 획득하는 단계를 포함할 수 있다. The generating of the PCG patterns may include: generating a virtual PCG pattern; displaying an image projected by a virtual camera of the virtual PCG pattern on a monitor; and acquiring an image by photographing the PCG pattern displayed on the monitor with an actual camera.

상기 PCG 패턴들을 생성하는 단계는, 가상 카메라를 이용한 패턴 생성법을 통해 가상 카메라를 기준으로 특정 회전 행렬과 특정 병진 행렬을 가지는 가상 PCG 패턴을 무한정 생성할 수 있다. The generating of the PCG patterns may include infinitely generating virtual PCG patterns having a specific rotation matrix and a specific translation matrix based on the virtual camera through a pattern generation method using a virtual camera.

상기 제1 패턴 세트는 아웃 포커스가 발생한 이미지에서도 격자점의 위치를 검출할 수 있도록 해주는 패턴일 수 있다. The first pattern set may be a pattern that allows the location of grid points to be detected even in an image in which out-of-focus occurs.

상기 왜곡 중심점을 추정하는 단계는, 선형 회귀한 직선에 가장 근접하는 상기 격자점들의 직선은 왜곡 중심점을 지난다고 가정하고 행 방향과 열 방향 직선 중 가장 직선성을 띄는 직선들의 교점을 왜곡 중심점이라 추정할 수 있다. In the estimating of the distortion center point, it is assumed that the straight line of the grid points closest to the linearly regressed straight line passes through the distortion center point, and the intersection of the straightest lines among the row and column direction straight lines is estimated as the distortion center point. can do.

상기 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 단계는, 추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 원근투영불변성을 이용하여 왜곡 보정을 수행할 수 있다. In the step of obtaining distortion amount data by performing distortion correction, distortion correction may be performed using perspective projection invariance for all the grid points of the first pattern set based on the estimated vanishing point.

카메라를 고정시킨 채 촬영한 상기 PCG 패턴을 컴퓨터 소프트웨어를 이용하여 모니터 내 서로 다른 위치에 생성함에 따라 왜곡 보정에 관해 자동으로 측정할 수 있다. As the PCG patterns photographed with the camera fixed are generated at different positions in the monitor using computer software, distortion correction can be automatically measured.

다른 실시예에 따른 제1 패턴 세트 및 제2 패턴 세트로 구성되는 다수개의 PCG 패턴들을 생성하는 PCG 패턴 생성부; 상기 PCG 패턴들 중 제1 패턴 세트를 촬영 후 격자점들을 검출하고, 검출한 상기 격자점들 중 하나의 행 또는 열을 이루는 격자점들을 선형 회귀하여 왜곡 중심점을 추정하는 왜곡 중심점 추정부; 상기 PCG 패턴들 중 제2 패턴 세트를 촬영 후 격자점들을 검출하고, 이미지에서 상기 왜곡 중심점으로부터 기설정된 범위 내의 영역을 미소 왜곡 영역이라 정의하고, 상기 미소 왜곡 영역 내에 있는 격자점들을 검출하여 행 방향 또는 열 방향의 소실점을 추정하는 소실점 추정부; 추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 왜곡 보정부; 및 이미지 전체 영역에 산재되어 있는 상기 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정하는 왜곡량 맵 측정부를 포함하여 이루어질 수 있다. a PCG pattern generator for generating a plurality of PCG patterns including a first pattern set and a second pattern set according to another embodiment; a distortion center point estimator that detects grid points after photographing a first set of patterns among the PCG patterns, and linearly regresses grid points constituting one row or column among the detected grid points to estimate a distortion center point; After photographing the second set of patterns among the PCG patterns, lattice points are detected, an area within a predetermined range from the distortion center point in the image is defined as a micro-distortion area, and lattice points within the micro-distortion area are detected in the row direction or a vanishing point estimator for estimating a vanishing point in a column direction; a distortion correction unit for obtaining distortion amount data by performing distortion correction on all the grid points of the first pattern set based on the estimated vanishing point; and a distortion amount map measurer configured to measure the distortion amount map of the camera lens by curve fitting the distortion amount data scattered over the entire image area.

상기 제1 패턴 세트는 기존 PCG 패턴들이고, 상기 제2 패턴 세트는 새로운 PCG 패턴들일 수 있다. The first pattern set may be existing PCG patterns, and the second pattern set may be new PCG patterns.

상기 PCG 패턴 생성부는, 가상 PCG 패턴을 생성하고, 상기 가상 PCG 패턴을 가상 카메라로 투영한 이미지를 모니터에 디스플레이하며, 상기 모니터에 디스플레이된 PCG 패턴을 실제 카메라로 촬영하여 이미지를 획득할 수 있다. The PCG pattern generator may generate a virtual PCG pattern, display an image obtained by projecting the virtual PCG pattern with a virtual camera on a monitor, and acquire an image by photographing the PCG pattern displayed on the monitor with a real camera.

상기 PCG 패턴 생성부는, 가상 카메라를 이용한 패턴 생성법을 통해 가상 카메라를 기준으로 특정 회전 행렬과 특정 병진 행렬을 가지는 가상 PCG 패턴을 무한정 생성할 수 있다. The PCG pattern generator may indefinitely generate a virtual PCG pattern having a specific rotation matrix and a specific translation matrix based on the virtual camera through a pattern generation method using a virtual camera.

상기 제1 패턴 세트는 아웃 포커스가 발생한 이미지에서도 격자점의 위치를 검출할 수 있도록 해주는 패턴일 수 있다. The first pattern set may be a pattern that allows the location of grid points to be detected even in an image in which out-of-focus occurs.

상기 왜곡 중심점 추정부는, 선형 회귀한 직선에 가장 근접하는 상기 격자점들의 직선은 왜곡 중심점을 지난다고 가정하고 행 방향과 열 방향 직선 중 가장 직선성을 띄는 직선들의 교점을 왜곡 중심점이라 추정할 수 있다. The distortion center point estimator may assume that the straight line of the grid points closest to the linearly regressed straight line passes through the distortion center point, and the point of intersection of the straightest straight lines among the row and column direction straight lines can be estimated as the distortion center point. .

상기 왜곡 보정부는, 추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 원근투영불변성을 이용하여 왜곡 보정을 수행할 수 있다. The distortion correction unit may perform distortion correction using perspective projection invariance for all the grid points of the first pattern set based on the estimated vanishing point.

실시예들에 따르면 왜곡량 맵을 근거리에서 사전에 추정함으로써, 대규모 상황에서 이미지의 캘리브레이션 영역과 3차원 정밀 계측 영역이 분리되는 문제를 해결할 수 있는 스테레오 방법을 이용한 3차원 형상정보 계측에 있어서의 이미지 왜곡 보정 방법 및 장치를 제공할 수 있다. According to embodiments, by estimating the distortion amount map in advance at a short distance, an image in 3D shape information measurement using a stereo method that can solve the problem that the calibration area and the 3D precision measurement area of the image are separated in a large-scale situation A distortion correction method and apparatus may be provided.

도 1은 일 실시예에 따른 이미지 왜곡 보정 방법을 개략적으로 나타내는 도면이다.
도 2는 일 실시예에 따른 복수개의 가상 PCG 패턴의 이미지 왜곡 보정 방법을 개략적으로 나타내는 도면이다.
도 3은 일 실시예에 따른 왜곡량 맵 측정 방법을 나타내는 도면이다.
도 4는 일 실시예에 따른 이미지 왜곡 보정 방법을 나타내는 흐름도이다.
도 5는 일 실시예에 따른 이미지 왜곡 보정 장치를 나타내는 블록도이다.
도 6은 일 실시예에 따른 기존 격자점 세트와 새로운 격자점 세트의 예를 나타내는 도면이다.
도 7은 일 실시예에 따른 왜곡 중심점 추정의 예를 나타내는 도면이다.
도 8은 일 실시예에 따른 미소 왜곡 영역과 소실점 추정의 예를 나타내는 도면이다.
도 9는 일 실시예에 따른 미소 왜곡 영역과 소실점 추정 방법을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 원근투영불변성에 의한 왜곡 보정 계산을 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 왜곡량 데이터로 표면 피팅 방법을 설명하기 위한 도면이다.
1 is a diagram schematically illustrating an image distortion correction method according to an exemplary embodiment.
2 is a diagram schematically illustrating a method for correcting image distortion of a plurality of virtual PCG patterns according to an exemplary embodiment.
3 is a diagram illustrating a method for measuring a distortion amount map according to an exemplary embodiment.
4 is a flowchart illustrating an image distortion correction method according to an exemplary embodiment.
5 is a block diagram illustrating an apparatus for correcting image distortion according to an exemplary embodiment.
6 is a diagram illustrating an example of an existing grid point set and a new grid point set according to an embodiment.
7 is a diagram illustrating an example of estimating a distortion center point according to an embodiment.
8 is a diagram illustrating an example of estimating a micro-distortion region and a vanishing point according to an exemplary embodiment.
9 is a diagram for describing a method for estimating a micro-distortion region and a vanishing point according to an exemplary embodiment.
10 is a diagram for explaining a distortion correction calculation by perspective projection invariance according to an exemplary embodiment.
11 is a diagram for explaining a method of fitting a surface with distortion amount data according to an exemplary embodiment.

이하, 첨부된 도면을 참조하여 실시예들을 설명한다. 그러나, 기술되는 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시예들에 의하여 한정되는 것은 아니다. 또한, 여러 실시예들은 당해 기술분야에서 평균적인 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 도면에서 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.Hereinafter, embodiments will be described with reference to the accompanying drawings. However, the described embodiments may be modified in various other forms, and the scope of the present invention is not limited by the embodiments described below. In addition, various embodiments are provided in order to more completely explain the present invention to those of ordinary skill in the art. The shapes and sizes of elements in the drawings may be exaggerated for clearer description.

아래의 실시예들은 스테레오 방법을 이용한 3차원 형상정보 계측에 있어서의 이미지 왜곡 보정 방법 및 장치에 관한 것으로, 3차원 스테레오 계측을 위하여 카메라의 왜곡량 맵을 사전에 추정할 수 있다. The following embodiments relate to an image distortion correction method and apparatus in 3D shape information measurement using a stereo method, and a distortion amount map of a camera can be estimated in advance for 3D stereo measurement.

실시예들은 대규모 상황에 특화되어 있으며 대규모 상황에서 이미지의 캘리브레이션 영역과 3차원 정밀 계측 영역이 분리되는 문제를 해결하고자 왜곡량 맵을 근거리에서 사전에 추정하고자 한다.The embodiments are specialized for large-scale situations, and in order to solve the problem of separation of the calibration area and the three-dimensional precision measurement area of the image in the large-scale situation, the distortion map is estimated in advance at a short distance.

대규모에서의 스테레오 계측 시 발생하는 문제는 2가지로 분류할 수 있다. 첫째, 캘리브레이션 영역과 정밀 계측 영역의 분리가 발생한다. 둘째, 대규모 촬영을 위해 광각 렌즈를 사용하여야 하고 이에 따라 렌즈 왜곡에 의한 계측 오차가 크게 발생한다.Problems that occur in stereo measurement on a large scale can be classified into two categories. First, the separation of the calibration area and the precision measurement area occurs. Second, a wide-angle lens must be used for large-scale photography, and accordingly, a measurement error due to lens distortion is greatly generated.

실시예들은 이러한 두 가지 문제를 해결하기 위해 사전에 카메라의 왜곡량을 측정하여 대규모에서의 스테레오 계측 시 3차원 계측을 기존 방법들보다 보다 정확하게 수행할 수 있다.Embodiments measure the amount of distortion of the camera in advance in order to solve these two problems, so that when performing stereo measurement on a large scale, 3D measurement can be performed more accurately than conventional methods.

도 1은 일 실시예에 따른 이미지 왜곡 보정 방법을 개략적으로 나타내는 도면이다. 또한, 도 2는 일 실시예에 따른 복수개의 가상 PCG 패턴의 이미지 왜곡 보정 방법을 개략적으로 나타내는 도면이다.1 is a diagram schematically illustrating an image distortion correction method according to an exemplary embodiment. Also, FIG. 2 is a diagram schematically illustrating a method for correcting image distortion of a plurality of virtual PCG patterns according to an exemplary embodiment.

도 1 및 도 2를 참조하면, 일 실시예에 따른 이미지 왜곡 보정 방법은 가상 PCG 패턴(130)을 생성하고 이를 가상 카메라(110)로 투영한 이미지를 모니터(120)에 디스플레이할 수 있다. 모니터(120)에 디스플레이된 PCG 패턴(130)을 실제 카메라(140)로 촬영하여 이미지(150)를 획득할 수 있다.1 and 2 , the image distortion correction method according to an embodiment may generate a virtual PCG pattern 130 and display an image projected by the virtual camera 110 on the monitor 120 . The image 150 may be obtained by photographing the PCG pattern 130 displayed on the monitor 120 with the actual camera 140 .

여기서, PCG 패턴 1은 아웃 포커스가 발생한 이미지에서도 격자점의 위치를 검출할 수 있도록 해주는 패턴이다. 10m 정도 거리에 떨어져 있는 선체블록에 초점이 맞춰져 있는 카메라로 근거리(60cm)의 물체를 보아야 하니 아웃 포커스가 발생한다. 따라서 일반적인 체크보드의 격자점을 인식하지 못한다. 따라서 PCG 패턴을 사용할 수 있다.Here, PCG pattern 1 is a pattern that allows the location of grid points to be detected even in an out-focused image. Out-of-focus occurs when the camera is focused on the hull block at a distance of about 10 m and needs to see an object at a short distance (60 cm). Therefore, it does not recognize the grid points of a general checkboard. Therefore, the PCG pattern can be used.

고정밀의 왜곡 보정을 위해 왜곡 보정 방법 중 비교적 정밀한 방법인 원근투영불변성 방법을 사용할 수 있다. 이는 체크보드의 격자점들이 이미지 내에서 만족해야 하는 성질인 직선성, Cross-ratio, 소실점 등을 이용하여 왜곡된 격자점의 위치를 이미지 내에서 보정할 수 있다.For high-precision distortion correction, the perspective projection invariance method, which is a relatively precise method among distortion correction methods, may be used. This can correct the position of the distorted grid points in the image using linearity, cross-ratio, and vanishing point, which are properties that the grid points of the checkboard must satisfy in the image.

본 실시예에서는 체크보드 대신 PCG 패턴의 격자점을 검출하고 격자점들의 왜곡 보정을 수행할 수 있다. 왜곡된 점과 보정된 점의 차이가 한 격자점에 대한 왜곡량에 해당한다. 왜곡량 데이터는 한 패턴 당 격자점 수만큼 생긴다. 이는 도 1의 경우 54개/1 패턴에 해당하고 이미지 픽셀이 3036 X 4024인 것을 감안하면 상당히 적은 수이다. 따라서 이미지 전체 영역의 왜곡량을 구하기 위한 왜곡량 개수가 한 패턴에 대해서는 너무나 적다.In the present embodiment, instead of the check board, the grid points of the PCG pattern may be detected and distortion correction of the grid points may be performed. The difference between the distorted point and the corrected point corresponds to the amount of distortion for one grid point. The amount of distortion data is generated as many as the number of grid points per pattern. This corresponds to 54 /1 patterns in the case of FIG. 1 and is a fairly small number considering that the image pixels are 3036 X 4024. Therefore, the number of distortion amounts to obtain the distortion amount of the entire image area is too small for one pattern.

무한정 패턴을 생성하기 위해 가상 카메라를 이용한 패턴 생성법(비특허문헌 1)을 결합할 수 있다. 가상 카메라를 기준으로 특정 회전 행렬과 특정 병진 행렬을 가지는 가상 패턴을 무한정 생성할 수 있다. 특정 회전 행렬과 특정 병진 행렬은 사용자가 컴퓨터 소프트웨어로 제공하는 값이므로 임의대로 설정 가능하다. 즉, 이미지 전체 영역을 채우기 적합하도록 모니터 내에서 가상 PCG 패턴의 위치와 자세를 마음껏 변화시킬 수 있다.In order to generate an indefinite pattern, a pattern generation method using a virtual camera (Non-Patent Document 1) can be combined. Based on the virtual camera, a virtual pattern having a specific rotation matrix and a specific translation matrix can be created indefinitely. Since the specific rotation matrix and the specific translation matrix are values provided by the user through computer software, they can be set arbitrarily. That is, the position and posture of the virtual PCG pattern in the monitor can be freely changed to fit the entire image area.

기존 방식은 PCG 패턴을 모니터에 띄우고 카메라를 직접 움직였다. 반면, 본 실시예들은 카메라를 고정한 채 PCG 패턴을 컴퓨터 소프트웨어로 모니터 내 서로 다른 위치에 생성함에 따라 왜곡 보정에 관해 자동으로 측정할 수 있도록 하였다.In the existing method, the PCG pattern was displayed on the monitor and the camera was moved directly. On the other hand, in the present embodiments, the distortion correction can be automatically measured as PCG patterns are generated at different positions in the monitor by computer software while the camera is fixed.

또한, 기존 방식은 체크보드의 격자점들을 이용하여 왜곡량 맵을 추정한 기존의 방식은 수동으로 진행하다 보니 패턴 개수의 한계가 있었고 이로 인해 이미지 전체 영역의 왜곡량 맵을 추정하기 위한 왜곡량 데이터의 수가 현저히 부족하다. 반면, 실시예들은 가상 패턴을 컴퓨터 소프트웨어로 임의의 자세와 위치로 무한정 생성하며 왜곡량 데이터의 개수를 무수히 많이 늘렸다. 따라서 이미지 전체 영역의 왜곡량 맵을 보다 정확하게 추정할 수 있다.In addition, the existing method of estimating the amount of distortion map using the grid points of the checkboard had a limitation in the number of patterns because it was performed manually. The number of is markedly insufficient. On the other hand, in the embodiments, virtual patterns are created indefinitely in arbitrary postures and positions with computer software, and the number of distortion data is infinitely increased. Accordingly, it is possible to more accurately estimate the distortion amount map of the entire image area.

도 3은 일 실시예에 따른 왜곡량 맵 측정 방법을 나타내는 도면이다.3 is a diagram illustrating a method for measuring a distortion amount map according to an exemplary embodiment.

도 3을 참조하면, 왜곡량 맵 측정을 위해, 먼저 가상 PCG 패턴을 생성(310)하고, 가상 PCG 패턴을 가상 카메라로 투영한 이미지를 모니터에 디스플레이(320)한 후, 모니터에 디스플레이된 PCG 패턴을 실제 카메라로 촬영(330)하여 이미지를 획득할 수 있다. 이 때, 왜곡량 보정을 수행(340)할 수 있으며, 왜곡량을 계산(350)하여 가상 PCG 패턴에 반영함으로써 이미지 전체 영역의 왜곡량 맵을 보다 정확하게 추정할 수 있다.Referring to FIG. 3 , in order to measure the amount of distortion map, a virtual PCG pattern is first generated 310 , and an image projected by a virtual camera is displayed on the monitor 320 , and then the PCG pattern displayed on the monitor An image may be obtained by photographing 330 with a real camera. In this case, distortion amount correction may be performed ( 340 ), and the distortion amount may be calculated ( 350 ) and reflected in the virtual PCG pattern, thereby more accurately estimating the distortion amount map of the entire image area.

도 4는 일 실시예에 따른 이미지 왜곡 보정 방법을 나타내는 흐름도이다.4 is a flowchart illustrating an image distortion correction method according to an exemplary embodiment.

도 4를 참조하면, 일 실시예에 따른 컴퓨터 장치에 의해 수행되는 이미지 왜곡 보정 방법은, 제1 패턴 세트 및 제2 패턴 세트로 구성되는 다수개의 PCG 패턴들을 생성하는 단계(410), PCG 패턴들 중 제1 패턴 세트를 촬영 후 격자점들을 검출하고, 검출한 격자점들 중 하나의 행 또는 열을 이루는 격자점들을 선형 회귀하여 왜곡 중심점을 추정하는 단계(420), PCG 패턴들 중 제2 패턴 세트를 촬영 후 격자점들을 검출하고, 이미지에서 왜곡 중심점으로부터 기설정된 범위 내의 영역을 미소 왜곡 영역이라 정의하고, 미소 왜곡 영역 내에 있는 격자점들을 검출하여 행 방향 또는 열 방향의 소실점을 추정하는 단계(430), 추정한 소실점을 바탕으로 제1 패턴 세트의 모든 격자점들에 대해 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 단계(440), 및 이미지 전체 영역에 산재되어 있는 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정하는 단계(450)를 포함하여 이루어질 수 있다. Referring to FIG. 4 , the image distortion correction method performed by a computer device according to an embodiment includes generating a plurality of PCG patterns including a first pattern set and a second pattern set ( 410 ), the PCG patterns Detecting grid points after photographing the first pattern set, linearly regressing grid points constituting one row or column among the detected grid points to estimate a distortion center point ( 420 ), a second pattern among PCG patterns Detecting grid points after photographing the set, defining an area within a preset range from the distortion center point in the image as a micro-distortion area, and estimating the vanishing point in the row or column direction by detecting the grid points within the micro-distortion area ( 430), obtaining distortion amount data by performing distortion correction on all lattice points of the first pattern set based on the estimated vanishing point (440), and curve fitting the distortion amount data scattered over the entire image area The method may include measuring a distortion amount map of the camera lens ( 450 ).

아래에서 일 실시예에 따른 이미지 왜곡 보정 방법의 각 단계를 보다 상세히 설명한다. Below, each step of the image distortion correction method according to an embodiment will be described in more detail.

일 실시예에 따른 이미지 왜곡 보정 방법은 일 실시예에 따른 이미지 왜곡 보정 장치를 예를 들어 설명할 수 있다. The image distortion correction method according to an embodiment may be described using the image distortion correction apparatus according to the embodiment.

도 5는 일 실시예에 따른 이미지 왜곡 보정 장치를 나타내는 블록도이다.5 is a block diagram illustrating an apparatus for correcting image distortion according to an exemplary embodiment.

도 5를 참조하면, 일 실시예에 따른 이미지 왜곡 보정 장치(500)는 PCG 패턴 생성부(510), 왜곡 중심점 추정부(520), 소실점 추정부(530), 왜곡 보정부(540) 및 왜곡량 맵 측정부(550)를 포함할 수 있다. Referring to FIG. 5 , an image distortion correction apparatus 500 according to an embodiment includes a PCG pattern generator 510 , a distortion center point estimator 520 , a vanishing point estimator 530 , a distortion corrector 540 , and distortion. It may include an amount map measuring unit 550 .

단계(410)에서, PCG 패턴 생성부(510)는 제1 패턴 세트 및 제2 패턴 세트로 구성되는 다수개의 PCG 패턴들을 생성할 수 있다. 여기서 제1 패턴 세트는 기존 PCG 패턴들이고, 제2 패턴 세트는 새로운 PCG 패턴들일 수 있다. 예컨대 제1 패턴 세트는 아웃 포커스가 발생한 이미지에서도 격자점의 위치를 검출할 수 있도록 해주는 패턴일 수 있다. In operation 410 , the PCG pattern generator 510 may generate a plurality of PCG patterns including the first pattern set and the second pattern set. Here, the first pattern set may be existing PCG patterns, and the second pattern set may be new PCG patterns. For example, the first pattern set may be a pattern that enables the location of grid points to be detected even in an image in which out-of-focus occurs.

PCG 패턴 생성부(510)는 가상 카메라를 이용한 패턴 생성법을 통해 가상 카메라를 기준으로 특정 회전 행렬과 특정 병진 행렬을 가지는 가상 PCG 패턴을 무한정 생성할 수 있다. 또한, PCG 패턴 생성부(510)는 가상 PCG 패턴을 생성하고, 가상 PCG 패턴을 가상 카메라로 투영한 이미지를 모니터에 디스플레이한 후, 모니터에 디스플레이된 PCG 패턴을 실제 카메라로 촬영하여 이미지를 획득할 수 있다. The PCG pattern generator 510 may indefinitely generate a virtual PCG pattern having a specific rotation matrix and a specific translation matrix based on the virtual camera through a pattern generation method using a virtual camera. In addition, the PCG pattern generator 510 generates a virtual PCG pattern, displays an image projected by the virtual camera with the virtual PCG pattern, on the monitor, and then captures the PCG pattern displayed on the monitor with a real camera to obtain an image. can

단계(420)에서, 왜곡 중심점 추정부(520)는 PCG 패턴들 중 제1 패턴 세트를 촬영 후 격자점들을 검출하고, 검출한 격자점들 중 하나의 행 또는 열을 이루는 격자점들을 선형 회귀하여 왜곡 중심점을 추정할 수 있다. In step 420, the distortion center point estimator 520 detects lattice points after photographing the first pattern set among the PCG patterns, and linearly regresses the lattice points constituting one row or column among the detected lattice points. The distortion center point can be estimated.

여기서, 왜곡 중심점 추정부(520)는 선형 회귀한 직선에 가장 근접하는 격자점들의 직선은 왜곡 중심점을 지난다고 가정하고 행 방향과 열 방향 직선 중 가장 직선성을 띄는 직선들의 교점을 왜곡 중심점이라 추정할 수 있다. Here, the distortion center point estimator 520 assumes that the straight line of the grid points closest to the linearly regressed straight line passes the distortion center point, and estimates the intersection of the straight lines with the most linearity among the row and column direction straight lines as the distortion center point. can do.

단계(430)에서, 소실점 추정부(530)는 PCG 패턴들 중 제2 패턴 세트를 촬영 후 격자점들을 검출하고, 이미지에서 왜곡 중심점으로부터 기설정된 범위 내의 영역을 미소 왜곡 영역이라 정의하고, 미소 왜곡 영역 내에 있는 격자점들을 검출하여 행 방향 또는 열 방향의 소실점을 추정할 수 있다.In step 430, the vanishing point estimator 530 detects lattice points after photographing the second pattern set among the PCG patterns, defines an area within a preset range from the distortion center point in the image as a micro-distortion area, and micro-distortion A vanishing point in a row direction or a column direction can be estimated by detecting grid points in the region.

단계(440)에서, 왜곡 보정부(540)는 추정한 소실점을 바탕으로 제1 패턴 세트의 모든 격자점들에 대해 왜곡 보정을 수행하여 왜곡량 데이터를 구할 수 있다. 왜곡 보정부(540)는 추정한 소실점을 바탕으로 제1 패턴 세트의 모든 격자점들에 대해 원근투영불변성을 이용하여 왜곡 보정을 수행할 수 있다. In operation 440 , the distortion correction unit 540 may obtain distortion amount data by performing distortion correction on all grid points of the first pattern set based on the estimated vanishing point. The distortion correction unit 540 may perform distortion correction on all lattice points of the first pattern set based on the estimated vanishing point using perspective projection invariance.

단계(450)에서, 왜곡량 맵 측정부(550)는 이미지 전체 영역에 산재되어 있는 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정할 수 있다.In operation 450 , the distortion amount map measuring unit 550 may measure the distortion amount map of the camera lens by curve fitting the distortion amount data scattered over the entire image area.

이와 같이, 카메라를 고정시킨 채 촬영한 PCG 패턴을 컴퓨터 소프트웨어를 이용하여 모니터 내 서로 다른 위치에 생성함에 따라 왜곡 보정에 관해 자동으로 측정할 수 있다. In this way, as PCG patterns photographed while the camera is fixed are generated at different positions in the monitor using computer software, distortion correction can be automatically measured.

아래에서는 도면을 참조하여 일 실시예에 따른 이미지 왜곡 보정 방법을 보다 구체적으로 설명한다.Hereinafter, an image distortion correction method according to an exemplary embodiment will be described in more detail with reference to the drawings.

구체적인 왜곡 보정 과정의 단계(410)는, 우선 무수히 많은 PCG 패턴들을 생성한다. 이 때 패턴들은 총 2가지 세트로 구성될 수 있다. 예를 들어 250장, 동일 회전 행렬, 다양한 병진 행렬, 기존 격자점 세트의 패턴 세트 A(제1 패턴 세트)와 50장의 동일 회전 행렬, 다양한 병진 행렬, 새로운 격자점 세트의 패턴 세트 B(제2 패턴 세트)이다.Step 410 of the detailed distortion correction process first generates a myriad of PCG patterns. At this time, the patterns may be composed of a total of two sets. For example, 250 sheets, co-rotation matrix, various translation matrices, pattern set A (first pattern set) of the existing grid point set and 50 sheets of co-rotation matrix, various translation matrices, pattern set B of the new grid point set (second pattern set). pattern set).

도 6은 일 실시예에 따른 기존 격자점 세트와 새로운 격자점 세트의 예를 나타내는 도면이다. 6 is a diagram illustrating an example of an existing grid point set and a new grid point set according to an embodiment.

도 6에 도시된 바와 같이, 새로운 격자점 세트는 기존 격자점 세트의 각 격자점 간의 간격을 4등분하는 점을 추가할 수 있다.As shown in FIG. 6 , the new set of grid points may add points that divide the interval between each grid point of the existing grid point into quarters.

도 7은 일 실시예에 따른 왜곡 중심점 추정의 예를 나타내는 도면이다. 7 is a diagram illustrating an example of estimating a distortion center point according to an embodiment.

단계(420)는, 왜곡 중심점을 추정하는 단계이다. 우선 패턴 세트 A를 모두 촬영 후 격자점을 검출한다. 검출한 격자점들 중 한 행(또는 열)을 이루는 격자점들을 선형 회귀한다. 왜곡 중심점 근처에 있을수록 왜곡 영향이 작으므로 직선은 직선 형태를 나타내고 멀수록 곡선 형태를 나타낸다. 따라서, 도 7에 도시된 바와 같이, 선형 회귀한 직선에 가장 근접하는 격자점들의 직선은 왜곡 중심점을 지난다고 가정할 수 있고 행 방향과 열 방향 직선 중 가장 직선성을 띄는 직선들의 교점을 왜곡 중심점이라 추정할 수 있다.Step 420 is a step of estimating a distortion center point. First, after all pattern set A is photographed, grid points are detected. Among the detected grid points, the grid points constituting one row (or column) are linearly regressed. The closer to the distortion center point, the smaller the distortion effect, so a straight line shows a straight line, and the farther away it shows a curved shape. Therefore, as shown in FIG. 7 , it can be assumed that the straight line of the grid points closest to the linearly regressed straight line passes through the distortion center point, and the intersection of the straight lines with the most linearity among the row and column direction straight lines is the distortion center point. It can be assumed that

도 8은 일 실시예에 따른 미소 왜곡 영역과 소실점 추정의 예를 나타내는 도면이다. 또한 도 9는 일 실시예에 따른 미소 왜곡 영역과 소실점 추정 방법을 설명하기 위한 도면이다.8 is a diagram illustrating an example of estimating a micro-distortion region and a vanishing point according to an exemplary embodiment. Also, FIG. 9 is a diagram for explaining a method of estimating a micro-distortion region and a vanishing point according to an exemplary embodiment.

단계(430)는, 소실점 추정 단계이다. 패턴 세트 B를 모두 촬영 후 격자점을 검출한다. 이미지에서 왜곡 중심점으로부터 5% 영역은 왜곡량이 적어 비교적 정확한 격자점들의 위치라 가정할 수 있다. 한편, 여기에서는 왜곡 중심점으로부터 5% 영역에 한정하고 있으나, 실시예에 따라 그 범위는 조절 가능하다. 따라서, 도 8 및 도 9에 도시된 바와 같이, 이를 미소 왜곡 영역이라 정의하고 미소 왜곡 영역 안에 있는 격자점들을 검출하여 행 방향과 열 방향의 소실점을 추정할 수 있다.Step 430 is a vanishing point estimation step. After all pattern set B is photographed, grid points are detected. In the image, a region 5% from the distortion center point can be assumed to be relatively accurate positions of grid points because the amount of distortion is small. On the other hand, here, although it is limited to a region 5% from the center of the distortion, the range is adjustable depending on the embodiment. Accordingly, as shown in FIGS. 8 and 9 , this is defined as a micro-distortion region, and vanishing points in the row and column directions can be estimated by detecting lattice points in the micro-distortion region.

단계(440)에서, 추정한 소실점들을 바탕으로 패턴 세트 A의 모든 격자점들의 왜곡 보정을 원근투영불변성을 이용하여 수행한다. 250장의 모든 격자점들에 대해 왜곡량 데이터를 구할 수 있고 이는 이미지 전체 영역을 채우게 된다.In step 440, distortion correction of all grid points of the pattern set A is performed using perspective projection invariance based on the estimated vanishing points. Distortion data can be obtained for all 250 grid points, which fills the entire image area.

도 10은 일 실시예에 따른 원근투영불변성에 의한 왜곡 보정 계산을 설명하기 위한 도면이다. 도 10에 도시된 바와 같이, 원근투영불변성을 이용하여 왜곡량(보정량)을 계산할 수 있다. 10 is a diagram for explaining a distortion correction calculation by perspective projection invariance according to an exemplary embodiment. As shown in FIG. 10 , the amount of distortion (correction amount) may be calculated using perspective projection invariance.

단계(450)에서, 이미지 전체 영역의 산재되어 있는 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정할 수 있다.In operation 450 , the distortion amount map of the camera lens may be measured by curve fitting the distortion amount data scattered over the entire image area.

도 11은 일 실시예에 따른 왜곡량 데이터로 표면 피팅 방법을 설명하기 위한 도면이다. 도 11에 도시된 바와 같이, 모든 왜곡량(보정량) 데이터로 표면 피팅을 수행할 수 있다.11 is a diagram for explaining a method of fitting a surface with distortion amount data according to an exemplary embodiment. As shown in FIG. 11 , surface fitting can be performed with all distortion amount (correction amount) data.

실시예들은제조업의 제조자동화에 적용될 수 있으며, 특히 조선, 건설 등 대규모의 제조가 필요한 상황에서의 3차원 좌표 측정 기술에 직접 적용할 수 있다. 또한 실시예들에 따른 방법을 통해 왜곡량 맵을 사전 측정한 카메라의 생산할 수 있다. 그리고 실시예들에 따른 방법인 카메라의 왜곡량 맵 측정을 위한 PCG 패턴 생성, 격자점 검출, 왜곡 보정, 왜곡량 맵 등의 프로그램(SW) 개발할 수 있다. The embodiments can be applied to manufacturing automation in manufacturing, and in particular, can be directly applied to three-dimensional coordinate measurement technology in situations where large-scale manufacturing is required, such as shipbuilding and construction. Also, it is possible to produce a camera in which the distortion amount map is pre-measured through the method according to the embodiments. In addition, a program (SW) such as PCG pattern generation, grid point detection, distortion correction, and distortion map for measuring the distortion amount map of the camera, which is a method according to embodiments, may be developed.

실시예들에 따르면 기존의 원근투영불변성 방법보다 더 정확한 왜곡 보정을 수행할 수 있다.According to embodiments, more accurate distortion correction may be performed than a conventional perspective projection invariance method.

이를 위해 새로운 격자점 세트를 이용할 수 있다. A new set of grid points is available for this purpose.

도 6에 도시된 바와 같이, 소실점 추정 단계에서 새로운 격자점 세트는 기존 격자점 세트보다 미소 왜곡 영역 안에 들어가는 격자점의 수를 증가시킨다. 따라서 선형 회귀시 격자점의 위치에 따른 노이즈에 강건하여 좀 더 정확한 소실점 추정이 가능하다. 그리고 기존 방법에서 새로운 격자점 세트를 만들지 못하는 이유는 격자점 간의 간격이 너무 좁아 동심원의 PCG 패턴 무늬가 겹쳐서 격자점 검출이 불가능하다. 하지만 본 실시예에서는 이를 컴퓨터 소프트웨어로 생성하기에 병렬적으로 무늬들을 나타내주며 생성할 수 있다. 즉, 도 6에서 새로운 격자점 세트의 빨간색, 파란색, 초록색, 분홍색의 격자점들을 한꺼번에 생성하는 것이 아닌 순차적으로 모니터에 띄워준다.As shown in FIG. 6 , in the vanishing point estimation step, the new set of grid points increases the number of grid points that fall into the micro-distortion region than the existing set of grid points. Therefore, it is robust to noise according to the location of the grid points during linear regression, so that it is possible to estimate the vanishing point more accurately. And, the reason that a new set of grid points cannot be created in the existing method is that the interval between grid points is too narrow, and concentric PCG patterns overlap, making it impossible to detect grid points. However, in this embodiment, since it is generated by computer software, it is possible to generate the patterns while showing them in parallel. That is, the red, blue, green, and pink grid points of the new grid point set in FIG. 6 are displayed sequentially on the monitor instead of being generated all at once.

또한, 동일 회전 행렬을 이용할 수 있다.Also, the same rotation matrix can be used.

패턴 세트 A 250장과 패턴 세트 B 50장은 모두 가상 카메라에 대한 동일 회전 행렬의 패턴들이다. 즉, 같은 자세를 지닌 가상 패턴들이 위치만 서로 다르다. 따라서 이 모든 패턴들의 각 행(또는 열)을 지나는 직선들은 같은 소실점을 지나야 한다. 따라서 한 소실점을 추정하는 데에 대해 더 많은 데이터(격자점)을 사용할 수 있으며, 패턴 세트 B로부터 추정한 소실점이 패턴 세트 A와 공유되기에 패턴 세트 A의 격자점을 왜곡 보정하는데 사용될 수 있다.Both pattern set A 250 and pattern set B 50 are patterns of the same rotation matrix for the virtual camera. That is, virtual patterns with the same posture differ only in their positions. Therefore, straight lines passing through each row (or column) of all these patterns must pass through the same vanishing point. Therefore, more data (lattice points) can be used for estimating one vanishing point, and since the vanishing point estimated from the pattern set B is shared with the pattern set A, it can be used for distortion correction of the lattice points of the pattern set A.

또한, 왜곡 중심점 추정을 수행할 수 있다. Also, it is possible to perform distortion center point estimation.

본 실시예에서는 왜곡 중심점 추정을 이미지 전체 영역을 격자점으로 채울 수 있다는 이점을 살려 전체 격자점들의 직선성을 조사하여 왜곡 중심점의 특징을 이용하여 왜곡 중심점을 추정한다. 이는 미소 왜곡 영역 설정으로 이어지고, 미소 왜곡 영역 안의 격자점들을 이용해 조금 더 정확한 소실점 추정이 가능하다.In this embodiment, taking advantage of the fact that the distortion center point estimation can fill the entire image area with grid points, the linearity of all grid points is investigated, and the distortion center point is estimated using the characteristics of the distortion center point. This leads to the setting of the micro-distortion area, and more accurate estimation of the vanishing point is possible using the grid points in the micro-distortion area.

실시예들은 대규모에서의 카메라를 이용한 3차원 좌표나 형상의 계측이 필요한 모든 분야에서 사용될 수 있다. 예컨대 선박업 및 제조업 등에서 대규모 제품 및 부품의 3차원 계측 시 사용할 수 있다. 또한, 자율주행 차량의 RGB 카메라의 왜곡 파라미터 추정에 사용할 수 있다. 초점이 맞지 않는 카메라의 왜곡 파라미터 추정에 사용할 수 있다.Embodiments may be used in all fields requiring measurement of three-dimensional coordinates or shapes using a camera on a large scale. For example, it can be used for 3D measurement of large-scale products and parts in the shipping industry and manufacturing industry. It can also be used to estimate distortion parameters of RGB cameras of autonomous vehicles. It can be used to estimate the distortion parameters of an out-of-focus camera.

본 실시예들을 통해 선체 블록과 같은 대규모의 제품 및 부품의 3차원 계측을 스테레오 카메라를 이용하여 수행할 수 있다. 이는 산업 적용뿐 아니라 실용성이 강해 파급효과가 크다. 또한 기존 사용하던 광파기를 대체할 장비로 일반 카메라를 사용할 수 있다. 이로써 가격적 절감뿐 아니라 노동자의 노동 난이도 및 노동 시간의 절감까지 가능하여 노동자들의 업무 능률 향상에 기여 가능하다. Through the present embodiments, it is possible to perform three-dimensional measurement of large-scale products and parts, such as hull blocks, using a stereo camera. This is not only industrial application, but also has a strong ripple effect due to its strong practicality. In addition, a general camera can be used as equipment to replace the existing optical waveguide. As a result, it is possible not only to reduce the price, but also to reduce the difficulty and time of the workers, thereby contributing to the improvement of the work efficiency of the workers.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

컴퓨터 장치에 의해 수행되는 이미지 왜곡 보정 방법에 있어서,
제1 패턴 세트 및 제2 패턴 세트로 구성되는 다수개의 PCG 패턴들을 생성하는 단계;
상기 PCG 패턴들 중 제1 패턴 세트를 촬영 후 격자점들을 검출하고, 검출한 상기 격자점들 중 하나의 행 또는 열을 이루는 격자점들을 선형 회귀하여 왜곡 중심점을 추정하는 단계;
상기 PCG 패턴들 중 제2 패턴 세트를 촬영 후 격자점들을 검출하고, 이미지에서 상기 왜곡 중심점으로부터 기설정된 범위 내의 영역을 미소 왜곡 영역이라 정의하고, 상기 미소 왜곡 영역 내에 있는 격자점들을 검출하여 행 방향 또는 열 방향의 소실점을 추정하는 단계;
추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 단계; 및
이미지 전체 영역에 산재되어 있는 상기 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정하는 단계
를 포함하는, 이미지 왜곡 보정 방법.
An image distortion correction method performed by a computer device, comprising:
generating a plurality of PCG patterns composed of a first pattern set and a second pattern set;
estimating a distortion center point by photographing a first pattern set among the PCG patterns, detecting grid points, and linearly regressing grid points constituting one row or column among the detected grid points;
After photographing the second pattern set among the PCG patterns, lattice points are detected, an area within a predetermined range from the distortion center point in the image is defined as a micro-distortion area, and lattice points within the micro-distortion area are detected in the row direction or estimating a vanishing point in a column direction;
obtaining distortion amount data by performing distortion correction on all the grid points of the first pattern set based on the estimated vanishing point; and
measuring the distortion amount map of the camera lens by curve fitting the distortion amount data scattered over the entire image area
Including, image distortion correction method.
제1항에 있어서,
상기 제1 패턴 세트는 기존 PCG 패턴들이고, 상기 제2 패턴 세트는 새로운 PCG 패턴들인 것
을 특징으로 하는, 이미지 왜곡 보정 방법.
According to claim 1,
wherein the first pattern set is existing PCG patterns, and the second pattern set is new PCG patterns.
characterized in that, image distortion correction method.
제1항에 있어서,
상기 PCG 패턴들을 생성하는 단계는,
가상 PCG 패턴을 생성하는 단계;
상기 가상 PCG 패턴을 가상 카메라로 투영한 이미지를 모니터에 디스플레이하는 단계; 및
상기 모니터에 디스플레이된 PCG 패턴을 실제 카메라로 촬영하여 이미지를 획득하는 단계
를 포함하는, 이미지 왜곡 보정 방법.
According to claim 1,
The generating of the PCG patterns comprises:
creating a virtual PCG pattern;
displaying an image projected by a virtual camera of the virtual PCG pattern on a monitor; and
acquiring an image by photographing the PCG pattern displayed on the monitor with a real camera
Including, image distortion correction method.
제1항에 있어서,
상기 PCG 패턴들을 생성하는 단계는,
가상 카메라를 이용한 패턴 생성법을 통해 가상 카메라를 기준으로 특정 회전 행렬과 특정 병진 행렬을 가지는 가상 PCG 패턴을 무한정 생성하는 것
을 특징으로 하는, 이미지 왜곡 보정 방법.
According to claim 1,
The generating of the PCG patterns comprises:
Infinitely generating a virtual PCG pattern having a specific rotation matrix and a specific translation matrix based on a virtual camera through a pattern generation method using a virtual camera.
characterized in that, image distortion correction method.
제1항에 있어서,
상기 제1 패턴 세트는 아웃 포커스가 발생한 이미지에서도 격자점의 위치를 검출할 수 있도록 해주는 패턴인 것
을 특징으로 하는, 이미지 왜곡 보정 방법.
According to claim 1,
The first pattern set is a pattern that allows the location of grid points to be detected even in an out-focused image
characterized in that, image distortion correction method.
제1항에 있어서,
상기 왜곡 중심점을 추정하는 단계는,
선형 회귀한 직선에 가장 근접하는 상기 격자점들의 직선은 왜곡 중심점을 지난다고 가정하고 행 방향과 열 방향 직선 중 가장 직선성을 띄는 직선들의 교점을 왜곡 중심점이라 추정하는 것
을 특징으로 하는, 이미지 왜곡 보정 방법.
According to claim 1,
The step of estimating the distortion center point,
Assume that the straight line of the grid points closest to the linearly regressed line passes through the distortion center point, and the point of intersection of the straightest lines among the row and column direction straight lines is estimated as the distortion center point
characterized in that, image distortion correction method.
제1항에 있어서,
상기 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 단계는,
추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 원근투영불변성을 이용하여 왜곡 보정을 수행하는 것
을 특징으로 하는, 이미지 왜곡 보정 방법.
According to claim 1,
The step of obtaining distortion amount data by performing the distortion correction,
Performing distortion correction using perspective projection invariance for all the grid points of the first pattern set based on the estimated vanishing point
characterized in that, image distortion correction method.
제1항에 있어서,
카메라를 고정시킨 채 촬영한 상기 PCG 패턴을 컴퓨터 소프트웨어를 이용하여 모니터 내 서로 다른 위치에 생성함에 따라 왜곡 보정에 관해 자동으로 측정하는 것
을 특징으로 하는, 이미지 왜곡 보정 방법.
According to claim 1,
Automatic measurement of distortion correction by generating the PCG patterns photographed with the camera fixed at different positions in the monitor using computer software
characterized in that, image distortion correction method.
제1 패턴 세트 및 제2 패턴 세트로 구성되는 다수개의 PCG 패턴들을 생성하는 PCG 패턴 생성부;
상기 PCG 패턴들 중 제1 패턴 세트를 촬영 후 격자점들을 검출하고, 검출한 상기 격자점들 중 하나의 행 또는 열을 이루는 격자점들을 선형 회귀하여 왜곡 중심점을 추정하는 왜곡 중심점 추정부;
상기 PCG 패턴들 중 제2 패턴 세트를 촬영 후 격자점들을 검출하고, 이미지에서 상기 왜곡 중심점으로부터 기설정된 범위 내의 영역을 미소 왜곡 영역이라 정의하고, 상기 미소 왜곡 영역 내에 있는 격자점들을 검출하여 행 방향 또는 열 방향의 소실점을 추정하는 소실점 추정부;
추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 왜곡 보정을 수행하여 왜곡량 데이터를 구하는 왜곡 보정부; 및
이미지 전체 영역에 산재되어 있는 상기 왜곡량 데이터를 곡면 피팅하여 카메라 렌즈의 왜곡량 맵을 측정하는 왜곡량 맵 측정부
를 포함하는, 이미지 왜곡 보정 장치.
a PCG pattern generator for generating a plurality of PCG patterns including the first pattern set and the second pattern set;
a distortion center point estimator that detects grid points after photographing a first set of patterns among the PCG patterns, and linearly regresses grid points constituting one row or column among the detected grid points to estimate a distortion center point;
After photographing the second pattern set among the PCG patterns, lattice points are detected, an area within a predetermined range from the distortion center point in the image is defined as a micro-distortion area, and lattice points within the micro-distortion area are detected in the row direction or a vanishing point estimator for estimating a vanishing point in a column direction;
a distortion correction unit for obtaining distortion amount data by performing distortion correction on all the grid points of the first pattern set based on the estimated vanishing point; and
A distortion map measuring unit that measures the distortion map of the camera lens by curve fitting the distortion data scattered over the entire image area.
Including, image distortion correction device.
제9항에 있어서,
상기 제1 패턴 세트는 기존 PCG 패턴들이고, 상기 제2 패턴 세트는 새로운 PCG 패턴들인 것
을 특징으로 하는, 이미지 왜곡 보정 장치.
10. The method of claim 9,
wherein the first pattern set is existing PCG patterns, and the second pattern set is new PCG patterns.
Characterized in, image distortion correction device.
제9항에 있어서,
상기 PCG 패턴 생성부는,
가상 PCG 패턴을 생성하고, 상기 가상 PCG 패턴을 가상 카메라로 투영한 이미지를 모니터에 디스플레이하며, 상기 모니터에 디스플레이된 PCG 패턴을 실제 카메라로 촬영하여 이미지를 획득하는 것
을 특징으로 하는, 이미지 왜곡 보정 장치.
10. The method of claim 9,
The PCG pattern generation unit,
generating a virtual PCG pattern, displaying an image projected by a virtual camera of the virtual PCG pattern on a monitor, and acquiring an image by photographing the PCG pattern displayed on the monitor with a real camera
Characterized in, image distortion correction device.
제9항에 있어서,
상기 PCG 패턴 생성부는,
가상 카메라를 이용한 패턴 생성법을 통해 가상 카메라를 기준으로 특정 회전 행렬과 특정 병진 행렬을 가지는 가상 PCG 패턴을 무한정 생성하는 것
을 특징으로 하는, 이미지 왜곡 보정 장치.
10. The method of claim 9,
The PCG pattern generation unit,
Infinitely generating a virtual PCG pattern having a specific rotation matrix and a specific translation matrix based on a virtual camera through a pattern generation method using a virtual camera.
Characterized in, image distortion correction device.
제9항에 있어서,
상기 제1 패턴 세트는 아웃 포커스가 발생한 이미지에서도 격자점의 위치를 검출할 수 있도록 해주는 패턴인 것
을 특징으로 하는, 이미지 왜곡 보정 장치.
10. The method of claim 9,
The first pattern set is a pattern that allows the location of grid points to be detected even in an out-focused image
Characterized in, image distortion correction device.
제9항에 있어서,
상기 왜곡 중심점 추정부는,
선형 회귀한 직선에 가장 근접하는 상기 격자점들의 직선은 왜곡 중심점을 지난다고 가정하고 행 방향과 열 방향 직선 중 가장 직선성을 띄는 직선들의 교점을 왜곡 중심점이라 추정하는 것
을 특징으로 하는, 이미지 왜곡 보정 장치.
10. The method of claim 9,
The distortion center point estimation unit,
Assume that the straight line of the grid points closest to the linearly regressed line passes through the distortion center point, and the point of intersection of the straightest lines among the row and column direction straight lines is estimated as the distortion center point
Characterized in, image distortion correction device.
제9항에 있어서,
상기 왜곡 보정부는,
추정한 상기 소실점을 바탕으로 상기 제1 패턴 세트의 모든 상기 격자점들에 대해 원근투영불변성을 이용하여 왜곡 보정을 수행하는 것
을 특징으로 하는, 이미지 왜곡 보정 장치.
10. The method of claim 9,
The distortion correction unit,
Performing distortion correction using perspective projection invariance for all the grid points of the first pattern set based on the estimated vanishing point
Characterized in, image distortion correction device.
KR1020210068250A 2021-05-27 2021-05-27 Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method KR102412275B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210068250A KR102412275B1 (en) 2021-05-27 2021-05-27 Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210068250A KR102412275B1 (en) 2021-05-27 2021-05-27 Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method

Publications (1)

Publication Number Publication Date
KR102412275B1 true KR102412275B1 (en) 2022-06-24

Family

ID=82215941

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210068250A KR102412275B1 (en) 2021-05-27 2021-05-27 Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method

Country Status (1)

Country Link
KR (1) KR102412275B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100668073B1 (en) * 2005-07-11 2007-01-11 (주)블루비스 Method for calibrating distortion of multi-view image
KR101014572B1 (en) 2007-08-27 2011-02-16 주식회사 코아로직 Method of correcting image distortion and Image processing device of adapting the same method
KR20160148735A (en) * 2015-06-16 2016-12-27 ㈜베이다스 The apparatus for measuring camera principal point and the method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100668073B1 (en) * 2005-07-11 2007-01-11 (주)블루비스 Method for calibrating distortion of multi-view image
KR101014572B1 (en) 2007-08-27 2011-02-16 주식회사 코아로직 Method of correcting image distortion and Image processing device of adapting the same method
KR20160148735A (en) * 2015-06-16 2016-12-27 ㈜베이다스 The apparatus for measuring camera principal point and the method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tan, L.;Wang, Y.; Yu, H.S.; Zhu, J. Automatic camera calibration using active displays of a virtual Pattern. Sensors 2017, 17, 685.

Similar Documents

Publication Publication Date Title
AU2015224418B2 (en) Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and non-transitory computer readable recording medium having therein program for three-dimensional coordinate computing
CN111263142B (en) Method, device, equipment and medium for testing optical anti-shake of camera module
US9621793B2 (en) Information processing apparatus, method therefor, and measurement apparatus
CN107687855B (en) Robot positioning method and device and robot
JP4885584B2 (en) Rangefinder calibration method and apparatus
US10024653B2 (en) Information processing apparatus, information processing method, and storage medium
US9335622B2 (en) Information processing device and information processing system
US9491448B2 (en) Laser videogrammetry
KR102235632B1 (en) Machine vision system
CN113034612B (en) Calibration device, method and depth camera
JP2011182397A (en) Method and apparatus for calculating shift length
JP7353757B2 (en) Methods for measuring artifacts
CN113014816A (en) Method and device for determining trigger point of flying shooting
US20200041262A1 (en) Method for performing calibration by using measured data without assumed calibration model and three-dimensional scanner calibration system for performing same
JP2011155412A (en) Projection system and distortion correction method in the same
KR102412275B1 (en) Image Distortion Correction Method and Apparatus in Measurement of Three Dimensional Shape Information using Stereo Method
US8102516B2 (en) Test method for compound-eye distance measuring apparatus, test apparatus, and chart used for the same
KR101575934B1 (en) Apparatus and method for motion capture using inertial sensor and optical sensor
JP7502343B2 (en) Image Processing System
GB2555643A (en) Determining an intersection location of an optical axis of a lens with a camera sensor
GB2551970A (en) Determining the position of an object in a scene
KR20210007701A (en) Calibration Method for Real-Time Spherical 3D 360 Imaging and Apparatus Therefor
JP2007010419A (en) Three-dimensional shape of object verifying system
JP2009264898A (en) Workpiece position/attitude measurement method and measuring device
JPWO2021019616A5 (en) Inspection equipment, measurement methods and programs

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant