KR20160098020A - Rectification method for stereo image and apparatus thereof - Google Patents

Rectification method for stereo image and apparatus thereof Download PDF

Info

Publication number
KR20160098020A
KR20160098020A KR1020150174179A KR20150174179A KR20160098020A KR 20160098020 A KR20160098020 A KR 20160098020A KR 1020150174179 A KR1020150174179 A KR 1020150174179A KR 20150174179 A KR20150174179 A KR 20150174179A KR 20160098020 A KR20160098020 A KR 20160098020A
Authority
KR
South Korea
Prior art keywords
image
images
matrix
camera
cost function
Prior art date
Application number
KR1020150174179A
Other languages
Korean (ko)
Other versions
KR102434567B1 (en
Inventor
최욱
고현석
제이 쿠오 씨.-씨.
심한섭
Original Assignee
삼성전자주식회사
유니버시티 오브 써던 캘리포니아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 유니버시티 오브 써던 캘리포니아 filed Critical 삼성전자주식회사
Priority to US15/015,447 priority Critical patent/US10063831B2/en
Publication of KR20160098020A publication Critical patent/KR20160098020A/en
Application granted granted Critical
Publication of KR102434567B1 publication Critical patent/KR102434567B1/en

Links

Images

Classifications

    • H04N13/0022
    • H04N13/0018

Landscapes

  • Image Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)

Abstract

Disclosed is a method for rectifying stereo images. The method according to an embodiment includes a step of receiving images and determining a matrix for rectifying the images based on a cost function. The cost function may include a distortion element. The matrix may include a matrix for the focus of a camera, a matrix for the separation of the camera, and a matrix for the rotation of the camera. So, a distortion generated in an image rectification process can be minimized.

Description

스테레오 영상들의 보정 방법, 및 그 방법을 수행하는 장치{RECTIFICATION METHOD FOR STEREO IMAGE AND APPARATUS THEREOF}TECHNICAL FIELD [0001] The present invention relates to a method of correcting stereo images, and a device for performing the method.

아래 실시예들은 스테레오 영상들을 보정하기 위한 기법에 관한 것이다.The following embodiments relate to a technique for correcting stereo images.

최근 다양한 분야에서 스테레오 영상이 이용되고 있다. 스테레오 영상은 왼쪽 영상과 오른쪽 영상을 포함할 수 있다. 적절한 스테레오 효과를 위해서 왼쪽 영상과 오른쪽 영상은 서로 얼라인(align)되어야 한다. 예컨대, 왼쪽 영상과 오른쪽 영상의 대응 쌍들(corresponding pairs)은 각각 동일한 수평선에 위치해야 한다. 이를 위해서는 왼쪽 영상과 오른쪽 영상에 대한 보정(rectification)이 필요하다.Recently, stereo images have been used in various fields. The stereo image may include a left image and a right image. For proper stereo effects, the left and right images should be aligned with each other. For example, corresponding pairs of the left and right images should be located on the same horizontal line, respectively. This requires rectification of the left and right images.

일 측에 따른 영상 보정 방법은 복수의 영상들을 수신하는 단계; 및 상기 영상들 사이의 대응 쌍(corresponding pair)의 거리와 관련된 제1 비용 함수 및 변환된 영상의 왜곡과 관련된 제2 비용 함수에 기초하여, 상기 영상들의 보정(rectification)을 위한 매트릭스를 결정하는 단계를 포함한다. 상기 복수의 영상들은 스테레오 영상을 포함할 수 있다.An image correction method according to one aspect, comprising: receiving a plurality of images; And determining a matrix for rectification of the images based on a first cost function associated with a distance of a corresponding pair between the images and a second cost function associated with a distortion of the transformed image . The plurality of images may include a stereo image.

상기 제2 비용 함수는 변환된 영상의 가로 세로 비(aspect ratio)에 관한 제1 왜곡 성분; 변환된 영상의 뒤틀림(skewness)에 관한 제2 왜곡 성분; 원본 영상 대비 변환된 영상이 회전(rotation)에 관한 제3 왜곡 성분; 및 원본 영상 대비 변환된 영상의 면적 비(size ratio)에 관한 제4 왜곡 성분 중 적어도 하나를 포함할 수 있다.Wherein the second cost function comprises a first distortion component with respect to an aspect ratio of the transformed image; A second distortion component relating to a skewness of the transformed image; A third distortion component related to rotation of the original image-transformed image; And a fourth distortion component related to an area ratio of the original image to the converted image.

상기 제1 비용 함수는 상기 영상들 사이의 대응 쌍들의 샘슨 거리(Sampson distance)의 합을 포함할 수 있다.The first cost function may include a sum of Sampson distances of corresponding pairs between the images.

상기 결정하는 단계는 상기 제1 비용 함수 및 상기 제2 비용 함수의 합이 최소가 되도록, 상기 매트릭스에 포함된 미리 정해진 파라미터들의 값들을 결정하는 단계를 포함할 수 있다.The determining may comprise determining values of predetermined parameters included in the matrix such that a sum of the first cost function and the second cost function is minimized.

상기 파라미터들은 상기 영상들 중 제1 영상을 촬영한 제1 카메라의 제1 초점 거리, 상기 영상들 중 제2 영상을 촬영한 제2 카메라의 제2 초점 거리, 상기 제1 카메라의 제1 이격 거리, 상기 제2 카메라의 제2 이격 거리, 상기 제1 카메라의 제1 회전 각도들, 및 상기 제2 카메라의 제2 회전 각도들을 포함할 수 있다.Wherein the parameters include a first focal distance of a first camera that has captured a first image of the images, a second focal distance of a second camera that captures a second image of the images, a first focal distance of the first camera The second distance of the second camera, the first rotation angles of the first camera, and the second rotation angles of the second camera.

상기 매트릭스는 상기 영상들 중 제1 영상을 변환하는 제1 변환 매트릭스; 및 상기 영상들 중 제2 영상을 변환하는 제2 변환 매트릭스를 포함할 수 있다.The matrix comprising a first transformation matrix for transforming a first one of the images; And a second transformation matrix for transforming a second one of the images.

상기 제1 변환 매트릭스 및 상기 제2 변환 매트릭스 각각은 해당 영상을 촬영한 카메라의 초점에 관한 제1 카메라 매트릭스; 해당 영상을 촬영한 카메라의 이격에 관한 제2 카메라 매트릭스; 및 해당 영상을 촬영한 카메라의 회전에 관한 제3 카메라 매트릭스를 포함할 수 있다.Wherein each of the first transformation matrix and the second transformation matrix comprises: a first camera matrix relating to a focus of a camera that captures a corresponding image; A second camera matrix relating to the separation of the camera that captured the image; And a third camera matrix related to the rotation of the camera that captured the image.

상기 영상 보정 방법은 상기 영상들로부터 특징점들을 추출하는 단계; 및 상기 영상들 사이에서 상기 특징점들을 정합함으로써 상기 영상들 사이의 대응 쌍들을 추출하는 단계를 더 포함할 수 있다.Wherein the image correction method comprises: extracting feature points from the images; And extracting corresponding pairs between the images by matching the feature points between the images.

상기 영상 보정 방법은 상기 영상들 사이의 대응 쌍들에 기초하여 상기 복수의 영상들 사이의 호모그래피 매트릭스(homography matrix)를 계산하는 단계; 및 상기 호모그래피 매트릭스에 기초하여 상기 제2 비용함수의 가중치를 결정하는 단계를 더 포함할 수 있다.Wherein the image correction method comprises: calculating a homography matrix between the plurality of images based on corresponding pairs between the images; And determining a weight of the second cost function based on the homography matrix.

상기 가중치를 결정하는 단계는 상기 호모그래피 매트릭스의 뒤틀림 성분에 기초하여, 상기 제2 비용함수에 포함된 뒤틀림과 관련된 왜곡 성분의 가중치를 결정하는 단계; 상기 호모그래피 매트릭스의 회전 성분에 기초하여, 상기 제2 비용함수에 포함된 회전과 관련된 왜곡 성분의 가중치를 결정하는 단계; 및 상기 호모그래피 매트릭스의 스케일 성분에 기초하여, 상기 제2 비용함수에 포함된 스케일과 관련된 왜곡 성분의 가중치를 결정하는 단계 중 적어도 하나를 포함할 수 있다.Wherein the step of determining the weighting step comprises the steps of: determining a weight of a distortion component related to distortion included in the second cost function, based on a distortion component of the homography matrix; Determining a weight of a distortion component associated with rotation included in the second cost function based on the rotational component of the homography matrix; And determining a weight of a distortion component associated with the scale included in the second cost function based on the scale component of the homography matrix.

상기 영상 보정 방법은 상기 매트릭스에 기초하여 상기 복수의 영상들을 변환하는 단계; 및 상기 변환된 영상들에 기초하여 스테레오 매칭을 수행하는 단계를 더 포함할 수 있다.Wherein the image correction method comprises: transforming the plurality of images based on the matrix; And performing stereo matching based on the transformed images.

일측에 따른 영상 보정 장치는 복수의 영상들을 수신하는 수신부; 및 상기 영상들 사이의 대응 쌍의 거리와 관련된 제1 비용 함수 및 변환된 영상의 왜곡과 관련된 제2 비용 함수에 기초하여, 상기 영상들의 보정을 위한 매트릭스를 결정하는 결정부를 포함한다.An image correction apparatus according to one aspect includes: a receiver for receiving a plurality of images; And a determination unit for determining a matrix for correction of the images based on a first cost function associated with the distance of the corresponding pair between the images and a second cost function associated with the distortion of the transformed image.

일측에 따른 영상 처리 방법은 스테레오 영상을 획득하는 단계; 상기 스테레오 영상으로부터 특징점들을 추출하는 단계; 왼쪽 영상의 특징점들과 오른쪽 영상의 특징점들을 정합함으로써 대응 쌍들을 추출하는 단계; 및 대응 쌍의 거리와 관련된 제1 비용함수 및 변환된 영상의 왜곡과 관련된 제2 비용함수에 기초하여, 상기 스테레오 영상의 기초 매트릭스를 결정하는 단계를 포함한다.An image processing method according to one aspect includes: acquiring a stereo image; Extracting feature points from the stereo image; Extracting corresponding pairs by matching feature points of a left image and feature points of a right image; And determining a basis matrix of the stereo image based on a first cost function associated with the distance of the corresponding pair and a second cost function associated with the distortion of the transformed image.

상기 영상 처리 방법은 상기 대응 쌍들에 기초하여, 상기 스테레오 영상 사이의 호모그래피 매트릭스를 계산하는 단계; 및 상기 호모그래피 매트릭스에 기초하여, 상기 제2 비용함수에 포함된 적어도 하나의 왜곡 성분의 가중치를 결정하는 단계를 더 포함할 수 있다.The image processing method comprising: calculating a homography matrix between the stereo images based on the corresponding pairs; And determining a weight of at least one distortion component included in the second cost function based on the homography matrix.

상기 가중치를 결정하는 단계는 상기 호모그래피 매트릭스의 뒤틀림 성분에 기초하여, 상기 제2 비용함수에 포함된 뒤틀림과 관련된 왜곡 성분의 가중치를 결정하는 단계; 상기 호모그래피 매트릭스의 회전 성분에 기초하여, 상기 제2 비용함수에 포함된 회전과 관련된 왜곡 성분의 가중치를 결정하는 단계; 및 상기 호모그래피 매트릭스의 스케일 성분에 기초하여, 상기 제2 비용함수에 포함된 스케일과 관련된 왜곡 성분의 가중치를 결정하는 단계 중 적어도 하나를 포함할 수 있다.Wherein the step of determining the weighting step comprises the steps of: determining a weight of a distortion component related to distortion included in the second cost function, based on a distortion component of the homography matrix; Determining a weight of a distortion component associated with rotation included in the second cost function based on the rotational component of the homography matrix; And determining a weight of a distortion component associated with the scale included in the second cost function based on the scale component of the homography matrix.

상기 뒤틀림과 관련된 왜곡 성분은 변환된 영상의 가로 세로 비(aspect ratio)에 관한 제1 왜곡 성분; 및 변환된 영상의 뒤틀림(skewness)에 관한 제2 왜곡 성분 중 적어도 하나를 포함할 수 있다. 상기 회전과 관련된 왜곡 성분은 원본 영상 대비 변환된 영상이 회전(rotation)에 관한 제3 왜곡 성분을 포함할 수 있다. 상기 스케일과 관련된 왜곡 성분은 원본 영상 대비 변환된 영상의 면적 비(size ratio)에 관한 제4 왜곡 성분을 포함할 수 있다.The distortion component associated with the distortion may include a first distortion component related to the aspect ratio of the transformed image; And a second distortion component related to the skewness of the transformed image. The distortion component associated with the rotation may include a third distortion component related to the rotation of the transformed image relative to the original image. The distortion component associated with the scale may include a fourth distortion component related to an area ratio of the transformed image to the original image.

도 1a는 일 실시예에 따른 영상 보정 장치를 설명하는 도면.
도 1b는 일 실시예에 따른 등극선을 설명하는 도면.
도 2a는 일 실시예에 따른 스테레오 카메라를 통한 영상의 획득 과정을 설명하는 도면.
도 2b는 일 실시예에 따른 획득된 영상의 보정을 위해 정의되는 파라미터들을 설명하는 도면.
도 3은 일 실시예에 따른 보정된 영상의 왜곡 정도를 판단하기 위한 파라미터들을 설명하는 도면.
도 4는 일 실시예에 따른 제1 비용함수와 제2 비용함수를 이용하여 매트리스의 결정을 위한 파라미터들을 획득하는 과정을 설명하는 도면.
도 5는 일 실시예에 따른 영상 보정을 통한 영상 변환 과정을 설명하는 도면.
도 6은 일 실시예에 따른 영상 보정 방법을 설명하는 도면.
도 7a 내지 도 7c는 일 실시예에 따른 보정 전의 영상들과 보정된 영상들을 나타내는 도면.
도 8은 일 실시예에 따른 기초 매트릭스 결정 방법을 설명하는 도면.
도 9는 일 실시예에 따른 제2 비용함수의 가중치를 적응적으로 결정하는 방법을 설명하는 도면.
도 10a 및 도 10b는 일 실시예에 따른 호모그래피 매트릭스를 설명하는 도면.
도 11은 일 실시예에 따른 일 실시예에 따른 전자 시스템을 도시하는 블록도.
1A is a view for explaining an image correction apparatus according to an exemplary embodiment;
1B is a view for explaining a lead wire according to an embodiment;
FIG. 2A illustrates a process of acquiring an image through a stereo camera according to an exemplary embodiment; FIG.
FIG. 2B is a diagram illustrating parameters defined for correction of acquired images according to an embodiment; FIG.
3 is a diagram illustrating parameters for determining a degree of distortion of a corrected image according to an exemplary embodiment;
FIG. 4 illustrates a process of obtaining parameters for determining a mattress using a first cost function and a second cost function according to an embodiment; FIG.
5 is a view for explaining an image conversion process through image correction according to an exemplary embodiment;
6 is a view for explaining an image correction method according to an embodiment;
7A to 7C are views showing images before correction and images corrected according to an embodiment;
8 is a view for explaining a basic matrix determination method according to an embodiment;
9 illustrates a method for adaptively determining a weight of a second cost function according to an embodiment;
10A and 10B illustrate a homography matrix according to one embodiment.
11 is a block diagram illustrating an electronic system according to one embodiment in accordance with one embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다. 하기에서 설명될 실시예들은 스테레오 영상을 처리하는 데 사용될 수 있다. 실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements. The embodiments described below can be used to process stereo images. Embodiments may be implemented in various forms of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices,

도 1a는 일 실시예에 따른 영상 보정 장치를 설명하는 도면이다. 도 1을 참조하면, 일 실시예에 따른 영상 보정 장치(100)는 수신부(110) 및 결정부(120)를 포함한다.FIG. 1A is a view for explaining an image correction apparatus according to an embodiment. Referring to FIG. 1, an image correction apparatus 100 according to an exemplary embodiment includes a receiving unit 110 and a determining unit 120.

수신부(110)는 복수의 영상들(131, 132)을 수신한다. 복수의 영상들(131, 132)은 스테레오 영상을 포함할 수 있다. 스테레오 영상은 복수의 시점에서 촬영된 영상을 의미한다. 일측에 따르면, 스테레오 영상은 왼쪽 시점에서 촬영된 왼쪽 영상과 오른쪽 시점에서 촬영된 오른쪽 영상을 포함할 수 있다. The receiving unit 110 receives the plurality of images 131 and 132. The plurality of images 131 and 132 may include a stereo image. A stereo image means an image shot at a plurality of viewpoints. According to one aspect, a stereo image may include a left image photographed at the left viewpoint and a right image photographed at the right viewpoint.

스테레오 영상은 대응 쌍(corresponding pair)들을 포함한다. 예를 들어, 동일한 대상을 서로 다른 시점에서 촬영하는 경우, 시차로 인하여 각 시점의 영상에서 그 대상을 나타내는 점의 위치가 서로 다를 수 있다. 스테레오 영상에서 대응 쌍들을 추출하기 위하여 두 영상들이 서로 비교될 수 있다. 스테레오 영상에서 대응 쌍들을 추출하는 기법은 스테레오 매칭이라고 지칭될 수 있다.The stereo image includes corresponding pairs. For example, when the same object is photographed at different viewpoints, the positions of points representing the object may differ from each other due to the parallax. The two images can be compared with each other to extract the corresponding pairs from the stereo image. The technique of extracting corresponding pairs from a stereo image may be referred to as stereo matching.

스테레오 매칭의 복잡도를 감소시키기 위하여, 대응 쌍에 포함된 두 점들의 수직 위치(vertical location)는 동일하고 수평 위치(horizontal location)만 서로 다르다는 가정 하에서 두 영상들이 서로 비교될 수 있다. 예를 들어, 스테레오 영상을 촬영하는 왼쪽 카메라와 오른쪽 카메라가 수평 방향으로 이격되고, 수직 방향으로는 동일한 높이에 배치될 수 있다. 이 경우, 스테레오 영상에서 대응 쌍을 추출하기 위하여, 왼쪽 영상과 오른쪽 영상의 대응 쌍들이 동일한 수직 위치에 존재한다고 가정하면서 스테레오 매칭이 수행될 수 있다.In order to reduce the complexity of stereo matching, the two images can be compared with each other under the assumption that the vertical locations of the two points included in the corresponding pair are the same and only the horizontal location is different. For example, the left camera and the right camera for photographing a stereo image may be spaced apart in the horizontal direction and arranged at the same height in the vertical direction. In this case, in order to extract the corresponding pair in the stereo image, stereo matching may be performed assuming that the corresponding pairs of the left image and the right image exist in the same vertical position.

하지만, 스테레오 영상을 촬영하는 왼쪽 카메라와 오른쪽 카메라는 다양한 이유로 인하여 완벽하게 얼라인(align)되지 않을 수 있다. 예를 들어, 제조 공정에서 왼쪽 카메라와 오른쪽 카메라의 높이가 미세하게 차이가 있을 수 있고, 사용 도중 왼쪽 카메라 또는 오른쪽 카메라의 오리엔테이션(orientation)이 변경될 수도 있다. 이 경우, 왼쪽 영상과 오른쪽 영상의 대응 쌍들이 서로 동일한 수직 위치에 존재한다고 가정하면, 스테레오 매칭의 정확도가 감소될 수 있다.However, the left camera and the right camera, which photograph stereo images, may not be perfectly aligned due to various reasons. For example, in the manufacturing process, the heights of the left camera and the right camera may be slightly different, and the orientation of the left camera or the right camera may be changed during use. In this case, assuming that the corresponding pairs of the left and right images are in the same vertical position with each other, the accuracy of the stereo matching can be reduced.

일 실시예에 따른 영상 보정 장치(100)는 스테레오 영상들의 모든 대응 쌍들이 동일한 수직 위치에 놓이도록, 각각의 스테레오 영상들을 보정할 수 있다. 이하, 스테레오 보정은 스테레오 영상들의 모든 대응 쌍들이 동일한 수직 위치에 놓이도록, 각각의 스테레오 영상들을 보정하는 것을 의미할 수 있다.The image correction apparatus 100 according to one embodiment can correct each stereo image so that all corresponding pairs of stereo images are in the same vertical position. Hereinafter, stereo correction may mean correcting each stereo image such that all corresponding pairs of stereo images are in the same vertical position.

도 1a를 참조하면, 복수의 영상들(131, 132)은 제1 시점의 영상(131)과 제2 시점의 영상(132)을 포함할 수 있다. 예를 들어, 제1 시점의 영상(131)은 왼쪽 영상에 해당하고, 제2 시점의 영상(132)은 오른쪽 영상에 해당할 수 있다. 영상(131)은 점(x)을 포함하고, 영상(132)은 점(x')을 포함할 수 있다. 점(x)와 점(x')은 대응 쌍일 수 있다. 설명의 편의를 위하여, 도 1에는 대응 쌍으로 점(x)와 점(x')만 도시하였으나, 영상(131) 및 영상(132)에서 점(x)와 점(x') 이외에도 다수의 대응 쌍들이 존재할 수 있다.Referring to FIG. 1A, a plurality of images 131 and 132 may include a first view image 131 and a second view image 132. For example, the image 131 at the first viewpoint corresponds to the left image, and the image 132 at the second viewpoint corresponds to the right image. The image 131 may include a point x and the image 132 may include a point x '. The point (x) and the point (x ') may be the corresponding pair. For convenience of explanation, only the point (x) and the point (x ') are shown as a corresponding pair in FIG. 1, but a plurality of correspondences Pairs can exist.

영상(132)에 포함된 점들 중, 영상(131)의 점(x)에 대응하는 점들은 등극선(epipolar line)(r)으로 도시될 수 있다. 도 1b를 참조하면, 3차원 공간 상의 점(X)은 제1 시점의 카메라 중심 C로 투영되면서 영상(131)의 점(x)로 표현된다. 또한, 3차원 공간 상의 점(X)는 제2 시점의 카메라 중심 C'으로 투영되면서 영상(132)의 점(x')으로 표현된다. 이 경우, 점(x)와 점(x')은 3차원 공산 상의 동일한 점(X)가 각각의 시점의 카메라 중심으로 투영된 결과이므로, 점(x)와 점(x')은 서로 대응 쌍이 된다.Of the points included in the image 132, the points corresponding to the point x of the image 131 can be shown as an epipolar line r. Referring to FIG. 1B, a point X on a three-dimensional space is represented by a point x of an image 131 while being projected onto a camera center C at a first point in time. Further, the point X on the three-dimensional space is represented by the point x 'of the image 132 while being projected to the camera center C' of the second view point. In this case, since the point (x) and the point (x ') are the result of projecting the same point (X) in the three-dimensional space on the camera center of each point of view, the point (x) do.

제1 시점의 카메라 중심 C와 제2 시점의 카메라 중심 C' 및 3차원 공간 상의 점(X)를 포함하는 평면은 등극평면(epipolar plane)이며, 제1 시점의 카메라 중심 C와 제2 시점의 카메라 중심 C'을 연결하는 직선은 기초선(baseline)이다. 기초선과 영상(132)이 만나는 점(e')과 점(x')을 연결하는 직선이 등극선(r)이다. 등극선(r)은 등극평면과 영상(132)이 만나는 선이다.The plane including the camera center C of the first viewpoint, the camera center C 'of the second viewpoint and the point X on the three-dimensional space is an epipolar plane, and the camera center C at the first viewpoint and the plane The straight line connecting camera center C 'is the baseline. The straight line connecting the point (e ') and the point (x') at which the base line and the image 132 meet is the isomorphism line (r). The equipotential line r is a line where the equiphase plane and the image 132 meet.

다시 도 1a를 참조하면, 복수의 영상들(131, 132)은 스테레오 보정(stereo rectification)이 적용되기 전의 영상으로, 점(x)의 등극선(r) 상 점들의 수직 위치는 점(x)의 수직 위치와 상이할 수 있다. 영상 보정 장치(100)는 스테레오 보정을 통해 등극선(r) 상 점들의 수직 위치가 점(x)의 수직 위치와 동일해지도록 영상(132)을 변환할 수 있다. 예컨대, 스테레오 보정에 따라, 영상(132)은 영상(133)로 보정될 수 있다. 영상(131)과 영상(133)을 참조하면, 점(x)의 수직 위치와 등극선(rnew) 상 점들의 수직 위치는 동일하다. Referring again to FIG. 1A, the plurality of images 131 and 132 are images before stereo rectification is applied, and the vertical position of the isosaural points of the point x is a point (x) As shown in FIG. The image correction apparatus 100 may convert the image 132 so that the vertical position of the isodose line r points is equal to the vertical position of the point x through stereo correction. For example, in accordance with the stereo correction, the image 132 may be corrected to the image 133. [ Referring to the image 131 and the image 133, the vertical positions of the points x and r new are the same.

등극선(r) 상 점들의 수직 위치가 점(x)의 수직 위치와 동일해지도록 영상(132)을 변환하려면, 우선 점(x)에 대응하는 등극선(r)이 도출되어야 한다. 예를 들어, 등극선(r)이 도출되면, 등극선(r)의 기울기를 0으로 만드는 변환을 통하여 영상(132)이 변환될 수 있다. 등극선(r)을 도출하기 위하여, 결정부(120)는 복수의 영상들(131, 312)의 스테레오 보정을 위한 매트릭스를 결정할 수 있다. 결정부(120)의 동작과 관련된 보다 상세한 설명은 후술한다.To transform the image 132 such that the vertical position of the isodose (r) vertices is equal to the vertical position of the vertex x, the isodepth line r corresponding to the vertex x must first be derived. For example, if the iso line r is derived, the image 132 can be transformed through a transformation to make the slope of the iso line r zero. The determination unit 120 may determine a matrix for stereo correction of the plurality of images 131 and 312 in order to derive the isodose line r. A more detailed description related to the operation of the determination unit 120 will be described later.

이상에서, 설명의 편의를 위하여 스테레오 보정이 영상(132)에 적용되는 실시예를 설명하였으나, 스테레오 보정은 영상(131)에 대해서도 적용될 수 있다. 예를 들어, 영상 보정 장치(100)는 영상(131)에서 점(x')에 대응하는 등극선(r')을 도출한 뒤, 등극선(r') 상 점들의 수직 위치가 점(x')의 수직 위치와 동일해지도록 영상(131)을 변환할 수 있다.In the above description, the stereo correction is applied to the image 132 for convenience of explanation. However, the stereo correction may be applied to the image 131 as well. For example, after the image correcting device 100 derives the isoelectric line r 'corresponding to the point x' in the image 131, the image correcting device 100 calculates the vertical position of the isoelectric point r ' 'To be equal to the vertical position of the image 131'.

또한, 이상에서, 설명의 편의를 위하여 스테레오 영상이 왼쪽 영상과 오른쪽 영상으로 구성되는 경우를 설명하였으나, 복수의 영상들 사이의 상대적 위치는 스테레오 영상을 촬영하는 카메라의 시점 또는 카메라의 배치 등에 따라 다양하게 변형될 수 있다. 예를 들어, 스테레오 영상을 촬영하는 카메라가 좌우가 아닌 상하로 배치된 경우, 스테레오 영상은 위쪽 시점에서 촬영된 위쪽 영상과 아래쪽 시점에서 촬영된 아래쪽 영상을 포함할 수 있다. 이 경우, 대응 쌍들의 수평 위치가 서로 동일해지도록 영상들이 변환될 수 있다.In the above description, the stereo image is composed of the left and right images. However, the relative positions of the plurality of images may vary depending on the viewpoint of the camera or the arrangement of the camera . For example, when a camera for photographing a stereo image is arranged up and down rather than horizontally, a stereo image may include an upper image photographed at an upper point and a lower image photographed at a lower point. In this case, the images can be transformed so that the horizontal positions of the corresponding pairs are equal to each other.

또한, 아래에서 상세히 설명하겠으나, 영상 보정 장치(100)는 스테레오 영상들의 보정 과정에서 발생되는 왜곡을 최소화하는 기술을 제공할 수 있다. 이하, 스테레오 보정 과정을 상세히 설명한다.Also, as will be described in detail below, the image correction apparatus 100 can provide a technique for minimizing distortion generated in the correction process of stereo images. Hereinafter, the stereo correction process will be described in detail.

<기초 매트릭스의 결정>&Lt; Determination of basic matrix &

결정부(120)는 복수의 영상들(131, 312)의 스테레오 보정을 위한 매트릭스를 결정한다. 영상들의 스테레오 보정을 위한 매트릭스는 기초 매트릭스(fundamental matrix)일 수 있다. 기초 매트릭스 F는 점(x) 및 등극선(r) 사이에서 수학식 1과 같은 관계를 가질 수 있다.The determination unit 120 determines a matrix for stereo correction of the plurality of images 131 and 312. The matrix for stereo correction of images may be a fundamental matrix. The basic matrix F may have the relationship as shown in Equation (1) between the point (x) and the equipotential line (r).

Figure pat00001
Figure pat00001

수학식 1에서, 기초 매트릭스 F는 3 x 3 크기의 매트릭스일 수 있다. (x, y, 1)T은 점(x)를 나타내고, (a, b, c) T는 등극선(r)을 나타낸다. 수학식 1에 따르면 점(x)는 기초 매트릭스 F에 의해 등극선(r)으로 변환될 수 있다.In Equation (1), the basis matrix F may be a 3 x 3 matrix. (x, y, 1) T denotes a point (x), (a, b , c) T represents a crowned line (r). According to Equation (1), the point (x) can be transformed into an iso line (r) by the basis matrix F.

등극선(r)과 점(x') 사이의 관계는 수학식 2와 같이 나타낼 수 있고, 수학식 1과 수학식 2로부터 수학식 3을 얻을 수 있다.The relationship between the equipotential line r and the point x 'can be expressed by Equation (2), and Equation (3) can be obtained from equations (1) and (2).

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

한편, 왼쪽 영상을 스테레오 보정하는 변환을 Hl이라 하고, 오른쪽 영상을 스테레오 보정하는 변환을 Hr이라고 할 경우, Hl과 Hr에 관해 수학식 4와 수학식 5가 성립한다.On the other hand, as the conversion of a stereo image correction for the left H l, and for the conversion of a stereo image correction for the right to as H r, and the equation (4) and Equation (5) is satisfied with respect to H and H l r.

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

스테레오 보정된 영상에서 대응 쌍들의 높이는 같으므로, ynew=y'new의 관계가 성립하며, 이로부터 수학식 6을 얻을 수 있다.Since the heights of the corresponding pairs in the stereo-corrected image are the same, the relation y new = y ' new holds, and the equation (6) can be obtained therefrom.

Figure pat00006
Figure pat00006

수학식 4 내지 수학식 6에서, 'new'는 보정된 영상의 좌표를 의미한다. 수학식 3 내지 수학식 6으로부터 수학식 7을 얻을 수 있다.In Equations (4) to (6), 'new' denotes the coordinates of the corrected image. Equation (7) can be obtained from Equations (3) to (6).

Figure pat00007
Figure pat00007

수학식 7에 따르면, 기초 매트릭스 F는 Hl과 Hr에 의해 결정될 수 있다. 결정부(120)는 Hl과 Hr을 결정함으로써, 기초 매트릭스 F를 결정할 수 있다. Hl과 Hr은 다양한 파라미터들에 의해 파라미터화(parameterization) 될 수 있다. 기초 매트릭스 F를 위한 파라미터들에 관해서는 도 2a 및 도 2b를 참조하여 상세하게 설명한다.According to Equation (7), the basis matrix F can be determined by H l and H r . The determination unit 120 can determine the base matrix F by determining H l and H r . H l and H r can be parameterized by various parameters. The parameters for the basic matrix F will be described in detail with reference to FIGS. 2A and 2B.

<기초 매트릭스의 파라미터들>&Lt; Parameters of basic matrix >

도 2a는 일 실시예에 따른 스테레오 카메라를 통한 영상의 획득 과정을 설명하는 도면이다. 도 2a를 참조하면, 스테레오 카메라(210, 220)는 제1 시점의 카메라(210)와 제2 시점의 카메라(220)를 포함한다. 카메라(210)와 카메라(220)는 좌우로 배치되어 있다. 카메라(210)의 시점의 y-좌표와 카메라(220)의 시점의 y-좌표는 동일할 수 있다. 이하, 좌우로 배치된 스테레오 카메라(210, 220)를 기준으로 스테레오 영상의 획득 과정을 설명하지만, 스테레오 카메라(210, 220)는 상하로 배치될 수도 있다. 스테레오 카메라(210, 220)가 상하로 배치될 경우, 카메라(210)의 시점의 x-좌표와 카메라(220)의 시점의 x-좌표는 동일할 수 있다.2A is a view for explaining a process of acquiring an image through a stereo camera according to an embodiment. Referring to FIG. 2A, the stereo cameras 210 and 220 include a camera 210 at a first viewpoint and a camera 220 at a second viewpoint. The camera 210 and the camera 220 are disposed on the left and right sides. The y-coordinate of the viewpoint of the camera 210 and the viewpoint of the viewpoint of the camera 220 may be the same. Hereinafter, the process of acquiring a stereo image will be described with reference to the stereo cameras 210 and 220 arranged on the left and right sides, but the stereo cameras 210 and 220 may be arranged up and down. When the stereo cameras 210 and 220 are vertically disposed, the x-coordinate of the viewpoint of the camera 210 and the viewpoint of the viewpoint of the camera 220 may be the same.

카메라(210)와 카메라(220)는 각각 상이한 시점을 갖는다. 따라서, 카메라(210)와 카메라(220)가 동일한 물체를 촬영하는 경우에, 카메라(210)에 의해 촬영된 영상에서 물체의 좌표와, 카메라(220)에 의해 촬영된 영상에서 물체의 좌표는 상이할 수 있다. 예컨대, 도 1의 영상(131)은 카메라(210)에 의해 촬영된 영상일 수 있고, 도 1의 영상(132)은 카메라(220)에 의해 촬영된 영상일 수 있다.The camera 210 and the camera 220 have different viewpoints. Therefore, when the camera 210 and the camera 220 photograph the same object, the coordinates of the object in the image photographed by the camera 210 and the coordinates of the object in the image photographed by the camera 220 are different from each other can do. For example, the image 131 of FIG. 1 may be an image captured by the camera 210, and the image 132 of FIG. 1 may be an image captured by the camera 220.

카메라(210)와 카메라(220)가 나란히 배치된 경우에도, 다양한 요인들에 의해 얼라인 되지 않은 상태의 스테레오 영상들이 획득될 수 있다. 예컨대, 다양한 요인은 카메라들(210, 220)의 초점 거리(focal length), 카메라들(210, 220)의 이격 거리 및 카메라들(210, 220)의 회전 등이 있을 수 있다. 영상 보정 장치(100)는 다양한 요인들을 고려하여 획득된 영상들에 대한 스테레오 보정을 수행할 수 있다.Even when the camera 210 and the camera 220 are arranged side by side, stereo images in an un-aligned state due to various factors can be obtained. For example, various factors may be the focal length of the cameras 210 and 220, the distance of the cameras 210 and 220, and the rotation of the cameras 210 and 220. The image correcting apparatus 100 may perform stereo correction on images obtained by considering various factors.

도 2b는 일 실시예에 따른 획득된 영상의 보정을 위해 정의되는 파라미터들을 설명하는 도면이다. 도 2b를 참조하면, 도 2a에 도시된 카메라들(210, 220)의 파라미터들이 도시되어 있다. 카메라(210)의 파라미터는 초점 거리(211), 이격 거리(212) 및 회전 각도들(213, 214, 215)을 포함한다. 또한, 카메라(220)의 파라미터는 초점 거리(221), 이격 거리(222) 및 회전 각도들(223, 224, 225)을 포함한다.FIG. 2B is a diagram illustrating parameters defined for correction of acquired images according to an embodiment. Referring to FIG. 2B, the parameters of the cameras 210 and 220 shown in FIG. 2A are shown. The parameters of the camera 210 include a focal length 211, a separation distance 212, and rotation angles 213, 214, 215. The parameters of the camera 220 also include a focal length 221, a separation distance 222, and rotation angles 223, 224, and 225.

초점 거리(211, 221)는 일반적인 의미로 정의될 수 있다. 예컨대, 초점 거리(211, 221)는 각각의 카메라들(210, 220)의 렌즈에서 이미지 센서까지의 거리를 의미할 수 있다. 이격 거리(222)는 각각의 카메라들(210, 220)이 설계된 위치로부터 상하 또는 좌우로 이격된 거리를 의미한다. 카메라들(210, 220)이 좌우로 배치된 경우 이격 거리(212, 222)는 카메라들(210, 220)이 상하로 이격된 거리를 의미할 수 있다. 카메라들(210, 220)이 상하로 배치된 경우 이격 거리(212, 222)는 카메라들(210, 220)이 좌우로 이격된 거리를 의미할 수 있다. 회전 각도들(213, 214, 215, 223, 224, 225)은 도 2b에 표시된 방향으로 회전한 정도를 의미한다.The focal lengths 211 and 221 may be defined in a general sense. For example, the focal lengths 211 and 221 may mean distances from the lenses of the respective cameras 210 and 220 to the image sensor. The separation distance 222 refers to a distance that the cameras 210 and 220 are spaced up or down or left and right from the designed position. When the cameras 210 and 220 are disposed to the left and right, the separation distances 212 and 222 may mean distances between the cameras 210 and 220, respectively. When the cameras 210 and 220 are arranged vertically, the separation distances 212 and 222 may mean distances between the cameras 210 and 220, respectively. The rotation angles 213, 214, 215, 223, 224, and 225 indicate degrees of rotation in the direction shown in FIG. 2B.

다시 도 1을 참조하면, 결정부(120)는 도 2b를 통하여 설명된 파라미터들 중 적어도 일부를 통해 Hl과 Hr을 파라미터화 할 수 있다.Referring again to Figure 1, the decision unit 120 may parameterize H l and H r through at least some of the parameters described through Figure 2b.

일측에 따르면, 결정부(120)는 카메라의 초점 거리, 카메라의 이격 거리 및 카메라의 회전 각도를 고려하여 Hl과 Hr을 파라미터화 할 수 있다. 이 때, Hl과 Hr은 카메라의 초점 거리, 카메라의 이격 거리 및 카메라의 회전 각도를 고려하여 수학식 8 및 수학식 9로 나타낼 수 있다.According to one aspect, the decision unit 120 may parameterize H l and H r in consideration of the focal distance of the camera, the separation distance of the camera, and the rotation angle of the camera. In this case, H l and H r can be expressed by Equations (8) and (9) in consideration of the focal length of the camera, the distance of the camera, and the rotation angle of the camera.

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

여기서, Kol, Kor, Knl, Knr은 카메라의 초점 거리에 관한 카메라 매트릭스이다. Kol, Kor, Knl, Knr은 각각 보정 전 왼쪽 영상, 보정 전 오른쪽 영상, 보정된 왼쪽 영상 및 보정된 오른쪽 영상의 카메라 메트릭스이다. Kol과 Kor은 각각 수학식 10과 수학식 11로 나타낼 수 있다.Here, K ol , K or , K nl , and K nr are camera matrices relating to the focal length of the camera. K ol, or K, K nl, nr K are each left uncorrected image, the pre-compensation of the right image, the corrected left image and the right image correction matrix camera. K ol and K or can be expressed by Equations (10) and (11), respectively.

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

여기서, αl는 왼쪽 카메라의 초점 거리를 의미하고, αr은 오른쪽 카메라의 초점 거리를 의미한다. w는 보정 전 영상의 너비를 의미하고, h는 보정 전 영상의 높이를 의미한다. Knl, Knr은, 보정된 스테레오 영상에서 왼쪽 카메라와 오른쪽 카메라의 초점 거리가 동일하도록 수학식 12로 설정될 수 있다.Here, α 1 denotes the focal length of the left camera, and α r denotes the focal length of the right camera. w denotes the width of the pre-correction image, and h denotes the height of the pre-correction image. K n1 and K nr can be set to Equation 12 so that the focal lengths of the left camera and the right camera are the same in the corrected stereo image.

Figure pat00012
Figure pat00012

수학식 8 및 수학식 9에서 Rl과 Rr은 카메라의 회전에 관한 카메라 매트릭스이다. Rl과 Rr은 각각 보정 전 왼쪽 영상 및 보정 전 오른쪽 영상의 카메라 메트릭스이다. 초점 거리 및 회전 각도에 관해서는 도 2b에서 설명된 내용이 적용될 수 있다.In Equations (8) and (9), R l and R r are camera matrices relating to camera rotation. R l and R r are the camera metrics of the left image before correction and the image before correction, respectively. As for the focal length and the rotation angle, the contents described in Fig. 2B can be applied.

수학식 8 및 수학식 9에서 Tl과 Tr은 카메라의 이격 거리에 관한 카메라 매트릭스이다. Tl과 Tr은 각각 수학식 13 및 수학식 14로 나타낼 수 있다.In Equations (8) and (9), T l and T r are camera matrices relating to camera separation distances. T l and T r can be expressed by Equations (13) and (14), respectively.

Figure pat00013
Figure pat00013

Figure pat00014
Figure pat00014

여기서, tyl은 왼쪽 카메라의 수직 방향 이격 거리를 나타내고, tyr은 오른쪽 카메라의 수직 방향 이격 거리를 나타낸다. 만약 스테레오 영상을 촬영하는 카메라가 위쪽 카메라와 아래쪽 카메라로 구성되는 경우, 위쪽 카메라의 수평 방향 이격 거리 및 아래쪽 카메라의 수평 방향 이격 거리가 파라미터로 이용될 수 있다.Here, t yl represents the vertical separation distance of the left camera and t yr represents the vertical separation distance of the right camera. If the camera that captures stereo images is composed of an upper camera and a lower camera, the horizontal distance of the upper camera and the horizontal distance of the lower camera can be used as parameters.

결정부(120)는 앞서 설명된 파라미터들의 값들을 조절함으로써 기초 매트릭스 F를 결정할 수 있다.The determination unit 120 can determine the basis matrix F by adjusting the values of the parameters described above.

<비용 함수><Cost function>

결정부(120)는 비용 함수에 기초하여 기초 매트릭스 F를 결정할 수 있다. 비용 함수는 파라미터들에 기초하여 결정된 기초 매트릭스 F의 보정 성능을 평가하기 위한 함수를 의미한다. 비용 함수는 보정 성능의 평가 기준에 따라 다양하게 정의될 수 있다. 결정부(120)는 비용 함수의 출력이 최소가 되도록 기초 매트릭스 F의 파라미터들의 값들을 결정할 수 있다.The determination unit 120 can determine the basic matrix F based on the cost function. The cost function means a function for evaluating the correction performance of the base matrix F determined based on the parameters. The cost function can be variously defined according to the evaluation criteria of the correction performance. The determination unit 120 may determine the values of the parameters of the basic matrix F so that the output of the cost function is minimized.

비용 함수는 대응 쌍의 거리와 관련된 제1 비용 함수를 포함할 수 있다. 제1 비용 함수는 샘슨 거리(Sampson distance)를 기준으로 기초 매트릭스 F의 보정 성능을 평가할 수 있다. 제1 비용 함수는 수학식 15로 나타낼 수 있다.The cost function may include a first cost function associated with the distance of the corresponding pair. The first cost function can evaluate the correction performance of the basis matrix F based on the Sampson distance. The first cost function can be expressed by Equation (15).

Figure pat00015
Figure pat00015

여기서, Es는 제1 비용 함수이고, j는 대응 쌍들의 인덱스이며, Ej는 j 번째 대응 쌍이 갖는 샘슨 거리이다. 수학식 15에 따르면 Es는 대응 쌍들의 샘슨 거리들의 합으로 계산될 수 있다. 샘슨 거리는 특정 점의 대응 점과 그 점의 등극선 사이의 거리에 따라 결정된다. 예컨대, 샘슨 거리는 왼쪽 영상에서 점(xj)와 등극선(rj') 사이의 거리 및 오른쪽 영상에서 점(xj')과 등극선(rj) 사이의 거리가 증가할수록 증가한다. 실시예들은 제1 비용함수의 출력이 최소화되도록 파라미터들을 결정함으로써, 영상에 포함된 점들의 등극선들을 도출하는 기초 매트릭스 F를 결정할 수 있다.Where E s is the first cost function, j is the index of the corresponding pairs, and E j is the Samson distance of the jth corresponding pair. According to equation (15), E s can be calculated as the sum of the Samson distances of the corresponding pairs. The Samson distance is determined by the distance between the corresponding point of a certain point and the iso line of the point. For example, the Samson distance increases as the distance between the point (x j ) and the equipotential line (r j ') in the left image and the distance between the point (x j ') and the equipotential line (r j ) in the right image. Embodiments may determine a basis matrix F that derives the isoform lines of the points contained in the image by determining the parameters such that the output of the first cost function is minimized.

제1 비용 함수를 계산하기 위하여, 결정부(120)는 미리 정해진 수의 대응 쌍들을 알아야 한다. 미리 정해진 수는 제1 비용 함수를 계산하기 위하여 최소한으로 요구되는 수일 수 있다. 도 5를 참조하여 상세하게 설명하겠으나, 미리 정해진 수의 대응 쌍들은 스테레오 매칭이 수행되기 전에 미리 추출될 수 있다. 예를 들어, 스테레오 영상으로부터 특징점들이 추출될 수 있다. 왼쪽 영상에서 추출된 특징점들과 오른쪽 영상에서 추출된 특징점들을 매칭하는 동작을 통하여 미리 정해진 수의 대응 쌍들이 추출될 수 있다.In order to calculate the first cost function, the determination unit 120 must know a predetermined number of corresponding pairs. The predetermined number may be a minimum required number to calculate the first cost function. As will be described in detail with reference to FIG. 5, a predetermined number of corresponding pairs may be extracted before stereo matching is performed. For example, feature points can be extracted from a stereo image. A predetermined number of corresponding pairs can be extracted by matching feature points extracted from the left image and feature points extracted from the right image.

비용 함수는 변환된 영상의 왜곡과 관련된 제2 비용 함수를 포함할 수 있다. 제2 비용함수는 보정된 영상의 왜곡 정도를 평가하기 위한 성분들을 포함할 수 있다. 예컨대, 제2 비용 함수는 변환된 영상의 가로 세로 비(aspect ratio)에 관한 제1 왜곡 성분, 변환된 영상의 뒤틀림(skewness)에 관한 제2 왜곡 성분, 원본 영상 대비 변환된 영상이 회전(rotation)에 관한 제3 왜곡 성분 및 원본 영상 대비 변환된 영상의 면적 비(size ratio)에 관한 제4 왜곡 성분 중 적어도 하나를 포함할 수 있다. 실시예들은 제1 비용함수의 출력과 제2 비용함수의 출력의 합이 최소화되도록 파라미터들을 결정함으로써, 스테레오 보정으로 인한 왜곡이 최소화되도록 하는 기초 매트릭스 F를 결정할 수 있다. 제2 비용함수는 도 3을 참조하여 상세하게 설명한다.The cost function may include a second cost function associated with distortion of the transformed image. The second cost function may include components for evaluating the degree of distortion of the corrected image. For example, the second cost function may include a first distortion component with respect to the aspect ratio of the transformed image, a second distortion component with respect to the skewness of the transformed image, a second distortion component with respect to the original image, ) And a fourth distortion component related to an area ratio of the transformed image to the original image. Embodiments may determine a basis matrix F that minimizes distortion due to stereo correction by determining parameters such that the sum of the output of the first cost function and the output of the second cost function is minimized. The second cost function is described in detail with reference to FIG.

도 3은 일 실시예에 따른 보정된 영상의 왜곡 정도를 판단하기 위한 파라미터들을 설명하는 도면이다. 도 3을 참조하면 보정 전의 영상(310)과 보정된 영상(320)이 도시되어 있다. 영상(310)은 모서리(a, b, c, d), 변의 중심(e, f, g, h) 및 영상(310)의 중심(o)을 포함한다. 영상(320)은 모서리(a', b', c', d'), 변의 중심(e', f', g', h') 및 영상(320)의 중심(o')을 포함한다.FIG. 3 is a diagram illustrating parameters for determining a degree of distortion of a corrected image according to an embodiment. Referring to FIG. 3, an image 310 before correction and a corrected image 320 are shown. The image 310 includes the corners (a, b, c, d), the centers e, f, g and h of the sides and the center o of the image 310. The image 320 includes the corners (a ', b', c ', d'), the center of the sides (e ', f', g ', h') and the center o 'of the image 320.

변환된 영상의 가로 세로 비에 관한 제1 왜곡 성분은 수학식 16에 의해 결정될 수 있다.The first distortion component with respect to the aspect ratio of the converted image can be determined by Equation (16).

Figure pat00016
Figure pat00016

여기서, EAR은 제1 왜곡 성분을 의미한다. 중심(o')에서 모서리(a', b', c', d')까지의 거리가 서로 유사할수록 EAR은 1에 가까워진다. 다시 말해, 영상(320)에 왜곡이 발생하지 않는, EAR의 이상적인 값은 1이다. 따라서, EAR이 1에 가까울수록 영상(320)의 왜곡이 적은 것으로 결정될 수 있다.Here, E AR means a first distortion component. The closer the distances from the center (o ') to the edges (a', b ', c', d ') are, the closer the E AR is to 1. In other words, the ideal value of E AR , where no distortion occurs in image 320, is 1. Therefore, it can be determined that the distortion of the image 320 is smaller as the E AR is closer to 1.

다음으로, 변환된 영상의 뒤틀림에 관한 제2 왜곡 성분은 수학식 17에 의해 결정될 수 있다.Next, the second distortion component related to the distortion of the transformed image can be determined by Equation (17).

Figure pat00017
Figure pat00017

여기서, ESK는 제2 왜곡 성분을 의미하고, ∠CAi는 영상(320)에서 i번째 모서리의 각도를 의미한다. ESK는 영상(320)의 모서리(a', b', c', d') 각각의 내각이 90°에 가까울수록 작아진다. 따라서, ESK의 이상적인 값은 0이고, ESK가 0에 가까울수록 영상(320)의 왜곡이 적은 것으로 결정될 수 있다.Here, E SK denotes the second distortion component, and ∠CA i denotes the angle of the i-th corner in the image 320. E SK becomes smaller as the internal angle of each of the corners (a ', b', c ', d') of the image 320 is closer to 90 °. Thus, the ideal value of the E SK to 0, the more E SK is close to zero can be determined with less distortion of the image (320).

다음으로, 원본 영상 대비 변환된 영상이 회전에 관한 제3 왜곡 성분은 수학식 18에 의해 결정될 수 있다. 제3 왜곡 성분은 수학식 18과 같이 벡터의 내적을 이용하여 계산될 수 있다. 수학식 18는 변의 중심(f)과 변의 중심(f')에 관한 실시예를 나타내지만, 제3 왜곡 성분은 변의 중심(e, g, h)과 변의 중심(e', g', h')에 의해서도 결정될 수 있다.Next, the third distortion component related to the rotation of the image transformed to the original image can be determined by Equation (18). The third distortion component can be calculated using the dot product of the vector as shown in equation (18). G ', h') of the side and the center of the side (f ') of the side, while the expression (18) shows an embodiment relating to the center (f) ). &Lt; / RTI &gt;

Figure pat00018
Figure pat00018

여기서, ER은 제3 왜곡 성분을 의미한다. ER의 이상적인 값은 1이고, ER이 1에 가까울수록 영상(320)의 왜곡이 적은 것으로 결정될 수 있다.Here, E R means the third distortion component. The ideal value of E R is 1, and as E R approaches 1, it can be determined that distortion of image 320 is less.

다음으로, 원본 영상 대비 변환된 영상의 면적 비에 관한 제4 왜곡 성분은 수학식 19에 의해 결정될 수 있다.Next, the fourth distortion component related to the area ratio of the image converted to the original image can be determined by Equation (19).

Figure pat00019
Figure pat00019

여기서, ES은 제4 왜곡 성분을 의미한다. Arearec는 영상(320)의 면적을, Areaorig는 영상(310)의 면적을 의미한다. ES의 이상적인 값은 1이고, ES가 1에 가까울수록 영상(320)의 왜곡이 적은 것으로 결정될 수 있다.Here, E S means the fourth distortion component. Area rec represents the area of the image 320, and Area orig represents the area of the image 310. The ideal value of E S is 1, the more the closer to 1 E S may be determined to be less distortion of the image (320).

제1 왜곡 성분이 이상적인 값에 가까울수록 감소하는 함수는

Figure pat00020
로 정의될 수 있고, 제2 왜곡 성분이 이상적인 값에 가까울수록 감소하는 함수는
Figure pat00021
로 정의될 수 있고, 제3 왜곡 성분이 이상적인 값에 가까울수록 감소하는 함수는
Figure pat00022
로 정의될 수 있고, 제4 왜곡 성분이 이상적인 값에 가까울수록 감소하는 함수는
Figure pat00023
로 정의될 수 있다. 제2 비용 함수는 전술한 함수들에 기초하여 결정될 수 있다.The function that decreases as the first distortion component approaches the ideal value is
Figure pat00020
And a function that decreases as the second distortion component approaches the ideal value is
Figure pat00021
, And the function that decreases as the third distortion component approaches the ideal value is
Figure pat00022
, And the function that decreases as the fourth distortion component approaches the ideal value is
Figure pat00023
. &Lt; / RTI &gt; The second cost function may be determined based on the functions described above.

다시 도 1을 참조하면, 결정부(120)는 앞서 설명된 제1 비용 함수 및 제2 비용 함수에 기초하여 기초 매트릭스 F를 결정할 수 있다. 예컨대, 제1 비용 함수 및 제2 비용 함수의 합이 최소가 되도록, 기초 매트릭스 F의 파라미터들의 값들을 결정할 수 있다. 수학식 20은 제1 비용 함수 및 제2 비용 함수의 합에 관한 예시를 나타낸다. 결정부(120)는 수학식 20에 기초하여 기초 매트릭스 F를 결정할 수 있다.Referring again to FIG. 1, the determination unit 120 may determine the basis matrix F based on the first cost function and the second cost function described above. For example, the values of the parameters of the basis matrix F may be determined such that the sum of the first cost function and the second cost function is minimized. Equation (20) represents an example of the sum of the first cost function and the second cost function. The determination unit 120 can determine the basic matrix F based on the expression (20).

Figure pat00024
Figure pat00024

여기서, C는 제1 비용 함수 및 제2 비용 함수의 합에 관한 총 비용 함수를 나타내고, φ는 기초 매트릭스 F의 파라미터들을 나타내며, Es는 제1 비용 함수를 나타내고,

Figure pat00025
,
Figure pat00026
,
Figure pat00027
Figure pat00028
는 각각 제1 왜곡 성분, 제2 왜곡 성분, 제3 왜곡 성분, 및 제4 왜곡 성분에 관한 함수들을 나타내며, ρAR, ρSK, ρR 및 ρSR는 각각
Figure pat00029
,
Figure pat00030
,
Figure pat00031
Figure pat00032
의 가중치를 나타낸다. 결정부(120)는
Figure pat00033
가 최소가 되도록 φ를 결정할 수 있다.Where C represents the total cost function for the sum of the first cost function and the second cost function,? Represents the parameters of the base matrix F, E s represents the first cost function,
Figure pat00025
,
Figure pat00026
,
Figure pat00027
And
Figure pat00028
Are each the first distortion and the second distortion component, and the third distortion component, and the fourth represents a function of the distortion component, ρ AR, SK ρ, ρ ρ R and SR are each
Figure pat00029
,
Figure pat00030
,
Figure pat00031
And
Figure pat00032
&Lt; / RTI &gt; The determination unit 120 determines
Figure pat00033
Can be determined to be minimum.

영상 보정 장치(100)는 변환부를 더 포함할 수 있다. 변환부는 결정된 기초 매트릭스 F에 기초하여 복수의 영상들(131, 132)을 변환할 수 있다. 예컨대, 변환부는 기초 매트릭스 F를 이용하여 점(x)에 대응하는 등극선(r)을 도출한 뒤, 등극선(r)의 기울기를 0으로 만드는 변환을 통하여 영상(132)를 영상(133)로 변환할 수 있다.The image correction apparatus 100 may further include a conversion unit. The conversion unit can convert the plurality of images 131 and 132 based on the determined base matrix F. [ For example, the conversion unit derives the iso line r corresponding to the point x by using the base matrix F, and then outputs the image 132 to the image 133 through the conversion to make the inclination of the iso line r to 0, . &Lt; / RTI &gt;

영상 보정 장치(100)는 매칭부를 더 포함할 수 있다. 매칭부는 변환부에 의해 변환된 영상들에 기초하여 스테레오 매칭을 수행한다.The image correction apparatus 100 may further include a matching unit. The matching unit performs stereo matching based on the images converted by the converting unit.

도 4는 일 실시예에 따른 제1 비용함수와 제2 비용함수를 이용하여 매트리스의 결정을 위한 파라미터들을 획득하는 과정을 설명하는 도면이다.4 is a diagram illustrating a process of obtaining parameters for determining a mattress using a first cost function and a second cost function according to an embodiment.

도 4를 참조하면, 단계(410)에서, 영상 보정 장치는 제1 비용 함수에 기초하여 파라미터들을 결정한다. 영상 보정 장치는 입력되는 파라미터들 φ 중에 제1 비용 함수 Es를 최소로 만드는 파라미터들 φinit을 출력할 수 있다. 단계(410)에서, φ는 입력 파라미터를 나타내고, Es는 제1 비용 함수를 나타내며, C(φ)는 입력 파라미터 φ에 의한 총 비용 함수의 값을 나타낸다.Referring to FIG. 4, in step 410, the image correction apparatus determines parameters based on a first cost function. The image correction apparatus can output the parameters? Init which minimize the first cost function E s among the input parameters?. In step 410, φ represents the input parameter, Es represents the first cost function, and C (φ) represents the value of the total cost function by the input parameter φ.

단계(420)에서, 영상 보정 장치는 변환된 영상의 왜곡 정도를 판단한다. 단계(420)에서 ρinit은 왜곡 성분들에 대한 초기 가중치를 의미한다. 예컨대, ρinit(0, 0, 0, 0)은 제1 왜곡 성분 내지 제4 왜곡 성분의 초기 가중치가 모두 0임을 의미한다. 제1 왜곡 성분 내지 제4 왜곡 성분에 대해서는 앞서 설명된 내용이 적용될 수 있다. 영상 보정 장치는 왜곡 성분들에 기초하여 변환된 영상의 왜곡 정도를 판단할 수 있다. 변환된 영상의 왜곡 정도는 Ex로 나타낼 수 있다.In step 420, the image correction device determines the degree of distortion of the converted image. In step 420, r init refers to the initial weight for the distortion components. For example, ρ init (0, 0, 0, 0) means that the initial weights of the first to fourth distortion components are all zero. The above-described contents may be applied to the first to fourth distortion components. The image correction apparatus can determine the degree of distortion of the transformed image based on the distortion components. The degree of distortion of the transformed image can be represented by E x .

단계(430)에서, 영상 보정 장치는 변환된 영상의 왜곡 정도와 미리 설정된 임계 값을 비교한다. 단계(430)에서 fx는 Ex의 왜곡 정도를 판단하는 함수를 의미하고, Tx는 미리 정해진 임계 값을 의미한다.In step 430, the image correction apparatus compares the degree of distortion of the converted image with a predetermined threshold value. In step 430, f x denotes a function for determining the degree of distortion of E x , and T x denotes a predetermined threshold value.

단계(440)에서, 영상 보정 장치는 제2 비용 함수의 가중치를 조절한다. 영상 보정 장치는 단계(430)의 비교 결과를 반영하여 가중치를 조절할 수 있다. 예를 들어, 영상 보정 장치는 변환된 영상의 왜곡 정도가 미리 설정된 임계 값 이상인 경우, 제2 비용 함수의 가중치를 조절할 수 있다. 일 예로, 영상 보정 장치는 제1 왜곡 성분 내지 제4 왜곡 성분의 가중치를 0.25로 조절할 수 있다.In step 440, the image correction device adjusts the weight of the second cost function. The image correction apparatus may adjust the weight by reflecting the comparison result of step 430. [ For example, the image correction apparatus can adjust the weight of the second cost function when the degree of distortion of the converted image is equal to or greater than a preset threshold value. For example, the image correction apparatus may adjust the weights of the first to fourth distortion components to 0.25.

단계(450)에서, 영상 보정 장치는 제1 비용 함수 및 제2 비용 함수에 기초하여 파라미터들을 결정한다. 영상 보정 장치는 앞서 설명된 수학식 20에 기초하여 파라미터들을 결정할 수 있다.In step 450, the image correction apparatus determines the parameters based on the first cost function and the second cost function. The image correction apparatus can determine the parameters based on Equation (20) described above.

단계(460)에서, 영상 보정 장치는 φn에 따른 총 비용 함수의 값과 φn -1에 따른 총 비용 함수의 값을 비교한다. φn에 따른 총 비용 함수의 값은 φn에 따른 제1 비용 함수 및 제2 비용 함수의 합으로 계산되고, φn -1에 따른 총 비용 함수의 값은 φn-1에 따른 제1 비용 함수 및 제2 비용 함수의 합으로 계산될 수 있다.In step 460, the image correction unit compares the value of the total cost function corresponding to the value of the total cost function according to φ n and φ n -1. The value of the total cost function of the φ n is calculated as the sum of a first cost function and a second cost function according to φ n, the value of the total cost function of the φ n -1 has a first cost of φ n-1 Function and a second cost function.

φn에 따른 총 비용 함수의 값이 φn -1에 따른 총 비용 함수의 값보다 작은 경우, 영상 보정 장치는 파라미터들의 값이 최적 값에 가까워지고 있다고 판단하고 단계(420) 내지 단계(450)을 반복적으로 수행할 수 있다. 단계(420)이 단계(460) 이후에 수행되는 경우, 파라미터로 φn +1이 적용될 수 있다. φn + 1는 단계(450)으로부터 결정될 수 있다.If the value of the total cost function of the φ n is less than the value of the total cost function of the φ n -1, the image correction device determines that the value of the parameter approaches the optimum value, and step 420 to step 450 Can be repeatedly performed. If step 420 is performed after step 460, then the parameter? N +1 may be applied as a parameter. [phi] n + 1 may be determined from step 450. [

만약 φn에 따른 총 비용 함수의 값이 φn -1에 따른 총 비용 함수의 값보다 큰 경우, 영상 보정 장치는 파라미터들의 값이 최적 값에서 멀어진다고 판단하고 단계(470)을 수행할 수 있다. 단계(470)에서, 영상 보정 장치는 φn -1을 출력한다. 영상 보정 장치는 φn-1를 통해 기초 매트릭스 F를 결정할 수 있다.If the value of the total cost function of the φ n is greater than the value of the total cost function of the φ n -1, the image correction unit may determine that the values of the parameters away from the optimum value and perform step 470 . In step 470, the image correction device outputs φ n -1 . The image correction apparatus can determine the basis matrix F through? N-1 .

도 4에 도시된 각 단계들에는 도 1 내지 도 3을 통하여 전술한 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.The steps described above with reference to FIGS. 1 to 3 may be applied to each step shown in FIG. 4, so that a detailed description will be omitted.

도 5는 일 실시예에 따른 영상 보정을 통한 영상 변환 과정을 설명하는 도면이다.5 is a view for explaining an image conversion process through image correction according to an embodiment.

단계(510)에서, 영상 보정 장치는 스테레오 영상들을 수신할 수 있다. 단계(520)에서, 영상 보정 장치는 스테레오 영상들로부터 대응 쌍들을 추출할 수 있다. 예를 들어, 도면에 표시하지 않았으나, 도 1의 영상 보정 장치(100)는 추출부를 더 포함할 수 있다. 추출부는 복수의 영상들(131, 132)로부터 대응 쌍들을 추출할 수 있다. 추출부는 복수의 영상들(131, 132)로부터 특징점들을 추출하고, 영상(131)의 특징점들과 영상(132)의 특징점들을 정합함으로써 대응 쌍들을 추출할 수 있다. 일측에 따르면, 추출부는 SIFT(Scale Invariant Feature Transform) 방식으로 특징점을 추출할 수 있고, RANSAC(RANdom SAmple Consensus) 방식으로 특징점을 정합할 수 있다. 추출부는 추출된 대응 쌍들에 관한 정보를 결정부(120)로 전달할 수 있다.In step 510, the image correction device may receive stereo images. In step 520, the image correction device may extract corresponding pairs from the stereo images. For example, although not shown in the drawings, the image correction apparatus 100 of FIG. 1 may further include an extraction unit. The extracting unit may extract the corresponding pairs from the plurality of images 131 and 132. The extraction unit may extract the corresponding pairs by extracting the feature points from the plurality of images 131 and 132, and matching the feature points of the image 131 and the feature points of the image 132. [ According to one aspect, the extracting unit can extract feature points using a Scale Invariant Feature Transform (SIFT) method, and can match feature points using a RANSAC (Consecutive Consensus) method. The extracting unit may transmit the information about the extracted pairs to the determining unit 120.

단계(530)에서, 영상 보정 장치는 기초 매트릭스 F의 파라미터화를 수행할 수 있다. 단계(540)에서, 영상 보정 장치는 기초 매트릭스 F의 파라미터들을 결정할 수 있다. 영상 보정 장치는 비용 함수에 기초하여 기초 매트릭스 F의 파라미터들을 결정할 수 있다. 단계(550)에서, 영상 보정 장치는 영상을 변환할 수 있다.In step 530, the image correction device may perform parameterization of the basis matrix F. In step 540, the image correction device may determine the parameters of the basis matrix F. The image correction apparatus can determine the parameters of the basis matrix F based on the cost function. In step 550, the image correction apparatus can convert the image.

도 5에 도시된 각 단계들에는 도 1 내지 도 4를 통하여 전술한 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.The steps described above with reference to FIGS. 1 to 4 may be applied to each step shown in FIG. 5, so that a detailed description will be omitted.

도 6은 일 실시예에 따른 영상 보정 방법을 설명하는 도면이다.6 is a view for explaining an image correction method according to an embodiment.

단계(610)에서, 영상 보정 장치는 복수의 영상들을 수신한다. 단계(620)에서, 영상 보정 장치는 제1 비용함수 및 제2 비용 함수에 기초하여 영상들의 스테레오 보정을 위한 매트릭스를 결정한다. 도 6에 도시된 각 단계들에는 도 1 내지 도 5를 통하여 전술한 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.In step 610, the image correction apparatus receives a plurality of images. In step 620, the image correction apparatus determines a matrix for stereo correction of images based on the first cost function and the second cost function. The steps described above with reference to FIG. 1 through FIG. 5 may be applied to each step shown in FIG. 6, so that a detailed description will be omitted.

도 7a 내지 도 7c는 일 실시예에 따른 보정 전의 영상들과 보정된 영상들을 나타내는 도면이다.7A to 7C are views showing images before correction and images after correction according to an embodiment.

도 7a에는 보정 전의 영상들(710, 720)이 도시되어 있고, 도 7b에는 제1 비용 함수에 기초하여 보정된 영상들(730, 740)이 도시되어 있고, 도 7c에는 제1 비용 함수 및 제2 비용 함수에 기초하여 보정된 영상들(730, 740)이 도시되어 있다. 도 7b와 도 7c를 비교하면, 영상들(730, 740)의 왜곡이 영상들(730, 740)에 비해 감소되었음을 알 수 있다. 이처럼 실시예들은 영상의 보정 과정에서 발생되는 왜곡을 최소화하는 기술을 제공할 수 있다.7A shows the images 710 and 720 before the correction, FIG. 7B shows the images 730 and 740 corrected based on the first cost function, FIG. 7C shows the first cost function and FIG. 2 compensated images 730 and 740 based on the cost function. Comparing FIGS. 7B and 7C, it can be seen that the distortion of the images 730 and 740 is reduced compared to the images 730 and 740. Embodiments of the present invention can provide a technique for minimizing distortion caused in the image correction process.

도 8은 일 실시예에 따른 기초 매트릭스 결정 방법을 설명하는 도면이다. 도 8을 참조하면, 일 실시예에 따른 프로세서는 스테레오 영상을 수신하고, 단계(810)에서 스테레오 영상에 포함된 특징점들을 추출할 수 있다. 프로세서는 왼쪽 영상으로부터 제1 특징점들을 추출하고 오른쪽 영상으로부터 제2 특징점들을 추출할 수 있다. 예를 들어, 프로세서는 SIFT 방식으로 특징점을 추출할 수 있다. 물론 프로세서는 기존에 알려진 그 밖의 다양한 특징점 추출 기법을 이용하여 특징점들을 추출할 수 있다.8 is a view for explaining a basic matrix determination method according to an embodiment. Referring to FIG. 8, a processor according to an exemplary embodiment may receive a stereo image and extract a feature point included in a stereo image in step 810. FIG. The processor may extract the first feature points from the left image and extract the second feature points from the right image. For example, the processor can extract feature points using the SIFT method. Of course, the processor can extract feature points using various other known feature point extraction techniques.

프로세서는 단계(820)에서 추출된 특징점들에 기초하여, 특징점 대응 쌍을 추출할 수 있다. 프로세서는 제1 특징점들과 제2 특징점들을 서로 정합함으로써, 왼쪽 영상과 오른쪽 영상 사이의 특징점 대응 쌍들을 추출할 수 있다. 예를 들어, 프로세서는 RANSAC 방식으로 제1 특징점들과 제2 특징점들을 서로 정합할 수 있다. 물론 프로세서는 기존에 알려진 그 밖의 다양한 정합 기법을 이용하여 특징점들을 정합할 수 있다.The processor can extract the pair of feature points based on the extracted feature points in step 820. [ The processor can extract pairs of feature points between the left image and the right image by matching the first and second feature points with each other. For example, the processor may match the first feature points and the second feature points with each other in the RANSAC scheme. Of course, the processor can match feature points using a variety of other known matching techniques.

프로세서는 단계(830)에서 특징점 대응 쌍들에 기초하여, 기초 매트릭스 F를 결정할 수 있다. 단계(830)에는 도 1a 내지 도 7c를 통하여 전술한 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.The processor may determine the basis matrix F based on the feature point corresponding pairs in step 830. [ In the step 830, since the above-described matters can be applied as they are through FIGS. 1A to 7C, detailed description will be omitted.

도 9는 일 실시예에 따른 제2 비용함수의 가중치를 적응적으로 결정하는 방법을 설명하는 도면이다. 도 9를 참조하면, 프로세서는 단계(831)에서 스테레오 영상 사이의 호모그래피 매트릭스(homography matrix)를 계산할 수 있다. 9 is a view for explaining a method for adaptively determining a weight of a second cost function according to an embodiment. Referring to FIG. 9, the processor may calculate a homography matrix between stereo images at step 831.

도 10a를 참조하면, 호모그래피 매트릭스는 점(X)에서 제1 광선(1010)을 제2 광선(1020)으로 변환하는 매트릭스이다. 제1 광선(1010)은 3차원 공간 상의 점(X)로부터 제1 시점의 카메라 중심 C로 투영되는 빛의 경로이고, 제2 광선(1020)은 동일한 점(X)로부터 제2 시점의 카메라 중심 C'으로 투영되는 빛의 경로이다. 또는, 호모그래피 매트릭스는 영상(131) 상의 점(x)를 영상(132) 상의 점(x')으로 변환하는 매트릭스일 수도 있다.Referring to FIG. 10A, the homography matrix is a matrix that transforms a first ray 1010 to a second ray 1020 at a point X. FIG. The first ray 1010 is a path of light projected from a point X on the three-dimensional space to the camera center C of the first viewpoint and the second ray 1020 is a path of light from the same point X to the camera center C '. Alternatively, the homography matrix may be a matrix that transforms a point (x) on the image 131 to a point (x ') on the image 132.

점(x)와 점(x')은 추출된 특징점 대응 쌍들 중 하나일 수 있다. 도면에 도시하지 않았으나, 프로세서는 점(x)와 점(x') 이외의 다른 특징점 대응 쌍들을 알 수 있다. 프로세서는 미리 정해진 수의 특징점 대응 쌍들을 이용하여 호모그래피 매트릭스를 계산할 수 있다.The point (x) and point (x ') may be one of the extracted pairs of feature points. Although not shown in the figure, the processor can know the pair of feature points other than the point (x) and the point (x '). The processor may calculate the homography matrix using a predetermined number of pairs of feature points.

다시 도 9를 참조하면, 프로세서는 단계(832)에서 호모그래피 매트릭스를 이용하여, 제2 비용함수의 가중치를 결정할 수 있다. 제2 비용함수는 복수의 왜곡 성분들을 포함할 수 있다. 프로세서는 호모그래피 매트릭스를 이용하여, 제2 비용함수에 포함된 왜곡 성분들의 가중치들을 설정할 수 있다.Referring again to FIG. 9, the processor may use the homography matrix in step 832 to determine the weight of the second cost function. The second cost function may comprise a plurality of distortion components. The processor may use the homography matrix to set the weights of the distortion components included in the second cost function.

도 10b를 참조하면, 호모그래피 매트릭스(1050)는 3 x 3 크기의 매트릭스일 수 있다. 호모그래피 매트릭스(1050)는 뒤틀림 성분(1051), 회전 성분(1052), 스케일 성분(1053), 및 이동 성분(1054)을 포함할 수 있다. Referring to FIG. 10B, the homography matrix 1050 may be a 3 x 3 matrix. The homography matrix 1050 may include a torsion component 1051, a rotational component 1052, a scale component 1053, and a moving component 1054.

프로세서는 뒤틀림 성분(1051)에 기초하여, 제2 비용함수에 포함된 뒤틀림과 관련된 왜곡 성분의 가중치를 결정할 수 있다. 제2 비용함수에 포함된 뒤틀림과 관련된 왜곡 성분은 변환된 영상의 가로 세로 비에 관한 제1 왜곡 성분, 변환된 영상의 뒤틀림에 관한 제2 왜곡 성분 등을 포함할 수 있다. 예를 들어, 프로세서는 수학식 20의 ρAR 및 ρSK를 결정할 수 있다.Based on the distortion component 1051, the processor can determine the weight of the distortion component associated with the distortion included in the second cost function. The distortion component associated with the distortion included in the second cost function may include a first distortion component related to the aspect ratio of the converted image, a second distortion component related to the distortion of the converted image, and the like. For example, the processor may determine ρ AR and ρ SK in equation (20).

또한, 프로세서는 회전 성분(1052)에 기초하여, 제2 비용함수에 포함된 회전과 관련된 왜곡 성분의 가중치를 결정할 수 있다. 제2 비용함수에 포함된 회전과 관련된 왜곡 성분은 원본 영상 대비 변환된 영상이 회전에 관한 제3 왜곡 성분 등을 포함할 수 있다. 예를 들어, 프로세서는 수학식 20의 ρR을 결정할 수 있다.Further, the processor may determine a weight of the distortion component associated with the rotation included in the second cost function, based on the rotation component 1052. [ The distortion component related to the rotation included in the second cost function may include a third distortion component related to the rotation of the transformed image relative to the original image. For example, the processor may determine ρ R in equation (20).

또한, 프로세서는 스케일 성분(1053)에 기초하여, 제2 비용함수에 포함된 스케일과 관련된 왜곡 성분의 가중치를 결정할 수 있다. 제2 비용함수에 포함된 스케일과 관련된 왜곡 성분은 원본 영상 대비 변환된 영상의 면적 비에 관한 제4 왜곡 성분 등을 포함할 수 있다. 예를 들어, 프로세서는 수학식 20의 ρSR을 결정할 수 있다.Further, the processor may determine a weight of a distortion component associated with the scale included in the second cost function, based on the scale component 1053. The distortion component associated with the scale included in the second cost function may include a fourth distortion component related to the area ratio of the converted image to the original image. For example, the processor may determine ρ SR in equation (20).

다시 도 9를 참조하면, 프로세서는 단계(833)에서 기초 매트릭스 F를 결정할 수 있다. 프로세서는 제1 비용함수 및 제2 비용함수의 합이 최소가 되도록 기초 매트릭스 F를 결정할 수 있다. 이 때, 프로세서는 단계(832)에서 결정된 제2 비용함수의 가중치에 기초하여, 제1 비용함수와 제2 비용함수를 가중 합산할 수 있다.Referring again to FIG. 9, the processor may determine the basis matrix F at step 833. The processor may determine the basis matrix F such that the sum of the first cost function and the second cost function is minimized. At this time, the processor may weight-sum the first cost function and the second cost function based on the weight of the second cost function determined in step 832. [

도 11은 일 실시예에 따른 일 실시예에 따른 전자 시스템을 도시하는 블록도이다. 도 11을 참조하면, 전자 시스템은 센서(1120), 프로세서(1110) 및 메모리(1130)를 포함한다. 센서(1120), 프로세서(1110), 및 메모리(1130)는 버스(1140)를 통하여 서로 통신할 수 있다.11 is a block diagram illustrating an electronic system according to one embodiment in accordance with one embodiment. Referring to FIG. 11, the electronic system includes a sensor 1120, a processor 1110, and a memory 1130. Sensor 1120, processor 1110, and memory 1130 may communicate with each other via bus 1140.

센서(1120)는 도 2a에 도시된 스테레오 카메라(210, 220)일 수 있다. 센서(1120)는 잘 알려진 방식(예를 들어, 광학 이미지를 전기 신호로 변환하는 방식 등)으로 스테레오 영상을 캡쳐 할 수 있다. 영상은 프로세서(1110)로 출력된다.The sensor 1120 may be the stereo camera 210, 220 shown in FIG. 2A. The sensor 1120 can capture a stereo image in a well-known manner (e.g., a manner of converting an optical image into an electrical signal, etc.). The image is output to the processor 1110.

프로세서(1110)는 도 1 내지 도 10b를 통하여 전술한 적어도 하나의 모듈들을 포함하거나, 도 1 내지 도 10b를 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(1130)는 센서(1120)에 의하여 캡쳐 된 스테레오 영상, 프로세서(1110)에 의하여 추출된 특징점들, 대응 쌍들, 및/또는 프로세서(1110)에 의하여 계산된 기초 매트릭스 등을 저장할 수 있다. 메모리(1130)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다. The processor 1110 may include at least one of the modules described above with respect to Figures 1 through 10B, or may perform at least one of the methods described above with respect to Figures 1 through 10B. The memory 1130 may store a stereo image captured by the sensor 1120, feature points extracted by the processor 1110, corresponding pairs, and / or a base matrix computed by the processor 1110. [ Memory 1130 may be volatile memory or non-volatile memory.

프로세서(1110)는 프로그램을 실행하고, 전자 시스템을 제어할 수 있다. 프로세서(1110)에 의하여 실행되는 프로그램 코드는 메모리(1130)에 저장될 수 있다. 전자 시스템은 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.The processor 1110 may execute the program and control the electronic system. The program code executed by the processor 1110 may be stored in the memory 1130. [ The electronic system is connected to an external device (e.g., a personal computer or a network) through an input / output device (not shown) and can exchange data.

전자 시스템은 이동 전화, 스마트 폰, PDA, 태블릿 컴퓨터, 랩톱 컴퓨터 등 모바일 장치, 퍼스널 컴퓨터, 태블릿 컴퓨터, 넷북 등 컴퓨팅 장치, 또는 텔레비전, 스마트 텔레비전, 게이트 제어를 위한 보안 장치 등 전자 제품 등 다양한 전자 시스템들을 포함할 수 있다.The electronic system can be used in various electronic systems such as mobile devices, smart phones, PDAs, tablet computers, mobile devices such as laptop computers, computing devices such as personal computers, tablet computers, netbooks, or electronic devices such as televisions, smart televisions, Lt; / RTI &gt;

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the preferred embodiments of the present invention have been disclosed for illustrative purposes, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI &gt; or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (29)

복수의 영상들을 수신하는 단계; 및
상기 영상들 사이의 대응 쌍(corresponding pair)의 거리와 관련된 제1 비용 함수 및 변환된 영상의 왜곡과 관련된 제2 비용 함수에 기초하여, 상기 영상들의 보정(rectification)을 위한 매트릭스를 결정하는 단계
를 포함하는, 영상 보정 방법.
Receiving a plurality of images; And
Determining a matrix for rectification of the images based on a first cost function associated with a distance of a corresponding pair between the images and a second cost function associated with a distortion of the transformed image
And correcting the image.
제1항에 있어서,
상기 제2 비용 함수는
변환된 영상의 가로 세로 비(aspect ratio)에 관한 제1 왜곡 성분;
변환된 영상의 뒤틀림(skewness)에 관한 제2 왜곡 성분;
원본 영상 대비 변환된 영상이 회전(rotation)에 관한 제3 왜곡 성분; 및
원본 영상 대비 변환된 영상의 면적 비(size ratio)에 관한 제4 왜곡 성분
중 적어도 하나를 포함하는, 영상 보정 방법.
The method according to claim 1,
The second cost function
A first distortion component related to the aspect ratio of the converted image;
A second distortion component relating to a skewness of the transformed image;
A third distortion component related to rotation of the original image-transformed image; And
The fourth distortion component with respect to the size ratio of the converted image to the original image
The image correction method comprising:
제1항에 있어서,
상기 제1 비용 함수는
상기 영상들 사이의 대응 쌍들의 샘슨 거리(Sampson distance)의 합을 포함하는, 영상 보정 방법.
The method according to claim 1,
The first cost function
And a sum of Sampson distances of corresponding pairs between the images.
제1항에 있어서,
상기 결정하는 단계는
상기 제1 비용 함수 및 상기 제2 비용 함수의 합이 최소가 되도록, 상기 매트릭스에 포함된 미리 정해진 파라미터들의 값들을 결정하는 단계
를 포함하는, 영상 보정 방법.
The method according to claim 1,
The step of determining
Determining values of predetermined parameters included in the matrix such that a sum of the first cost function and the second cost function is minimized
And correcting the image.
제4항에 있어서,
상기 파라미터들은
상기 영상들 중 제1 영상을 촬영한 제1 카메라의 제1 초점 거리, 상기 영상들 중 제2 영상을 촬영한 제2 카메라의 제2 초점 거리, 상기 제1 카메라의 제1 이격 거리, 상기 제2 카메라의 제2 이격 거리, 상기 제1 카메라의 제1 회전 각도들, 및 상기 제2 카메라의 제2 회전 각도들
을 포함하는, 영상 보정 방법.
5. The method of claim 4,
The parameters
A first focal length of a first camera that has captured a first image of the images, a second focal distance of a second camera that captures a second image of the images, a first distance of the first camera, 2 the second distance of the camera, the first rotation angles of the first camera, and the second rotation angles of the second camera
And an image correcting unit for correcting the image.
제1항에 있어서,
상기 매트릭스는
상기 영상들 중 제1 영상을 변환하는 제1 변환 매트릭스; 및
상기 영상들 중 제2 영상을 변환하는 제2 변환 매트릭스
를 포함하는, 영상 보정 방법.
The method according to claim 1,
The matrix
A first transform matrix for transforming a first image of the images; And
A second transform matrix for transforming a second image of the images,
And correcting the image.
제6항에 있어서,
상기 제1 변환 매트릭스 및 상기 제2 변환 매트릭스 각각은
해당 영상을 촬영한 카메라의 초점에 관한 제1 카메라 매트릭스;
해당 영상을 촬영한 카메라의 이격에 관한 제2 카메라 매트릭스; 및
해당 영상을 촬영한 카메라의 회전에 관한 제3 카메라 매트릭스
를 포함하는, 영상 보정 방법.
The method according to claim 6,
Wherein each of the first transformation matrix and the second transformation matrix
A first camera matrix relating to a focus of a camera that captures the image;
A second camera matrix relating to the separation of the camera that captured the image; And
The third camera matrix relating to the rotation of the camera
And correcting the image.
제1항에 있어서,
상기 영상들로부터 특징점들을 추출하는 단계; 및
상기 영상들 사이에서 상기 특징점들을 정합함으로써, 상기 영상들 사이의 대응 쌍들을 추출하는 단계
를 더 포함하는, 영상 보정 방법.
The method according to claim 1,
Extracting feature points from the images; And
Extracting corresponding pairs between the images by matching the feature points between the images
Further comprising the steps of:
제1항에 있어서,
상기 영상들 사이의 대응 쌍들에 기초하여 상기 복수의 영상들 사이의 호모그래피 매트릭스(homography matrix)를 계산하는 단계; 및
상기 호모그래피 매트릭스에 기초하여 상기 제2 비용함수의 가중치를 결정하는 단계
를 더 포함하는, 영상 보정 방법.
The method according to claim 1,
Calculating a homography matrix between the plurality of images based on corresponding pairs between the images; And
Determining a weight of the second cost function based on the homography matrix
Further comprising the steps of:
제9항에 있어서,
상기 가중치를 결정하는 단계는
상기 호모그래피 매트릭스의 뒤틀림 성분에 기초하여, 상기 제2 비용함수에 포함된 뒤틀림과 관련된 왜곡 성분의 가중치를 결정하는 단계;
상기 호모그래피 매트릭스의 회전 성분에 기초하여, 상기 제2 비용함수에 포함된 회전과 관련된 왜곡 성분의 가중치를 결정하는 단계; 및
상기 호모그래피 매트릭스의 스케일 성분에 기초하여, 상기 제2 비용함수에 포함된 스케일과 관련된 왜곡 성분의 가중치를 결정하는 단계
중 적어도 하나를 포함하는, 영상 보정 방법.
10. The method of claim 9,
The step of determining the weights
Determining a weight of a distortion component associated with distortion included in the second cost function based on a distortion component of the homography matrix;
Determining a weight of a distortion component associated with rotation included in the second cost function based on the rotational component of the homography matrix; And
Determining a weight of a distortion component associated with a scale included in the second cost function based on a scale component of the homography matrix
The image correction method comprising:
제1항에 있어서,
상기 매트릭스에 기초하여 상기 복수의 영상들을 변환하는 단계; 및
상기 변환된 영상들에 기초하여 스테레오 매칭을 수행하는 단계
를 더 포함하는, 영상 보정 방법.
The method according to claim 1,
Transforming the plurality of images based on the matrix; And
Performing stereo matching based on the transformed images
Further comprising the steps of:
제1항에 있어서,
상기 복수의 영상들은 스테레오 영상을 포함하는, 영상 보정 방법.
The method according to claim 1,
Wherein the plurality of images include a stereo image.
하드웨어와 결합되어 제1항 내지 제12항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.12. A computer program stored in a medium for executing the method of any one of claims 1 to 12 in combination with hardware. 복수의 영상들을 수신하는 수신부; 및
상기 영상들 사이의 대응 쌍의 거리와 관련된 제1 비용 함수 및 변환된 영상의 왜곡과 관련된 제2 비용 함수에 기초하여, 상기 영상들의 보정을 위한 매트릭스를 결정하는 결정부
를 포함하는, 영상 보정 장치.
A receiving unit for receiving a plurality of images; And
Determining a matrix for correction of the images based on a first cost function associated with a distance of a corresponding pair between the images and a second cost function associated with distortion of the transformed image,
And an image correcting unit for correcting the image.
제14항에 있어서,
상기 제2 비용 함수는
변환된 영상의 가로 세로 비에 관한 제1 왜곡 성분;
변환된 영상의 뒤틀림에 관한 제2 왜곡 성분;
원본 영상 대비 변환된 영상이 회전에 관한 제3 왜곡 성분; 및
원본 영상 대비 변환된 영상의 면적 비에 관한 제4 왜곡 성분
중 적어도 하나를 포함하는, 영상 보정 장치.
15. The method of claim 14,
The second cost function
A first distortion component relating to the aspect ratio of the converted image;
A second distortion component related to distortion of the converted image;
A third distortion component with respect to the original image and the rotated image is rotated; And
The fourth distortion component with respect to the area ratio of the converted image to the original image
The image correction device comprising:
제14항에 있어서,
상기 제1 비용 함수는
상기 영상들 사이의 대응 쌍들의 샘슨 거리의 합을 포함하는, 영상 보정 장치.
15. The method of claim 14,
The first cost function
And a sum of the Samson distances of corresponding pairs between the images.
제14항에 있어서,
상기 결정부는
상기 제1 비용 함수 및 상기 제2 비용 함수의 합이 최소가 되도록, 상기 매트릭스에 포함된 미리 정해진 파라미터들의 값들을 결정하는, 영상 보정 장치.
15. The method of claim 14,
The determination unit
And determines values of predetermined parameters included in the matrix such that a sum of the first cost function and the second cost function is minimized.
제17항에 있어서,
상기 파라미터들은
상기 영상들 중 제1 영상을 촬영한 제1 카메라의 제1 초점 거리, 상기 영상들 중 제2 영상을 촬영한 제2 카메라의 제2 초점 거리, 상기 제1 카메라의 제1 이격 거리, 상기 제2 카메라의 제2 이격 거리, 상기 제1 카메라의 제1 회전 각도들, 및 상기 제2 카메라의 제2 회전 각도들
을 포함하는, 영상 보정 장치.
18. The method of claim 17,
The parameters
A first focal length of a first camera that has captured a first image of the images, a second focal distance of a second camera that captures a second image of the images, a first distance of the first camera, 2 the second distance of the camera, the first rotation angles of the first camera, and the second rotation angles of the second camera
And an image correcting device for correcting the image.
제14항에 있어서,
상기 매트릭스는
상기 영상들 중 제1 영상을 변환하는 제1 변환 매트릭스; 및
상기 영상들 중 제2 영상을 변환하는 제2 변환 매트릭스
를 포함하는, 영상 보정 장치.
15. The method of claim 14,
The matrix
A first transform matrix for transforming a first image of the images; And
A second transform matrix for transforming a second image of the images,
And an image correcting unit for correcting the image.
제19항에 있어서,
상기 제1 변환 매트릭스 및 상기 제2 변환 매트릭스 각각은
해당 영상을 촬영한 카메라의 초점에 관한 제1 카메라 매트릭스;
해당 영상을 촬영한 카메라의 이격에 관한 제2 카메라 매트릭스; 및
해당 영상을 촬영한 카메라의 회전에 관한 제3 카메라 매트릭스
를 포함하는, 영상 보정 장치.
20. The method of claim 19,
Wherein each of the first transformation matrix and the second transformation matrix
A first camera matrix relating to a focus of a camera that captures the image;
A second camera matrix relating to the separation of the camera that captured the image; And
The third camera matrix relating to the rotation of the camera
And an image correcting unit for correcting the image.
제14항에 있어서,
상기 영상들로부터 특징점들을 추출하고, 상기 영상들 사이에서 상기 특징점들을 정합함으로써 상기 영상들 사이의 대응 쌍들을 추출하는 추출부
를 더 포함하는, 영상 보정 장치.
15. The method of claim 14,
Extracting feature points from the images and extracting corresponding pairs between the images by matching the feature points between the images,
Further comprising:
제14항에 있어서,
상기 결정부는
상기 영상들 사이의 대응 쌍들에 기초하여 상기 복수의 영상들 사이의 호모그래피 매트릭스를 계산하고, 상기 호모그래피 매트릭스에 기초하여 상기 제2 비용함수의 가중치를 결정하는, 영상 보정 장치.
15. The method of claim 14,
The determination unit
Calculate a homography matrix between the plurality of images based on corresponding pairs between the images, and determine a weight of the second cost function based on the homography matrix.
제14항에 있어서,
상기 매트릭스에 기초하여 상기 복수의 영상들을 변환하는 변환부; 및
상기 변환된 영상들에 기초하여 스테레오 매칭을 수행하는 매칭부
를 더 포함하는, 영상 보정 장치.
15. The method of claim 14,
A transform unit for transforming the plurality of images based on the matrix; And
A matching unit for performing stereo matching based on the converted images,
Further comprising:
스테레오 영상을 획득하는 단계;
상기 스테레오 영상으로부터 특징점들을 추출하는 단계;
왼쪽 영상의 특징점들과 오른쪽 영상의 특징점들을 정합함으로써 대응 쌍들을 추출하는 단계; 및
대응 쌍의 거리와 관련된 제1 비용함수 및 변환된 영상의 왜곡과 관련된 제2 비용함수에 기초하여, 상기 스테레오 영상의 기초 매트릭스를 결정하는 단계
를 포함하는 영상 처리 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
Obtaining a stereo image;
Extracting feature points from the stereo image;
Extracting corresponding pairs by matching feature points of a left image and feature points of a right image; And
Determining a basis matrix of the stereo image based on a first cost function associated with the distance of the corresponding pair and a second cost function associated with the distortion of the transformed image
And a program code for causing the computer to execute the image processing method.
제24항에 있어서,
상기 영상 처리 방법은
상기 대응 쌍들에 기초하여, 상기 스테레오 영상 사이의 호모그래피 매트릭스를 계산하는 단계; 및
상기 호모그래피 매트릭스에 기초하여, 상기 제2 비용함수에 포함된 적어도 하나의 왜곡 성분의 가중치를 결정하는 단계
를 더 포함하는, 컴퓨터 판독 가능한 기록 매체.
25. The method of claim 24,
The image processing method
Calculating a homography matrix between the stereo images based on the corresponding pairs; And
Determining a weight of at least one distortion component included in the second cost function based on the homography matrix,
The computer program product further comprising:
제25항에 있어서,
상기 가중치를 결정하는 단계는
상기 호모그래피 매트릭스의 뒤틀림 성분에 기초하여, 상기 제2 비용함수에 포함된 뒤틀림과 관련된 왜곡 성분의 가중치를 결정하는 단계;
상기 호모그래피 매트릭스의 회전 성분에 기초하여, 상기 제2 비용함수에 포함된 회전과 관련된 왜곡 성분의 가중치를 결정하는 단계; 및
상기 호모그래피 매트릭스의 스케일 성분에 기초하여, 상기 제2 비용함수에 포함된 스케일과 관련된 왜곡 성분의 가중치를 결정하는 단계
중 적어도 하나를 포함하는, 컴퓨터 판독 가능한 기록 매체.
26. The method of claim 25,
The step of determining the weights
Determining a weight of a distortion component associated with distortion included in the second cost function based on a distortion component of the homography matrix;
Determining a weight of a distortion component associated with rotation included in the second cost function based on the rotational component of the homography matrix; And
Determining a weight of a distortion component associated with a scale included in the second cost function based on a scale component of the homography matrix
&Lt; / RTI &gt;
제26항에 있어서,
상기 뒤틀림과 관련된 왜곡 성분은
변환된 영상의 가로 세로 비에 관한 제1 왜곡 성분; 및
변환된 영상의 뒤틀림에 관한 제2 왜곡 성분
중 적어도 하나를 포함하는, 컴퓨터 판독 가능한 기록 매체.
27. The method of claim 26,
The distortion component associated with the distortion
A first distortion component relating to the aspect ratio of the converted image; And
The second distortion component related to the distortion of the converted image
&Lt; / RTI &gt;
제26항에 있어서,
상기 회전과 관련된 왜곡 성분은
원본 영상 대비 변환된 영상이 회전에 관한 제3 왜곡 성분
을 포함하는, 컴퓨터 판독 가능한 기록 매체.
27. The method of claim 26,
The distortion component associated with the rotation
A third distortion component related to the rotation of the converted image relative to the original image
Readable recording medium.
제26항에 있어서,
상기 스케일과 관련된 왜곡 성분은
원본 영상 대비 변환된 영상의 면적 비에 관한 제4 왜곡 성분
을 포함하는, 컴퓨터 판독 가능한 기록 매체.
27. The method of claim 26,
The distortion component associated with the scale
The fourth distortion component with respect to the area ratio of the converted image to the original image
Readable recording medium.
KR1020150174179A 2015-02-09 2015-12-08 Rectification method for stereo image and apparatus thereof KR102434567B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/015,447 US10063831B2 (en) 2015-02-09 2016-02-04 Method and apparatus for stereo image rectification

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150019350 2015-02-09
KR1020150019350 2015-02-09

Publications (2)

Publication Number Publication Date
KR20160098020A true KR20160098020A (en) 2016-08-18
KR102434567B1 KR102434567B1 (en) 2022-08-23

Family

ID=56874467

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150174179A KR102434567B1 (en) 2015-02-09 2015-12-08 Rectification method for stereo image and apparatus thereof

Country Status (1)

Country Link
KR (1) KR102434567B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102076635B1 (en) * 2018-10-16 2020-02-12 (주)캠시스 Apparatus and method for generating panorama image for scattered fixed cameras
KR20200017172A (en) * 2018-08-08 2020-02-18 삼성전자주식회사 Electronic device for blurring an image obtained by combining a plurality of images based on depth information and method of driving the electronic device
KR20200024393A (en) * 2018-08-28 2020-03-09 한국과학기술원 Real-Time Reconstruction Method of Spherical 3D 360 Imaging and Apparatus Therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120079357A (en) * 2011-01-04 2012-07-12 포항공과대학교 산학협력단 Method of processing image and apparatus for the same
KR20140054710A (en) * 2012-10-29 2014-05-09 경북대학교 산학협력단 Apparatus and method for generating 3d map

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120079357A (en) * 2011-01-04 2012-07-12 포항공과대학교 산학협력단 Method of processing image and apparatus for the same
KR20140054710A (en) * 2012-10-29 2014-05-09 경북대학교 산학협력단 Apparatus and method for generating 3d map

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200017172A (en) * 2018-08-08 2020-02-18 삼성전자주식회사 Electronic device for blurring an image obtained by combining a plurality of images based on depth information and method of driving the electronic device
KR20200024393A (en) * 2018-08-28 2020-03-09 한국과학기술원 Real-Time Reconstruction Method of Spherical 3D 360 Imaging and Apparatus Therefor
KR102076635B1 (en) * 2018-10-16 2020-02-12 (주)캠시스 Apparatus and method for generating panorama image for scattered fixed cameras

Also Published As

Publication number Publication date
KR102434567B1 (en) 2022-08-23

Similar Documents

Publication Publication Date Title
CN109523581B (en) Three-dimensional point cloud alignment method and device
US10059002B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
CN107633526B (en) Image tracking point acquisition method and device and storage medium
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
WO2022052582A1 (en) Image registration method and device, electronic apparatus, and storage medium
US9832454B2 (en) Method and apparatus for matching stereo images
US20150093042A1 (en) Parameter calibration method and apparatus
JP2016100899A (en) Method and apparatus for calibrating image
CN108447090B (en) Object posture estimation method and device and electronic equipment
KR20170091496A (en) Method and apparatus for processing binocular image
JPWO2020188799A1 (en) Camera calibration device, camera calibration method, and program
US10154176B1 (en) Calibrating depth cameras using natural objects with expected shapes
US20210334569A1 (en) Image depth determining method and living body identification method, circuit, device, and medium
JP6662382B2 (en) Information processing apparatus and method, and program
CN111062966A (en) Method for optimizing camera tracking based on L-M algorithm and polynomial interpolation
KR20160098020A (en) Rectification method for stereo image and apparatus thereof
CN114608521B (en) Monocular ranging method and device, electronic equipment and storage medium
US10063831B2 (en) Method and apparatus for stereo image rectification
KR20150097251A (en) Camera alignment method using correspondences between multi-images
US20120076355A1 (en) 3d object tracking method and apparatus
JP5769248B2 (en) Stereo matching processing device, stereo matching processing method, and program
KR102371594B1 (en) Apparatus for automatic calibration of stereo camera image, system having the same and method thereof
WO2020144757A1 (en) Camera parameter estimation device, camera parameter estimation method, and computer-readable recording medium
US10417783B2 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant