KR101351911B1 - Apparatus and method for processing image of camera - Google Patents

Apparatus and method for processing image of camera Download PDF

Info

Publication number
KR101351911B1
KR101351911B1 KR1020120085020A KR20120085020A KR101351911B1 KR 101351911 B1 KR101351911 B1 KR 101351911B1 KR 1020120085020 A KR1020120085020 A KR 1020120085020A KR 20120085020 A KR20120085020 A KR 20120085020A KR 101351911 B1 KR101351911 B1 KR 101351911B1
Authority
KR
South Korea
Prior art keywords
camera
image
plane
virtual space
virtual
Prior art date
Application number
KR1020120085020A
Other languages
Korean (ko)
Inventor
한영인
전성제
Original Assignee
주식회사 이미지넥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이미지넥스트 filed Critical 주식회사 이미지넥스트
Priority to KR1020120085020A priority Critical patent/KR101351911B1/en
Application granted granted Critical
Publication of KR101351911B1 publication Critical patent/KR101351911B1/en

Links

Images

Classifications

    • G06T3/073
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

The present invention relates to an image processing device of a camera. The present invention includes a calculation unit calculating a projection conversion matrix between a real space and a camera image plane and calculating homography between the camera image plane and a virtual space image plane on which a predetermined pattern is formed by using the projection conversion matrix; a conversion unit projecting virtual space images on the camera image plane by using the homography; and a composing unit composing the virtual space images projected on the camera image plane with camera images. [Reference numerals] (110a,110n) Camera; (120) Estimating unit; (130) Calculation unit; (140) Conversion unit; (150) Correction unit; (160) Composing unit; (170) Display unit

Description

카메라의 영상 처리 장치 및 방법{Apparatus and Method for Processing Image of Camera}Apparatus and Method for Processing Image of Camera

본 발명은 카메라의 영상 처리 장치 및 방법에 관한 것으로, 보다 자세하게는 자동차에 설치된 카메라를 통해 자동차 주변 환경의 영상을 촬영하여 표시할 수 있는 카메라의 영상 처리 장치 및 방법에 관한 것이다.The present invention relates to an image processing apparatus and method of a camera, and more particularly, to an image processing apparatus and method of a camera capable of capturing and displaying an image of the surrounding environment of a vehicle through a camera installed in a vehicle.

일반적으로 운전자의 편의를 위하여 자동차의 주변 환경을 촬영하여 표시함으로써 운전자가 자동차의 주변 환경을 육안을 통해 편리하게 확인할 수 있는 카메라 영상 시스템이 보편적으로 사용되고 있다.In general, a camera imaging system that allows the driver to conveniently check the surrounding environment of the vehicle by visually photographing and displaying the surrounding environment of the vehicle for the convenience of the driver is commonly used.

이러한 카메라 영상 시스템은 자동차의 전방, 후방 및 좌우측에 각각 설치된 카메라를 통해 주변 환경을 촬영하고, 촬영된 주변 환경의 영상을 합성하여 표시함으로써 운전자가 자동차의 주변 상황을 정확하게 인식할 수 있도록 하고, 사이드 미러(side mirror)나 백 미러(back mirror)를 보지 않고도 편리하게 주차를 할 수 있도록 하였으나, 자동차의 전방, 후방 및 좌우측 영상을 단순히 조합하여 표시하기 때문에 영상 간에 겹치는 중복 영역에 대한 영상 처리가 자연스럽게 수행되지 못하는 문제점이 있었다. The camera imaging system photographs the surrounding environment through cameras installed on the front, rear, left and right sides of the car, and displays the synthesized image of the surrounding environment so that the driver can accurately recognize the surrounding situation of the car. Although parking is convenient without looking at the side mirror or the back mirror, the front, rear and left and right images of the car are simply combined and displayed, so the image processing for overlapping areas overlapped naturally. There was a problem that could not be performed.

또한, 실제 세계를 카메라를 통한 영상으로 제공하기 때문에 실제 세계와 영상 간의 거리감으로 인해 운전자가 현재 자동차의 주변 환경을 정확하게 인식하지 못하는 문제점이 있었다.In addition, since the real world is provided as an image through a camera, there is a problem that the driver does not accurately recognize the surrounding environment of the vehicle due to the distance between the real world and the image.

상술한 문제점을 해결하기 위해 종래의 카메라 영상 시스템은 바닥에 가이드 라인을 직접 마킹(marking)하고 카메라를 통해 가이드 라인이 마킹된 바닥의 영상을 촬영한 다음에, 가이드 라인에 해당하는 이미지 좌표를 획득하여 카메라 영상에 가이드 라인을 표시하는 방식을 사용하였다.In order to solve the above problems, the conventional camera imaging system directly marks a guideline on the floor, captures an image of the floor on which the guideline is marked through the camera, and then acquires image coordinates corresponding to the guideline. A guideline was displayed on the camera image.

그러나, 종래의 카메라 영상 시스템은 카메라의 장착 위치나 각도 등에 따라 가이드 라인과 영상이 실제와 다르게 왜곡되어 표시되기 때문에 운전자에게 왜곡된 정보를 제공할 수 있는 문제점이 있었다.However, the conventional camera imaging system has a problem that can provide distorted information to the driver because the guide line and the image are distorted and displayed differently according to the mounting position or angle of the camera.

또한, 자동차의 종류, 카메라의 장착 위치나 각도에 따라 가이드 라인을 마킹하는 작업을 직접 보정해야 하기 때문에 시간이 오래 걸리고 많은 비용이 발생하는 문제점이 있었다.In addition, since it is necessary to directly correct the marking of the guideline according to the type of the vehicle, the mounting position or the angle of the camera, it takes a long time and a high cost.

KRKR 2009-00169662009-0016966 AA

본 발명이 해결하고자 하는 과제는 실제 공간에 가이드 라인을 직접 표시하지 않아도 가상 공간을 이용하여 카메라 이미지에 가이드 라인을 보다 용이하게 표시할 수 있는 카메라의 영상 처리 장치 및 방법을 제공함에 있다.An object of the present invention is to provide an apparatus and method for processing an image of a camera that can more easily display guide lines on a camera image using a virtual space without directly displaying the guide lines in a real space.

또한, 본 발명이 해결하고자 하는 다른 과제는 가상 시점 변환 모델을 이용하여 가상 시점의 카메라 이미지를 생성하고, 가상 시점의 카메라 이미지에 가상 시점의 가이드 라인을 표시함으로써 사용자가 원하는 다양한 시점의 카메라 이미지를 출력할 수 있는 카메라의 영상 처리 장치 및 방법을 제공함에 있다.In addition, another problem to be solved by the present invention is to create a camera image of the virtual view using the virtual view transformation model, and to display the camera image of the various views desired by the user by displaying the guide line of the virtual view on the camera image of the virtual view. An image processing apparatus and method for outputting a camera are provided.

이러한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 카메라의 영상 처리 장치는 실세계 공간과 카메라 이미지 평면 간의 투영 변환 행렬을 구하고, 상기 투영 변환 행렬을 이용하여 소정의 패턴이 형성된 가상 공간 이미지 평면과 상기 카메라 이미지 평면 간의 호모그래피를 구하는 연산부; 상기 호모그래피를 이용하여 상기 가상 공간 이미지를 상기 카메라 이미지 평면에 투영하는 변환부; 상기 카메라 이미지 평면에 투영된 가상 공간 이미지를 상기 카메라 이미지에 합성하는 합성부를 포함한다.The image processing apparatus of the camera according to an embodiment of the present invention for solving this problem is to obtain a projection transformation matrix between the real world space and the camera image plane, and the virtual space image plane having a predetermined pattern formed using the projection transformation matrix A calculating unit for obtaining homography between the camera image planes; A transformation unit projecting the virtual space image to the camera image plane using the homography; And a synthesizer configured to synthesize the virtual space image projected on the camera image plane into the camera image.

상기 변환부는 가상 시점 변환 모델을 이용하여 상기 카메라 이미지 및 상기 가상 공간 이미지를 가상 시점의 카메라 이미지 및 가상 시점의 가상 공간 이미지로 각각 변환하고, 상기 가상 시점의 가상 공간 이미지를 상기 가상 시점의 카메라 이미지 평면에 투영할 수 있다.The converting unit converts the camera image and the virtual space image into a camera image of the virtual view and a virtual space image of the virtual view by using a virtual view transformation model, and converts the virtual space image of the virtual view to the camera image of the virtual view. Can be projected onto a plane.

카메라의 위치 및 자세를 추정하는 추정부를 더 포함하고, 상기 연산부는 상기 카메라의 위치 및 자세를 포함하는 카메라 정보를 이용하여 상기 실세계 공간과 상기 카메라 이미지 평면 간의 투영 변환 행렬을 구할 수 있다.The apparatus may further include an estimator configured to estimate a position and a pose of the camera, and the calculator may calculate a projection transformation matrix between the real world space and the camera image plane using camera information including the position and the pose of the camera.

상기 추정부는 상기 카메라를 통해 촬영된 교정 지표 이미지를 수신하고, 상기 교정 지표 이미지를 이용하여 상기 카메라의 위치 및 자세를 추정할 수 있다.The estimator may receive a calibration index image photographed through the camera and estimate the position and attitude of the camera using the calibration index image.

상기 가상 공간 이미지 평면은 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나로 이루어질 수 있다.The virtual space image plane may include at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane.

상기 연산부는 상기 투영 변환 행렬을 이용하여 상기 가상 공간 이미지 평면의 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나에 해당하는 호모그래피를 구할 수 있다.The operation unit may obtain a homography corresponding to at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane of the virtual space image plane using the projection transformation matrix.

왜곡 보정 모델을 이용하여 상기 카메라 이미지의 왜곡 및 상기 가상 공간 이미지의 왜곡을 보정하는 보정부를 더 포함할 수 있다.The apparatus may further include a correction unit configured to correct distortion of the camera image and distortion of the virtual space image by using a distortion correction model.

상기 카메라는 자동차에 설치되고, 상기 소정의 패턴은 상기 자동차의 주차를 위한 가이드 라인일 수 있다.The camera may be installed in a vehicle, and the predetermined pattern may be a guide line for parking the vehicle.

한편, 본 발명의 일 실시예에 따른 카메라의 영상 처리 방법은 실세계 공간과 카메라 이미지 평면 간의 투영 변환 행렬을 구하는 단계; 상기 투영 변환 행렬을 이용하여 소정의 패턴이 형성된 가상 공간 이미지 평면과 상기 카메라 이미지 평면 간의 호모그래피를 구하는 단계; 상기 호모그래피를 이용하여 상기 가상 공간 이미지를 상기 카메라 이미지 평면에 투영하는 단계; 상기 카메라 이미지 평면에 투영된 상기 가상 공간 이미지를 상기 카메라 이미지에 합성하는 단계를 포함한다.On the other hand, the image processing method of the camera according to an embodiment of the present invention comprises the steps of obtaining a projection transformation matrix between the real world space and the camera image plane; Obtaining a homography between the virtual space image plane having a predetermined pattern and the camera image plane using the projection transformation matrix; Projecting the virtual spatial image onto the camera image plane using the homography; Compositing the virtual space image projected on the camera image plane to the camera image.

상기 호모그래피를 구하는 단계 이후에, 가상 시점 변환 모델을 이용하여 상기 카메라 이미지 및 상기 가상 공간 이미지를 가상 시점의 카메라 이미지 및 가상 시점의 가상 공간 이미지로 각각 변환하는 단계를 더 포함하고, 상기 투영 단계는 상기 가상 시점의 가상 공간 이미지를 상기 가상 시점의 카메라 이미지 평면에 투영할 수 있다.And after the obtaining of the homography, converting the camera image and the virtual space image into a camera image of the virtual view and a virtual space image of the virtual view by using a virtual view transformation model. May project the virtual space image of the virtual viewpoint to the camera image plane of the virtual viewpoint.

상기 투영 변환 행렬을 구하는 단계 이전에, 카메라의 위치 및 자세를 추정하는 단계를 더 포함하고, 상기 투영 변환 행렬을 구하는 단계는 상기 카메라의 위치 및 자세를 포함하는 카메라 정보를 이용하여 상기 실세계 공간과 상기 카메라 이미지 평면 간의 투영 변환 행렬을 구할 수 있다.Prior to obtaining the projection transformation matrix, the method may further include estimating the position and attitude of the camera, wherein the calculating of the projection transformation matrix may include: using the camera information including the position and the attitude of the camera; The projection transformation matrix between the camera image planes may be obtained.

상기 추정 단계는 상기 카메라를 통해 촬영된 교정 지표 이미지를 수신하고, 상기 교정 지표 이미지를 이용하여 상기 카메라의 위치 및 자세를 추정할 수 있다.In the estimating step, the calibration index image photographed by the camera may be received, and the position and attitude of the camera may be estimated using the calibration index image.

상기 투영 단계 이후에, 왜곡 보정 모델을 이용하여 상기 카메라 이미지의 왜곡 및 상기 가상 공간 이미지의 왜곡을 보정하는 단계를 더 포함할 수 있다.After the projecting step, the method may further include correcting the distortion of the camera image and the distortion of the virtual space image using a distortion correction model.

상기 가상 공간 이미지 평면은 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나로 이루어질 수 있다.The virtual space image plane may include at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane.

상기 호모그래피를 구하는 단계는 상기 투영 변환 행렬을 이용하여 상기 가상 공간 이미지 평면의 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나에 해당하는 호모그래피를 구할 수 있다.The obtaining of the homography may obtain homography corresponding to at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane of the virtual space image plane by using the projection transformation matrix.

상기 카메라는 자동차에 설치되고, 상기 소정의 패턴은 상기 자동차의 주차를 위한 가이드 라인일 수 있다.The camera may be installed in a vehicle, and the predetermined pattern may be a guide line for parking the vehicle.

이와 같이 본 발명의 실시예에 따른 카메라의 영상 처리 장치 및 방법에 따르면, 실제 공간에 가이드 라인을 직접 표시하지 않아도 가상 공간을 이용하여 카메라 이미지에 가이드 라인을 보다 용이하게 표시할 수 있는 장점이 있다. As described above, according to the apparatus and method for processing an image of a camera according to an exemplary embodiment of the present invention, a guideline may be more easily displayed on a camera image using a virtual space without directly displaying the guideline in a real space. .

보다 구체적으로는, 바닥 등과 같은 실제 공간에 가이드 라인을 직접 표시하지 않고도 가상 공간 상에 가이드 라인을 형성하여 카메라 이미지 평면 상에 투영함으로써 카메라 이미지에 가상 공간의 가이드 라인을 보다 용이하게 합성하여 표시할 수 있는 장점이 있다.More specifically, by forming a guide line on the virtual space and projecting it on the camera image plane without directly displaying the guide line in a real space such as a floor or the like, the guide line of the virtual space can be easily synthesized and displayed on the camera image. There are advantages to it.

또한, 가상 시점 변환 모델을 이용하여 가상 시점의 카메라 이미지를 생성하고, 생성된 가상 시점의 카메라 이미지에 가상 시점의 가이드 라인을 표시함으로써 사용자가 원하는 다양한 시점의 카메라 이미지를 출력할 수 있으며, 이와 같이, 다양한 시점에서 가이드 라인을 표시할 수 있기 때문에 운전자가 보다 안전하고 용이하게 자동차를 주차할 수 있는 장점이 있다.In addition, by generating a camera image of the virtual view using the virtual view transformation model, by displaying the guide line of the virtual view on the generated camera image of the virtual view, it is possible to output the camera image of the various views desired by the user. In addition, since the guideline can be displayed at various points of view, the driver can park the car more safely and easily.

그리고, 자동차에 설치된 카메라의 위치 및 자세를 자동으로 계산하여 가이드 라인을 생성할 수 있으며, 카메라 이미지를 가상 시점으로 변환하고자 할 경우에도 보다 쉽게 가이드 라인을 가상 시점으로 변환하여 표시할 수 있기 때문에 운전자의 편의성을 향상시킬 수 있는 장점이 있다.In addition, the guideline can be generated by automatically calculating the position and posture of the camera installed in the car, and even when the camera image is converted to the virtual viewpoint, the guideline can be easily converted to the virtual viewpoint and displayed. There is an advantage to improve the convenience of.

게다가, 자동차의 종류, 카메라의 위치나 자세에 따라 실제로 가이드 라인을 표시하지 않아도 가상 공간을 이용하여 보다 손쉽게 가이드 라인을 표시할 수 있으며, 가상 공간이 이미지로 표현되기 때문에 임의의 그림으로도 가이드 라인을 표현할 수 있으며, 가상 공간의 벽면을 이용하여 입체적인 그림으로도 표현 가능한 장점이 있다.In addition, the guideline can be displayed more easily using the virtual space without actually displaying the guideline according to the type of the car, the position or the posture of the camera. It can be expressed, and there is an advantage that can be expressed as a three-dimensional picture using the wall of the virtual space.

또한, 종래 기술에서와 같이, 바닥에 가이드 라인을 직접 표시하는 공정을 삭제할 수 있기 때문에 가이드 라인을 마킹할 공간을 임대해야 하는 번거로움이나 가이드 라인을 마킹하는 작업 시간을 단축할 수 있으며, 아울러 비용까지 절감할 수 있는 장점이 있다.In addition, as in the prior art, the process of directly marking the guideline on the floor can be eliminated, thereby reducing the trouble of renting a space for marking the guideline or the time for marking the guideline, and at the same time, the cost. There is an advantage that can be reduced.

그리고, 카메라 이미지에 가이드 라인을 표시하는 작업이 모두 컴퓨터에서 이루어지고 별도의 작업 공간이 필요하지 않으므로 환경 오염을 감소시킬 수 있는 장점이 있다.In addition, since all the operations of displaying the guideline on the camera image are performed on the computer and do not require a separate working space, there is an advantage of reducing environmental pollution.

도 1은 본 발명의 일 실시예에 따른 카메라의 영상 처리 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 가상 공간의 예시도이다.
도 3은 본 발명의 일 실시예에 따른 소정 패턴이 형성된 가상 공간 이미지 의 예시도이다.
도 4는 세계(world) 좌표계를 카메라 좌표계로 변환시키는 과정을 나타내는 도면이다.
도 5는 3차원 공간 상의 꼭지점이 렌즈를 통과하여 2차원 이미지 평면에 맺히는 것을 나타내는 도면이다.
도 6은 왜곡이 있는 카메라 이미지 및 왜곡이 없는 카메라 이미지의 예시도이다.
도 7은 본 발명의 일 실시예에 따른 왜곡이 보정된 가상 공간 이미지의 예시도이다.
도 8은 본 발명의 일 실시예에 따른 가상 공간 이미지와 카메라 이미지를 합성하는 과정을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 따른 카메라의 영상 처리 과정을 보여주는 동작 흐름도이다.
1 is a block diagram of an image processing apparatus of a camera according to an embodiment of the present invention.
2 is an exemplary diagram of a virtual space according to an embodiment of the present invention.
3 is an exemplary diagram of a virtual space image in which a predetermined pattern is formed according to an embodiment of the present invention.
4 is a diagram illustrating a process of converting a world coordinate system into a camera coordinate system.
FIG. 5 is a diagram illustrating that vertices on a three-dimensional space pass through a lens to form a two-dimensional image plane.
6 is an exemplary view of a camera image with distortion and a camera image without distortion.
7 is an exemplary diagram of a virtual space image in which distortion is corrected according to an embodiment of the present invention.
8 illustrates a process of synthesizing a virtual space image and a camera image according to an embodiment of the present invention.
9 is an operation flowchart showing an image processing process of a camera according to an embodiment of the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms and the inventor may appropriately define the concept of the term in order to best describe its invention It should be construed as meaning and concept consistent with the technical idea of the present invention.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiments of the present invention and do not represent all of the technical idea of the present invention, various equivalents that may be substituted for them at the time of the present application It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 카메라의 영상 처리 장치의 구성도를 나타낸다.1 is a block diagram of an image processing apparatus of a camera according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 카메라의 영상 처리 장치(100)는 자동차에 설치된 복수 개의 카메라를 통해 자동차의 주변 영상을 촬영하고, 촬영된 자동차의 주변 영상에 가이드 라인(guide line)과 같은 소정 패턴이 표시되도록 제어함으로써 운전자가 보다 안전하고 용이하게 주차할 수 있게 하는 장치이다.As shown in FIG. 1, the image processing apparatus 100 of a camera photographs a surrounding image of a vehicle through a plurality of cameras installed in a vehicle, and a predetermined pattern, such as a guide line, on the captured image of the surrounding vehicle. It is a device that controls the display so that the driver can park more safely and easily.

이러한 카메라의 영상 처리 장치(100)는 복수 개의 카메라(110a~110n), 추정부(120), 연산부(130), 변환부(140), 보정부(150), 합성부(160) 및 표시부(170)를 포함하여 구성된다.The image processing apparatus 100 of the camera includes a plurality of cameras 110a to 110n, an estimator 120, a calculator 130, a converter 140, a corrector 150, a synthesizer 160, and a display unit ( 170).

이 중에서 복수 개의 카메라(110a~110n)는 각각 자동차의 전방, 후방, 좌측 및 우측에 설치되고, 광각 렌즈나 어안 렌즈 등과 같이 화각이 큰 렌즈가 구비될 수 있다. 이러한 카메라(110a~110n)는 렌즈를 통해 실세계 공간(3차원 공간) 내의 피사체를 2차원의 영상으로 촬영하고, 촬영된 영상을 추정부(120) 등에 제공할 수 있다.The plurality of cameras 110a to 110n may be installed at the front, rear, left and right sides of the vehicle, respectively, and a lens having a large angle of view, such as a wide angle lens or a fisheye lens, may be provided. The cameras 110a to 110n may photograph a subject in a real world space (three-dimensional space) as a two-dimensional image through a lens and provide the photographed image to the estimator 120 or the like.

자동차의 사각 지대를 최소화하기 위해 카메라(110a~110n)는 최소한 180도 이상의 광각이 필요하고, 주변 영상의 품질을 향상시키기 위해 두 카메라의 중복되는 시야각의 영역이 최소한 1000×1000㎟를 유지하도록 카메라의 설치 높이를 결정할 수 있다. 카메라의 설치 높이가 높을수록 양호한 영상 품질을 확보할 수 있으며, 이에 따라, 각 카메라가 자동차의 사각 지대를 해소하고 주변 영상의 화질 저하를 최소화할 수 있는 설치 위치 및 시야각을 결정하는 것이 중요하다.In order to minimize blind spots of the car, the cameras 110a to 110n need a wide angle of at least 180 degrees, and the cameras must be kept at least 1000 × 1000 mm2 in the overlapping field of view of the two cameras to improve the quality of the surrounding image. The installation height of the can be determined. The higher the installation height of the camera, the better image quality can be secured. Accordingly, it is important for each camera to determine the installation position and the viewing angle to solve the blind spot of the car and minimize the deterioration of the quality of the surrounding image.

카메라(110a~110n)가 설치되는 위치에 대하여 보다 상세하게 설명하면, 전방에 설치된 카메라는 자동차의 본넷 중심에 설치되고, 좌측 및 우측에 설치된 카메라는 각각 자동차의 양 사이드 미러의 가장 자리 또는 아래 쪽에 위치하도록 설치될 수 있다. 또한, 후방에 설치된 카메라는 후방 범퍼 위쪽의 중앙에 설치될 수 있으며, 전방 및 후방에 설치된 카메라는 지면 방향의 수직선을 기준으로 170°이상이 촬영될 수 있도록 설치될 수 있다.In more detail, where the cameras 110a to 110n are installed, the front cameras are installed at the center of the bonnet of the vehicle, and the cameras installed at the left and right sides are positioned at the edges or the bottom of both side mirrors of the vehicle, respectively. It can be installed to be located. In addition, the camera installed at the rear may be installed at the center of the upper portion of the rear bumper, and the camera installed at the front and rear may be installed so that the camera can photograph at least 170 degrees with reference to a vertical line in the direction of the ground.

일반적으로 광각 카메라는 렌즈 주변부의 광량이 부족하여 화질의 저하가 발생하고, 렌즈의 중심부보다 주변부에 왜곡이 많이 발생한다. 또한, 카메라를 통해 촬영된 영상을 시점 변환할 때 주변부의 영상은 화질이 심하게 저하된다. 따라서 카메라 렌즈의 중심부 영역에 형성된 영상을 사용하기 위해 전방 및 후방에 설치된 카메라는 광축이 지평선과 평행하도록, 좌측 및 우측에 설치된 카메라는 광축이 지면과 수직이 되도록 설치될 수 있다.In general, a wide-angle camera is deteriorated in image quality due to the lack of light amount around the lens, and more distortion occurs in the peripheral portion than the central portion of the lens. In addition, when the image captured through the camera is converted into a viewpoint, the image quality of the peripheral portion is seriously degraded. Therefore, the cameras installed in the front and rear to use the image formed in the central region of the camera lens may be installed so that the optical axis is parallel to the horizon, and the cameras installed on the left and right are perpendicular to the ground.

추정부(120)는 카메라의 위치 및 자세를 추정하는 기능을 수행할 수 있는데, 미리 정해진 위치에 배치된 교정 지표를 이용하여 카메라의 위치 및 자세를 추정할 수 있다The estimator 120 may perform a function of estimating the position and attitude of the camera. The estimator 120 may estimate the position and attitude of the camera using a calibration index disposed at a predetermined position.

보다 구체적으로 설명하면, 미리 정해진 위치(예컨대, 바닥)에 교정 지표를 배치한 후, 복수 개의 카메라(110a~110n)를 통해 교정 지표를 촬영하여 추정부(120)로 전송하면, 추정부(120)에서는 복수 개의 교정 지표 이미지와 미리 저장된 기준 이미지와의 비교를 통해 카메라의 위치 및 자세를 추정할 수 있게 된다. In more detail, after the calibration index is disposed at a predetermined position (for example, the floor), the calibration index is photographed and transmitted to the estimator 120 through the plurality of cameras 110a to 110n. ), The position and attitude of the camera can be estimated by comparing a plurality of calibration index images with a pre-stored reference image.

이때, 교정 지표는 추정 오류를 최소화하기 위하여 격자 모양의 패턴이나 임의의 패턴으로 이루어질 수 있으며, 격자 모양의 패턴은 색상 대비가 강한 색들의 조합으로 이루어질 수 있다. 예를 들어, 교정 지표는 흰색과 검정색의 조합으로 이루어진 격자 모양의 패턴으로 구성될 수 있다.In this case, the calibration index may be formed in a grid pattern or an arbitrary pattern in order to minimize the estimation error, and the grid pattern may be formed of a combination of colors with strong color contrast. For example, the calibration indicator may be composed of a grid-shaped pattern made of a combination of white and black.

연산부(130)는 실세계 공간과 카메라 이미지 평면 간의 투영 변환 행렬(Projection matrix)을 구할 수 있다.The calculator 130 may calculate a projection matrix between the real world space and the camera image plane.

보다 상세하게 설명하면, 연산부(130)는 추정부(120)에서 추정된 카메라의 위치 및 자세와, 카메라의 내부 파라미터 및 카메라의 외부 파라미터 등의 카메라 정보를 이용하여 실세계 공간(3차원 공간)과 카메라를 통해 촬영된 2차원 화상인 카메라 이미지 평면 간의 관계를 정의하는 투영 변환 행렬을 구할 수 있다.In more detail, the calculator 130 may calculate the real-world space (three-dimensional space) by using the camera information such as the position and attitude of the camera estimated by the estimator 120, the camera internal parameters, and the camera external parameters. A projection transformation matrix defining a relationship between camera image planes, which are two-dimensional images captured by the camera, can be obtained.

여기서, 카메라의 내부 파라미터란 카메라가 만들어지면서 갖게 되는 내부적인 오차로, 렌즈의 왜곡이나 초점 거리 등을 예로 들 수 있으며, 카메라의 외부 파라미터란 실세계 공간으로부터 카메라가 얼마만큼 이동하고 회전하는지에 대한 파라미터로, 회전 및 이동에 대한 행렬로 나타낼 수 있다.Here, the internal parameter of the camera is an internal error that the camera has when it is made, for example, the distortion of the lens or the focal length, and the external parameter of the camera is a parameter of how much the camera moves and rotates from the real world space. It can be expressed as a matrix for rotation and movement.

그리고, 투영 변환 행렬이란 실세계 공간의 좌표계에 놓여 있는 피사체가 특정한 시점의 평면을 통해 바라 보았을 때 어떻게 보일 것인지 결정해주는 행렬로, 연산부(130)에서는 투영 변환 행렬을 연산함으로써 실세계 공간에 있는 피사체의 이미지가 카메라를 통해 촬영되는 피사체 이미지로 어떻게 보여질 수 있는지에 대한 실세계 공간과 카메라 이미지 평면 간의 관계를 검출할 수 있게 되는 것이다.In addition, the projection transformation matrix is a matrix that determines how the subject placed in the coordinate system of the real world space looks when viewed through a plane of a specific viewpoint. The operation unit 130 calculates an image of the subject in the real world space by calculating the projection transformation matrix. It is possible to detect the relationship between the real world space and the camera image plane on how the image can be seen as the subject image photographed by the camera.

또한, 연산부(130)는 투영 변환 행렬을 이용하여 소정의 패턴이 형성된 가상 공간 이미지 평면과 카메라 이미지 평면 간의 호모그래피(Homography)를 구할 수 있다.In addition, the calculator 130 may obtain a homography between the virtual space image plane and the camera image plane on which a predetermined pattern is formed using the projection transformation matrix.

여기서, 가상 공간 이미지 평면이란 5개의 평면(바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면)으로 둘러싸인 가상의 공간 중에서 적어도 하나의 평면으로 이루어진 가상의 공간을 정의하며, 각각의 평면에는 가이드 라인 등과 같은 소정의 패턴을 넣을 수 있다. 이때, 각 평면의 크기는 가변 가능하며, 실제 각 평면은 가이드 라인과 같은 패턴이 그려진 이미지를 이용하여 정의할 수 있다. 또한, 이미지 상의 패턴은 각 평면의 텍스처(texture)를 나타나게 되며, 평면과 최종 이미지 사이에 각 평면의 텍스처를 이미지로 매칭할 수 있게 된다.Here, the virtual space image plane defines a virtual space composed of at least one plane among virtual spaces surrounded by five planes (bottom plane, front plane, left plane, right plane, and rear plane). Predetermined patterns, such as guide lines, can be put. In this case, the size of each plane is variable, and the actual planes may be defined using an image on which a pattern such as a guide line is drawn. In addition, the pattern on the image will represent the texture of each plane, allowing the matching of the texture of each plane to the image between the plane and the final image.

도 2는 본 발명의 일 실시예에 따른 가상 공간의 예시도 및 도 3은 본 발명의 일 실시예에 따른 소정 패턴이 형성된 가상 공간 이미지의 예시도로서, 도 2를 참조하면, 후방 주차 가이드 라인이 그려진 가상 공간 이미지를 구성할 경우, 바닥 평면에 해당되는 이미지만 있으면 가능하다. 이때, 픽셀 해상도를 1 픽셀당 10㎜로 설정할 경우, 실제 가로 거리 8M는 800pixel로 세로 거리 10M는 1000pixel로 대응될 수 있다.2 is an exemplary view of a virtual space according to an embodiment of the present invention and FIG. 3 is an exemplary view of a virtual space image in which a predetermined pattern is formed according to an embodiment of the present invention. Referring to FIG. When constructing the drawn virtual space image, only the image corresponding to the floor plane is possible. In this case, when the pixel resolution is set to 10 mm per pixel, the actual horizontal distance 8M may correspond to 800 pixels, and the vertical distance 10M may correspond to 1000 pixels.

그리고, 자동차를 이미지의 중심에 위치하고 자동차 전폭 및 전장 길이에 대응되는 자동차의 크기를 그린 후, 표현하고자 하는 가이드 라인을 거리 해상도에 비례하게 색상을 넣어서 그린다.Then, the car is placed at the center of the image, and the size of the car corresponding to the full width and the full length of the car is drawn, and then a guideline to be expressed is drawn with colors proportional to the distance resolution.

다음으로, 가이드 라인의 두께는 차량과 가까이 위치한 라인 폭은 좁게 그리고, 상대적으로 멀리 있는 라인 폭은 넓게 그려주면 임의의 카메라 시점으로 변환된 영상에서는 동일한 라인 폭을 얻을 수 있다.Next, when the thickness of the guide line is narrower in the line width close to the vehicle and the line width in the farther distance is drawn wide, the same line width can be obtained in the image converted to an arbitrary camera viewpoint.

이러한 가상 공간 이미지를 평면 상에서 정의한다면, 도 3에서와 같이, 가상 공간 이미지 상에 가이드 라인 패턴이 그려질 수 있다.If such a virtual space image is defined on a plane, as shown in FIG. 3, a guideline pattern may be drawn on the virtual space image.

도 1을 참조하여 호모그래피를 구하는 과정에 대하여 다시 설명하면, 연산부(130)는 투영 변환 행렬을 이용하여 소정의 패턴이 형성된 가상 공간 이미지 평면과 카메라 이미지 평면 간의 호모그래피를 구할 수 있다. 즉, 가상 공간 이미지 평면은 5개의 평면 중에서 적어도 하나의 평면으로 이루어 질 수 있므로 연산부(130)는 적어도 하나의 평면에 해당하는 호모그래피를 구할 수 있다. 예를 들어, 가상 공간 이미지 평면이 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면으로 이루어질 경우, 연산부(130)는 바닥 평면 호모그래피, 전방 평면 호모그래피, 좌측면 평면 호모그래피, 우측면 평면 호모그래피 및 후방 평면 호모그래피를 각각 구할 수 있다.Referring again to the process of obtaining homography with reference to FIG. 1, the operation unit 130 may obtain a homography between a virtual space image plane and a camera image plane on which a predetermined pattern is formed using a projection transformation matrix. That is, since the virtual space image plane may be formed of at least one plane among the five planes, the operation unit 130 may obtain homography corresponding to the at least one plane. For example, if the virtual space image plane consists of a bottom plane, a front plane, a left plane, a right plane, and a back plane, the calculation unit 130 is a bottom plane homography, a front plane homography, a left plane homography, a right plane. Planar homography and back plane homography can be obtained respectively.

도 4는 세계(world) 좌표계를 카메라 좌표계로 변환시키는 과정을 나타내는 도면으로서, 도 4를 참조하여 투영 변환 행렬과 호모그래피를 구하는 과정을 보다 자세하게 설명하도록 한다.FIG. 4 is a diagram illustrating a process of converting a world coordinate system into a camera coordinate system, and a process of obtaining a projection transformation matrix and homography will be described in detail with reference to FIG. 4.

우선적으로, 실세계 공간(3차원 공간) 좌표인 세계(world) 좌표계를 카메라 초점(C)을 기준으로 하는 카메라 좌표계로 변환시키기 위하여 외부 파라미터 매트릭스(External Parameter Matrix)를 이용한다. 즉, 3차원 공간 내의 가상 좌표인 세계 좌표계를 카메라 좌표계로 변환시키기 위해서는 회전 행렬(R)과 이동 벡터(T)를 포함하는 매트릭스가 필요하다.First, an external parameter matrix is used to convert a world coordinate system, which is a real world space (three-dimensional space) coordinate, to a camera coordinate system based on the camera focus C. That is, a matrix including a rotation matrix R and a motion vector T is required to convert a world coordinate system, which is a virtual coordinate in a three-dimensional space, to a camera coordinate system.

따라서, 세계 좌표계에서의 (X, Y, Z) 좌표를 카메라 좌표계의 (x, y, z) 좌표로 변환시키기 위하여 다음의 (수식 1)을 적용할 수 있다.Therefore, in order to convert the (X, Y, Z) coordinates in the world coordinate system into the (x, y, z) coordinates of the camera coordinate system, the following (Equation 1) may be applied.

(수식 1)(Equation 1)

Figure 112012062123427-pat00001
Figure 112012062123427-pat00001

(수식 1)에서 R과 T를 매트릭스 형태로 나타내면 다음의 (수식 2)와 같다.When R and T are expressed in matrix form in Equation 1, Equation 2 is shown below.

(수식 2)(Formula 2)

Figure 112012062123427-pat00002
Figure 112012062123427-pat00002

(수식 2)에서 나타낸 R과 T를 즉, [R|T]를 외부 파라미터라고 하며, R과 T를 매트릭스 형태로 나타낸 것을 회전 변환 매트릭스라고 한다.R and T shown in Equation 2, that is, [R | T] are called external parameters, and R and T in matrix form are called rotation transformation matrices.

이때, 외부 파라미터는 세계 좌표계의 좌표를 카메라 좌표계의 좌표로 변환시키기 위한 것으로, 세계 좌표계에 대한 카메라 좌표계의 상대적인 이동과 회전에 관한 파라미터를 나타내며, [R|T]에 의하여 임의의 좌표계를 갖는 고정 카메라에서 3차원 공간 상의 한 점 P(X, Y, Z)는 3차원 공간 상의 한 점 p(x, y, z)로 변환될 수 있다.In this case, the external parameter is for converting the coordinates of the world coordinate system to the coordinates of the camera coordinate system, and indicates a parameter about the relative movement and rotation of the camera coordinate system with respect to the world coordinate system, and has a fixed coordinate system having an arbitrary coordinate system by [R | T]. In the camera, a point P (X, Y, Z) in three-dimensional space may be converted into a point p (x, y, z) in three-dimensional space.

그리고, (수식 2)에서와 같이, (수식 1)에 대하여 3×4 행렬로 표시된 카메라 모델을 투영 변환 행렬이라고 하며, 예컨대, 세계 좌표를 Z=0인 평면으로 한정하면, 3×4 행렬을 (수식 3)과 같은 3×3 행렬로 간단히 할 수 있는데, 이 3×3 행렬은 호모그래피로 나타낼 수 있으며, 이는 (수식 4)로도 나타낼 수 있다.Then, as in Equation 2, the camera model represented by the 3x4 matrix with respect to Equation 1 is called a projection transformation matrix. For example, if the world coordinates are limited to a plane with Z = 0, the 3x4 matrix is defined. This can be simplified to a 3x3 matrix like (3), which can be represented homogeneously, which can also be expressed as (4).

(수식 3)(Equation 3)

Figure 112012062123427-pat00003
Figure 112012062123427-pat00003

(수식 4)(Equation 4)

Figure 112012062123427-pat00004
Figure 112012062123427-pat00004

즉, 가상 공간 이미지 평면은 평면 형태로 구성된 5개의 벽에 있는 영상을 카메라 이미지 평면으로 투영시키기 위해 필요한 것인데, 5개의 벽과 카메라 이미지 평면은 평면과 평면 간의 관계이기 때문에 호모그래피가 성립되게 된다. 예를 들어, 바닥 평면의 경우, x, y 좌표는 변하지만 z 좌표는 0으로 고정되게 되므로 z를 0으로 설정하고 계산하는 형태가 된다. 이러한 성질을 이용하여 3×4 행렬의 투영 변환 행렬을 3×3 행렬의 호모그래피로 변환시킬 수 있게 된다.In other words, the virtual space image plane is necessary for projecting the images on the five walls configured in the plane form to the camera image plane. Since the five walls and the camera image plane are relations between the plane and the plane, homography is established. For example, in the case of the floor plane, the x and y coordinates change but the z coordinate is fixed to 0, so that z is set to 0 and calculated. By using this property, the projection transformation matrix of the 3x4 matrix can be transformed into the homography of the 3x3 matrix.

변환부(140)는 호모그래피를 이용하여 가상 공간 이미지를 카메라 이미지 평면에 투영할 수 있다. 즉, 변환부(140)는 소정 패턴이 형성된 가상 공간 이미지를 카메라 이미지 평면에 투영하기 위해 가상 공간 이미지를 카메라 이미지 평면 상의 좌표에 매핑할 수 있다.The converter 140 may project the virtual space image on the camera image plane using homography. That is, the converter 140 may map the virtual space image to the coordinates on the camera image plane in order to project the virtual space image having the predetermined pattern onto the camera image plane.

보정부(150)는 왜곡 보정 모델을 이용하여 카메라 이미지의 왜곡과 가상 공간 이미지의 왜곡을 각각 보정할 수 있다.The correction unit 150 may correct the distortion of the camera image and the distortion of the virtual space image, respectively, by using the distortion correction model.

여기서, 왜곡 보정 알고리즘은 카메라 렌즈에 의해 발생되는 기하학적 왜곡을 보정하기 위한 알고리즘으로, 실제 광각 렌즈 또는 어안 렌즈는 완전한 구 형태가 아니고 초점 거리가 짧으므로 렌즈의 기하학적 왜곡, 예를 들면 방사성 왜곡이나 접선 방향 왜곡이 발생할 수 있다. 이와 같은 렌즈의 왜곡에 의하여 촬영된 영상 중에서 직선은 곡선으로 변형되어 나타날 수 있다.Here, the distortion correction algorithm is an algorithm for correcting the geometric distortion generated by the camera lens. Since the actual wide-angle lens or the fisheye lens is not a perfect sphere shape and the focal length is short, the geometric distortion of the lens, for example, radioactive distortion or tangential line Directional distortion may occur. In the image photographed by the distortion of the lens, a straight line may be deformed into a curve.

따라서, 왜곡 보정 알고리즘을 통하여 렌즈의 기하학적 왜곡 영상을 보정할 수 있는데, 왜곡 보정 알고리즘은 보정 파라미터와 왜곡 상수에 관한 함수로 나타낼 수 있다. 보정 파라미터는 카메라에 장착된 렌즈의 초점 거리와 광학 중심 좌표를 포함할 수 있고, 왜곡 상수는 방사상 왜곡 상수와 접선 방향 왜곡 상수를 포함할 수 있다.Therefore, the geometric distortion image of the lens may be corrected through the distortion correction algorithm, which may be represented as a function of a correction parameter and a distortion constant. The correction parameter may include a focal length and optical center coordinates of the lens mounted to the camera, and the distortion constant may include a radial distortion constant and a tangential distortion constant.

도 5는 3차원 공간 상의 꼭지점이 렌즈를 통과하여 2차원 이미지 평면에 맺히는 것을 나타내는 도면으로서, 도 5를 참조하여 왜곡을 보정하는 과정에 대하여 보다 구체적으로 설명하면, 카메라의 원근 투시에 의하면 공간 상의 직선은 직선으로 나와야 하지만, 넓은 시야각을 확보하기 위해 광각 렌즈를 사용함으로써 렌즈에 왜곡이 발생하게 된다. 이때, 왜곡의 정도는 각 3차원 상의 한 점(scene point)에 해당하는 각도(angle)에 따라서 달라지게 되며, 왜곡의 정도에 대한 파라미터들이 왜곡 상수가 될 수 있다. FIG. 5 is a diagram showing that vertices in a three-dimensional space pass through a lens to form a two-dimensional image plane. Referring to FIG. 5, a process of correcting distortion is described in detail. The straight line should come out as a straight line, but distortion will occur in the lens by using a wide-angle lens to secure a wide viewing angle. In this case, the degree of distortion varies depending on an angle corresponding to a scene point in each three-dimensional image, and parameters for the degree of distortion may be distortion constants.

도 5에서

Figure 112012062123427-pat00005
는 3차원 상의 한 점(scene point)을 나타내며,
Figure 112012062123427-pat00006
는 3차원 상의 한 점(scene point)에 해당하는 각도(angle)를 의미한다. 또한,
Figure 112012062123427-pat00007
는 3차원 상의 한 점(scene point)에 대응하는 2차원의 이미지 평면에 맺히는 이미지 점(image point)이 되며,
Figure 112012062123427-pat00008
는 이미지 상에서 해당 점(point)이 이미지 좌표(coordinate)의 x축에 대해서 얼마만큼의 각도를 가지는지를 나타낸다. 그리고
Figure 112012062123427-pat00009
은 해당 이미지 점(image point)이 이미지 중심으로부터 얼마만큼 떨어져 있는지를 나타내며,
Figure 112012062123427-pat00010
은 왜곡(distortion)이 없는 경우의 3차원 상의 한 점(scene point)에 대응하는 이미지 점(image point)을 나타내며, 마지막으로,
Figure 112012062123427-pat00011
는 카메라의 초점 거리(focal length)를 의미한다.5,
Figure 112012062123427-pat00005
Represents a scene point in three dimensions,
Figure 112012062123427-pat00006
Denotes an angle corresponding to a scene point in 3D. Also,
Figure 112012062123427-pat00007
Becomes an image point in the two-dimensional image plane corresponding to a point in the three-dimensional scene,
Figure 112012062123427-pat00008
Denotes how many angles the point has on the image with respect to the x-axis of the image coordinate. And
Figure 112012062123427-pat00009
Indicates how far the image point is from the center of the image,
Figure 112012062123427-pat00010
Represents an image point corresponding to a point in the three-dimensional scene in the absence of distortion, and finally,
Figure 112012062123427-pat00011
Is the focal length of the camera.

여기에서,

Figure 112012062123427-pat00012
의 위치는
Figure 112012062123427-pat00013
Figure 112012062123427-pat00014
, 그리고
Figure 112012062123427-pat00015
에 의해서 정해지게 된다. 그 관계는 아래의 (수식 5)와 (수식 6)을 통해서 정의될 수 있다.From here,
Figure 112012062123427-pat00012
The location of
Figure 112012062123427-pat00013
Wow
Figure 112012062123427-pat00014
, And
Figure 112012062123427-pat00015
It is decided by. The relationship can be defined through Equations 5 and 6 below.

(수식 5)(Equation 5)

Figure 112012062123427-pat00016
Figure 112012062123427-pat00016

(수식 6)(Equation 6)

Figure 112012062123427-pat00017
Figure 112012062123427-pat00017

호모그래피를 이용하여 얻어진 영상은 왜곡 상수(distortion paramter)를 이용하여 왜곡(distortion)을 적용해 주게 된다. 왜곡 상수에는 5개의 파라미터인

Figure 112012062123427-pat00018
가 있어서, 왜곡의 보정 정도에 영향을 미치게 된다. An image obtained by using homography is applied to distortion by using a distortion parameter. The distortion constant has five parameters
Figure 112012062123427-pat00018
This affects the degree of distortion correction.

도 6은 왜곡이 있는 카메라 이미지와 왜곡이 없는 카메라 이미지의 예시도 및 도 7은 본 발명의 일 실시예에 따른 왜곡이 보정된 가상 공간 이미지의 예시도로서, 도 6에서 왼쪽에 있는 이미지의 x, y축은 왜곡이 있는 이미지 좌표(distorted image coordinate)이고, 도 6에서 오른쪽에 있는 이미지 x, y’축은 왜곡이 없는 이미지 좌표(undistorted image coordinate)를 나타낸다. 도 6의 왼쪽에 배치된 왜곡이 있는 이미지 좌표의 원점은 이미지의 좌측 상단을 중심으로 하고, 도 6의 오른쪽에 배치된 왜곡이 없는 이미지 좌표의 원점은 이미지의 가운데를 중심으로 한다. FIG. 6 is a diagram illustrating a camera image having a distortion and a camera image having no distortion, and FIG. 7 is a diagram illustrating a virtual space image in which distortion is corrected according to an embodiment of the present invention. , the y-axis is the distorted image coordinate (distorted image coordinate), and the image x, y 'axis on the right in Fig. 6 represents the image distortion (undistorted image coordinate). The origin of the distorted image coordinates disposed on the left side of FIG. 6 is centered on the upper left side of the image, and the origin of the non-distorted image coordinates arranged on the right side of FIG. 6 is centered on the center of the image.

여기서, 왜곡이 있는 이미지 특징 점의 좌표를

Figure 112012062123427-pat00019
로 표현하고, 왜곡이 없는 이미지 특징 점의 좌표를
Figure 112012062123427-pat00020
로 표현한다면, 최종적으로 왜곡이 끝났을 때, 왜곡이 있는 이미지에서 영상의 좌표인
Figure 112012062123427-pat00021
에 해당하는 픽셀 값(pixel value)은 그에 대응하는 왜곡이 없는 이미지의 카메라 이미지 평면 좌표(normalized image coordinate)인
Figure 112012062123427-pat00022
에 해당하는 픽셀 값(pixel value)을 가져오면, 왜곡이 있는 영상에서의 픽셀 값(pixel value)을 모두 구할 수 있게 된다. Where the coordinates of the distorted image feature points
Figure 112012062123427-pat00019
The coordinates of an image feature point without distortion
Figure 112012062123427-pat00020
In this case, when the distortion is finally finished, the coordinates of the image in the distorted image
Figure 112012062123427-pat00021
The pixel value corresponding to is the normalized image coordinate of the camera image of the corresponding distortion-free image.
Figure 112012062123427-pat00022
When the pixel value corresponding to the pixel value is obtained, all the pixel values in the distorted image can be obtained.

이때, 카메라의 내부 파라미터들은 사전에 저장되는데, 카메라의 내부 파라미터는 영상 중심

Figure 112012062123427-pat00023
과 x 축의 단위 거리 당의 픽셀 수를 뜻하는
Figure 112012062123427-pat00024
, y 축의 단위 거리 당의 픽셀 수를 뜻하는
Figure 112012062123427-pat00025
, 그리고 초점 거리(
Figure 112012062123427-pat00026
)를 나타나며, 왜곡 보정 상수인
Figure 112012062123427-pat00027
와 왜곡 상수인
Figure 112012062123427-pat00028
도 또한 미리 구해놓은 후에 저장될 수 있다. At this time, the internal parameters of the camera are stored in advance, and the internal parameters of the camera are centered on the image.
Figure 112012062123427-pat00023
And the number of pixels per unit distance on the x-axis
Figure 112012062123427-pat00024
, the number of pixels per unit distance on the y axis
Figure 112012062123427-pat00025
, And focal length (
Figure 112012062123427-pat00026
) And the distortion correction constant
Figure 112012062123427-pat00027
And distortion constant
Figure 112012062123427-pat00028
Can also be stored after preliminary.

정리하여 설명하면, 1) (수식 7)과 (수식 8)을 이용하여 왜곡이 있는 이미지 특징 점 좌표를 카메라 이미지 평면(normalized image plane)으로 옮긴다. 이는 카메라 내부 파라미터를 이용해 구할 수 있다.In summary, 1) the distorted image feature point coordinates are moved to the normalized image plane using (Equation 7) and (Equation 8). This can be obtained using camera internal parameters.

(수식 7)(Formula 7)

Figure 112012062123427-pat00029
Figure 112012062123427-pat00029

(수식 8)(Equation 8)

Figure 112012062123427-pat00030
Figure 112012062123427-pat00030

2) (수식 9)를 이용하여 영상 중심으로부터 떨어진 거리(r)를 구한다.2) Find the distance r from the center of the image using Equation (9).

(수식 9)(Formula 9)

Figure 112012062123427-pat00031
Figure 112012062123427-pat00031

3) (수식 10)을 이용하여 왜곡 상수를 통해 입사각(

Figure 112012062123427-pat00032
)를 추정한다.3) Using the equation (10), the incidence angle (
Figure 112012062123427-pat00032
).

(수식 10)(Formula 10)

Figure 112012062123427-pat00033
Figure 112012062123427-pat00033

4) (수식 11)을 이용하여 추정한 입사각(

Figure 112012062123427-pat00034
)로부터 계획적인 투영(projective projection)을 수행함으로써 왜곡이 제거된 거리(
Figure 112012062123427-pat00035
)를 얻을 수 있다.4) The incident angle estimated using (Equation 11)
Figure 112012062123427-pat00034
Distance from which distortion is removed by performing projective projection from
Figure 112012062123427-pat00035
) Can be obtained.

(수식 11)(Equation 11)

Figure 112012062123427-pat00036
Figure 112012062123427-pat00036

5) (수식 12)를 이용하여

Figure 112012062123427-pat00037
Figure 112012062123427-pat00038
로부터 왜곡이 없는 이미지 특징 점의 좌표
Figure 112012062123427-pat00039
를 각각 찾는다.5) using (Formula 12)
Figure 112012062123427-pat00037
Wow
Figure 112012062123427-pat00038
Of image feature points without distortion from
Figure 112012062123427-pat00039
Find each one.

(수식 12)(Formula 12)

Figure 112012062123427-pat00040
Figure 112012062123427-pat00040

Figure 112012062123427-pat00041
Figure 112012062123427-pat00041

상기와 같은 형식으로 대응하는

Figure 112012062123427-pat00042
Figure 112012062123427-pat00043
를 구한 뒤에
Figure 112012062123427-pat00044
와 대응되는 왜곡이 없는 픽셀 좌표
Figure 112012062123427-pat00045
의 픽셀 값을
Figure 112012062123427-pat00046
의 픽셀 값을 가져와서 적용하면 도 7에서와 같이, 왜곡이 보정된 가상 공간 이미지를 얻을 수 있게 된다. 여기서, 상술한 왜곡 보정 모델 외에 다양한 왜곡 보정 모델을 사용하여 왜곡을 보정할 수 있음은 물론이다.Corresponding to the above format
Figure 112012062123427-pat00042
Wow
Figure 112012062123427-pat00043
After finding
Figure 112012062123427-pat00044
Pixel coordinates without distortion corresponding to
Figure 112012062123427-pat00045
The pixel value of
Figure 112012062123427-pat00046
If the pixel value of is taken and applied, as shown in FIG. 7, a virtual space image having distortion corrected can be obtained. Here, of course, the distortion can be corrected by using various distortion correction models in addition to the above-described distortion correction model.

만약, 사용자가 가상 시점으로 카메라 이미지가 표시되도록 조정할 경우, 변환부(140)는 가상 시점 변환 모델을 이용하여 카메라 이미지 및 가상 공간 이미지를 가상 시점의 카메라 이미지 및 가상 시점의 카메라 이미지로 각각 변환하고, 가상 시점의 가상 공간 이미지가 가상 시점의 카메라 이미지 평면에 투영할 수 있게 한다.If the user adjusts the display of the camera image to the virtual view, the conversion unit 140 converts the camera image and the virtual space image into the camera image of the virtual view and the camera image of the virtual view, respectively, using the virtual view transformation model. The virtual space image of the virtual view can be projected onto the camera image plane of the virtual view.

보다 구체적으로 설명하면, 변환부(140)에서는 가상 시점 변환 모델을 이용하여 카메라 이미지는 가상 시점의 카메라 이미지로 변환하고, 가상 공간 이미지는 가상 시점의 가상 공간 이미지로 각각 변환한 후, 가상 시점으로 변환된 가상 공간 이미지를 가상 시점으로 변환된 카메라 이미지 평면 상의 좌표에 매핑함으로써 사용자가 원하는 다양한 시점으로 변환된 카메라 이미지를 출력할 수 있다. 이때, 가상 시점 변환 모델은 카메라 이미지와 가상 공간 이미지를 가상 시점으로 변환할 수 있는 다양한 방식의 모델로 구성될 수 있다.In more detail, the conversion unit 140 converts a camera image into a camera image of a virtual viewpoint using a virtual viewpoint transformation model, and converts a virtual space image into a virtual space image of a virtual viewpoint, and then converts the virtual image into a virtual viewpoint. By mapping the converted virtual space image to coordinates on the camera image plane converted to the virtual viewpoint, the converted camera image may be output to various viewpoints desired by the user. In this case, the virtual viewpoint transformation model may be configured as a model of various methods capable of converting a camera image and a virtual space image into a virtual viewpoint.

도 8은 본 발명의 일 실시예에 따른 가상 공간 이미지와 카메라 이미지를 합성하는 과정을 보여주는 도면으로, 도 8을 참조하면, 합성부(160)는 카메라 이미지 평면에 투영된 가상 공간 이미지를 카메라 이미지에 합성할 수 있는데, 소정 패턴이 형성된 가상 공간 이미지와 카메라 이미지가 겹치되도록 오버레이(overlay) 방식으로 합성 처리할 수 있다. FIG. 8 is a view illustrating a process of synthesizing a virtual space image and a camera image according to an embodiment of the present invention. Referring to FIG. 8, the synthesis unit 160 displays a virtual space image projected on a camera image plane. In this case, the virtual space image in which the predetermined pattern is formed and the camera image may be synthesized by an overlay method so as to overlap the camera image.

즉, 합성부(160)는 가상 시점으로 변환된 카메라 이미지와, 카메라 이미지와 동일한 시점으로 변환된 가상 공간 이미지가 자연스럽게 나타날 수 있도록 가상 공간 이미지의 검은색 부분을 투명 처리하고, 투명 처리된 가상 공간 이미지와 카메라 이미지를 블렌딩(blending) 방식으로 합성할 수 있다.That is, the synthesis unit 160 transparently processes the black portion of the virtual space image so that the camera image converted to the virtual viewpoint and the virtual space image converted to the same viewpoint as the camera image appear naturally, and the transparent processed virtual space. The image and camera images can be combined by blending.

표시부(170)는 소정의 패턴이 합성된 카메라 이미지를 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Diode, OLED) 등의 표시 모듈에 표시한다. 물론, 자동차 내에 설치된 자동 항법 장치(미도시) 등으로부터 주변 영상을 제공받아 화면에 표시할 수 있다.The display unit 170 displays a camera image obtained by synthesizing a predetermined pattern on a display module such as a liquid crystal display (LCD) and an organic light emitting diode (OLED). Of course, it is possible to receive the surrounding image from the automatic navigation device (not shown) installed in the vehicle and display it on the screen.

이하에서는 본 발명의 일 실시예에 따른 카메라의 영상 처리 과정에 대하여 설명하도록 한다.Hereinafter, an image processing process of a camera according to an embodiment of the present invention will be described.

도 9는 본 발명의 일 실시예에 따른 카메라의 영상 처리 과정을 보여주는 동작 흐름도로서, 도 9를 참조하면, 실세계 공간과 카메라 이미지 평면 간의 투영 변환 행렬을 구한다(S910).9 is an operation flowchart illustrating an image processing process of a camera according to an embodiment of the present invention. Referring to FIG. 9, a projection transformation matrix between a real world space and a camera image plane is obtained (S910).

상술한 바와 같이, 투영 변환 행렬을 구하기 전에, 미리 정해진 위치에 배치된 교정 지표를 이용하여 카메라의 위치 및 자세를 추정할 수 있다As described above, before obtaining the projection transformation matrix, the position and attitude of the camera can be estimated by using the calibration index arranged at a predetermined position.

보다 구체적으로 설명하면, 미리 정해진 위치(예컨대, 바닥)에 교정 지표를 배치한 후, 복수 개의 카메라(110a~110n)를 통해 촬영된 복수 개의 교정 지표 이미지와 사전에 미리 저장된 기준 이미지와의 비교를 통해 카메라의 위치 및 자세를 추정할 수 있게 된다. In more detail, after arranging the calibration indicators at a predetermined position (for example, the floor), a comparison between a plurality of calibration indicator images photographed through the plurality of cameras 110a to 110n and a previously stored reference image may be performed. Through this, the position and attitude of the camera can be estimated.

이때, 교정 지표는 추정 오류를 최소화하기 위하여 격자 모양의 패턴이나 임의의 패턴으로 이루어질 수 있으며, 격자 모양의 패턴은 색상 대비가 강한 색들의 조합으로 이루어질 수 있다. 예를 들어, 교정 지표는 흰색과 검정색의 조합으로 이루어진 격자 모양의 패턴으로 구성될 수 있다.In this case, the calibration index may be formed in a grid pattern or an arbitrary pattern in order to minimize the estimation error, and the grid pattern may be formed of a combination of colors with strong color contrast. For example, the calibration indicator may be composed of a grid-shaped pattern made of a combination of white and black.

다음으로, 투영 변환 행렬을 이용하여 소정의 패턴이 형성된 가상 공간 이미지 평면과 카메라 이미지 평면 간의 호모그래피를 구할 수 있다(S920).Next, a homography between the virtual space image plane and the camera image plane on which a predetermined pattern is formed may be obtained using the projection transformation matrix (S920).

여기서, 가상 공간 이미지 평면은 5개의 평면 중에서 적어도 하나의 평면으로 이루어 질 수 있므로 연산부(130)는 적어도 하나의 평면에 해당하는 호모그래피를 구할 수 있다. 예를 들어, 가상 공간 이미지 평면이 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면으로 이루어질 경우, 연산부(130)는 바닥 평면 호모그래피, 전방 평면 호모그래피, 좌측면 평면 호모그래피, 우측면 평면 호모그래피 및 후방 평면 호모그래피를 각각 구할 수 있다.Here, the virtual space image plane may be formed of at least one plane among the five planes, so that the operation unit 130 may obtain homography corresponding to the at least one plane. For example, if the virtual space image plane consists of a bottom plane, a front plane, a left plane, a right plane, and a back plane, the calculation unit 130 is a bottom plane homography, a front plane homography, a left plane homography, a right plane. Planar homography and back plane homography can be obtained respectively.

그리고, 호모그래피를 이용하여 가상 공간 이미지를 카메라 이미지 평면에 투영할 수 있다(S930).In operation S930, the virtual space image may be projected onto the camera image plane using homography.

만약, 사용자가 가상 시점으로 카메라 이미지가 표시되도록 조정할 경우, 가상 시점 변환 모델을 이용하여 카메라 이미지는 가상 시점의 카메라 이미지로 변환하고, 가상 공간 이미지는 가상 시점의 가상 공간 이미지로 각각 변환한 후, 가상 시점으로 변환된 가상 공간 이미지를 가상 시점으로 변환된 카메라 이미지 평면 상의 좌표에 매핑함으로써 사용자가 원하는 다양한 시점으로 변환된 카메라 이미지를 출력할 수 있다. 이때, 가상 시점 변환 모델은 카메라 이미지와 가상 공간 이미지를 가상 시점으로 변환할 수 있는 모델로 사전에 다양한 방식으로 정의될 수 있다.If the user adjusts the camera image to be displayed in the virtual view, the camera image is converted into the camera image of the virtual view using the virtual view transformation model, and the virtual space image is converted into the virtual space image of the virtual view, respectively. By mapping the virtual space image converted into the virtual viewpoint to the coordinates on the camera image plane converted into the virtual viewpoint, the camera image converted to various viewpoints desired by the user may be output. In this case, the virtual viewpoint transformation model is a model capable of converting a camera image and a virtual space image into a virtual viewpoint, and may be defined in various ways in advance.

또한, 왜곡 보정 모델을 이용하여 카메라 이미지의 왜곡과 가상 공간 이미지의 왜곡을 보정할 수 있다.In addition, the distortion correction model may correct the distortion of the camera image and the distortion of the virtual space image.

그 다음, 가상 공간 이미지를 카메라 이미지에 합성할 수 있다(S940).Then, the virtual space image may be synthesized with the camera image (S940).

즉, 소정 패턴이 형성된 가상 공간 이미지와 카메라 이미지가 겹치되도록 오버레이(overlay) 방식으로 합성 처리할 수 있으며, 가상 공간 이미지와 카메라 이미지가 가상 시점으로 변환되었을 경우, 가상 시점으로 변환된 카메라 이미지와 동일한 시점으로 변환된 가상 공간 이미지가 자연스럽게 나타날 수 있도록 가상 공간 이미지의 검은색 부분을 투명 처리하고, 투명 처리된 가상 공간 이미지와 카메라 이미지를 블렌딩(blending) 방식으로 합성할 수 있다.That is, the virtual space image in which a predetermined pattern is formed may be synthesized by an overlay method so that the camera image overlaps, and when the virtual space image and the camera image are converted to the virtual viewpoint, the same as the camera image converted to the virtual viewpoint. The black portion of the virtual space image may be transparently processed so that the virtual space image converted to a viewpoint may appear naturally, and the transparent virtual space image and the camera image may be synthesized by blending.

본 발명의 일 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 카메라의 영상 처리 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.One embodiment of the present invention includes a computer-readable medium including program instructions for performing various computer-implemented operations. This medium records a program for executing the image processing method of the camera described above. The medium may include program instructions, data files, data structures, etc., alone or in combination. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD and DVD, programmed instructions such as floptical disk and magneto-optical media, ROM, RAM, And a hardware device configured to store and execute the program. Or such medium may be a transmission medium, such as optical or metal lines, waveguides, etc., including a carrier wave that transmits a signal specifying a program command, data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내고 설명하는 것에 불과하며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉, 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위 내에서 변경 또는 수정이 가능하다. 전술한 실시예들은 본 발명을 실시하는데 있어 최선의 상태를 설명하기 위한 것이며, 본 발명과 같은 다른 발명을 이용하는데 당업계에 알려진 다른 상태로의 실시, 그리고 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서, 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The foregoing detailed description is illustrative of the present invention. It is also to be understood that the foregoing is illustrative and explanatory of preferred embodiments of the invention only, and that the invention may be used in various other combinations, modifications and environments. That is, it is possible to make changes or modifications within the scope of the concept of the invention disclosed in this specification, the disclosure and the equivalents of the disclosure and / or the scope of the art or knowledge of the present invention. The foregoing embodiments are intended to illustrate the best mode contemplated for carrying out the invention and are not intended to limit the scope of the present invention to other modes of operation known in the art for utilizing other inventions such as the present invention, Various changes are possible. Accordingly, the foregoing description of the invention is not intended to limit the invention to the precise embodiments disclosed. It is also to be understood that the appended claims are intended to cover such other embodiments.

100: 카메라의 영상 처리 장치
110a~110n: 복수 개의 카메라 120: 추정부
130: 연산부 140: 변환부
150: 보정부 160: 합성부
170: 표시부
100: image processing device of the camera
110a to 110n: multiple cameras 120: estimator
130: calculator 140: converter
150: correction unit 160: synthesis unit
170:

Claims (16)

실세계 공간과 카메라 이미지 평면 간의 투영 변환 행렬을 구하고, 상기 투영 변환 행렬을 이용하여 소정의 패턴이 형성된 가상 공간 이미지 평면과 상기 카메라 이미지 평면 간의 호모그래피를 구하는 연산부;
상기 호모그래피를 이용하여 상기 가상 공간 이미지를 상기 카메라 이미지 평면에 투영하는 변환부;
상기 카메라 이미지 평면에 투영된 가상 공간 이미지를 상기 카메라 이미지에 합성하는 합성부를 포함하고,
상기 변환부는 가상 시점 변환 모델을 이용하여 상기 카메라 이미지 및 상기 가상 공간 이미지를 가상 시점의 카메라 이미지 및 가상 시점의 가상 공간 이미지로 각각 변환하고, 상기 가상 시점의 가상 공간 이미지를 상기 가상 시점의 카메라 이미지 평면에 투영하며,
상기 카메라는 자동차에 설치되고,
상기 소정의 패턴은 상기 자동차의 주차를 위한 가이드 라인인 카메라의 영상 처리 장치.
A calculation unit obtaining a projection transformation matrix between the real world space and the camera image plane, and obtaining a homography between the virtual space image plane having the predetermined pattern and the camera image plane using the projection transformation matrix;
A transformation unit projecting the virtual space image to the camera image plane using the homography;
Comprising a synthesizer for synthesizing the virtual space image projected on the camera image plane to the camera image,
The converting unit converts the camera image and the virtual space image into a camera image of the virtual view and a virtual space image of the virtual view by using a virtual view transformation model, and converts the virtual space image of the virtual view to the camera image of the virtual view. Project onto a plane,
The camera is installed in the car,
And the predetermined pattern is a guide line for parking the vehicle.
삭제delete 제 1 항에 있어서,
카메라의 위치 및 자세를 추정하는 추정부를 더 포함하고,
상기 연산부는 상기 카메라의 위치 및 자세를 포함하는 카메라 정보를 이용하여 상기 실세계 공간과 상기 카메라 이미지 평면 간의 투영 변환 행렬을 구하는 카메라의 영상 처리 장치.
The method of claim 1,
Further comprising an estimator for estimating the position and attitude of the camera,
And the calculation unit obtains a projection transformation matrix between the real world space and the camera image plane using camera information including the position and attitude of the camera.
제 3 항에 있어서,
상기 추정부는 상기 카메라를 통해 촬영된 교정 지표 이미지를 수신하고, 상기 교정 지표 이미지를 이용하여 상기 카메라의 위치 및 자세를 추정하는 카메라의 영상 처리 장치.
The method of claim 3, wherein
And the estimating unit receives a calibration index image photographed through the camera and estimates the position and attitude of the camera using the calibration index image.
제 1 항에 있어서,
상기 가상 공간 이미지 평면은 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나로 이루어지는 카메라의 영상 처리 장치.
The method of claim 1,
And the virtual space image plane comprises at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane.
제 5 항에 있어서,
상기 연산부는 상기 투영 변환 행렬을 이용하여 상기 가상 공간 이미지 평면의 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나에 해당하는 호모그래피를 구하는 카메라의 영상 처리 장치.
The method of claim 5, wherein
And the calculating unit obtains a homography corresponding to at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane of the virtual space image plane by using the projection transformation matrix.
제 1 항에 있어서,
왜곡 보정 모델을 이용하여 상기 카메라 이미지의 왜곡 및 상기 가상 공간 이미지의 왜곡을 보정하는 보정부를 더 포함하는 카메라의 영상 처리 장치.
The method of claim 1,
And a correction unit configured to correct distortion of the camera image and distortion of the virtual space image by using a distortion correction model.
삭제delete 실세계 공간과 카메라 이미지 평면 간의 투영 변환 행렬을 구하는 단계;
상기 투영 변환 행렬을 이용하여 소정의 패턴이 형성된 가상 공간 이미지 평면과 상기 카메라 이미지 평면 간의 호모그래피를 구하는 단계;
가상 시점 변환 모델을 이용하여 상기 카메라 이미지 및 상기 가상 공간 이미지를 가상 시점의 카메라 이미지 및 가상 시점의 가상 공간 이미지로 각각 변환하는 단계
상기 호모그래피를 이용하여 상기 가상 공간 이미지를 상기 카메라 이미지 평면에 투영하는 단계;
상기 카메라 이미지 평면에 투영된 상기 가상 공간 이미지를 상기 카메라 이미지에 합성하는 단계를 포함하고,
상기 투영 단계는 상기 가상 시점의 가상 공간 이미지를 상기 가상 시점의 카메라 이미지 평면에 투영하며,
상기 카메라는 자동차에 설치되고,
상기 소정의 패턴은 상기 자동차의 주차를 위한 가이드 라인인 카메라의 영상 처리 방법.
Obtaining a projection transformation matrix between the real world space and the camera image plane;
Obtaining a homography between the virtual space image plane having a predetermined pattern and the camera image plane using the projection transformation matrix;
Converting the camera image and the virtual space image into a camera image of the virtual view and a virtual space image of the virtual view by using a virtual view transformation model, respectively.
Projecting the virtual spatial image onto the camera image plane using the homography;
Compositing the virtual space image projected on the camera image plane with the camera image,
The projecting step projects the virtual space image of the virtual viewpoint to the camera image plane of the virtual viewpoint,
The camera is installed in the car,
And the predetermined pattern is a guide line for parking the vehicle.
삭제delete 제 9 항에 있어서,
상기 투영 변환 행렬을 구하는 단계 이전에, 카메라의 위치 및 자세를 추정하는 단계를 더 포함하고,
상기 투영 변환 행렬을 구하는 단계는 상기 카메라의 위치 및 자세를 포함하는 카메라 정보를 이용하여 상기 실세계 공간과 상기 카메라 이미지 평면 간의 투영 변환 행렬을 구하는 카메라의 영상 처리 방법.
The method of claim 9,
Before estimating the projection transformation matrix, further comprising estimating the position and attitude of the camera,
The obtaining of the projection transformation matrix may include obtaining a projection transformation matrix between the real world space and the camera image plane using camera information including the position and the attitude of the camera.
제 11 항에 있어서,
상기 추정 단계는 상기 카메라를 통해 촬영된 교정 지표 이미지를 수신하고, 상기 교정 지표 이미지를 이용하여 상기 카메라의 위치 및 자세를 추정하는 카메라의 영상 처리 방법.
The method of claim 11,
In the estimating step, the calibration index image photographed by the camera is received, and the position and posture of the camera is estimated using the calibration index image.
제 9 항에 있어서,
상기 투영 단계 이후에, 왜곡 보정 모델을 이용하여 상기 카메라 이미지의 왜곡 및 상기 가상 공간 이미지의 왜곡을 보정하는 단계를 더 포함하는 카메라의 영상 처리 방법.
The method of claim 9,
And correcting the distortion of the camera image and the distortion of the virtual space image by using the distortion correction model after the projecting step.
제 9 항에 있어서,
상기 가상 공간 이미지 평면은 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나로 이루어지는 카메라의 영상 처리 방법.
The method of claim 9,
And the virtual space image plane comprises at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane.
제 14 항에 있어서,
상기 호모그래피를 구하는 단계는 상기 투영 변환 행렬을 이용하여 상기 가상 공간 이미지 평면의 바닥 평면, 전방 평면, 좌측면 평면, 우측면 평면 및 후방 평면 중에서 적어도 하나에 해당하는 호모그래피를 구하는 카메라의 영상 처리 방법.
15. The method of claim 14,
The obtaining of the homography may include obtaining a homography corresponding to at least one of a bottom plane, a front plane, a left plane, a right plane, and a rear plane of the virtual space image plane by using the projection transformation matrix. .
삭제delete
KR1020120085020A 2012-08-03 2012-08-03 Apparatus and method for processing image of camera KR101351911B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120085020A KR101351911B1 (en) 2012-08-03 2012-08-03 Apparatus and method for processing image of camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120085020A KR101351911B1 (en) 2012-08-03 2012-08-03 Apparatus and method for processing image of camera

Publications (1)

Publication Number Publication Date
KR101351911B1 true KR101351911B1 (en) 2014-01-17

Family

ID=50145643

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120085020A KR101351911B1 (en) 2012-08-03 2012-08-03 Apparatus and method for processing image of camera

Country Status (1)

Country Link
KR (1) KR101351911B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016036126A1 (en) * 2014-09-03 2016-03-10 신동윤 Long-range discernible image generating apparatus and method of operating same
WO2016153100A1 (en) * 2015-03-25 2016-09-29 ㈜베이다스 Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof
KR101727987B1 (en) * 2016-10-17 2017-04-18 신동윤 Apparatus for generating image identifiable in long distance and operation method thereof
KR101856069B1 (en) * 2016-11-21 2018-06-20 현대오트론 주식회사 Apparatus and method for revising parking guideline

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100899892B1 (en) 2008-04-21 2009-05-29 삼성전기주식회사 Automobile camera device and method to indicate a moving guide line
KR20110067437A (en) * 2009-12-14 2011-06-22 (주) 에투시스템 Apparatus and method for processing image obtained by a plurality of wide angle camera
KR20120140515A (en) * 2011-06-21 2012-12-31 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100899892B1 (en) 2008-04-21 2009-05-29 삼성전기주식회사 Automobile camera device and method to indicate a moving guide line
KR20110067437A (en) * 2009-12-14 2011-06-22 (주) 에투시스템 Apparatus and method for processing image obtained by a plurality of wide angle camera
KR20120140515A (en) * 2011-06-21 2012-12-31 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016036126A1 (en) * 2014-09-03 2016-03-10 신동윤 Long-range discernible image generating apparatus and method of operating same
KR20160028302A (en) * 2014-09-03 2016-03-11 신동윤 Apparatus for generating image identifiable in long distance and operation method thereof
KR101668802B1 (en) * 2014-09-03 2016-11-09 신동윤 Apparatus for generating image identifiable in long distance and operation method thereof
CN106796719A (en) * 2014-09-03 2017-05-31 申东伦 Remote identification video generation device and its method of operating
EP3190565A4 (en) * 2014-09-03 2018-02-14 Shin, Dong-yun Long-range discernible image generating apparatus and method of operating same
US10373289B2 (en) 2014-09-03 2019-08-06 Dong-yun Shin Long-range discernible image generating apparatus and method of operating same
WO2016153100A1 (en) * 2015-03-25 2016-09-29 ㈜베이다스 Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof
US10176595B2 (en) 2015-03-25 2019-01-08 Vadas, Ltd Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof
KR101727987B1 (en) * 2016-10-17 2017-04-18 신동윤 Apparatus for generating image identifiable in long distance and operation method thereof
KR101856069B1 (en) * 2016-11-21 2018-06-20 현대오트론 주식회사 Apparatus and method for revising parking guideline

Similar Documents

Publication Publication Date Title
KR101265667B1 (en) Device for 3d image composition for visualizing image of vehicle around and method therefor
JP5491235B2 (en) Camera calibration device
US7899270B2 (en) Method and apparatus for providing panoramic view with geometric correction
JP6764533B2 (en) Calibration device, chart for calibration, chart pattern generator, and calibration method
US20080181488A1 (en) Camera calibration device, camera calibration method, and vehicle having the calibration device
JP6095684B2 (en) 3D vehicle peripheral image generation method and apparatus
KR100948886B1 (en) Tolerance compensating apparatus and method for automatic vehicle-mounted camera
JP5455124B2 (en) Camera posture parameter estimation device
US8169309B2 (en) Image processing apparatus, driving support system, and image processing method
JP2015015527A (en) Video display system, video synthesis device and video synthesis method
CN113490879A (en) Using real-time ray tracing for lens remapping
KR101351911B1 (en) Apparatus and method for processing image of camera
WO2015056826A1 (en) Camera image processing apparatus and method
KR101705558B1 (en) Top view creating method for camera installed on vehicle and AVM system
US20160037154A1 (en) Image processing system and method
KR20200003584A (en) Method and apparatus for real-time correction of projector image using depth camera
JP2013246606A (en) Data derivation device and data derivation method
KR101265710B1 (en) Vehicle Installed Camera Extrinsic Parameter Estimation Method and Apparatus
KR101398068B1 (en) Vehicle Installed Camera Extrinsic Parameter Estimation Method and Apparatus
JP7074546B2 (en) Image processing equipment and methods
Gao et al. A calibration method for automotive augmented reality head-up displays based on a consumer-grade mono-camera
JP6734136B2 (en) Image processing device
KR101293263B1 (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same
JP2019012915A (en) Image processing device and image conversion method
CN115004683A (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170103

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180104

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190103

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200103

Year of fee payment: 7