KR101762117B1 - Top view creating method for camera installed on vehicle and AVM system - Google Patents

Top view creating method for camera installed on vehicle and AVM system Download PDF

Info

Publication number
KR101762117B1
KR101762117B1 KR1020170008675A KR20170008675A KR101762117B1 KR 101762117 B1 KR101762117 B1 KR 101762117B1 KR 1020170008675 A KR1020170008675 A KR 1020170008675A KR 20170008675 A KR20170008675 A KR 20170008675A KR 101762117 B1 KR101762117 B1 KR 101762117B1
Authority
KR
South Korea
Prior art keywords
camera
image
circular pattern
vehicle
image data
Prior art date
Application number
KR1020170008675A
Other languages
Korean (ko)
Other versions
KR20170010869A (en
Inventor
조상현
한정수
Original Assignee
(주)캠시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)캠시스 filed Critical (주)캠시스
Priority to KR1020170008675A priority Critical patent/KR101762117B1/en
Publication of KR20170010869A publication Critical patent/KR20170010869A/en
Application granted granted Critical
Publication of KR101762117B1 publication Critical patent/KR101762117B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N5/23238
    • H04N5/3572
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

AVM 시스템의 공차 보정 장치 및 방법이 개시된다. 본 발명의 일 실시예에 따른 공차 보정 장치는, 상기 카메라가 촬영한 상기 차량의 주변에 배치된 원형 패턴에 대한 영상 신호를 카메라 영상 데이터로 변환하는 영상 입력부; 및 상기 카메라 영상 데이터에서 상기 원형 패턴에 상응하는 타원을 추출하고, 상기 타원과 상기 원형 패턴 사이의 상관관계를 이용하여 상기 카메라 영상과 탑뷰 영상 사이의 호모그라피를 산출하며, 상기 카메라의 외부 변수를 산출하여 세계좌표 상에서 상기 카메라의 위치를 추정하는 공차 보정부를 포함하되, 상기 원형 패턴은 상기 차량이 놓여질 보정 영역 주변에 임의로 설치될 수 있다. An apparatus and method for tolerance compensation of an AVM system are disclosed. The tolerance correcting device according to an embodiment of the present invention includes an image input unit for converting a video signal of a circular pattern disposed in the periphery of the vehicle taken by the camera into camera image data; And extracting an ellipse corresponding to the circular pattern from the camera image data, calculating a homography between the camera image and the top view image using a correlation between the ellipse and the circular pattern, And estimating the position of the camera on the world coordinates, wherein the circular pattern can be arbitrarily installed around the correction area where the vehicle is to be placed.

Description

AVM 시스템의 공차 보정 장치 및 방법{Top view creating method for camera installed on vehicle and AVM system}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an apparatus and method for correcting tolerances of an AVM system,

본 발명은 AVM 시스템의 공차 보정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for correcting tolerances of AVM systems.

일반적으로, 차량 내부에 탑승한 운전자의 시계(視界)는 주로 전방을 향하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당부분 가려지기 때문에 매우 한정된 시계를 가진다. Generally, the driver's vision (view) on the inside of the vehicle is mainly directed to the front, and the left and right and rear views of the driver are largely obscured by the vehicle body.

이러한 문제를 해결하기 위하여, 통상적으로 운전자의 한정된 범위의 시계를 보완하기 위한 사이드 미러 등의 시계 보조수단이 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있는 추세이다.In order to solve such a problem, a clock assist means such as a side mirror for supplementing a limited range of the driver's clock is generally used. Recently, techniques including camera means for photographing an external image of a vehicle and providing the image to a driver This trend is being applied to vehicles.

그 중에서 현재 차량 주위에 복수의 카메라를 설치하여 차량 주변의 360ㅀ 전방향의 영상을 보여주는 어라운드 뷰 모니터링(AVM, Around View Monitoring)(이하, AVM이라 칭함) 시스템이 있다. AVM 시스템은 차량 주변을 촬영하는 복수의 카메라를 통하여 촬상된 각 개별 뷰(view)뿐 아니라, 차량 주변의 영상을 조합하여 운전자가 하늘에서 차량을 바라보는 듯한 탑뷰(Top View) 이미지를 제공함으로써, 차량 주변 장애물을 표시하고 사각지대를 해소할 수 있게 한다. Among them, there is an AVM (Around View Monitoring) system (hereinafter referred to as AVM) system in which a plurality of cameras are installed around the vehicle and 360-degree forward images around the vehicle are displayed. The AVM system combines not only each individual view captured through a plurality of cameras that photograph the surroundings of the vehicle but also images of the surroundings of the vehicle to provide a top view image in which the driver looks at the vehicle in the sky, Mark obstacles around the vehicle and eliminate blind spots.

도 1에는 AVM 시스템의 개념이 개략적으로 도시되어 있다. The concept of the AVM system is schematically shown in Fig.

도 1을 참조하면, 차량(100)의 전후방, 좌우측면에는 각각 카메라(110a, 110b, 110c, 110d)(이하 110으로 통칭함)가 설치된다. 카메라들(110) 각각은 차량(100)의 전후방 및 좌우측면의 영상(A, B, C, D)을 촬영하고, 촬영된 영상을 차량(100)을 상방향에서 내려다보는 형태의 영상(도 1의 (b) 참조)으로 재구성하여 차량(100)에 장착된 각종 디스플레이 장치에 출력한다. Referring to FIG. 1, cameras 110a, 110b, 110c, and 110d (hereinafter, collectively referred to as 110) are installed on front and rear sides, right and left sides of the vehicle 100, respectively. Each of the cameras 110 photographs the images A, B, C, and D on the front and rear sides and the left and right sides of the vehicle 100 and displays the captured image on an image 1 (b)) and outputs the reconstructed image to various display devices mounted on the vehicle 100.

여기서, 도 1의 (b)에 도시된 것과 같은 탑뷰를 생성하는 과정에서, 복수의 카메라를 이용하여 촬영한 주변 영상을 조합할 때 카메라들의 장착 오차는 개별 카메라에서 찍힌 영상들 간에 부정합과 같은 결함을 발생시키게 되는데, 이처럼 차량에의 카메라 장착 과정에서 발생하는 오차를 공차라 한다. Here, in the process of creating the top view as shown in FIG. 1 (b), when the peripheral images photographed using a plurality of cameras are combined, the mounting error of the cameras causes a defect such as mismatch The error caused in the process of mounting the camera on the vehicle is referred to as a tolerance.

탑뷰 생성 과정에서의 결함을 소프트웨어적으로 제거하기 위한 영상 보정 방법이 연구되고 있으며, 미국특허공개 US2009/0010630호에도 카메라 시스템의 영상 보정 방법이 개시되어 있다. An image correction method for removing a defect in software during a top view generation process has been studied, and US Patent Application Publication No. US2009 / 0010630 also discloses an image correction method for a camera system.

종래 차량에 설치된 카메라를 이용해 차량 주변영상의 탑뷰를 생성하는 과정에서 공차 보정을 위해 사각형, 삼각형, 체커보드 형태의 다각형 패턴이 사용되어 왔다. 영상에 나타나는 다각형 패턴에 대해서 꼭지점이나 X자 마크 등과 같은 특징을 찾아 특징에 대한 세계좌표(world coordinate)와 영상좌표를 이용하여 공차를 보정함으로써 탑뷰를 생성해 왔다. In the process of generating a top view of a vehicle peripheral image using a camera installed in a conventional vehicle, a polygonal pattern of a rectangular shape, a triangular shape, and a checkerboard shape has been used for tolerance correction. We have generated a top view by looking for features such as vertices and X marks for the polygonal patterns appearing in the image and correcting the tolerances using world coordinates and image coordinates for the features.

이때 다각형 패턴에 대해서 임의로 세계좌표를 부여해야 하는데, 세계좌표를 부여하기 위해서는 꼭지점 사이의 거리나 꼭지점들의 위치관계 등 다각형 패턴이 세계좌표에서 위치하는 상대적인 정보를 모두 알고 있어야 하는 제약이 있었다. 이러한 제약은 탑뷰 생성을 위해서 다각형 패턴을 정해진 규격에 맞춰 설치해야 하고 패턴 정보를 입력하거나 파악하는데 많은 수고가 들어가는 불편함이 있다.At this time, the world coordinates should be arbitrarily given to the polygon pattern. In order to assign the world coordinates, there is a restriction that the relative information that the polygon pattern is located in the world coordinates, such as the distance between the vertexes and the positional relationship of the vertexes, has to be known. This constraint is inconvenient for the polygon pattern to be installed in accordance with the specified standard in order to generate the top view, and it takes a lot of trouble to input or understand the pattern information.

미국특허공개 US2009/0010630호 (공개일자 2009년1월8일) - Camera system and method of correcting camera fitting errorsUnited States Patent Application Publication No. US2009 / 0010630 (published on January 8, 2009) - Camera system and method of correcting camera fitting errors

따라서, 본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 다각형 패턴이 아닌 원형 패턴을 이용하여 패턴의 세계좌표를 입력하지 않으면서도 패턴이 영상이 나타나는 조건을 만족하면 탑뷰 생성이 가능하고, 탑뷰 생성을 위해 계산한 호모그라피(homography)를 이용하여 카메라의 외부 파라미터를 정확하게 추정할 수 있는 AVM 시스템의 공차 보정 장치 및 방법을 제공하기 위한 것이다. Accordingly, the present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a display device capable of generating a top view when a pattern of a pattern satisfies a condition for displaying an image without inputting the world coordinates of the pattern using a circular pattern instead of a polygonal pattern, The present invention is to provide an apparatus and method for correcting tolerance of an AVM system that can accurately estimate an external parameter of a camera by using homography calculated for creation.

본 발명은 패턴을 임의의 위치에 위치시켜도 공차 보정이 가능하여 패턴 설치에 걸리는 시간을 단축할 수 있고, 카메라와 패턴의 상대적 및 절대적 위치를 모르더라도 복수의 카메라의 영상 합성이 가능하며, 원형 패턴을 자동으로 찾음으로써 자동 공차 보정에도 사용 가능한 AVM 시스템의 공차 보정 장치 및 방법을 제공하기 위한 것이다. According to the present invention, it is possible to correct the tolerance even when the pattern is located at an arbitrary position, shorten the time required to install the pattern, enable image synthesis of a plurality of cameras without knowing the relative and absolute positions of the camera and the pattern, The present invention provides an apparatus and method for correcting tolerance of an AVM system that can be used for automatic tolerance correction by automatically finding a tolerance.

본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through the following preferred embodiments.

본 발명의 일 측면에 따르면, 차량에 설치된 카메라의 공차 보정 장치에 있어서, 상기 카메라가 촬영한 상기 차량의 주변에 배치된 원형 패턴에 대한 영상 신호를 카메라 영상 데이터로 변환하는 영상 입력부; 및 상기 카메라 영상 데이터에서 상기 원형 패턴에 상응하는 타원을 추출하고, 상기 타원과 상기 원형 패턴 사이의 상관관계를 이용하여 상기 카메라 영상과 탑뷰 영상 사이의 호모그라피를 산출하며, 상기 카메라의 외부 변수를 산출하여 세계좌표 상에서 상기 카메라의 위치를 추정하는 공차 보정부를 포함하되, 상기 원형 패턴은 상기 차량이 놓여질 보정 영역 주변에 임의로 설치된 것을 특징으로 하는 공차 보정 장치가 제공된다. According to an aspect of the present invention, there is provided an apparatus for correcting a tolerance of a camera installed in a vehicle, the apparatus comprising: an image input unit for converting a video signal of a circular pattern disposed in the periphery of the vehicle taken by the camera into camera image data; And extracting an ellipse corresponding to the circular pattern from the camera image data, calculating a homography between the camera image and the top view image using a correlation between the ellipse and the circular pattern, And estimating a position of the camera on the world coordinate, wherein the circular pattern is arbitrarily set around a correction area on which the vehicle is to be placed.

상기 카메라는 상기 차량의 전방, 우측, 좌측 및 후방에 설치되는 제1 카메라, 제2 카메라, 제3 카메라 및 제4 카메라를 포함하고, 상기 원형 패턴은 상기 카메라 중에서 서로 이웃하는 카메라의 화각이 중첩되는 구역 내의 임의의 위치에 놓여지도록 하는 위치 조건을 충족하도록 배치된 제1 원형 패턴을 포함할 수 있다.Wherein the camera includes a first camera, a second camera, a third camera, and a fourth camera installed on the front, right, left, and rear sides of the vehicle, The first circular pattern being arranged to meet a positional condition such that the first circular pattern is placed at an arbitrary position within a predetermined area.

상기 공차 보정부는, 상기 카메라 영상 데이터에서 타원을 추출하는 단계; 상기 타원의 외곽을 추출하는 단계; 상기 카메라의 내부 변수에 의한 왜곡을 보정하는 단계; 왜곡 보정된 타원의 외곽 좌표에 기초하여 타원 방정식을 산출하는 단계; 상기 타원 방정식을 이용하여 세계좌표와 카메라 영상 데이터 사이의 호모그라피를 산출하는 단계를 수행할 수 있다.Wherein the tolerance correcting unit comprises: extracting an ellipse from the camera image data; Extracting an outline of the ellipse; Correcting distortion caused by an internal variable of the camera; Calculating an elliptic equation based on outline coordinates of the distortion-corrected ellipse; And calculating a homography between the world coordinates and the camera image data using the elliptic equation.

상기 공차 보정부는 상기 세계좌표를 상기 카메라 영상 데이터의 영상좌표로 변환시켜주는 행렬 P와, 상기 카메라의 내부 변수 K와 세계좌표와 카메라 좌표 사이의 회전 변환인 R, 세계좌표에 카메라 좌표 사이의 이동량인 C 사이의 상관관계를 이용하여 호모그라피 H와 미리 알고 있는 K를 이용하여 세계좌표에서 카메라의 위치를 추정할 수 있다.The tolerance correcting unit includes a matrix P for converting the world coordinates into image coordinates of the camera image data, R representing a rotation transformation between the internal coordinates of the camera and the world coordinates and the camera coordinates, We can estimate the position of the camera in the world coordinates using the homography H and the K known in advance.

상기 원형 패턴은 상기 차량의 좌우측 바퀴와 수평이 되도록 배치되는 제2 원형 패턴을 더 포함할 수 있다.The circular pattern may further include a second circular pattern arranged to be horizontal with the left and right wheels of the vehicle.

상기 공차 보정부에서 추정된 상기 카메라의 위치를 이용하여 상기 카메라 영상 데이터를 변환하여 상기 차량의 주변 전체에 대한 상기 탑뷰 영상을 생성하여 AVM 영상 데이터로 합성하는 영상 합성부를 더 포함하되, 상기 영상 합성부에서는 상기 원형 패턴의 지름 정보를 이용하여 상기 탑뷰 영상에 대한 픽셀 피치(pixel pitch)를 계산할 수 있다. Further comprising an image synthesizing unit converting the camera image data using the position of the camera estimated by the tolerance correcting unit to generate the top view image of the entire periphery of the vehicle and synthesizing the top view image into AVM image data, The pixel pitch of the top view image can be calculated using the diameter information of the circular pattern.

한편 본 발명의 다른 측면에 따르면, 차량에 설치된 카메라의 공차 보정 방법 및 이를 수행하기 위한 프로그램이 기록된 기록매체가 제공된다. According to another aspect of the present invention, there is provided a method of correcting a tolerance of a camera installed in a vehicle and a recording medium on which a program for performing the correcting method is recorded.

일 실시예에 따른 공차 보정 방법은, 영상 입력부에 의해 상기 차량에 구비된 카메라가 촬영한 상기 차량의 주변에 배치된 원형 패턴에 대한 영상 신호가 카메라 영상 데이터로 변환되는 단계; 상기 카메라 영상 데이터에서 상기 원형 패턴에 상응하는 타원을 추출하는 단계; 상기 타원과 상기 원형 패턴 사이의 상관관계를 이용하여 상기 카메라 영상 데이터와 탑뷰 영상 사이의 호모그라피(homography)를 산출하는 단계; 및 상기 카메라의 외부 변수(extrinsic parameter)를 산출하여 세계좌표 상에서 상기 카메라의 위치를 추정하는 단계를 포함하되, 상기 원형 패턴은 상기 차량이 놓여질 보정 영역 주변에 임의로 설치될 수 있다.A tolerance correcting method according to an exemplary embodiment of the present invention includes converting a video signal of a circular pattern disposed in the periphery of the vehicle captured by a camera provided in the vehicle by an image input unit into camera image data; Extracting an ellipse corresponding to the circular pattern from the camera image data; Calculating a homography between the camera image data and the top view image using the correlation between the ellipse and the circular pattern; And estimating a position of the camera on world coordinates by calculating an extrinsic parameter of the camera, wherein the circular pattern may be arbitrarily installed around a correction area where the vehicle is to be placed.

상기 카메라는 상기 차량의 전방, 우측, 좌측 및 후방에 설치되는 제1 카메라, 제2 카메라, 제3 카메라 및 제4 카메라를 포함하고, 상기 원형 패턴은 상기 카메라 중에서 서로 이웃하는 카메라의 화각이 중첩되는 구역 내의 임의의 위치에 놓여지도록 하는 위치 조건을 충족하도록 배치된 제1 원형 패턴을 포함할 수 있다.Wherein the camera includes a first camera, a second camera, a third camera, and a fourth camera installed on the front, right, left, and rear sides of the vehicle, The first circular pattern being arranged to meet a positional condition such that the first circular pattern is placed at an arbitrary position within a predetermined area.

상기 호모그라피 산출 단계는, 상기 타원의 외곽을 추출하는 단계; 상기 카메라의 내부 변수에 의한 왜곡을 보정하는 단계; 왜곡 보정된 타원의 외곽 좌표에 기초하여 타원 방정식을 산출하는 단계; 및 상기 타원 방정식을 이용하여 세계좌표와 카메라 영상 데이터 사이의 호모그라피를 산출하는 단계를 포함할 수 있다.The homography calculation step may include: extracting an outline of the ellipse; Correcting distortion caused by an internal variable of the camera; Calculating an elliptic equation based on outline coordinates of the distortion-corrected ellipse; And calculating a homography between the world coordinates and the camera image data using the elliptic equation.

상기 카메라 위치 추정 단계는, 상기 세계좌표를 상기 카메라 영상 데이터의 영상좌표로 변환시켜주는 행렬 P와, 상기 카메라의 내부 변수 K와 세계좌표와 카메라 좌표 사이의 회전 변환인 R, 세계좌표에 카메라 좌표 사이의 이동량인 C 사이의 상관관계를 이용하여 호모그라피 H와 미리 알고 있는 K를 이용하여 세계좌표에서 카메라의 위치를 추정할 수 있다.The camera position estimating step may include a matrix P for converting the world coordinates into image coordinates of the camera image data, R representing a rotation transformation between the internal variable K of the camera and the world coordinates and the camera coordinates, The position of the camera can be estimated from the world coordinates using the homography H and the K previously known.

상기 원형 패턴은 상기 차량의 좌우측 바퀴와 수평이 되도록 배치되는 제2 원형 패턴을 더 포함할 수 있다.The circular pattern may further include a second circular pattern arranged to be horizontal with the left and right wheels of the vehicle.

추정된 상기 카메라의 위치를 이용하여 상기 카메라 영상 데이터를 변환하여 상기 차량의 주변 전체에 대한 상기 탑뷰 영상을 생성하여 AVM 영상 데이터로 합성하는 단계를 더 포함하되, 상기 AVM 영상 데이터 합성 단계는 상기 원형 패턴의 지름 정보를 이용하여 상기 탑뷰 영상에 대한 픽셀 피치(pixel pitch)를 계산할 수 있다.Further comprising the step of converting the camera image data using the estimated position of the camera to generate the top view image of the entire periphery of the vehicle and synthesizing the top view image with the AVM image data, The pixel pitch of the top view image can be calculated using the diameter information of the pattern.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명에 따르면, 다각형 패턴이 아닌 원형 패턴을 이용하여 패턴의 세계좌표를 입력하지 않으면서도 패턴이 영상이 나타나는 조건을 만족하면 탑뷰 생성이 가능하고, 탑뷰 생성을 위해 계산한 호모그라피를 이용하여 카메라의 외부 파라미터를 정확하게 추정할 수 있는 효과가 있다.According to the present invention, it is possible to generate a top view if the condition of displaying a pattern image satisfies a condition that a world coordinate of a pattern is not input using a circular pattern instead of a polygonal pattern, It is possible to accurately estimate the external parameters of the vehicle.

또한, 패턴을 임의의 위치에 위치시켜도 공차 보정이 가능하여 패턴 설치에 걸리는 시간을 단축할 수 있고, 카메라와 패턴의 상대적 및 절대적 위치를 모르더라도 복수의 카메라의 영상 합성이 가능하며, 원형 패턴을 자동으로 찾음으로써 자동 공차 보정에도 사용 가능한 효과가 있다. Also, even if the pattern is located at an arbitrary position, the tolerance can be corrected and the time required for pattern installation can be shortened. Even if the relative position and the absolute position of the camera and the pattern are unknown, There is an effect that can be used for automatic tolerance correction by automatically finding.

도 1은 AVM 시스템의 개념이 개략적으로 도시된 도면,
도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 구성을 개략적으로 도시한 블록 구성도,
도 3은 본 발명의 실시예에 따른 공차 보정을 하기 위한 원형 패턴 배치의 일례를 설명하기 위한 개략도,
도 4는 본 발명의 일 실시예에 따른 AVM 시스템에서의 공차 보정 과정을 도시한 흐름도,
도 5는 공차 보정 과정 중에서 호모그라피 산출 과정을 상세하게 도시한 흐름도,
도 6은 원형 패턴을 촬영한 영상,
도 7은 영상 내에서 타원을 찾은 모습을 나타낸 도면,
도 8은 타원 외곽을 추출한 도면,
도 9는 왜곡 보정 전후의 타원 외곽 좌표를 나타낸 도면,
도 10은 계산된 호모그라피를 이용하여 재구성한 탑뷰 영상,
도 11은 카메라의 추정 위치를 표시한 탑뷰 영상.
1 is a diagram schematically illustrating the concept of an AVM system,
2 is a block diagram schematically showing a configuration of an AVM system according to an embodiment of the present invention;
3 is a schematic view for explaining an example of a circular pattern arrangement for performing tolerance correction according to an embodiment of the present invention,
FIG. 4 is a flowchart illustrating a tolerance correction process in the AVM system according to an embodiment of the present invention. FIG.
5 is a flowchart illustrating a homography calculation process in detail in the tolerance correction process,
Fig. 6 is a diagram showing an image obtained by photographing a circular pattern,
FIG. 7 is a view showing a state in which an ellipse is found in a video,
FIG. 8 is a view showing an outline of an ellipse,
Fig. 9 is a diagram showing the elliptical outline coordinates before and after the distortion correction,
FIG. 10 shows a top view image reconstructed using the calculated homography,
11 is a top view image showing an estimated position of the camera;

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 2는 본 발명의 일 실시예에 따른 AVM 시스템의 구성을 개략적으로 도시한 블록 구성도이다. 2 is a block diagram schematically showing a configuration of an AVM system according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 AVM 시스템(200)은 차량에 설치된 카메라를 통해 촬영된 영상을 보정 처리하여 생성된 주변 영상을 화면 상에 표시하여, 차량의 주변 상황을 운전자가 확인할 수 있도록 하는 시스템이다. 본 실시예에서는 특히 카메라를 차량에 장착할 때 발생하는 공차를 보정하기 위해 원형 패턴을 이용함으로써, 패턴을 임의의 위치에 위치시켜도 공차 보정이 가능하고, 카메라와 패턴의 상대적 및 절대적 위치를 모르더라도 복수의 카메라의 영상 합성이 가능한 것을 특징으로 한다.The AVM system 200 according to an embodiment of the present invention displays a peripheral image generated by correcting an image photographed through a camera installed in a vehicle and displays the generated peripheral image on a screen to allow a driver to check the surrounding situation of the vehicle to be. In this embodiment, by using a circular pattern to correct the tolerance generated when the camera is mounted on the vehicle, the tolerance can be corrected even if the pattern is located at an arbitrary position, and even if the relative position and the absolute position of the camera and the pattern are unknown And is capable of synthesizing images of a plurality of cameras.

도 2를 참조하면, 본 실시예에 따른 AVM 시스템(200)은 영상 입력부(210), 저장부(220), 공차 보정부(230), 영상 합성부(240), 디스플레이부(250)를 포함한다. 도시되지는 않았으나, AVM 시스템(200)에 포함된 하나 이상의 구성요소의 동작을 제어하기 위한 제어부가 더 포함될 수 있다. 2, the AVM system 200 includes an image input unit 210, a storage unit 220, a tolerance correcting unit 230, an image synthesizing unit 240, and a display unit 250 do. Although not shown, a controller for controlling the operation of one or more components included in the AVM system 200 may further be included.

영상 입력부(210)는 차량(100)의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치된 카메라(110)로부터 촬상되어 입력되는 각 카메라 영상 신호를 각각의 카메라 영상 데이터로 생성하여 저장부(220)에 저장한다. 여기서, 카메라(110)는 적은 수량으로 차량 주변 환경을 촬상할 수 있도록 하기 위해 화각이 큰 광각 카메라로 구현될 수 있다. The video input unit 210 is a circuit for inputting each camera video signal picked up and input from a camera 110 provided at each of a plurality of positions (for example, positions designated to photograph the front, rear, left, and right sides of the vehicle 100) And stores the generated camera image data in the storage unit 220. Here, the camera 110 can be realized as a wide-angle camera having a large angle of view in order to capture an environment around the vehicle with a small quantity.

저장부(220)에는 예를 들어 AVM 시스템(200)의 운용 프로그램, 영상 입력부(210)에 의해 생성된 카메라 영상 데이터, 후술될 영상 합성부(240)에 의해 합성 처리된 AVM 영상 데이터(특히 탑뷰) 등이 저장될 수 있다. 저장부(220)는 데이터를 영구 저장하는 영구 저장 메모리와 동작 시 필요한 데이터를 임시 저장하여 운용하는 임시 저장 메모리로 분리되어 운용될 수 있다. For example, the storage unit 220 stores an operation program of the AVM system 200, camera image data generated by the image input unit 210, AVM image data synthesized by the image synthesizer 240, ) Can be stored. The storage unit 220 may be separated into a permanent storage memory for permanently storing data and a temporary storage memory for temporarily storing and operating data necessary for operation.

공차 보정부(230)는 저장부(220)에 저장된 카메라 영상 데이터들을 분석하여 원형 패턴(영상 내에서는 타원 형태를 가짐)을 찾아내고, 미리 지정된 외부 변수 추정 알고리즘에 따라 패턴 정보(영상 내의 원형 패턴에 대한 정보)를 가공하여 호모그라피(homography)를 산출한다. 또한, 호모그라피를 산출하는 과정에서 카메라(110)의 외부 변수(extrinsic parameter)도 산출될 수 있어, 세계좌표 상에서 카메라(110)의 위치를 추정할 수 있다. The tolerance correcting unit 230 analyzes the camera image data stored in the storage unit 220 to find a circular pattern (having an elliptical shape in the image), and obtains pattern information (circular pattern in the image ) Is processed to calculate homography. Also, extrinsic parameters of the camera 110 can be calculated in the process of calculating the homography, and the position of the camera 110 on the world coordinates can be estimated.

영상 합성부(240)는 공차 보정부(230)에서 추정된 카메라의 위치 및 패턴 정보를 이용하여 카메라 영상 데이터를 변환함으로써 차량의 주변 환경에 대해 차량의 위쪽에서 내려다보는 듯한 탑뷰(Top View)를 생성하고 AVM 영상 데이터로 합성한다. 즉, 차량(100) 주변의 영상에 대한 카메라 영상 데이터를 탑뷰 영상으로 변환한 이후 공차 보정부(230)에서 추정된 카메라 위치에 기초하여 탑뷰 영상의 위치 및 방향을 조정하여 합성함으로써, 차량(100)의 주변 전체에 대한 탑뷰에 해당하는 AVM 영상 데이터가 생성될 수 있다. The image synthesizing unit 240 converts the camera image data using the camera position and pattern information estimated by the tolerance correcting unit 230 to obtain a top view of the surrounding environment of the vehicle as if looking down from above the vehicle And combines them into AVM image data. That is, after converting the camera image data for the image of the surroundings of the vehicle 100 into the top view image, the position and orientation of the top view image are adjusted and synthesized based on the camera position estimated by the tolerance correcting unit 230, The AVM image data corresponding to the top view can be generated.

영상 합성부(240)에 의해 생성된 AVM 영상 데이터는 디스플레이부(250)를 통해 출력될 수 있을 것이다. The AVM image data generated by the image synthesizing unit 240 may be output through the display unit 250.

도 3은 본 발명의 실시예에 따른 공차 보정을 하기 위한 원형 패턴 배치의 일례를 설명하기 위한 개략도이다. 3 is a schematic view for explaining an example of a circular pattern arrangement for performing tolerance correction according to an embodiment of the present invention.

도 3에 도시된 바와 같이 차량이 놓여질 보정 영역 주변에는 제1 원형 패턴(311, 313, 315, 317)이 임의로 설치될 수 있다. As shown in FIG. 3, the first circular patterns 311, 313, 315, and 317 may be arbitrarily installed around the correction area where the vehicle is to be placed.

공차 보정을 위해 이용되는 제1 원형 패턴(311, 313, 315, 317)은 그 형상이 원형이어서 도 3에 도시된 것처럼 그 중심점을 중심으로 회전한 각도에 상관없이 항상 동일한 형상을 나타낸다. 즉, 패턴 설치 과정에서 기존의 다각형 패턴과 같이 미리 정해진 위치에 정확한 각도로 설치될 필요가 없어 패턴 설치에 소요되는 시간을 단축시킬 수 있게 된다. The first circular patterns 311, 313, 315, and 317 used for the tolerance correction are circular in shape and always show the same shape irrespective of the angle about the center of rotation as shown in FIG. That is, it is not necessary to install the polygonal pattern at a predetermined angle in a predetermined position during the pattern installation process, and it is possible to shorten the time required to install the pattern.

또한, 제1 원형 패턴(311, 313, 315, 317)은 기존의 다각형 패턴과 같이 미리 정해진 위치에 위치시키는 것이 아니라 소정의 위치 조건을 충족하는 경우 임의의 위치에 위치시켜도 공차 보정이 가능한 장점을 가진다. Also, the first circular patterns 311, 313, 315, and 317 have advantages in that tolerance correction can be performed even when the first circular patterns 311, 313, 315, and 317 are positioned at predetermined positions, I have.

제1 원형 패턴(311, 313, 315, 317)의 위치 조건으로는 최소한 2개의 패턴이 하나의 영상에 나타나도록 차량에 설치된 카메라(110)를 이용하여 촬영될 수 있어야 한다는 것이다. 즉, 카메라 영상 데이터마다 최소한 2개의 패턴이 나타나야 하는데, 이는 같은 제1 원형 패턴이 적어도 서로 다른 뷰에서 획득된 카메라 영상 데이터에서 보여져야 하기 때문이다. The positional condition of the first circular patterns 311, 313, 315, and 317 should be such that at least two patterns can be photographed using the camera 110 installed in the vehicle so that the two patterns are displayed on one image. That is, at least two patterns must be displayed for each camera image data because the same first circular pattern must be viewed in at least camera image data obtained from different views.

예를 들면, 도면에 도시된 것처럼, 전방에 설치된 제1 카메라(110a)에 의해 촬영된 영상에는 2개의 제1 원형 패턴(311, 313)이 포함되고, 우측에 설치된 제2 카메라(110b)에 의해 촬영된 영상에는 2개의 제1 원형 패턴(313, 317)이 포함되며, 좌측에 설치된 제3 카메라(110c)에 의해 촬영된 영상에는 2개의 제1 원형 패턴(311, 315)이 포함되고, 후방에 설치된 제4 카메라(110d)에 의해 촬영된 영상에는 2개의 제1 원형 패턴(315, 317)이 포함된다. For example, as shown in the figure, two first circular patterns 311 and 313 are included in an image photographed by the first camera 110a installed in the front, and a second camera 110b The image photographed by the third camera 110c includes two first circular patterns 313 and 317 and the image photographed by the third camera 110c installed on the left side includes two first circular patterns 311 and 315, The image photographed by the fourth camera 110d installed on the rear side includes two first circular patterns 315 and 317. [

따라서, 본 실시예에서 제1 원형 패턴(311, 313, 315, 317)의 위치 조건은 이웃하는 두 카메라의 화각이 중첩되는 구역 내에 놓여질 것으로, 화각 중첩 구역 내라면 임의의 위치에 놓여져도 무방할 것이다. Therefore, in the present embodiment, the positional conditions of the first circular patterns 311, 313, 315, and 317 are placed in a region where the angle of view of two adjacent cameras overlap each other, will be.

또한, 제1 원형 패턴(311, 313, 315, 317)은 그 사이즈가 모두 동일할 수 있다. 또한, 지름 정보를 알고 있다면, 영상 합성부(240)에서 탑뷰 생성 시 정확한 픽셀 피치(pixel pitch)(mm/pixel) 계산이 가능하다. 하지만, 지름 정보는 한정되어 있지는 않다. 즉, 경우에 따라 지름이 다른 제1 원형 패턴을 사용하는 것도 가능하다. In addition, the first circular patterns 311, 313, 315, and 317 may have the same size. Also, if the diameter information is known, it is possible to calculate an accurate pixel pitch (mm / pixel) when the top view is generated in the image synthesizer 240. However, the diameter information is not limited. That is, it is also possible to use a first circular pattern of different diameter depending on the case.

본 실시예에서 제1 원형 패턴(311, 313, 315, 317)만 있는 경우, 원은 기본적으로 방향성이 없어 후술할 영상 합성부(240)에서 AVM 영상 데이터 생성 시에 탑뷰가 돌아가는 현상(회전되어 보이는 현상)이 발생할 수 있다. In the case where only the first circular patterns 311, 313, 315, and 317 are present in this embodiment, the circle is basically not directional, and a phenomenon in which the top view is rotated when the AVM image data is generated by the image synthesizing unit 240 Visible phenomenon) may occur.

이를 보완하기 위해, 차량(100)의 좌우측 바퀴와 수평이 되도록 제2 원형 패턴(321, 323, 325, 327)을 위치시키고, 좌측 영상 데이터 및 우측 영상 데이터에서 검출된 패턴 정보를 이용하여 좌우측 영역에 관한 탑뷰 영상의 수평을 맞춘 후 전후방 영역을 맞추어 줌으로써, 탑뷰가 돌아가 보이는 현상을 방지할 수도 있다. In order to compensate for this, the second circular patterns 321, 323, 325, and 327 are positioned so as to be horizontal with the left and right wheels of the vehicle 100, It is also possible to prevent the top view from turning around by matching the front and rear regions after matching the horizontal positions of the top view images.

이하에서는 이러한 원형 패턴을 이용하여 공차를 보정하고 탑뷰를 생성하는 과정에 대하여 관련 도면을 참조하여 설명하기로 한다. Hereinafter, the process of correcting the tolerance and generating the top view using the circular pattern will be described with reference to the related drawings.

도 4는 본 발명의 일 실시예에 따른 AVM 시스템에서의 공차 보정 및 탑뷰 생성 과정을 도시한 흐름도이고, 도 5는 공차 보정 과정 중에서 호모그라피 산출 과정을 상세하게 도시한 흐름도이며, 도 6은 원형 패턴을 촬영한 영상이고, 도 7은 영상 내에서 타원을 찾은 모습을 나타낸 도면이며, 도 8은 타원 외곽을 추출한 도면이고, 도 9는 왜곡 보정 전후의 타원 외곽 좌표를 나타낸 도면이며, 도 10은 계산된 호모그라피를 이용하여 재구성한 탑뷰 영상이고, 도 11은 카메라의 추정 위치를 표시한 탑뷰 영상이다. FIG. 4 is a flowchart illustrating a tolerance correction and a top view generation process in the AVM system according to an embodiment of the present invention. FIG. 5 is a flowchart illustrating a homography calculation process in detail in the tolerance correction process, FIG. 8 is a diagram showing an ellipse outline extracted, FIG. 9 is a diagram showing elliptic outline coordinates before and after distortion correction, and FIG. Fig. 11 is a top view image showing the estimated position of the camera. Fig. 11 is a top view image reconstructed using the calculated homography.

도 3에 도시된 것처럼 제1 원형 패턴(311, 313, 315, 317) 및/또는 제2 원형패턴(312, 323, 325, 327)의 배치가 완료되면, 차량에 장착된 카메라(110)를 이용하여 원형 패턴을 포함하는 차량의 주변 환경을 촬영하고(단계 S410), 영상 입력부(210)는 원형 패턴이 촬영된 카메라 영상 데이터를 입력받는다. 여기서, 카메라 영상 데이터는 저장부(220)에 저장되거나 영상 입력부(210)로 바로 전달될 수 있다. 카메라 영상 데이터의 예시가 도 6에 도시되어 있다. When the placement of the first circular patterns 311, 313, 315, and 317 and / or the second circular patterns 312, 323, 325, and 327 is completed as shown in FIG. 3, The surrounding environment of the vehicle including the circular pattern is photographed (step S410), and the image input unit 210 receives the camera image data in which the circular pattern is photographed. Here, the camera image data may be stored in the storage unit 220 or directly to the image input unit 210. An example of the camera image data is shown in Fig.

공차 보정부(230)는 영상 입력부(210)에서 직접 전달받거나 혹은 저장부(220)에 저장되어 있는 카메라 영상 데이터를 이용하여 호모그라피를 계산한다(단계 S420). The tolerance correction unit 230 calculates the homography using the camera image data received directly from the image input unit 210 or stored in the storage unit 220 (step S420).

호모그라피의 계산 과정에 대해서는 도 5에 상세하게 도시되어 있다. The calculation process of the homography is shown in detail in Fig.

공차 보정부(230)는 카메라 영상 데이터에서 타원을 추출한다(단계 S510). 이는 원형 패턴이 촬영될 경우, 수직 상방에서 촬영한 경우를 제외하고는 타원 형태로 나타나기 때문이다. 도 7을 참조하면, 영상 데이터에서 찾아진 타원이 흰색으로 표시되어 있다. The tolerance correcting unit 230 extracts an ellipse from the camera image data (step S510). This is because, when a circular pattern is photographed, it appears as an elliptical shape except for the case where it is photographed vertically above. Referring to FIG. 7, ellipses found in image data are shown in white.

카메라 영상 데이터에서 타원을 추출하는 방법으로는 영상 분할(segmentation) 기법, 허프 변환(hough transform) 기법 등이 이용될 수 있다. 영상 분할 기법은 영상 내에서 특정 영역을 분리하는 기법이며, 허프 변환 기법은 영상 내의 특징을 추출하는 기법으로, 투표(voting) 기법을 이용하여 영상에서 직선이나 원 성분을 추출하게 된다. 영상에서 타원을 추출하는 기법은 당업자에게 자명한 사항이므로 이에 대한 상세한 설명은 생략하기로 한다. As the method of extracting the ellipse from the camera image data, an image segmentation technique, a hough transform technique and the like can be used. The image segmentation technique separates a specific region in an image. The Hough Transform technique extracts features in an image and uses a voting technique to extract a straight line or a circle component from the image. Since the technique of extracting an ellipse from an image is obvious to those skilled in the art, a detailed description thereof will be omitted.

다음으로 타원의 외곽을 추출한다(단계 S520). 도 8을 참조하면, 영상에서 추출된 타원의 외곽선이 도시되어 있다. Next, the outline of the ellipse is extracted (step S520). Referring to FIG. 8, an outline of an ellipse extracted from an image is shown.

타원 외곽은 캐니(Canny), 소벨(soble), 프리윗(prewitt) 등과 같이 일반적으로 영상의 에지(edge)를 검출하는 방법을 사용하여 추출될 수 있다. 타원 외곽 추출 과정 역시 당업자에게 자명한 사항이므로 이에 대한 상세한 설명은 생략하기로 한다.The elliptical outline can be extracted using a method of detecting an edge of an image generally such as Canny, soble, prewitt, and the like. Since the process of extracting the ellipse outline is also obvious to those skilled in the art, a detailed description thereof will be omitted.

다음으로 차량에 설치된 카메라의 영상에는 카메라의 내부 변수(intrinsic parameter)에 의한 왜곡이 존재하므로, 왜곡 보정을 수행하여(단계 S530) 추출된 타원의 외곽 좌표를 왜곡이 없는 영상의 좌표로 변환한다. 카메라의 내부 변수로는 렌즈의 형상에 의한 렌즈 왜곡(lens distortion)이 있을 수 있으며, 이는 테일러 급수로 표현이 가능하다. 또 다른 내부 변수로는 CCD 패널과 렌즈 중심까지의 거리를 의미하는 초점 거리(focal length)과, CCD 패널에 상이 맺힐 때 실제 영상의 중심점을 의미하는 이미지 중심(image center)이 있을 수 있다. Next, since the image of the camera installed in the vehicle is distorted due to the intrinsic parameter of the camera, distortion correction is performed (step S530) and the outer coordinates of the extracted ellipse are converted into the coordinates of the image without distortion. The internal variable of the camera may be lens distortion due to the shape of the lens, which can be expressed by Taylor series. Another internal variable may be the focal length, which is the distance between the CCD panel and the center of the lens, and the image center, which is the center point of the actual image when the image is formed on the CCD panel.

카메라 내부 변수에 의한 왜곡 계수는 카메라마다 미리 계산되어 있을 수 있으며, 이러한 카메라 내부 변수에 의한 왜곡 보정 전후 타원의 외곽 좌표가 도 9에 도시되어 있다. 빨간색이 왜곡 보정 전 타원의 외곽 좌표이고, 파란색이 왜곡 보전 후 타원의 외곽 좌표이다. The distortion coefficients due to the camera internal variables may be calculated in advance for each camera, and the outline coordinates of the ellipses before and after the distortion correction by the camera internal variables are shown in Fig. Red is the outline coordinates of the ellipse before distortion correction, and blue is the outline coordinates of the ellipse after distortion preservation.

도 8과 비교할 때 타원의 크기 및 형상이 달라 보이는 것은 도 8의 영상에서는 기준점이 되는 왼쪽 모서리 위가 (0, 0)인데 비해, 도 9에서는 왼쪽 모서리 아래가 (0, 0)이기 때문이다. 또한, 그 범위도 Y축 기준으로 도 8에서는 0~480인데, 도 9에서는 270~370으로 표현되었기 때문이다. Compared with FIG. 8, the size and shape of the ellipse are different because the upper left corner is (0, 0) in the image of FIG. 8, whereas the lower left corner is (0, 0) in FIG. In addition, the range is 0 to 480 in FIG. 8 on the basis of the Y-axis, and 270 to 370 in FIG. 9.

다음으로 타원 외곽 좌표에 기초하여 타원 방정식을 산출한다(단계 S540). 타원 방정식을 산출하는 방법으로는 ellipsefit과 같이 영상의 에지 정보를 이용하여 해당 영역의 외곽(contour) 정보를 이용하여 외곽에 가장 잘 맞는 타원을 계산하는 방법으로 SVD 혹은 RANSAC 알고리즘 등이 이용될 수 있다. 타원 방정식 산출 방법 역시 당업자에게 자명한 사항이므로 이에 대한 상세한 설명은 생략하기로 한다.Next, an elliptic equation is calculated based on the elliptical outline coordinates (step S540). SVD or RANSAC algorithms can be used to calculate ellipse equations, such as ellipsefit, which calculates the ellipse best suited to the outline using contour information of the corresponding region using edge information of the image . The method of calculating the elliptic equation is also obvious to those skilled in the art, so a detailed description thereof will be omitted.

타원 방정식을 이용하여 세계좌표와 영상 사이의 호모그라피를 산출한다(단계 S550). 호모그라피 산출 과정에 대해 보다 상세히 설명하면 다음과 같다. The homography between the world coordinates and the image is calculated using the elliptic equation (step S550). The homography calculation process will be described in more detail as follows.

동차좌표(homogeneous coordinates)에서 모든 원은 다음과 같이 표현된다. In homogeneous coordinates, all circles are expressed as:

[수학식 1][Equation 1]

Figure 112017006231644-pat00001
Figure 112017006231644-pat00001

여기서, (x, y, w)는 동차좌표, (a, b, 1)은 원의 중심, r은 원의 반지름이다. Where (x, y, w) is the homogeneous coordinate, (a, b, 1) is the center of the circle, and r is the radius of the circle.

그러면 (1, i, 0)T와 (1,- i, 0)T는 a, b, r에 상관없이 항상 위 수학식 1을 만족하므로, 모든 원에 포함되어 있는 점이 된다. 따라서, 이 두 점은 복소평면 상에서 임의의 두 원이 교차하는 점이고, 이 점을 서큘러 포인트(circular point)라 한다. Then, (1, i, 0) T and (1, - i, 0) T satisfy the above equation 1 irrespective of a, b, and r. Therefore, these two points are points where any two circles intersect on the complex plane, and this point is called a circular point.

따라서, 영상에서 타원 형태로 나타나는 원은 항상 서큘러 포인트인 IJ에서 교점을 가진다. Thus, circles appearing in elliptical form in the image always have an intersection at I and J , which are circular points.

IJ는 다음과 같은 좌표로 표현된다. I = (1, i, 0)T, J = (1,- i, 0)T. 여기서, 여기서, i는

Figure 112017006231644-pat00002
이다. I and J are expressed in the following coordinates. I = (1, i, 0) T , J = (1, - i, 0) T. Here, i is
Figure 112017006231644-pat00002
to be.

세계좌표와 촬영된 영상 사이에는 호모그라피 H와 H-1가 존재하고, H와 H-1은 다음과 같이 S, A, P의 곱으로 나타낼 수 있다. Homography H and H -1 exist between the world coordinates and the photographed image, and H and H -1 can be expressed as the product of S, A, and P as follows.

[수학식 2]&Quot; (2) "

Figure 112017006231644-pat00003
Figure 112017006231644-pat00003

여기서, S는 유사성(similarity) 행렬, A는 아핀성(affinity) 행렬, P는 투영성(projectivity) 행렬을 나타낸다. Where S is a similarity matrix, A is an affinity matrix, and P is a projectivity matrix.

여기서,

Figure 112017006231644-pat00004
,
Figure 112017006231644-pat00005
로 표현된다. here,
Figure 112017006231644-pat00004
,
Figure 112017006231644-pat00005
Lt; / RTI >

Figure 112017006231644-pat00006
Figure 112017006231644-pat00007
는 아핀성 변환의 계수로, 다음과 같이 계산된다.
Figure 112017006231644-pat00006
Wow
Figure 112017006231644-pat00007
Is a coefficient of the affine transformation, and is calculated as follows.

여기서 ㅣ=(

Figure 112017006231644-pat00008
,
Figure 112017006231644-pat00009
,
Figure 112017006231644-pat00010
) 은 소실선(vanishing line)이다.Here ㅣ = (
Figure 112017006231644-pat00008
,
Figure 112017006231644-pat00009
,
Figure 112017006231644-pat00010
) Is a vanishing line.

[수학식 3]&Quot; (3) "

Figure 112017006231644-pat00011
Figure 112017006231644-pat00011

여기서,

Figure 112017006231644-pat00012
는 회전각(rotational angle),
Figure 112017006231644-pat00013
는 앙각(elevation angle)이다. here,
Figure 112017006231644-pat00012
A rotational angle,
Figure 112017006231644-pat00013
Is an elevation angle.

Figure 112017006231644-pat00014
는 서큘러 포인트의 변환에 영향을 주지 않으므로 생략가능하다. 여기서, s는 스케일(scale), r1~r4는 회전, tx, ty는 이동량을 나타낸다.
Figure 112017006231644-pat00014
Can be omitted because it does not affect the conversion of the circular point. Here, s is scale, r 1 to r 4 are rotation, and t x and t y are movement amounts.

서큘러 포인트 IJ는 임의의 두 원이 만나는 점이고, 따라서 영상에서 만나는 점도 서큘러 포인트 IJ가 변환된 점인 HI와 HJ이므로, 다음과 같이 표현된다. Circular points I and J are points at which two arbitrary circles meet, and therefore, the points that are encountered in the image are represented by H I and H J , which are the points at which the circulating points I and J are converted.

[수학식 4]&Quot; (4) "

Figure 112017006231644-pat00015
Figure 112017006231644-pat00015

HJ는 HI의 켤레복소수이다. 영상에 나타나는 타원들은 모두 영상 위의 두점 HI와 HJ에서 교점을 가진다. H J is the complex conjugate of H I. All the ellipses appearing in the image have an intersection at the two points H I and H J on the image.

편의상 2개의 타원을 이용하면 두 타원은 아래와 같은 식으로 표현할 수 있다. For convenience, using two ellipses, two ellipses can be expressed in the following manner.

[수학식 5]&Quot; (5) "

Figure 112017006231644-pat00016
Figure 112017006231644-pat00016

수학식 5의 두 타원의 교점을 구해, 앞에서 언급한 HI에 대입하면 P-1과 A-1을 구할 수 있고, 영상에서 탑뷰 영상으로의 호모그라피 H를 구할 수 있다. The intersection of two ellipses of Equation (5) is obtained, and P -1 and A -1 can be obtained by substituting for the above-mentioned H I , and the homography H from the image to the top view image can be obtained.

이 경우 촬영된 원형 패턴의 지름을 알고 있으면, S-1의 s(스케일)도 알 수 있다. In this case, if the diameter of the photographed circular pattern is known, the s (scale) of S -1 is also known.

다시 도 4를 참조하면, 전술한 것과 같이 호모그라피 H를 산출한 경우 다음 과정을 통해 세계좌표에 존재하는 카메라의 위치를 추정할 수 있다(단계 S430). Referring again to FIG. 4, when the homography H is calculated as described above, the position of the camera existing in the world coordinates can be estimated through the following process (step S430).

세계좌표 X와 영상좌표 x 사이에는 서로를 맵핑(mapping) 시켜주는 투영 행렬(projection matrix) P가 존재한다. 이를 식으로 나타내면 아래와 같다. Between the world coordinate X and the image coordinate x, there exists a projection matrix P that maps the coordinates to each other. This can be expressed as follows.

[수학식 6]&Quot; (6) "

Figure 112017006231644-pat00017
Figure 112017006231644-pat00017

여기서, P는 세계좌표를 카메라 영상 데이터의 영상좌표로 변환시켜주는 행렬을 의미하며, 수학식 7과 같이 카메라의 내부 변수 K와 세계좌표와 카메라 좌표 사이의 회전 변환인 R, 세계좌표에 카메라 좌표 사이의 이동량인 C로 표현이 가능하다. 여기서, 내부 변수 K로는 X축 방향으로의 스케일 팩터(scale factor), Y축 방향으로의 스케일 팩터, 스큐(skew), 주점(principal point) 위치 등이 포함될 수 있다. Here, P denotes a matrix for converting the world coordinates into the image coordinates of the camera image data. As shown in Equation (7), R is a rotation transformation between the camera internal variable K and the world coordinates and the camera coordinates, C, which is the amount of movement between them. Here, the internal variable K may include a scale factor in the X-axis direction, a scale factor in the Y-axis direction, a skew, and a position of a principal point.

[수학식 7]&Quot; (7) "

Figure 112017006231644-pat00018
Figure 112017006231644-pat00018

여기서, 호모그라피 H는 탑뷰 영상(2차원 영상)과 카메라 영상 데이터 간의 변환행렬이므로 Z축 변환이 없기에 P에서 r3가 제외된 특수한 경우로 볼 수 있고, 다음과 같이 표현될 수 있다. Here, since the homography H is a transformation matrix between the top view image (two-dimensional image) and the camera image data, it can be regarded as a special case in which r 3 is excluded from P because there is no Z-axis transformation.

[수학식 8]&Quot; (8) "

Figure 112017006231644-pat00019
Figure 112017006231644-pat00019

이때 r3는 r1과 r2의 외적으로 구할 수 있으므로,

Figure 112017006231644-pat00020
의 관계를 가진다. In this case, since r 3 can be determined externally of r 1 and r 2 ,
Figure 112017006231644-pat00020
.

이 관계를 이용하여 r3를 유추함으로써 P를 유추할 수 있다. P에서 K와 R을 알고 있으므로, 앞서 구한 호모그라피 H와 미리 알고 있는 K를 이용하여 세계좌표에서 카메라가 위치하는

Figure 112017006231644-pat00021
를 유추할 수 있게 된다. Using this relationship, we can infer P by analogy to r 3 . Since K and R are known in P, we use the previously obtained homography H and K, which are known in advance,
Figure 112017006231644-pat00021
.

다음으로는 영상 합성부(240)에서 앞서 추정한 카메라 위치 정보와 패턴 정보를 이용하여 카메라 영상 데이터를 탑뷰 영상으로 변환하고, 전방, 후방, 좌측 및 우측의 탑뷰 영상을 합성하여 AVM 영상 데이터를 생성할 수 있다(단계 S440). Next, the image synthesizer 240 converts the camera image data into the top view image using the previously estimated camera position information and the pattern information, synthesizes the front view images, the back view, the left view, and the right view image to generate AVM image data (Step S440).

여기서, 탑뷰 영상의 합성 과정에서 제2 원형 패턴(321, 323, 325, 327)으로부터 추출된 타원에 관한 패턴 정보의 해석을 통해 좌우측 영역의 탑뷰 영상의 수평을 맞추고, 이후 전후방 영역의 탑뷰 영상을 맞추어 줄 수 있다. In the synthesis process of the top view image, the top view images of the left and right regions are horizontally aligned by analyzing the pattern information on the ellipses extracted from the second circular patterns 321, 323, 325, and 327, You can tailor it.

도 10을 참조하면 단계 S420에서 계산한 호모그라피를 이용하여 재구성한 탑뷰 영상이 도시되어 있고, 도 11을 참조하면 단계 S430에서 추정한 카메라 위치가 빨간색 *로 표시되어 있다. Referring to FIG. 10, the reconstructed top view image is shown using the homography calculated in step S420. In FIG. 11, the camera position estimated in step S430 is indicated by a red *.

상술한 본 발명에 따른 AVM 시스템에서 탑뷰를 생성하고 외부 변수를 추정하는 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The method of generating a top view and estimating an external variable in the AVM system according to the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like. In addition, the computer-readable recording medium may be distributed and executed in a computer system connected to a computer network, and may be stored and executed as a code readable in a distributed manner.

또한, 상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that various modifications and changes may be made.

100: 차량 110a, 110b, 110c, 110d: 카메라
200: AVM 시스템 210: 영상 입력부
220: 저장부 230: 공차 보정부
240: 영상 합성부 250: 디스플레이부
311, 313, 315, 317: 제1 원형 패턴
321, 323, 325, 327: 제2 원형 패턴
100: vehicle 110a, 110b, 110c, 110d:
200: AVM system 210: video input unit
220: storage unit 230: tolerance correcting unit
240: image synthesizer 250:
311, 313, 315, 317: first circular pattern
321, 323, 325, 327: a second circular pattern

Claims (13)

차량에 설치된 카메라의 공차 보정 장치에 있어서,
상기 카메라가 촬영한 상기 차량의 주변에 배치된 원형 패턴에 대한 영상 신호를 카메라 영상 데이터로 변환하는 영상 입력부; 및
상기 카메라 영상 데이터에서 상기 원형 패턴에 상응하는 타원을 추출하고, 상기 타원과 상기 원형 패턴 사이의 상관관계를 이용하여 상기 카메라 영상과 탑뷰 영상 사이의 호모그라피를 산출하며, 상기 카메라의 외부 변수를 산출하여 세계좌표 상에서 상기 카메라의 위치를 추정하는 공차 보정부를 포함하되,
상기 원형 패턴은 상기 차량이 놓여질 보정 영역 주변에 임의로 설치되며,
상기 공차 보정부에서 추정된 상기 카메라의 위치를 이용하여 상기 카메라 영상 데이터를 변환하여 상기 차량의 주변 전체에 대한 상기 탑뷰 영상을 생성하여 AVM 영상 데이터로 합성하는 영상 합성부를 더 포함하되,
상기 영상 합성부에서는 상기 원형 패턴의 지름 정보를 이용하여 상기 탑뷰 영상에 대한 픽셀 피치(pixel pitch)를 계산하는 것을 특징으로 하는 공차 보정 장치.
An apparatus for correcting a tolerance of a camera installed in a vehicle,
An image input unit for converting an image signal of a circular pattern disposed in the periphery of the vehicle taken by the camera into camera image data; And
Calculating a homography between the camera image and the top view image by using a correlation between the ellipse and the circular pattern, calculating an external variable of the camera, extracting an ellipse corresponding to the circular pattern from the camera image data, And a tolerance correcting unit for estimating the position of the camera on the world coordinates,
The circular pattern is arbitrarily installed around a correction area where the vehicle is to be placed,
Further comprising an image synthesizing unit converting the camera image data using the position of the camera estimated by the tolerance correcting unit to generate the top view image of the entire periphery of the vehicle and synthesizing the top view image into AVM image data,
Wherein the image synthesizer calculates a pixel pitch for the top view image using the diameter information of the circular pattern.
제1항에 있어서,
상기 카메라는 상기 차량의 전방, 우측, 좌측 및 후방에 설치되는 제1 카메라, 제2 카메라, 제3 카메라 및 제4 카메라를 포함하고,
상기 원형 패턴은 상기 카메라 중에서 서로 이웃하는 카메라의 화각이 중첩되는 구역 내의 임의의 위치에 놓여지도록 하는 위치 조건을 충족하도록 배치된 제1 원형 패턴을 포함하는 것을 특징으로 하는 공차 보정 장치.
The method according to claim 1,
The camera includes a first camera, a second camera, a third camera, and a fourth camera installed at the front, right, left, and rear of the vehicle,
Wherein the circular pattern includes a first circular pattern arranged to satisfy a positional condition such that an angle of view of cameras adjacent to each other in the camera is placed at an arbitrary position within an overlapping area.
제1항에 있어서,
상기 공차 보정부는,
상기 카메라 영상 데이터에서 타원을 추출하는 단계;
상기 타원의 외곽을 추출하는 단계;
상기 카메라의 내부 변수에 의한 왜곡을 보정하는 단계;
왜곡 보정된 타원의 외곽 좌표에 기초하여 타원 방정식을 산출하는 단계;
상기 타원 방정식을 이용하여 세계좌표와 카메라 영상 데이터 사이의 호모그라피를 산출하는 단계를 수행하는 것을 특징으로 하는 공차 보정 장치.
The method according to claim 1,
Wherein the tolerance correcting unit comprises:
Extracting an ellipse from the camera image data;
Extracting an outline of the ellipse;
Correcting distortion caused by an internal variable of the camera;
Calculating an elliptic equation based on outline coordinates of the distortion-corrected ellipse;
And calculating a homography between the world coordinate and the camera image data using the elliptic equation.
제3항에 있어서,
상기 공차 보정부는 상기 세계좌표를 상기 카메라 영상 데이터의 영상좌표로 변환시켜주는 행렬 P와, 상기 카메라의 내부 변수 K와 세계좌표와 카메라 좌표 사이의 회전 변환인 R, 세계좌표에 카메라 좌표 사이의 이동량인 C 사이의 상관관계를 이용하여 호모그라피 H와 미리 알고 있는 K를 이용하여 세계좌표에서 카메라의 위치를 추정하는 것을 특징으로 하는 공차 보정 장치.
The method of claim 3,
The tolerance correcting unit includes a matrix P for converting the world coordinates into image coordinates of the camera image data, R representing a rotation transformation between the internal coordinates of the camera and the world coordinates and the camera coordinates, And estimating the position of the camera in the world coordinates using the homography H and the previously known K. [
제2항에 있어서,
상기 원형 패턴은 상기 차량의 좌우측 바퀴와 수평이 되도록 배치되는 제2 원형 패턴을 더 포함하는 공차 보정 장치.
3. The method of claim 2,
Wherein the circular pattern further comprises a second circular pattern arranged to be horizontal with the left and right wheels of the vehicle.
삭제delete 차량에 설치된 카메라의 공차 보정 방법에 있어서,
영상 입력부에 의해 상기 차량에 구비된 카메라가 촬영한 상기 차량의 주변에 배치된 원형 패턴에 대한 영상 신호가 카메라 영상 데이터로 변환되는 단계;
상기 카메라 영상 데이터에서 상기 원형 패턴에 상응하는 타원을 추출하는 단계;
상기 타원과 상기 원형 패턴 사이의 상관관계를 이용하여 상기 카메라 영상 데이터와 탑뷰 영상 사이의 호모그라피(homography)를 산출하는 단계; 및
상기 카메라의 외부 변수(extrinsic parameter)를 산출하여 세계좌표 상에서 상기 카메라의 위치를 추정하는 단계를 포함하되,
상기 원형 패턴은 상기 차량이 놓여질 보정 영역 주변에 임의로 설치되며,
추정된 상기 카메라의 위치를 이용하여 상기 카메라 영상 데이터를 변환하여 상기 차량의 주변 전체에 대한 상기 탑뷰 영상을 생성하여 AVM 영상 데이터로 합성하는 단계를 더 포함하되,
상기 AVM 영상 데이터 합성 단계는 상기 원형 패턴의 지름 정보를 이용하여 상기 탑뷰 영상에 대한 픽셀 피치(pixel pitch)를 계산하는 것을 특징으로 하는 공차 보정 방법.
A method of correcting a tolerance of a camera installed in a vehicle,
Converting a video signal of a circular pattern disposed in the periphery of the vehicle captured by a camera provided in the vehicle by the video input unit into camera video data;
Extracting an ellipse corresponding to the circular pattern from the camera image data;
Calculating a homography between the camera image data and the top view image using the correlation between the ellipse and the circular pattern; And
Calculating extrinsic parameters of the camera to estimate the position of the camera on world coordinates,
The circular pattern is arbitrarily installed around a correction area where the vehicle is to be placed,
And converting the camera image data using the estimated position of the camera to generate the top view image of the entire periphery of the vehicle and synthesizing the top view image with the AVM image data,
Wherein the AVM image data synthesizing step calculates a pixel pitch for the top view image using the diameter information of the circular pattern.
제7항에 있어서,
상기 카메라는 상기 차량의 전방, 우측, 좌측 및 후방에 설치되는 제1 카메라, 제2 카메라, 제3 카메라 및 제4 카메라를 포함하고,
상기 원형 패턴은 상기 카메라 중에서 서로 이웃하는 카메라의 화각이 중첩되는 구역 내의 임의의 위치에 놓여지도록 하는 위치 조건을 충족하도록 배치된 제1 원형 패턴을 포함하는 것을 특징으로 하는 공차 보정 방법.
8. The method of claim 7,
The camera includes a first camera, a second camera, a third camera, and a fourth camera installed at the front, right, left, and rear of the vehicle,
Wherein the circular pattern includes a first circular pattern arranged to satisfy a positional condition such that the angle of view of the cameras adjacent to each other in the camera is placed at an arbitrary position within an overlapping region.
제7항에 있어서,
상기 호모그라피 산출 단계는,
상기 타원의 외곽을 추출하는 단계;
상기 카메라의 내부 변수에 의한 왜곡을 보정하는 단계;
왜곡 보정된 타원의 외곽 좌표에 기초하여 타원 방정식을 산출하는 단계; 및
상기 타원 방정식을 이용하여 세계좌표와 카메라 영상 데이터 사이의 호모그라피를 산출하는 단계를 포함하는 것을 특징으로 하는 공차 보정 방법.
8. The method of claim 7,
The homography-
Extracting an outline of the ellipse;
Correcting distortion caused by an internal variable of the camera;
Calculating an elliptic equation based on outline coordinates of the distortion-corrected ellipse; And
And calculating a homography between the world coordinate and the camera image data using the elliptic equation.
제9항에 있어서,
상기 카메라 위치 추정 단계는,
상기 세계좌표를 상기 카메라 영상 데이터의 영상좌표로 변환시켜주는 행렬 P와, 상기 카메라의 내부 변수 K와 세계좌표와 카메라 좌표 사이의 회전 변환인 R, 세계좌표에 카메라 좌표 사이의 이동량인 C 사이의 상관관계를 이용하여 호모그라피 H와 미리 알고 있는 K를 이용하여 세계좌표에서 카메라의 위치를 추정하는 것을 특징으로 하는 공차 보정 방법.
10. The method of claim 9,
The camera position estimating step may include:
A matrix P for transforming the world coordinates into image coordinates of the camera image data, a matrix P for converting the internal variable K of the camera into R, a rotation transformation between the world coordinate and the camera coordinates, and a movement amount C between the camera coordinates And estimating a position of the camera in the world coordinates using the homography H and the previously known K using the correlation.
제7항에 있어서,
상기 원형 패턴은 상기 차량의 좌우측 바퀴와 수평이 되도록 배치되는 제2 원형 패턴을 더 포함하는 공차 보정 방법.
8. The method of claim 7,
Wherein the circular pattern further comprises a second circular pattern arranged to be horizontal with the left and right wheels of the vehicle.
삭제delete 제7항 내지 제11항 중 어느 한 항의 방법을 수행하기 위한 프로그램이 컴퓨터가 읽을 수 있도록 기록된 기록 매체.12. A recording medium in which a program for performing the method of any one of claims 7 to 11 is recorded so as to be read by a computer.
KR1020170008675A 2017-01-18 2017-01-18 Top view creating method for camera installed on vehicle and AVM system KR101762117B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170008675A KR101762117B1 (en) 2017-01-18 2017-01-18 Top view creating method for camera installed on vehicle and AVM system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170008675A KR101762117B1 (en) 2017-01-18 2017-01-18 Top view creating method for camera installed on vehicle and AVM system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150090167A Division KR101705558B1 (en) 2015-06-25 2015-06-25 Top view creating method for camera installed on vehicle and AVM system

Publications (2)

Publication Number Publication Date
KR20170010869A KR20170010869A (en) 2017-02-01
KR101762117B1 true KR101762117B1 (en) 2017-07-28

Family

ID=58109454

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170008675A KR101762117B1 (en) 2017-01-18 2017-01-18 Top view creating method for camera installed on vehicle and AVM system

Country Status (1)

Country Link
KR (1) KR101762117B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205811A (en) 2007-02-20 2008-09-04 Alpine Electronics Inc Camera attitude calculation target device and camera attitude calculation method using it, and image display method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4794510B2 (en) 2007-07-04 2011-10-19 ソニー株式会社 Camera system and method for correcting camera mounting error

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205811A (en) 2007-02-20 2008-09-04 Alpine Electronics Inc Camera attitude calculation target device and camera attitude calculation method using it, and image display method

Also Published As

Publication number Publication date
KR20170010869A (en) 2017-02-01

Similar Documents

Publication Publication Date Title
EP3565739B1 (en) Rear-stitched view panorama for rear-view visualization
US9589326B2 (en) Depth image processing apparatus and method based on camera pose conversion
KR101811157B1 (en) Bowl-shaped imaging system
KR101705558B1 (en) Top view creating method for camera installed on vehicle and AVM system
JP3868876B2 (en) Obstacle detection apparatus and method
JP4692371B2 (en) Image processing apparatus, image processing method, image processing program, recording medium recording image processing program, and moving object detection system
TWI578271B (en) Dynamic image processing method and dynamic image processing system
US20080181488A1 (en) Camera calibration device, camera calibration method, and vehicle having the calibration device
US20210082086A1 (en) Depth-based image stitching for handling parallax
JP2009129001A (en) Operation support system, vehicle, and method for estimating three-dimensional object area
JP2011182236A (en) Camera calibration apparatus
JP2008187566A (en) Camera calibration apparatus and method and vehicle
US20200177867A1 (en) Camera-parameter-set calculation apparatus, camera-parameter-set calculation method, and recording medium
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
WO2018235300A1 (en) Object detection device, object detection method, and computer-readable recording medium
US20200074660A1 (en) Image processing device, driving assistance system, image processing method, and program
US20160037154A1 (en) Image processing system and method
Chang et al. Auto-calibration around-view monitoring system
KR101504335B1 (en) Device, method and vehicle for providing around view
CN110738696B (en) Driving blind area perspective video generation method and driving blind area view perspective system
CN110832851B (en) Image processing apparatus, image conversion method, and program
KR101762117B1 (en) Top view creating method for camera installed on vehicle and AVM system
JP7074546B2 (en) Image processing equipment and methods
JP2009077022A (en) Driving support system and vehicle
WO2018016274A1 (en) Image processing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant