KR101239740B1 - An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table - Google Patents

An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table Download PDF

Info

Publication number
KR101239740B1
KR101239740B1 KR1020110130639A KR20110130639A KR101239740B1 KR 101239740 B1 KR101239740 B1 KR 101239740B1 KR 1020110130639 A KR1020110130639 A KR 1020110130639A KR 20110130639 A KR20110130639 A KR 20110130639A KR 101239740 B1 KR101239740 B1 KR 101239740B1
Authority
KR
South Korea
Prior art keywords
image
polygon
mapping
vertex
coordinate
Prior art date
Application number
KR1020110130639A
Other languages
Korean (ko)
Inventor
하수영
나경진
김진경
Original Assignee
아진산업(주)
주식회사 우신산업
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아진산업(주), 주식회사 우신산업 filed Critical 아진산업(주)
Priority to KR1020110130639A priority Critical patent/KR101239740B1/en
Application granted granted Critical
Publication of KR101239740B1 publication Critical patent/KR101239740B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: A vehicle around view image generation apparatus using polygon mapping and multiple lookup table is provided to correct more precise image distortion by correcting image distortion using a polygon mapping technique. CONSTITUTION: A image signal reception unit(20) receives a plurality of input image signals photographed from a plurality of wide-angle cameras(10). An image synthesis unit(30) synthesizes a plurality of the input images, a user interface image, and a parking support image by referring a first to a third LUT(Look Up Tables)(51-53). An image display unit(40) displays the synthesis image to one terminal output window. [Reference numerals] (10) Wide-angle camera; (20) Image signal reception unit; (30) Image synthesis unit; (40) Image display unit; (51) First look up table; (52) Second look up table; (53) Third look up table

Description

폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치{AN APPARATUS FOR GENERATING AROUND VIEW IMAGE OF VEHICLE USING POLYGON MAPPING AND MULTI LOOK-UP TABLE}Vehicle around view image generator using polygon mapping and multi-lookup table {AN APPARATUS FOR GENERATING AROUND VIEW IMAGE OF VEHICLE USING POLYGON MAPPING AND MULTI LOOK-UP TABLE}

본 발명은 복수 개의 광각 카메라에서 얻어지는 영상들을 이용하여 차량의 어라운드 뷰 영상을 생성하는 장치에 관한 것으로서, 보다 상세하게는 광각 카메라를 통해 획득되는 왜곡 영상 내의 폴리곤 좌표점을 추정하고, 추정된 폴리곤 좌표점을 기준 영상에 폴리곤 매핑되도록 하는 폴리곤 매핑방식의 영상 왜곡 보정방식에 있어서 폴리곤 좌표 대응관계와 사용자 인터페이스 영상 및 주차 지원 영상과 단말기 출력 윈도우 간의 좌표 대응관계를 저장하는 다중 룩업 테이블을 이용하여 광각 카메라 영상의 왜곡이 보정된 영상, 사용자 인터페이스 영상 및 주차 지원 영상이 하나의 단말기 출력 윈도우 상에 표시될 수 있도록 하여 영상 신호처리를 위한 연산 시간을 현저하게 단축할 수 있도록 함과 아울러 어라운드 뷰 영상 내에서 차량의 주위 영상뿐만 아니라 주차 지원 영상을 동시에 표시할 수 있어 보다 원활한 주차를 지원할 수 있도록 하는 기술에 관한 것이다.
The present invention relates to an apparatus for generating an around view image of a vehicle using images obtained from a plurality of wide-angle cameras, and more particularly, to estimate a polygon coordinate point in a distorted image obtained through a wide-angle camera, and to estimate the estimated polygon coordinates. In the polygon mapping image distortion correction method for mapping a point to a reference image in a polygon, a wide angle camera using a multi-lookup table that stores a polygon coordinate correspondence and a coordinate correspondence between a user interface image and a parking assist image and a terminal output window Image distortion-corrected image, user interface image, and parking assist image can be displayed on one terminal output window, which can significantly reduce the computation time for image signal processing, As well as the surrounding footage of the vehicle In addition, the present invention relates to a technology for supporting parking more smoothly by simultaneously displaying parking assistance images.

최근, IT 기술의 발전과 더불어 이를 차량에 접목시키고자 하는 시도가 증가하고 있다. 예컨대, 차량에 카메라를 장착하여 운전 상태나 주변 상황을 녹화하는 블랙 박스 장치나 차량의 후방에 카메라를 설치하여 후진시 후방 영상을 촬영하여 차량 내부의 디스플레이 장치에 출력하도록 하는 주차 보조 시스템 등이 사용되고 있으며 이러한 추세는 점차 증가하고 있는 것으로 보고되고 있다. 한편, 이러한 기술 중에서 최근에는 차량의 전후방, 좌우측면에 광각 카메라를 설치하고 이들 카메라들로부터 촬영되는 영상을 차량의 바로 위 즉, 상방향에서 내려다보는 형태의 영상으로 재구성하여 차량의 디스플레이 장치에 출력함으로써 운전자의 편의를 도모하도록 하는 시스템도 제안되고 있다. Recently, with the development of IT technology, attempts to apply it to vehicles are increasing. For example, a black box device that mounts a camera in a vehicle to record driving conditions or surrounding conditions, or a parking assistance system that installs a camera in the rear of the vehicle to take a rearward image and output it to a display device inside the vehicle when the vehicle is reversed. This trend is reported to be increasing. Meanwhile, among these technologies, wide-angle cameras are installed in front, rear, left, and right sides of the vehicle, and the images captured from these cameras are reconstructed into images of the form directly above the vehicle, that is, viewed from above, and output to the display device of the vehicle. There has also been proposed a system for the driver's convenience.

이러한 시스템은 마치 새가 하늘에서 내려다 보는 듯한 영상을 제공한다는 점에서 버드아이뷰(Bird eye vie) 시스템이라고 하거나 AVM(around view monitoring) 시스템 등으로 불리우고 있다. 이러한 기술은 보다 넓은 시야각을 확보하기 위하여 어안(fish eye) 렌즈를 구비하는 광각 카메라를 사용하는데, 이러한 광각 카메라를 사용하게 되면 왜곡된 영상을 최초 영상 신호로서 획득하게 되므로 이러한 왜곡 영상을 왜곡이 없는 영상으로 보정하기 위한 과정을 필요로 하게 된다.Such a system is called a bird eye vie system or an AVM (around view monitoring) system in that it provides an image as if the bird is looking down from the sky. This technique uses a wide-angle camera with a fish eye lens to secure a wider viewing angle. When such a wide-angle camera is used, a distorted image is obtained as an initial image signal, thereby eliminating distortion. This requires a process to correct the image.

이러한 왜곡된 영상을 교정하는 처리는 왜곡된 영상을 워핑 방정식을 이용하여 교정하는 것이 일반적이며, 워핑 방정식은 다음 수학식과 같이 1차, 2차, 3차 방정식으로 표현된다.A process of correcting such a distorted image is generally performed by correcting a distorted image by using a warping equation, and the warping equation is expressed by a first, second and third order equation as shown in the following equation.

Figure 112011097375951-pat00001
Figure 112011097375951-pat00001

Figure 112011097375951-pat00002
Figure 112011097375951-pat00002

Figure 112011097375951-pat00003
Figure 112011097375951-pat00003

그러나, 워핑 방정식을 이용한 왜곡 보정은 3차원 방정식을 이용하여 보정이 이루어지므로 외곽 부분의 영상 왜곡이 여전히 남아 있어 왜곡이 완벽하게 보정되지 않는 단점이 있다.However, the distortion correction using the warping equation has a disadvantage that the distortion is not completely corrected because the image distortion of the outer portion remains because the correction is performed using the three-dimensional equation.

그리고, 어떤 방식의 왜곡 영상 보정방식을 이용하더라도, 왜곡 영상 보정을 위해서는 복잡한 연산 과정을 필요로 한다. 따라서, 종래 기술에 의한 어라운드 뷰 시스템은 연산 과정이 복잡하고 실시간으로 처리해야 하므로 연산량이 방대하고 고 사양 및 고가의 하드웨어 장비를 필요로 한다는 문제점이 있다.And, no matter what type of distortion image correction method is used, a complicated calculation process is required to correct the distortion image. Accordingly, the around view system according to the related art has a problem in that a computational process is complicated and needs to be processed in real time, thus requiring a large amount of computation and requiring high specification and expensive hardware equipment.

이러한 문제점을 해결하기 위해, 한국등록특허 10-1077584호에는 복수개의 카메라로부터 획득한 영상을 정합하는 영상 처리 장치 및 방법에 관한 것으로서, 복수개의 카메라로부터 획득되는 복수개의 입력 영상 신호를 구성하는 각각의 영상 화소들이 합성 영상 신호의 영상 화소에 대응되는 관계에 대한 영상 매핑 데이터를 저장하는 룩업 테이블을 이용하여 영상 신호 수신부로부터 복수개의 입력 영상 신호를 수신하여 룩업 테이블을 참조하여 각각의 입력 영상 신호에 대응되는 합성 영상 신호를 생성하여 출력하도록 함으로써, 복수개의 카메라로부터 획득한 복수개의 영상을 신속하고 효율적으로 단일 평면화 영상으로 구성할 수 있도록 하는 기술이 제안된 바 있다.In order to solve this problem, Korean Patent No. 10-1077584 relates to an image processing apparatus and method for matching images obtained from a plurality of cameras, each of which constitutes a plurality of input image signals obtained from a plurality of cameras. Receive a plurality of input image signals from an image signal receiver using a look-up table that stores image mapping data for a relationship in which image pixels correspond to image pixels of a composite image signal, and correspond to each input image signal by referring to the look-up table. By generating and outputting a composite video signal, a technique has been proposed to enable a plurality of images acquired from a plurality of cameras to be quickly and efficiently configured into a single planarized image.

그러나, 이러한 종래 기술은 단일 룩업 테이블을 이용한 것으로서, 도 1과 같이, 카메라의 촬영 영상과 왜곡이 보정된 합성 영상 간의 관계만이 단일 룩업 테이블에 저장되어 있으므로 미리 생성된 사용자 인터페이스 영상이 메모리 상에 별도로 저장되고, 그에 따라 어라운드 뷰 영상과 사용자 인터페이스 영상이 각각의 윈도우에서 생성되어 화면에 출력되게 되므로 영상 처리 효율이 저하되는 문제점이 있다. However, this conventional technique uses a single lookup table. As shown in FIG. 1, only a relationship between a photographed image of a camera and a composite image in which distortion is corrected is stored in a single lookup table. Since it is separately stored, and thus the around view image and the user interface image are generated in each window and output on the screen, there is a problem that image processing efficiency is lowered.

또한, 종래 어라운드 뷰 시스템은 어라운드 뷰 영상만을 표시할 뿐, 어라운드 뷰 영상 내에 후방 감지 센서의 감지 신호를 시각화한 영상(후방 감지 신호 영상) 등의 주차 지원 영상은 표시되지 않아 만족할만한 주차 지원이 이루어지지 못하고 있는 실정이다.
In addition, the conventional around view system displays only the around view image and does not display a parking assist image such as an image (rear sense signal image) that visualizes the detection signal of the rear sensor in the around view image so that satisfactory parking support is achieved. It is not supported.

본 발명은 상기와 같은 문제점을 해결하기 위한 안출된 것으로서, 본 발명의 목적은 워핑 방정식을 이용하지 않고 폴리곤 매핑 방식을 통해 영상을 보정함으로써 보다 정확한 영상 왜곡 보정이 이루어지도록 함과 아울러, 다중 록업 테이블을 이용하여 광각 카메라 영상의 왜곡이 보정된 영상, 사용자 인터페이스 영상 및 주차 지원 영상이 하나의 단말기 출력 윈도우 상에 표시될 수 있도록 하여 영상 신호처리를 위한 연산 시간을 현저하게 단축할 수 있도록 하는 것이다.The present invention has been made to solve the above problems, an object of the present invention is to correct the image distortion by using a polygon mapping method without using the warping equation, and to achieve a more accurate image distortion correction, and multi-lockup table By using this, the distortion correction of the wide-angle camera image, the user interface image, and the parking assist image can be displayed on one terminal output window, thereby significantly reducing the computation time for image signal processing.

본 발명의 다른 목적은 어라운드 뷰 영상 내에서 차량의 주위 영상뿐만 아니라 주차 지원 영상을 동시에 표시할 수 있도록 함으로써 보다 원활한 주차를 지원할 수 있도록 하는 기술에 관한 것이다.
Another object of the present invention relates to a technique for supporting smoother parking by enabling to simultaneously display not only the surrounding image of the vehicle but also the parking assistance image within the around view image.

상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 일 실시예에 따르면, 차량의 사방을 촬영하도록 설치되는 복수 개의 광각 카메라, 복수 개의 광각 카메라로부터 촬영된 복수 개의 입력 영상 신호를 수신하는 영상 신호 수신부, 상기 광각 카메라를 통해 획득되는 왜곡 영상 내의 폴리곤 좌표점을 추정하고 추정된 폴리곤 좌표점을 기준 영상에 폴리곤 매핑되도록 하는 폴리곤 매핑방식을 이용하여, 왜곡 영상의 폴리곤 좌표점과 기준 영상의 폴리곤 좌표점 간의 대응관계에 대한 제 1 영상 매핑 데이터를 저장하는 제 1 룩업 테이블, 미리 생성된 사용자 인터페이스 영상을 구성하는 영상 화소들이 단말기 출력 윈도우 상의 영상 화소에 대응되는 관계에 대한 제 2 영상 매핑 데이터를 저장하는 제 2 룩업 테이블, 주차 지원 영상을 구성하는 영상 화소들이 단말기 출력 윈도우 상의 영상 화소에 대응되는 관계에 대한 제 3 영상 매핑 데이터를 저장하는 제 3 룩업 테이블, 상기 제 1 ~ 제 3 룩업 테이블을 참조하여 상기 복수 개의 입력 영상, 사용자 인터페이스 영상 및 주차 지원 영상을 합성하는 영상 합성부 및 상기 합성 영상을 하나의 단말기 출력 윈도우 상에 표시하는 영상 디스플레이부를 포함하는 것을 특징으로 하는 폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치가 제공된다.According to a preferred embodiment of the present invention for achieving the above object, a plurality of wide-angle camera installed to photograph the four sides of the vehicle, an image signal receiving unit for receiving a plurality of input image signals taken from the plurality of wide-angle camera, By using a polygon mapping method for estimating polygon coordinate points in the distorted image obtained by the wide-angle camera and polygon mapping the estimated polygon coordinate points to the reference image, between the polygon coordinate points of the distorted image and the polygon coordinate points of the reference image. A first lookup table for storing first image mapping data for a correspondence relationship, and a second image mapping data for a relationship in which image pixels constituting a pre-generated user interface image correspond to image pixels on a terminal output window. Video Pixel Composing 2 Lookup Table, Parking Support Video Lookup table for storing third image mapping data of a relationship corresponding to an image pixel on a terminal output window, the plurality of input images, the user interface image, and the parking assist image with reference to the first to third lookup tables. There is provided an apparatus for generating a vehicle around view image using a polygon mapping and a multi-lookup table, comprising: an image synthesizer for synthesizing an image and an image display unit for displaying the synthesized image on one terminal output window.

여기서, 상기 영상 디스플레이부는 사용자 인터페이스 표시부, 후방 카메라 영상 표시부, 어라운드뷰 영상 표시부를 포함할 수 있다.The image display unit may include a user interface display unit, a rear camera image display unit, and an around view image display unit.

그리고, 상기 사용자 인터페이스 영상은 상기 사용자 인터페이스 표시부를 구성하는 영상과 상기 어라운드 뷰 영상 표시부의 중심에 표시되는 차량 이미지 중 적어도 어느 하나를 포함할 수 있고, 상기 주차 지원 영상은 상기 후방 카메라 영상 표시부에 표시되는 차량 궤적 영상과 상기 어라운드 뷰 영상 표시부에 표시되는 후방 감지 신호 영상 중 적어도 어느 하나를 포함할 수 있다.The user interface image may include at least one of an image constituting the user interface display unit and a vehicle image displayed at the center of the around view image display unit, and the parking assist image is displayed on the rear camera image display unit. The image may include at least one of a vehicle trajectory image and a rear sensing signal image displayed on the around view image display unit.

그리고, 상기 후방 감지 신호 영상은 감지되는 후방 장애물과의 거리를 표현하는 복수 개의 원호로 표시되고, 상기 후방 장애물과의 거리와 원호들의 대응되는 관계가 제 3 룩업 테이블에 저장되고, 상기 각 원호에 대응되는 단위 경보음의 출력 시간, 출력 듀티 사이클 정보 또한 제 3 룩업 테이블에 저장되는 것이 바람직하다.The rearward sensing signal image is represented by a plurality of arcs representing distances to the rear obstacles to be sensed, and a corresponding relationship between the distances of the rear obstacles and the arcs is stored in a third lookup table, The output time and output duty cycle information of the corresponding unit alarm sound are also preferably stored in the third lookup table.

그리고, 상기 제 1 영상 매핑 데이터는 기준 그리드 패턴의 각 교차점에 대한 기준 좌표값을 설정하고 상기 그리드 패턴 영상에 대하여 기준 꼭지점(A',B',C')을 갖는 복수의 기준 폴리곤으로 분할한 기준 영상을 생성하는 단계, 복수의 광각 카메라로 체크 보드 패턴을 촬상하여 각각의 왜곡 영상을 획득하는 단계, 상기 각 왜곡 영상 내 체크 보드 패턴의 에지를 검출하는 단계, 상기 검출된 에지 영역을 따라 라인 트레킹을 수행하면서 수직 방향과 수평 방향으로의 밝기 분포 변화량을 이용하여 복수의 보정점을 추정하고, 추정된 보정점들에 대한 보정 순서를 선정하는 단계, 상기 각 왜곡 영상에 대하여 상기 보정 꼭지점(A,B,C)으로 하는 복수의 왜곡 폴리곤으로 분할하는 단계, 상기 보정 순서에 따라 왜곡 폴리곤이 기준 폴리곤에 대응되도록 왜곡 영상의 각 픽셀 좌표를 기준 좌표에 매핑하는 단계, 상기 매핑 대상 픽셀이 상기 왜곡 폴리곤 내부에 위치하는지 판단하는 단계 및 상기 왜곡 폴리곤 내부의 점들의 좌표를 기준 폴리곤 내부의 좌표와 같은 비율로 매칭시켜 상기 제 1 영상 매핑 데이터를 산출하는 단계를 통해 얻어지는 것이 바람직하다.The first image mapping data sets reference coordinate values for each intersection point of the reference grid pattern, and divides the first image mapping data into a plurality of reference polygons having reference vertices A ', B', and C 'for the grid pattern image. Generating a reference image, photographing a check board pattern with a plurality of wide-angle cameras to obtain respective distortion images, detecting edges of the check board patterns in each of the distortion images, and lines along the detected edge regions Estimating a plurality of correction points using the variation in brightness distribution in the vertical direction and the horizontal direction while performing trekking, and selecting a correction order for the estimated correction points, wherein the correction vertices A Dividing the plurality of distorted polygons into (B, C), so that the distorted polygon corresponds to the reference polygon according to the correction order. Mapping each pixel coordinate to a reference coordinate, determining whether the pixel to be mapped is located inside the distortion polygon, and matching coordinates of the points inside the distortion polygon at the same ratio as the coordinate inside the reference polygon. It is preferable to obtain through the step of calculating the image mapping data.

또한, 상기 왜곡 영상의 픽셀 좌표의 기준 좌표로의 매칭은, 상기 꼭지점 A, B, C 중 어느 하나를 제 1 기준 꼭지점을 선정하고, 제 1 기준 꼭지점과 매핑 대상 픽셀(P)을 지나는 제 1 직선 및 상기 제 1 기준 꼭지점과 마주보는 선분과의 교차점 좌표를 산출하는 제 1 교차점 좌표 산출 단계와, 상기 꼭지점 A, B, C 중 제 1 기준 꼭지점을 제외한 둘 중 하나를 제 2 기준 꼭지점으로 선정하고, 제 2 기준 꼭지점과 매핑 대상 픽셀(P)을 지나는 제 2 직선 및 상기 제 2 기준 꼭지점과 마주보는 선분과의 교차점 좌표를 산출하는 제 2 교차점 좌표 산출 단계와, 상기 제 1 직선 상의 제 1 교차점 좌표비와 제 2 직선 상의 제 2 교차점 좌표비를 산출하는 단계와, 상기 제 1 교차점 좌표비를 기준 폴리곤의 꼭지점(A',B',C')에 대응시켜 기준 폴리곤 상의 제 3 교차점 좌표를 산출하고, 상기 제 2 교차점 좌표비를 기준 폴리곤의 꼭지점(A',B',C')에 대응시켜 기준 폴리곤 상의 제 4 교차점 좌표를 산출하는 단계와, 상기 제 3 교차점과 제 4 교차점 각각과 마주하는 제 3 꼭지점과 제 4 꼭지점을 추출하고, 제 3꼭지점과 제 3 교차점을 잇는 제 3 선분 및 제 4 교차점과 제 4꼭지점을 잇는 제 4 선분을 추출하여, 제 3 선분과 제 4 선분의 교차점(P')를 산출하는 단계, 및 상기 매핑 대상 픽셀(P)을 교차점(P')에 대응시켜 매핑하는 단계를 통해 이루어질 수 있다.In addition, matching of the pixel coordinates of the distorted image to the reference coordinates may include selecting a first reference vertex from any one of the vertices A, B, and C, and passing the first reference vertex and the mapping target pixel P. A first intersection coordinate calculation step of calculating intersection coordinates of a straight line and a line segment facing the first reference vertex, and selecting one of the vertices A, B, and C except for the first reference vertex as the second reference vertex And a second intersection coordinate calculation step of calculating intersection coordinates of a second straight line passing through the second reference vertex and the pixel to be mapped P and the line segment facing the second reference vertex, and the first on the first straight line. Calculating an intersection coordinate ratio and a second intersection coordinate ratio on a second straight line, and matching the first intersection coordinate ratio to vertices A ', B', and C 'of the reference polygon to coordinate with the third intersection point on the reference polygon. To calculate Calculating a fourth intersection coordinate on the reference polygon by mapping the second intersection coordinate ratio to vertices A ', B', and C 'of the reference polygon, and facing each of the third and fourth intersection points. The third vertex and the fourth vertex are extracted, and the third segment connecting the third vertex and the third intersection and the fourth segment connecting the fourth intersection and the fourth vertex are extracted, and the intersection point of the third segment and the fourth segment ( Calculating P ′) and mapping the mapping target pixel P corresponding to the intersection point P ′.

또한, 상기 제 1 기준 꼭지점 선정은, 왜곡 폴리곤의 세 선분의 기울기를 산출하는 제 1 기울기 산출 단계와, 매핑 대상 픽셀(P)과 각 꼭지점(A,B,C)과의 거리를 산출하는 단계와, 상기 매핑 대상 픽셀(P)과 각 꼭지점을 연결하여 3개의 삼각형을 구하고, 상기 각각의 삼각형에 대하여 꼭지점과 매핑 대상 픽셀(P) 간의 거리가 먼 꼭지점을 각각 추출하는 단계와, 상기 매핑 대상 픽셀(P)과 거리가 먼 꼭지점들과 매핑 대상 픽셀(P)과 기울기를 산출하는 제 2 기울기 산출 단계와, 상기 제 1 기울기와 제 2 기울기의 차를 산출하고 기울기 차가 가장 작은 선분을 추출하는 단계와, 상기 기울기의 차가 가장 작은 선분과 마주보는 꼭지점을 제 1 기준 꼭지점으로 선정하는 단계를 통해 이루어지고, 상기 제 2 기준 꼭지점은 매핑 대상 픽셀(P)과의 거리 산출 결과 거리가 가장 가까운 꼭지점으로 선정될 수 있다.
The first reference vertex selection may include calculating a first slope of three lines of the distorted polygon, and calculating a distance between the mapping target pixel P and the vertices A, B, and C. And obtaining three triangles by connecting the mapping target pixel P and each vertex, and extracting vertices far from the vertex and the mapping target pixel P for each of the triangles; A second slope calculation step of calculating vertices far from the pixel P, a mapping target pixel P, and a slope; calculating a difference between the first slope and the second slope and extracting a line segment having the smallest difference in slope; And selecting a vertex facing the line segment having the smallest difference in the slope as a first reference vertex, and the second reference vertex has a distance calculated as a result of the distance from the pixel to be mapped (P). It can be selected as the closest vertex.

본 발명에 따르면, 폴리곤 매핑 방식을 이용하여 영상 왜곡을 보정함으로써 보다 정확한 영상 왜곡 보정이 이루어지도록 할 수 있고 어라운드 뷰 영상을 생성하기 위해 소요되는 시간 및 연산량을 단축하여 프로그램 성능이 향상될 뿐 아니라 종래에 비해 낮은 사양의 장비로도 동등한 성능을 제공할 수 있어 제품 단가가 인하될 수 있고 그에 따라 제품 경쟁력을 현저하게 향상시킬 수 있는 효과가 있다.
According to the present invention, by correcting the image distortion by using the polygon mapping method can be more accurate image distortion correction, and the program performance is improved not only by improving the time and computation required to generate the around view image, Compared to this, even a device with a lower specification can provide equivalent performance, which can lower the product cost and thereby significantly improve product competitiveness.

도 1은 종래 단일 룩업 테이블을 사용한 어라운드 뷰 영상 생성장치에 의해 어라운드 뷰 영상이 표시되는 개념을 설명하기 위한 도면.
도 2는 본 발명에 따른 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치의 구성 블럭도.
도 3은 본 발명에 따른 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치에 의해 어라운드 뷰 영상이 표시되는 개념을 설명하기 위한 도면.
도 4는 후방 감지 신호 영상을 생성하는 과정을 도시한 것.
도 5는 본 발명에 따른 차량 어라운드 뷰 영상 생성 방법을 순차로 나타낸 흐름도.
도 6 내지 도 11은 본 발명에 따른 차량 어라운드 뷰 영상 생성 과정을 설명하기 위한 참조도.
도 12는 본 발명에 따라 매핑 대상 픽셀이 왜곡 폴리곤 내부에 위치하는지 여부를 판단하기 위한 과정을 설명하기 위한 도면.
도 13은 본 발명에 따라 왜곡 폴리곤을 기준 폴리곤으로 매핑하는 방법을 설명하기 위한 도면.
도 14는 본 발명의 실시예에서 폴리곤 매핑시 기준이 되는 두개의 기준 꼭지점을 선정하는 과정을 설명하기 위한 흐름도.
도 15는 도 14의 방법을 설명하기 위한 참조 도면.
1 is a view illustrating a concept of displaying an around view image by an around view image generating apparatus using a conventional single lookup table.
2 is a block diagram illustrating an apparatus for generating a vehicle around view image using a multiple lookup table according to the present invention;
3 is a view illustrating a concept of displaying an around view image by a vehicle around view image generating apparatus using a multiple lookup table according to the present invention;
4 illustrates a process of generating a rear sensing signal image.
5 is a flowchart sequentially illustrating a method of generating a vehicle around view image according to the present invention.
6 to 11 are reference views for explaining a process of generating a vehicle around view image according to the present invention.
12 is a view for explaining a process for determining whether a pixel to be mapped is located inside a distortion polygon according to the present invention.
13 is a view for explaining a method of mapping a distortion polygon to a reference polygon in accordance with the present invention.
FIG. 14 is a flowchart illustrating a process of selecting two reference vertices which are references when polygons are mapped in an embodiment of the present invention. FIG.
FIG. 15 is a reference diagram for explaining the method of FIG. 14; FIG.

이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시예를 상세하게 설명하기로 한다.
Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

도 2는 본 발명에 따른 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치의 구성 블럭도, 도 3은 본 발명에 따른 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치에 의해 어라운드 뷰 영상이 표시되는 개념을 설명하기 위한 도면, 도 4는 후방 감지 신호 영상을 생성하는 과정을 도시한 것이다.2 is a block diagram illustrating an apparatus for generating a vehicle around view image using a multiple lookup table according to an embodiment of the present invention, and FIG. 3 is a concept in which an around view image is displayed by an apparatus for generating a vehicle around view image using a multiple lookup table according to the present invention. 4 illustrates a process of generating a rear sensing signal image.

도 2를 참조하면, 본 발명에 따른 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치는 복수 개의 광각 카메라(10), 영상신호 수신부(20), 영상 합성부(30), 영상 디스플레이부(40) 및 메모리(50)를 포함하여 구성된다.Referring to FIG. 2, the apparatus for generating a vehicle around view image using a multi-lookup table according to the present invention includes a plurality of wide-angle cameras 10, image signal receivers 20, image synthesizers 30, and image display units 40. And a memory 50.

광각 카메라(10)는 인접한 광각 카메라 사이에서 촬영 영역이 일부 겹치도록 배치되며, 적어도 2개 이상의 복수 개로 구성되어 각각 영상을 촬영하여 이를 전기적인 신호로 변환하여 영상신호 수신부(20)로 전송한다. 바람직하게는, 광각 카메라(10)는 차량의 전,후,좌,우 영상을 촬영하도록 차량의 전,후,좌,우에 각각 설치된다.The wide-angle camera 10 is disposed to partially overlap the photographing area between adjacent wide-angle cameras, and is composed of at least two or more pieces, each of which photographs an image, converts the image into an electrical signal, and transmits the image signal to the image signal receiving unit 20. Preferably, the wide-angle camera 10 is installed in the front, rear, left, right of the vehicle so as to capture the front, rear, left, right image of the vehicle.

영상신호 수신부(20)는 복수 개의 광각 카메라(10)로부터 획득된 복수 개의 입력 영상신호를 각각 수신하는 수단으로서, 수신된 복수 개의 입력 영상신호를 전치리한 후 영상 합성부(30)로 전송한다.The image signal receiving unit 20 is a means for receiving a plurality of input image signals respectively obtained from the plurality of wide-angle cameras 10. The image signal receiving unit 20 pretransmits the received plurality of input image signals and transmits them to the image synthesizing unit 30. .

영상 합성부(30)는 영상신호 수신부(20)로부터 복수 개의 입력 영상신호를 수신하면, 메모리(50)의 룩업 테이블을 참조하여 복수 개의 입력 영상, 사용자 인터페이스 영상 및 주차 지원 영상을 합성하는 기능을 수행한다.When the image synthesizing unit 30 receives a plurality of input image signals from the image signal receiving unit 20, the image synthesizing unit 30 performs a function of synthesizing the plurality of input images, the user interface image, and the parking assist image by referring to the lookup table of the memory 50. Perform.

영상 디스플레이부(40)는 합성 영상을 하나의 단말기 출력 윈도우 상에 표시하는 것으로서, 도 3의 우측 영상과 같은 형태로 표시될 수 있으며, 이는 사용자 인터페이스 화면을 표시하는 사용자 인터페이스 표시부(61), 후방에 설치된 광각 카메라(10)에 의해 촬영되는 영상이 표시되는 후방 카메라 영상 표시부(62) 및 차량의 궤적 형상 주위에 차량의 주변 촬영 영상이 표시되는 어라운드뷰 영상 표시부(63)를 포함한다.The image display unit 40 displays a composite image on one terminal output window, and may be displayed in the form of the image on the right side of FIG. 3, which is a user interface display unit 61 displaying a user interface screen and a rear side. And a rear camera image display unit 62 displaying an image photographed by the wide-angle camera 10 installed in the display unit, and an around view image display unit 63 displaying surrounding images of the vehicle around the trajectory shape of the vehicle.

메모리(50)는 입력 영상신호, 사용자 인터페이스 영상 및 주차 지원 영상과 단말기 출력 윈도우 상의 영상 화소와의 대응관계가 기록된 제 1 ~ 3 룩업 테이블을 포함한다.The memory 50 includes first to third lookup tables in which correspondences between the input image signal, the user interface image, the parking assist image, and the image pixel on the terminal output window are recorded.

제 1 룩업 테이블(51)은 광각 카메라(10)를 통해 획득되는 왜곡 영상 내의 폴리곤 좌표점을 추정하고 추정된 폴리곤 좌표점을 기준 영상에 폴리곤 매핑되도록 하는 폴리곤 매핑방식을 이용하여, 왜곡 영상의 폴리곤 좌표점과 기준 영상의 폴리곤 좌표점 간의 대응관계에 대한 제 1 영상 매핑 데이터를 저장한다.The first lookup table 51 estimates polygon coordinate points in the distorted image obtained by the wide-angle camera 10 and uses a polygon mapping method to perform polygon mapping on the estimated polygon coordinate points to the reference image. The first image mapping data for the correspondence between the coordinate point and the polygon coordinate point of the reference image is stored.

촬영된 폴리곤 좌표점과 기준 영상의 폴리곤 좌표점 간의 대응관계에 대한 제 1 영상 매핑 데이터를 통해 왜곡 영상의 각 화소들이 보정되었을 때의 좌표를 알 수 있으므로 왜곡 영상의 각 화소의 좌표정보와 보정된 각 화소의 좌표정보 간의 대응관계를 제 1 룩업 테이블(51)에 기록하면, 합성 이미지 생성 시에 폴리곤 매핑을 위한 계산 과정없이 제 1 룩업 테이블(51)을 참조하여 신속하게 왜곡 영상을 보정할 수 있게 된다. 이러한 폴리곤 매핑 방법에 대해서는 도 5 ~ 11을 참조하여 상세하게 설명하기로 한다.The first image mapping data of the correspondence relationship between the captured polygon coordinate point and the polygon coordinate point of the reference image indicates the coordinates when the pixels of the distorted image are corrected. When the correspondence relationship between the coordinate information of each pixel is recorded in the first lookup table 51, the distortion image can be quickly corrected by referring to the first lookup table 51 without calculation for polygon mapping when generating the composite image. Will be. Such a polygon mapping method will be described in detail with reference to FIGS. 5 to 11.

제 2 룩업 테이블(52)은 미리 생성된 사용자 인터페이스 영상을 구성하는 영상 화소들이 단말기 출력 윈도우 상의 영상 화소에 대응되는 관계에 대한 제 2 영상 매핑 데이터를 저장하는 것이다. 사용자 인터페이스 영상은 사용자 인터페이스 표시부를 구성하는 영상과 어라운드 뷰 영상 표시부(63)의 중심에 표시되는 차량 이미지를 포함한다. 이러한 사용자 인터페이스 영상은 프로그램 제작자에 의해 미리 생성된 것으로서, 사용자 인터페이스 영상을 구성하는 각 화소들이 실제 단말기 출력 윈도우 상에 표시될 때의 좌표정보를 룩업 테이블로 기록하는 것이다.The second lookup table 52 stores second image mapping data about a relationship in which image pixels constituting a pre-generated user interface image correspond to image pixels on a terminal output window. The user interface image includes an image constituting the user interface display unit and a vehicle image displayed at the center of the around view image display unit 63. The user interface image is generated in advance by a program maker, and records coordinate information when each pixel constituting the user interface image is displayed on the actual terminal output window as a lookup table.

제 3 룩업 테이블(53)은 주차 지원 영상을 구성하는 영상 화소들이 단말기 출력 윈도우 상의 영상 화소에 대응되는 관계에 대한 제 3 영상 매핑 데이터를 저장한다. 이러한 주차 지원 영상은 후방 카메라 영상 표시부에 표시되는 차량 궤적 영상과 어라운드 뷰 영상 표시부에 표시되는 후방 감지 신호 영상을 포함하며, 후방 감지 신호 영상은 도 4와 같은 방법에 의해 생성되는데, 이러한 주차 지원 영상을 구성하는 각 화소들이 실제 단말기 출력 윈도우 상에 표시될 때의 좌표정보를 룩업 테이블로 기록된다. 후방 감지 신호 영상은 후방 감지센서에서 후방 장애물이 감지될 때 출력되는 감지신호로서, 감지되는 후방 장애물과의 거리를 표현하는복수 개의 원호 영상으로 표시될 수 있으며, 후방 장애물과의 거리와 원호들의 대응되는 관계가 제 3 룩업 테이블에 저장된다. 각 원호 영상은 장애물과 차량의 거리에 따라 차량 이미지와의 이격 거리 및 색상이 상이하게 표시되어 사용자가 장애물과의 거리를 용이하게 파악할 수 있도록 되어 있다.The third lookup table 53 stores third image mapping data for a relationship in which image pixels constituting the parking assist image correspond to image pixels on the terminal output window. The parking assist image includes a vehicle trajectory image displayed on the rear camera image display unit and a rear sensing signal image displayed on the around view image display unit, and the rear sensing signal image is generated by the method as illustrated in FIG. 4. Coordinate information when each of the pixels constituting the subframe is displayed on the actual terminal output window is recorded as a lookup table. The rear sensing signal image is a sensing signal output when the rear obstacle is detected by the rear sensing sensor. The rear sensing signal image may be displayed as a plurality of arc images representing a distance from the rear obstacle to be detected. The relationship is stored in the third lookup table. Each arc image is displayed differently from the vehicle image according to the distance between the obstacle and the vehicle so that the user can easily determine the distance from the obstacle.

제 3 룩업 테이블(53)에는 각 원호에 대응되는 단위 경보음의 출력 시간, 출력 듀티 사이클 정보가 더 저장되는 것이 바람직하다.Preferably, the third lookup table 53 further stores output time and output duty cycle information of the unit alarm sound corresponding to each arc.

영상 합성부(40)는 도 3에 도시된 바와 같이, 촬영된 왜곡 영상, 사용자 인터페이스 영상, 주차 지원 영상들과 단말기 출력 윈도우 간의 대응 관계에 관한 제 1 ~ 3 영상 매핑 데이터를 참조하여 단일 윈도우 상에 사용자 인터페이스 영상, 어라운드뷰 영상 및 주차 지원 영상을 표시할 수 있게 되어 영상 처리 과정이 매우 간단해지게 된다.
As shown in FIG. 3, the image synthesizing unit 40 refers to the first to third image mapping data regarding the correspondence relationship between the photographed distortion image, the user interface image, the parking assist image, and the terminal output window, and the image synthesizer 40 displays the image on the single window. User interface video, around view video and parking assist video can be displayed on the screen, greatly simplifying the image processing process.

이하에서는 도 4를 참조하여 후방 감지 신호 영상을 생성하는 방법을 설명하기로 한다.Hereinafter, a method of generating a rear sensing signal image will be described with reference to FIG. 4.

우선, (a)와 같이, (x1, y1)과 (x3, y3)의 좌표는 UI를 구성할 때 알고 있는 좌표이고 점 A는 두 점의 좌표의 중점이기 때문에 두 점의 좌표를 이용하면 점 A인 (x2, y2)를 구할 수 있다. 즉, x2=x3-x1이고, y2=y3-y1이다. x2와 x4의 좌표는 같다. First, as in (a), the coordinates of (x1, y1) and (x3, y3) are known coordinates when constructing the UI, and point A is the center of two coordinates. We can find A (x2, y2). That is, x2 = x3-x1 and y2 = y3-y1. The coordinates of x2 and x4 are the same.

예를 들어, 실제 차량의 x축 길이가 1865mm이고 y축 길이가 4895mm이면 픽셀 크기에 대한 비율이y=2.62x가 나오게 된다. 사용될 차량 이미지의 X축을 정해주면 Y축의 픽셀의 길이를 알 수 있다. 점 의 좌표는 차량 이미지 X축 픽셀의 중심점이기 때문에 X축 좌표를 구할 수 있다. For example, if the x-axis length of the actual vehicle is 1865 mm and the y-axis length is 4895 mm, the ratio of the pixel size to y = 2.62x is obtained. By specifying the X-axis of the vehicle image to be used, the length of the pixel on the Y-axis can be known. Since the coordinates of the point are the center points of the X-axis pixels of the vehicle image, the X-axis coordinates can be obtained.

선분 AC의 길이는 차량 이미지 Y축의 픽셀 길이이다. 여기에서는 3개의 센서를 사용한다고 가정을 하고 센서의 위치를 정한다. 점 B, C, D는 실제 차량에 달리는 후방 센서의 위치이기 때문에 비율을 이용하면 차량 이미지에 위치할 좌표를 구할 수 있다.The length of line segment AC is the pixel length of the vehicle image Y axis. This assumes three sensors and positions them. Since points B, C, and D are the positions of the rear sensors running on the actual vehicle, the ratio can be used to obtain coordinates to be located in the vehicle image.

(b)와 같이, 후방 감지 신호의 폭을 구하기 위해 선분 BC와 선분 CD의 중점의 좌표를 산출한다.As shown in (b), the coordinates of the midpoints of the line segments BC and the line segment CD are calculated to obtain the width of the rear sense signal.

(c)와 같이, 선분 AC와 BC의 길이로부터

Figure 112011097375951-pat00004
의 수식을 이용하여 선분 AB의 길이를 구한다. 그리고, 선분 BB'와 선분 BB"의 길이가 같고,
Figure 112011097375951-pat00005
이므로 B'와 B"의 좌표를 구할 수 있으며, 동일한 방법으로 점 D'와 점 D"의 좌표를 구한다.From (c), from the lengths of line segments AC and BC
Figure 112011097375951-pat00004
Find the length of line segment AB using the equation And the length of line segment BB 'and line segment BB "is the same,
Figure 112011097375951-pat00005
Therefore, the coordinates of B 'and B "can be obtained, and the coordinates of the points D' and D" are obtained in the same manner.

(d)와 같이, 원호는 후방 감지 신호가 나타나는 범위를 나타내고, 3개의 후방감지 센서를 사용하는 경우 3개의 신호 범위간격을 정할 수 있게 된다.As shown in (d), the arc indicates a range in which the rear sensing signals appear, and when three rear sensing sensors are used, three signal range intervals can be determined.

(e)와 같이, 위에서 정리한 초기 위치에서 거리에 대한 정보를 제3 룩업 테이블(53)로 정리를 해두고 후방 감지신호 영상을 표시하는 경우 해당값을 불러오게 되며, 후방 감지신호 영상이 (f)와 같이 어라운드 영상에 함께 표시되어 운전자가 차량 후방의 장애물을 용이하게 인식할 수 있게 된다.
As shown in (e), when the information on the distance from the initial position summarized above is arranged in the third lookup table 53 and the rear sensing signal image is displayed, the corresponding value is called, and the rear sensing signal image is ( As shown in f), it is displayed together with the around image so that the driver can easily recognize the obstacle behind the vehicle.

후방 감지신호 영상 표출시에는 경보음이 동시에 출력되는 것이 바람직한데, 장애물과의 거리에 따라서 경보음의 길이와 듀티 사이클이 달라지도록 할 수 있다.When the rear detection signal image is displayed, it is preferable that the alarm sound is output at the same time. The length and duty cycle of the alarm sound may vary depending on the distance from the obstacle.

즉, 예를 들면 하기 표 1과 같이, 차량과 장애물 간의 거리를 8개의 구간으로 구분하고, 각 구간마다 경보음의 길이와 듀티 사이클이 가변되도록 할 수 있으며, 장애물이 가장 근접한 영역 1에 가까울수록 경보의 우선순위가 높아져 경보음의 주기 및 1주기 내의 경보음의 길이가 커지도록 설정할 수 있다.That is, for example, as shown in Table 1 below, the distance between the vehicle and the obstacle can be divided into eight sections, and the length and duty cycle of the alarm sound can be varied for each section, and the closer the obstacle is to the closest region 1 The priority of the alarm may be increased so that the period of the alarm sound and the length of the alarm sound within one period may be increased.

Figure 112011097375951-pat00006
Figure 112011097375951-pat00006

이하에서는 도 5 ~ 11을 참조하여 폴리곤 매핑을 통해 영상의 왜곡을 보정하는 원리를 상세하게 설명한다.Hereinafter, the principle of correcting distortion of an image through polygon mapping will be described in detail with reference to FIGS. 5 to 11.

도 5는 본 발명에 따른 차량 어라운드 뷰 영상 생성 방법을 순차로 나타낸 흐름도이고, 도 6 내지 도 11은 본 발명에 따른 차량 어라운드 뷰 영상 생성 과정을 설명하기 위한 참조도이다. 이하의 처리 과정은 PC를 통해 수행될 수 있고, 차량 내부의 프로세스에 의해 처리될 수도 있다. 5 is a flowchart sequentially illustrating a method of generating a vehicle around view image according to the present invention, and FIGS. 6 to 11 are reference views for explaining a process of generating a vehicle around view image according to the present invention. The following processing may be performed via a PC or may be processed by a process inside the vehicle.

우선, 본 발명은 도 6에 도시된 기준 체크 보드 패턴(10)에 대응하는 기준 그리드 패턴을 생성하고(S10), 그리드 패턴의 각 교차점에 대한 기준 좌표값을 설정한다(S20). 그리고, 그리드 패턴 영상을 복수의 기준 폴리곤(30)으로 분할 설정한 기준 영상(20)을 생성한다(S30). 이때, 복수의 기준 폴리곤(30)은 꼭지점(A',B',C')을 갖는 폴리곤 형태로 이루어진다. First, the present invention generates a reference grid pattern corresponding to the reference check board pattern 10 shown in FIG. 6 (S10), and sets reference coordinate values for each intersection point of the grid pattern (S20). In operation S30, the reference image 20 in which the grid pattern image is divided into a plurality of reference polygons 30 is set. In this case, the plurality of reference polygons 30 are formed in a polygonal shape having vertices A ', B', and C '.

다음으로, 복수의 광각 카메라로 각각 체크 보드 패턴을 촬상하여 도 7에 도시된 바와 같이 왜곡된 영상(40)을 획득한다(S40). Next, a plurality of wide-angle cameras respectively photograph the check board patterns to obtain a distorted image 40 as shown in FIG. 7 (S40).

이어서, 왜곡 영상(40)의 체크 보드 패턴을 인식하고, 모폴로지 및 로버스트 연산을 통해 도 8에 도시된 바와 같이 왜곡 영상 내 체크 보드 패턴의 에지를 검출한다(S50).Subsequently, the check board pattern of the distorted image 40 is recognized, and an edge of the check board pattern in the distorted image is detected as shown in FIG. 8 through morphology and robust operation (S50).

체크 보드 패턴의 에지가 검출되면, 복수의 보정점을 추정하고 추정된 보정점들에 대한 보정 순서를 선정한다(S60). 이때, 보정점 추정은 도 9에 도시된 바와 같이 검출된 에지 영역을 따라 라인 트레킹을 수행하면서, 수직 방향과 수평 방향으로의 밝기 분포 변화량을 이용하여 추정한다. 즉, 체크 보드 패턴에서의 각 교차점에서는 밝기 변화량이 크게 나타나므로, 라인 트레킹 과정에서 밝기 변화량이 크게 나타나는 점을 보정점으로 추정하고, 도 10에 도시된 바와 같이 보정점으로 추정된 순서에 따라 보정 순서를 선정한다.When the edge of the check board pattern is detected, a plurality of correction points are estimated and a correction order for the estimated correction points is selected (S60). In this case, the correction point estimation is performed using the change in brightness distribution in the vertical direction and the horizontal direction while performing line tracking along the detected edge region as shown in FIG. 9. That is, since a large amount of change in brightness appears at each intersection in the check board pattern, the point where the change in brightness is large in the line tracking process is estimated as a correction point, and is corrected in the order estimated by the correction point as shown in FIG. 10. Select the order.

이어서, 왜곡 영상에 대하여 보정점들을 꼭지점(A,B,C)으로 하는 갖는 복수의 왜곡 폴리곤으로 분할한다(S70). Subsequently, the distortion points are divided into a plurality of distortion polygons having correction points A, B, and C (S70).

그리고, 도 11에 도시된 바와 같이 선정된 보정 순서에 따라 왜곡 폴리곤이 기준 폴리곤에 대응되도록 왜곡 영상의 각 픽셀 좌표를 기준 좌표에 매핑하여 각각의 보정 영상을 획득한다(S80). 즉, 왜곡 폴리곤(50) 내의 각 픽셀을 기준 영상의 기준 폴리곤(30)에 매핑한다. 이때, 매핑 대상 픽셀이 왜곡 폴리곤 내부에 위치하는지 판단하고, 매핑 대상 픽셀이 왜곡 폴리곤 내부에 위치하는 경우 해당 픽셀의 좌표를 기준 좌표에 매핑하고, 매핑 대상 픽셀이 왜곡 폴리곤 내부에 위치하지 않을 경우 매핑 대상에서 제외한다.
As shown in FIG. 11, each corrected image is obtained by mapping each pixel coordinate of the distorted image to the reference coordinate so that the distorted polygon corresponds to the reference polygon in the selected correcting order (S80). That is, each pixel in the distortion polygon 50 is mapped to the reference polygon 30 of the reference image. In this case, it is determined whether the pixel to be mapped is located inside the distortion polygon. If the pixel to be mapped is located inside the distortion polygon, the coordinates of the pixel are mapped to the reference coordinate. If the pixel to be mapped is not inside the distortion polygon, the mapping is performed. Exclude from the target.

이하에서는 도 12 내지 도 15를 참조하여 본 발명에 따른 왜곡 폴리곤을 기준 폴리곤으로 매핑하는 과정을 더욱 상세하게 설명하도록 한다. Hereinafter, a process of mapping a distortion polygon according to the present invention to a reference polygon will be described in more detail with reference to FIGS. 12 to 15.

도 12는 본 발명에 따라 매핑 대상 픽셀이 왜곡 폴리곤 내부에 위치하는지 여부를 판단하기 위한 과정을 설명하기 위한 도면으로서, 우선, 도 12의 (a)와 같이 검사 대상 픽셀(P)이 꼭지점 A,B,C로 이루어진 왜곡 폴리곤 내에 위치하는지 확인한다. 이를 위해서는, 도 12의 (b)와 같이 꼭지점 A,B,C를 포함하는 정사각형의 점 D와 E의 좌표를 구해야한다. 12 is a view for explaining a process for determining whether a pixel to be mapped is located inside a distortion polygon according to the present invention. First, as shown in FIG. Check if it is located within the distortion polygon consisting of B and C. To this end, it is necessary to obtain the coordinates of the points D and E of the square including vertices A, B, and C as shown in FIG.

이때, D와 E의 좌표는 아래의 수식을 이용하여 구할 수 있다.At this time, the coordinates of D and E can be obtained using the following equation.

Figure 112011097375951-pat00007
Figure 112011097375951-pat00007

Figure 112011097375951-pat00008
Figure 112011097375951-pat00008

Figure 112011097375951-pat00009
Figure 112011097375951-pat00009

Figure 112011097375951-pat00010
Figure 112011097375951-pat00010

이와 같은 좌표를 구하고 매핑 대상 픽셀(P)이 꼭지점 A,B,C를 포함하는 정사각형 범위가 지정되면 이 좌표를 벗어나는 부분을 outside로 정할 수 있다. 이때, outside의 범위 조건은 if(Px<Dx ∥Px>Ex ∥ Py<Dy ∥Py>Ey)으로서, outside의 범위 조건을 만족하지 않을 경우 해당 매핑 대상 픽셀(P)이 사각형 내부에 위치하는 것을 알 수 있다.If such a coordinate is obtained and a square range including the vertices A, B, and C of the pixel to be mapped P is specified, a part outside the coordinate may be defined as outside. At this time, the outside range condition is if (P x <D x ∥P x > E x ∥ P y <D y ∥P y > E y ). You can see that is located inside the rectangle.

그리고, 매핑 대상 픽셀(P)이 꼭지점 A,B,C를 포함하는 폴리곤 내부에 위치하는지 확인하기 위해서 도 12의 (c)와 같이

Figure 112011097375951-pat00011
Figure 112011097375951-pat00012
가 만나는 점 F의 좌표를 찾는다. 이때, F는 아래의 수식에 의해 구할 수 있다.In addition, as shown in (c) of FIG. 12, in order to check whether the mapping target pixel P is located inside a polygon including vertices A, B, and C.
Figure 112011097375951-pat00011
Wow
Figure 112011097375951-pat00012
Find the coordinate of the point F where In this case, F can be obtained by the following equation.

F=cross(

Figure 112011097375951-pat00013
,
Figure 112011097375951-pat00014
)F = cross (
Figure 112011097375951-pat00013
,
Figure 112011097375951-pat00014
)

이렇게, 점 F의 좌표가 구해지면 매핑 대상 픽셀(P)이 왜곡 폴리곤 외부에 위치하는지 여부를 확인한다. 여기서, 매핑 대상 픽셀(P)이 왜곡 폴리곤 외부에 위치하기 위한 조건은 outside 범위 조건은 if(Fx<Dx ∥ Fx>Ex ∥ Fy<Dy ∥ Fy>Ey)로서, 점 F가 선분(

Figure 112011097375951-pat00015
)를 벗어난 경우로서 매핑 대상 픽셀(P)이 OUT1 또는 OUT2 영역에 위치하는 경우에 해당한다. In this way, when the coordinates of the point F are obtained, it is checked whether the mapping target pixel P is located outside the distortion polygon. Here, the condition for the pixel to be mapped (P) outside the distortion polygon is the outer range condition if (F x <D x ∥ F x > E x ∥ F y <D y ∥ F y > E y ), Point F is a line segment
Figure 112011097375951-pat00015
This is a case where the mapping target pixel P is located in the OUT1 or OUT2 region.

그리고, 도 12의 (d)에 도시된 바와 같이 매핑 대상 픽셀(P)을 기준으로 연결된 점 B와 F가 꼭지점이 되는 사각형의 점 G와 H의 좌표를 구한다. As shown in FIG. 12D, the coordinates of the points G and H of the quadrangle of which points B and F connected to the vertex of the pixel P to be mapped are obtained.

이때, G와 H의 좌표는 아래의 수식을 이용하여 구할 수 있다.At this time, the coordinates of G and H can be obtained using the following equation.

Figure 112011097375951-pat00016
Figure 112011097375951-pat00016

Figure 112011097375951-pat00017
Figure 112011097375951-pat00017

Figure 112011097375951-pat00018
Figure 112011097375951-pat00018

Figure 112011097375951-pat00019
Figure 112011097375951-pat00019

이렇게, G와 H의 좌표가 구해지면 매핑 대상 픽셀(P)이 사각형(BGFH) 외부에 위치하는지 확인한다. 여기서, 매핑 대상 픽셀(P)이 왜곡 폴리곤 외부에 위치하기 위한 outside 범위 조건은 if(Px<Gx ∥ Px>Hx ∥Py <Gy ∥Py>Hy)로서, 매핑 대상 픽셀(P)이 사각형 BGFH 외부에 위치하는지 경우는 매핑 대상 픽셀이 OUT3 영역에 위치하는 경우에 해당한다. In this way, when the coordinates of G and H are obtained, it is checked whether the mapping target pixel P is located outside the rectangle BGFH. Here, the outside range condition for the mapping target pixel P to be located outside the distortion polygon is if (P x <G x ∥ P x > H x ∥P y <G y ∥P y > H y ). The case where the pixel P is located outside the rectangle BGFH corresponds to the case where the pixel to be mapped is located in the OUT3 region.

이와 같은 outside 범위 조건 확인 결과 outside 범위 조건에 해당하지 않으면 매핑 대상 픽셀(P)이 왜곡 폴리곤 내부에 위치하는 것을 알 수 있다.
As a result of checking the outside range condition, if the outside range condition does not correspond, the pixel to be mapped P is located inside the distortion polygon.

한편, 매핑 대상 픽셀(P)이 왜곡 폴리곤 내부에 위치하는 것으로 판단되면, 해당 픽셀을 기준 영상에 대응되도록 매핑한다. If it is determined that the mapping target pixel P is located inside the distortion polygon, the corresponding pixel is mapped to correspond to the reference image.

도 13은 본 발명에 따라 왜곡 폴리곤을 기준 폴리곤으로 매핑하는 방법을 설명하기 위한 도면으로서, 우선 꼭지점 A, B, C 중 어느 하나를 제 1 기준 꼭지점(A)으로 선정하고, 제 1 기준 꼭지점(A)과 매핑 대상 픽셀(P)을 지나는 제 1 직선(

Figure 112011097375951-pat00020
) 및 제 1 기준 꼭지점(A)과 마주보는 선분(
Figure 112011097375951-pat00021
)이 교차하는 제 1 교차점(a)의 좌표를 산출한다. 그리고, 제 1 기준 꼭지점(A)을 제외한 둘 중 하나를 제 2 기준 꼭지점(B)으로 선정하고, 제 2 기준 꼭지점(B)과 매핑 대상 픽셀(P)을 지나는 제 2 직선(
Figure 112011097375951-pat00022
) 및 제 2 기준 꼭지점(B)과 마주보는 선분(
Figure 112011097375951-pat00023
)이 교차하는 제 2 교차점(b)의 좌표를 산출한다. FIG. 13 is a view for explaining a method of mapping a distortion polygon to a reference polygon according to the present invention. First, any one of vertices A, B, and C is selected as a first reference vertex A, and a first reference vertex ( A first straight line passing through A) and the mapping target pixel P
Figure 112011097375951-pat00020
) And the line segment facing the first reference vertex (A)
Figure 112011097375951-pat00021
The coordinate of the 1st intersection point (a) which () intersects is computed. Then, one of the two except for the first reference vertex A is selected as the second reference vertex B, and a second straight line passing through the second reference vertex B and the mapping target pixel P (
Figure 112011097375951-pat00022
) And the line segment facing the second reference vertex (B)
Figure 112011097375951-pat00023
The coordinate of the 2nd intersection point (b) which () intersects is computed.

여기서, 제 1 교차점(a)과 제 2 교차점(b)의 좌표는 아래의 수식에 의해 구해진다.Here, the coordinates of the first intersection point a and the second intersection point b are obtained by the following equation.

a=CROSS(

Figure 112011097375951-pat00024
,
Figure 112011097375951-pat00025
)a = CROSS (
Figure 112011097375951-pat00024
,
Figure 112011097375951-pat00025
)

b=CROSS(

Figure 112011097375951-pat00026
,
Figure 112011097375951-pat00027
)b = CROSS (
Figure 112011097375951-pat00026
,
Figure 112011097375951-pat00027
)

이어서, 선분

Figure 112011097375951-pat00028
에 대한 b의 좌표비(
Figure 112011097375951-pat00029
:
Figure 112011097375951-pat00030
) 및 선분
Figure 112011097375951-pat00031
에 대한 a의 좌표비(
Figure 112011097375951-pat00032
:
Figure 112011097375951-pat00033
)를 산출하고, 산출된 b의 좌표비(
Figure 112011097375951-pat00034
:
Figure 112011097375951-pat00035
) 및 a의 좌표비(
Figure 112011097375951-pat00036
:
Figure 112011097375951-pat00037
)를 기준 폴리곤의 꼭지점(A',B',C')에 대응시켜 선분
Figure 112011097375951-pat00038
상의 점 a'의 좌표와 선분
Figure 112011097375951-pat00039
상의 점 b '의 좌표를 산출한다.Then, line segment
Figure 112011097375951-pat00028
Coordinate ratio of b to
Figure 112011097375951-pat00029
:
Figure 112011097375951-pat00030
) And line segment
Figure 112011097375951-pat00031
Coordinate ratio of a to
Figure 112011097375951-pat00032
:
Figure 112011097375951-pat00033
) And calculate the coordinate ratio of
Figure 112011097375951-pat00034
:
Figure 112011097375951-pat00035
) And the coordinate ratio of a (
Figure 112011097375951-pat00036
:
Figure 112011097375951-pat00037
) Corresponding to the vertices (A ', B', C ') of the reference polygon
Figure 112011097375951-pat00038
And line segment at point a 'on Pinterest
Figure 112011097375951-pat00039
Calculate the coordinates of point b 'on the phase.

여기서, 점 a와 b의 좌표는 아래의 수식에 의해 산출된다.Here, the coordinates of the points a and b are calculated by the following formula.

Figure 112011097375951-pat00040
Figure 112011097375951-pat00040

Figure 112011097375951-pat00041
Figure 112011097375951-pat00041

이러한 방식에 의해 점 a'와 b'의 좌표가 산출되면 A'와 a'를 잇는 선분(

Figure 112011097375951-pat00042
)와 꼭지점 B'와 b'를 잇는 선분(
Figure 112011097375951-pat00043
)의 교차점(P')를 산출한다. In this way, when the coordinates of points a 'and b' are calculated, the segment connecting A 'and a' (
Figure 112011097375951-pat00042
) And the line connecting vertices B 'and b' (
Figure 112011097375951-pat00043
The intersection point P 'of () is calculated.

여기서, P'의 좌표는 아래의 수식에 의해 산출된다.Here, the coordinate of P 'is calculated by the following formula.

P'=CROSS(

Figure 112011097375951-pat00044
,
Figure 112011097375951-pat00045
)P '= CROSS (
Figure 112011097375951-pat00044
,
Figure 112011097375951-pat00045
)

이와 같이 교차점(P')의 좌표가 산출되면, 매핑 대상 픽셀(P)을 교차점(P')에 대응시켜 매핑한다.When the coordinates of the intersection point P 'are calculated in this way, the mapping target pixel P is mapped in correspondence with the intersection point P'.

그런데, 매핑 대상 픽셀(P)을 지나는 두개의 선분이 폴리곤의 어느 한 선분 근접하여 기울기의 차이가 거의 없을 때 프로그램을 두 선분을 거의 수평하게 인식하게 되어 오차가 발생한다. 따라서, 이러한 오차를 보정하기 위해서는 매핑 대상 픽셀(P)을 지나는 두개의 선분의 기울기가 폴리곤의 각 선분의 기울기보다 충분히 큰 선분과 마주보는 점을 기준 꼭지점으로 선정해야 한다. However, when two line segments passing through the mapping target pixel P have almost no difference in inclination close to any one line segment of the polygon, the program recognizes the two line segments almost horizontally and an error occurs. Therefore, in order to correct such an error, the reference vertex should be selected such that the slope of two line segments passing through the mapping target pixel P faces the line segment sufficiently larger than the slope of each line segment of the polygon.

도 14는 본 발명의 실시예에서 폴리곤 매핑시 기준이 되는 두개의 기준 꼭지점을 선정하는 과정을 설명하기 위한 흐름도이고, 도 15는 도 14의 방법을 설명하기 위한 참조 도면으로서, 삼각형 ABC내의 점 P를 삼각형 A'B'C'로 매핑하고자 할 경우 점 P의 좌표와 꼭지점 ABC의 좌표 및

Figure 112011097375951-pat00046
,
Figure 112011097375951-pat00047
,
Figure 112011097375951-pat00048
의 선분비가 필요하며, 점 P를 매핑하기 위해 최적의 선분비 2개를 선택해야 한다.FIG. 14 is a flowchart for explaining a process of selecting two reference vertices as reference points when mapping a polygon in an embodiment of the present invention, and FIG. 15 is a reference diagram for explaining the method of FIG. 14 and a point P in a triangle ABC. To map to the triangle A'B'C ', the coordinates of point P and the vertex ABC,
Figure 112011097375951-pat00046
,
Figure 112011097375951-pat00047
,
Figure 112011097375951-pat00048
You need to select the line ratio of and choose the two best line ratios to map point P.

우선, 아래의 수식을 이용하여 왜곡 폴리곤 세 선분(

Figure 112011097375951-pat00049
)의 기울기를 산출한다(S100). First, using the equation
Figure 112011097375951-pat00049
Calculate the slope of (S100).

ab=SLOPE(A,B)ab = SLOPE (A, B)

ac=SLOPE(A,C)ac = SLOPE (A, C)

bc=SLOPE(B,C)bc = SLOPE (B, C)

그리고, 각 꼭지점과 P의 거리를 비교하고, 점 P에서 거리가 먼 꼭지점과 점 P와의 거리 정보를 dap로 저장한다(S200).The distance between each vertex and P is compared, and the distance information between the vertex far from the point P and the point P is stored as dap (S200).

구체적으로는, 아래의 수식과 같이 점 p에서 A, B의 길이를 비교하여 긴것을 dap에 저장하고, 점 p에서 A, C의 길이를 비교하여 긴것을 dbp에 저장하며, 점 p에서 B, C의 길이를 비교하여 긴 것을 dcp에 저장한다.Specifically, compare the lengths of A and B at point p and store the long ones in dap, compare the lengths of A and C at point p, and store the long ones in dbp, and store points B and B, Compare the lengths of C and store the long one in dcp.

dap=DIST(A,B)dap = DIST (A, B)

dbp=DIST(A,C)dbp = DIST (A, C)

dcp=DIST(B,C)dcp = DIST (B, C)

이어서, 점 P와 거리가 먼 꼭지점을 찾아 정보를 저장한다(S300).Subsequently, a vertex far from the point P is found to store information (S300).

구체적으로는, 아래의 수식과 같이 dap와 dbp의 길이를 비교하여 길이가 긴 것을 점 P와 가장 먼 꼭지점으로 판단하고 ABP에 저장하고, dap와 dcp의 길이를 비교하여 길이가 긴 것을 점 P와 가장 먼 꼭지점으로 판단하고 ACP에 저장하며, dbp와 dcp의 길이를 비교하여 길이가 긴 것을 점 P와 가장 먼 꼭지점으로 판단하고 긴 것을 BCP에 저장한다.Specifically, the length of the dap and the dbp is compared to the point P and the longest vertex is determined by comparing the length of the dap and the dbp as shown in the following formula, and stored in the ABP. Determine the farthest vertex and store it in the ACP, compare the dbp and dcp lengths to determine the longest point as the farthest vertex and store the longest in the BCP.

ABP=dap<dbp(=B) or dap>dbp(A)ABP = dap <dbp (= B) or dap> dbp (A)

ACP=dap<dcp(=C) or dap>dcp(A)ACP = dap <dcp (= C) or dap> dcp (A)

BCP=dbp<dcp(=C) or dbp>dcp(B)BCP = dbp <dcp (= C) or dbp> dcp (B)

그리고, 아래의 수식을 이용하여 P와 단계 S300에서 찾은 꼭지점과의 기울기를 산출한다(S400).Then, the slope between P and the vertex found in step S300 is calculated using the following formula (S400).

abp=SLOPE(P, ABP)abp = SLOPE (P, ABP)

acp=SLOPE(P, ACP)acp = SLOPE (P, ACP)

bcp=SLOPE(P, BCP)bcp = SLOPE (P, BCP)

이어서, S100 단계에서 산출한 기울기와, S400 단계에서 산출한 기울기의 차를 아래의 수식을 이용하여 산출한다(S500).Next, the difference between the slope calculated in step S100 and the slope calculated in step S400 is calculated by using the following formula (S500).

sdap=ABS(ab,abp)sdap = ABS (ab, abp)

sdbp=ABS(ab,abp)sdbp = ABS (ab, abp)

sdap=ABS(ab,abp)sdap = ABS (ab, abp)

이러한 방식에 의해 산출된 값에 대한 절대값을 취하면 기울기 차를 산출할 수 있으며, "0"에 가까울수록 매핑 대상 픽셀(P)를 지나는 선분이 왜곡 폴리곤의 각 선분과 근접한 것이다.If the absolute value of the value calculated in this manner is taken, the slope difference can be calculated. As the value approaches 0, the line segment passing through the pixel to be mapped P is closer to each line segment of the distortion polygon.

이후, 산출된 기울기의 차가 가장 작은 선분(

Figure 112011097375951-pat00050
)을 찾고, 해당 선분(
Figure 112011097375951-pat00051
)과 마주보는 꼭지점(B)를 제 1 기준 꼭지점으로 선정하고(S600), 매핑 대상 픽셀(P)과 가장 가까운 꼭지점(C)을 제 2 기준 꼭지점으로 선정한다(S700). 이어서, 꼭지점 B,C를 기준으로 하는
Figure 112011097375951-pat00052
,
Figure 112011097375951-pat00053
의 선분비를 이용하여 매핑이 이루어진다. 즉, 선택된 각 꼭지점(B,C)과 매핑 대상 픽셀(P)를 지나는 직선(
Figure 112011097375951-pat00054
,
Figure 112011097375951-pat00055
)과, 각 꼭지점(B,C)과 마주보는 선분(
Figure 112011097375951-pat00056
,
Figure 112011097375951-pat00057
)의 교차점(b,c)의 좌표를 산출하고(S800), 각 교차점(b,c)의 좌표비를 산출하고(S900), 이를 이용하여 왜곡 폴리곤에 속하는 화소들과 기준 폴리곤 간에 속하는 화소들 간의 매핑이 이루어진다.Then, the line segment with the smallest difference in the calculated slopes (
Figure 112011097375951-pat00050
), The corresponding segment (
Figure 112011097375951-pat00051
) And vertex (B) facing each other is selected as the first reference vertex (S600), and the vertex (C) closest to the mapping target pixel (P) is selected as the second reference vertex (S700). Then, based on vertices B and C
Figure 112011097375951-pat00052
,
Figure 112011097375951-pat00053
The mapping is done using the line segment ratio of. That is, a straight line passing through each selected vertex B and C and the mapping target pixel P
Figure 112011097375951-pat00054
,
Figure 112011097375951-pat00055
) And line segments facing each vertex (B, C)
Figure 112011097375951-pat00056
,
Figure 112011097375951-pat00057
The coordinates of the intersection points (b, c) of () are calculated (S800), the coordinate ratio of each intersection point (b, c) is calculated (S900), and the pixels belonging between the pixels belonging to the distortion polygon and the reference polygon using the same. The mapping between the two takes place.

따라서, 이러한 왜곡 폴리곤에 속하는 화소들과 기준 폴리곤 간에 속하는 화소들 간의 매핑 관계를 제 1 영상 매핑 데이터로 제 1 룩업 테이블(51)에 저장하면, 광각 카메라들로부터 촬영된 영상을 이용하여 어라운드 뷰 영상 생성 시에 별도의 연산과정 없이 제 1 룩업 테이블(51)을 참조하여 촬영된 영상으로부터 바로 합성 영상을 만들어 낼 수 있게 된다.
Therefore, when the mapping relationship between the pixels belonging to the distortion polygon and the pixels belonging to the reference polygon is stored in the first lookup table 51 as the first image mapping data, an around view image is obtained by using images captured from wide-angle cameras. At the time of generation, the composite image may be directly generated from the captured image by referring to the first lookup table 51 without a separate calculation process.

비록 본 발명이 상기 언급된 바람직한 실시예와 관련하여 설명되어졌지만, 발명의 요지와 범위로부터 벗어남이 없이 다양한 수정이나 변형을 하는 것이 가능하다. 따라서 첨부된 특허청구의 범위는 본 발명의 요지에서 속하는 이러한 수정이나 변형을 포함할 것이다.
Although the present invention has been described in connection with the above-mentioned preferred embodiments, it is possible to make various modifications and variations without departing from the spirit and scope of the invention. Accordingly, the appended claims are intended to cover such modifications or changes as fall within the scope of the invention.

10 : 광각 카메라 20 : 영상신호 수신부
30 : 영상 합성부 40 : 영상 디스플레이부
50 : 메모리 51 : 제 1 룩업 테이블
52 : 제 2 룩업 테이블 53 : 제 3 룩업 테이블
61 : 사용자 인터페이스 표시부 62 : 후방 카메라 영상 표시부
63 : 어라운드뷰 영상 표시부
10: wide angle camera 20: video signal receiver
30: image synthesizer 40: image display unit
50: memory 51: the first lookup table
52: second lookup table 53: third lookup table
61: user interface display unit 62: rear camera image display unit
63: around view video display unit

Claims (9)

복수의 광각 카메라로부터 획득한 영상을 이용하여 어라운드뷰 영상을 생성하여 표시하는 차량 어라운드 뷰 영상 생성장치에 있어서,
차량의 사방을 촬영하도록 설치되는 복수 개의 광각 카메라;
복수 개의 광각 카메라로부터 촬영된 복수 개의 입력 영상 신호를 수신하는 영상 신호 수신부;
상기 광각 카메라를 통해 획득되는 왜곡 영상 내의 폴리곤 좌표점을 추정하고 추정된 폴리곤 좌표점을 기준 영상에 폴리곤 매핑되도록 하는 폴리곤 매핑방식을 이용하여, 왜곡 영상의 폴리곤 좌표점과 기준 영상의 폴리곤 좌표점 간의 대응관계에 대한 제 1 영상 매핑 데이터를 저장하는 제 1 룩업 테이블;
미리 생성된 사용자 인터페이스 영상을 구성하는 영상 화소들이 단말기 출력 윈도우 상의 영상 화소에 대응되는 관계에 대한 제 2 영상 매핑 데이터를 저장하는 제 2 룩업 테이블;
차량 후방 장애물이 감지되는 경우 차량 어라운드 뷰 영상 내에 표시되는 후방 감지신호 영상 화소들이 단말기 출력 윈도우 상의 영상 화소에 대응되는 관계에 대한 제 3 영상 매핑 데이터를 저장하는 제 3 룩업 테이블;
상기 제 1 ~ 제 3 룩업 테이블을 참조하여 상기 복수 개의 입력 영상, 사용자 인터페이스 영상 및 주차 지원 영상을 합성하는 영상 합성부; 및
상기 합성 영상을 하나의 단말기 출력 윈도우 상에 표시하는 영상 디스플레이부를 포함하는 것을 특징으로 하는 폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치.
A vehicle around view image generating apparatus for generating and displaying an around view image by using images acquired from a plurality of wide-angle cameras.
A plurality of wide-angle cameras installed to photograph all sides of the vehicle;
An image signal receiver configured to receive a plurality of input image signals photographed from a plurality of wide angle cameras;
By using a polygon mapping method for estimating polygon coordinate points in the distorted image obtained by the wide-angle camera and polygon mapping the estimated polygon coordinate points to the reference image, between the polygon coordinate points of the distorted image and the polygon coordinate points of the reference image. A first lookup table that stores first image mapping data for a correspondence relationship;
A second lookup table configured to store second image mapping data of a relationship in which image pixels constituting a pre-generated user interface image correspond to image pixels on a terminal output window;
A third lookup table configured to store third image mapping data of a relationship between rear sensing signal image pixels displayed in the vehicle around view image corresponding to the image pixel on the terminal output window when the vehicle rear obstacle is detected;
An image synthesizer configured to synthesize the plurality of input images, a user interface image, and a parking assist image by referring to the first to third lookup tables; And
And an image display unit displaying the composite image on one terminal output window. 2.
제 1 항에 있어서,
상기 영상 디스플레이부는 사용자 인터페이스 표시부, 후방 카메라 영상 표시부, 어라운드뷰 영상 표시부를 포함하는 것을 특징으로 하는 폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치.
The method of claim 1,
And the image display unit comprises a user interface display unit, a rear camera image display unit, and an around view image display unit.
제 2 항에 있어서,
상기 사용자 인터페이스 영상은 상기 사용자 인터페이스 표시부를 구성하는 영상과 상기 어라운드 뷰 영상 표시부의 중심에 표시되는 차량 이미지 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 다중 룩업 테이블을 이용한 폴리곤 매핑 및 차량 어라운드 뷰 영상 생성장치.
The method of claim 2,
The user interface image may include at least one of an image constituting the user interface display unit and a vehicle image displayed at the center of the around view image display unit, and polygon mapping and vehicle around view image generation using the multi-lookup table. Device.
제 2 항에 있어서,
상기 주차 지원 영상은 상기 후방 카메라 영상 표시부에 표시되는 차량 궤적 영상과 상기 어라운드 뷰 영상 표시부에 표시되는 후방 감지 신호 영상 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 다중 룩업 테이블을 이용한 폴리곤 매핑 및 차량 어라운드 뷰 영상 생성장치.
The method of claim 2,
The parking assist image includes at least one of a vehicle trajectory image displayed on the rear camera image display unit and a rear sensing signal image displayed on the around view image display unit, and polygon mapping and vehicle around using the multiple lookup table. View image generator.
제 4 항에 있어서,
상기 후방 감지 신호 영상은 감지되는 후방 장애물과의 거리를 표현하는 복수 개의 원호로 표시되고, 상기 후방 장애물과의 거리와 원호들의 대응되는 관계가 제 3 룩업 테이블에 저장되는 것을 특징으로 하는 다중 룩업 테이블을 이용한 폴리곤 매핑 및 차량 어라운드 뷰 영상 생성장치.
The method of claim 4, wherein
The rear sensing signal image is represented by a plurality of arcs representing distances to the rear obstacles to be detected, and a corresponding relationship between the distances to the rear obstacles and the arcs is stored in a third lookup table. Polygon mapping and vehicle around view image generator using
제 5 항에 있어서,
상기 제 3 룩업 테이블은 상기 각 원호에 대응되는 단위 경보음의 출력 시간, 출력 듀티 사이클 정보가 더 저장되는 것을 특징으로 하는 다중 룩업 테이블을 이용한 폴리곤 매핑 및 차량 어라운드 뷰 영상 생성장치.
The method of claim 5, wherein
And the third lookup table further stores output time and output duty cycle information of a unit alarm sound corresponding to each arc, and includes a multiple lookup table.
제 1 항에 있어서,
상기 제 1 영상 매핑 데이터는
기준 그리드 패턴의 각 교차점에 대한 기준 좌표값을 설정하고 상기 그리드 패턴 영상에 대하여 기준 꼭지점(A',B',C')을 갖는 복수의 기준 폴리곤으로 분할한 기준 영상을 생성하는 단계, 복수의 광각 카메라로 체크 보드 패턴을 촬상하여 각각의 왜곡 영상을 획득하는 단계, 상기 각 왜곡 영상 내 체크 보드 패턴의 에지를 검출하는 단계, 상기 검출된 에지 영역을 따라 라인 트레킹을 수행하면서 수직 방향과 수평 방향으로의 밝기 분포 변화량을 이용하여 복수의 보정점을 추정하고, 추정된 보정점들에 대한 보정 순서를 선정하는 단계, 상기 각 왜곡 영상에 대하여 상기 보정점을 꼭지점(A,B,C)으로 하는 복수의 왜곡 폴리곤으로 분할하는 단계, 상기 보정 순서에 따라 왜곡 폴리곤이 기준 폴리곤에 대응되도록 왜곡 영상의 각 픽셀 좌표를 기준 좌표에 매핑하는 단계, 상기 왜곡 영상의 매핑 대상 픽셀이 상기 왜곡 폴리곤 내부에 위치하는지 판단하는 단계 및 상기 왜곡 폴리곤 내부의 점들의 좌표를 기준 폴리곤 내부의 좌표와 같은 비율로 매칭시켜 상기 제 1 영상 매핑 데이터를 산출하는 단계를 통해 얻어지는 것을 특징으로 하는 다중 룩업 테이블을 이용한 폴리곤 매핑 및 차량 어라운드 뷰 영상 생성장치.
The method of claim 1,
The first image mapping data is
Setting a reference coordinate value for each intersection point of a reference grid pattern and generating a reference image divided into a plurality of reference polygons having reference vertices A ', B', and C 'with respect to the grid pattern image; Acquiring each distortion image by capturing a check board pattern with a wide-angle camera; detecting edges of the check board pattern in each distortion image; and performing line trekking along the detected edge region; Estimating a plurality of correction points by using the change in brightness distribution to and determining a correction order for the estimated correction points, and setting the correction points as vertices A, B, and C for the distorted images. Dividing into a plurality of distortion polygons, and mapping each pixel coordinate of the distorted image to reference coordinates such that the distortion polygon corresponds to the reference polygon according to the correction order Determining whether the pixel to be mapped in the distorted image is located in the distorted polygon and calculating coordinates of points in the distorted polygon at the same ratio as coordinates in a reference polygon to calculate the first image mapping data. Polygon mapping and vehicle around view image generating apparatus using a multi-lookup table, characterized in that obtained through the step.
제 7 항에 있어서,
상기 보정 순서에 따라 왜곡 폴리곤이 기준 폴리곤에 대응되도록 왜곡 영상의 각 픽셀 좌표를 기준 좌표에 매핑하는 단계는
상기 꼭지점 A, B, C 중 어느 하나를 제 1 기준 꼭지점을 선정하고, 제 1 기준 꼭지점과 매핑 대상 픽셀(P)을 지나는 제 1 직선 및 상기 제 1 기준 꼭지점과 마주보는 선분과의 교차점 좌표를 산출하는 제 1 교차점 좌표 산출 단계와, 상기 꼭지점 A, B, C 중 제 1 기준 꼭지점을 제외한 둘 중 하나를 제 2 기준 꼭지점으로 선정하고, 제 2 기준 꼭지점과 매핑 대상 픽셀(P)을 지나는 제 2 직선 및 상기 제 2 기준 꼭지점과 마주보는 선분과의 교차점 좌표를 산출하는 제 2 교차점 좌표 산출 단계와, 상기 제 1 직선 상의 제 1 교차점 좌표비와 제 2 직선 상의 제 2 교차점 좌표비를 산출하는 단계와, 상기 제 1 교차점 좌표비를 기준 폴리곤의 꼭지점(A',B',C')에 대응시켜 기준 폴리곤 상의 제 3 교차점 좌표를 산출하고, 상기 제 2 교차점 좌표비를 기준 폴리곤의 꼭지점(A',B',C')에 대응시켜 기준 폴리곤 상의 제 4 교차점 좌표를 산출하는 단계와, 상기 제 3 교차점과 제 4 교차점 각각과 마주하는 제 3 꼭지점과 제 4 꼭지점을 추출하고, 제 3꼭지점과 제 3 교차점을 잇는 제 3 선분 및 제 4 교차점과 제 4꼭지점을 잇는 제 4 선분을 추출하여, 제 3 선분과 제 4 선분의 교차점(P')를 산출하는 단계, 및 상기 매핑 대상 픽셀(P)을 교차점(P')에 대응시켜 매핑하는 단계를 통해 이루어지는 것을 특징으로 하는 폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치.
The method of claim 7, wherein
The mapping of each pixel coordinate of the distorted image to the reference coordinate so that the distortion polygon corresponds to the reference polygon according to the correction order
The first reference vertex is selected from one of the vertices A, B, and C, and a coordinate of the intersection of the first reference vertex and the first straight line passing through the mapping target pixel P and the line segment facing the first reference vertex A step of calculating a first intersection point to be calculated and selecting one of the vertices A, B, and C except for the first reference vertex as the second reference vertex, and passing the second reference vertex and the mapping target pixel P; Calculating a second intersection coordinate with a second straight line and a line segment facing the second reference vertex; and calculating a first intersection coordinate ratio on the first straight line and a second intersection coordinate ratio on a second straight line. And calculating a third intersection coordinate on the reference polygon by mapping the first intersection coordinate ratio to vertices A ', B', and C 'of the reference polygon, and using the second intersection coordinate ratio as a vertex of the reference polygon. A ', B', C ') Correspondingly calculating a fourth intersection coordinate on the reference polygon, extracting third and fourth vertices facing each of the third and fourth intersection points, and a third segment connecting the third and third intersection points. And extracting a fourth line segment connecting the fourth intersection point and the fourth vertex to calculate an intersection point P ′ of the third line segment and the fourth line segment, and converting the mapping target pixel P to the intersection point P ′. A vehicle around view image generating apparatus using polygon mapping and multiple lookup tables, characterized in that the mapping is performed in correspondence.
제 8 항에 있어서,
상기 제 1 기준 꼭지점 선정은, 왜곡 폴리곤의 세 선분의 기울기를 산출하는 제 1 기울기 산출 단계와, 매핑 대상 픽셀(P)과 각 꼭지점(A,B,C)과의 거리를 산출하는 단계와, 상기 매핑 대상 픽셀(P)과 각 꼭지점을 연결하여 3개의 삼각형을 구하고, 상기 각각의 삼각형에 대하여 꼭지점과 매핑 대상 픽셀(P) 간의 거리가 가장 먼 꼭지점을 각각 추출하는 단계와, 상기 매핑 대상 픽셀(P)과 거리가 가장 먼 꼭지점들과 매핑 대상 픽셀(P)과 기울기를 산출하는 제 2 기울기 산출 단계와, 상기 제 1 기울기와 제 2 기울기의 차를 산출하고 기울기 차가 가장 작은 선분을 추출하는 단계와, 상기 기울기의 차가 가장 작은 선분과 마주보는 꼭지점을 제 1 기준 꼭지점으로 선정하는 단계를 통해 이루어지고,
상기 제 2 기준 꼭지점은 매핑 대상 픽셀(P)과의 거리 산출 결과 거리가 가장 가까운 꼭지점으로 선정되는 것을 특징으로 하는 폴리곤 매핑 및 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치.




The method of claim 8,
The first reference vertex selection may include calculating a first slope of three segments of the distorted polygon, calculating a distance between the pixel to be mapped P and the vertices A, B, and C; Obtaining three triangles by connecting the mapping target pixel P and each vertex, extracting vertices having the greatest distance between the vertex and the mapping target pixel P with respect to each of the triangles; A second slope calculation step of calculating vertices farthest from (P), the mapping target pixel P, and a slope; calculating a difference between the first slope and the second slope, and extracting a line segment having the smallest slope difference; And selecting a vertex facing the line segment having the smallest difference in the slope as a first reference vertex,
And the second reference vertex is selected as a vertex having the closest distance as a result of the distance calculation with the pixel to be mapped (P).




KR1020110130639A 2011-12-08 2011-12-08 An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table KR101239740B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110130639A KR101239740B1 (en) 2011-12-08 2011-12-08 An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110130639A KR101239740B1 (en) 2011-12-08 2011-12-08 An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table

Publications (1)

Publication Number Publication Date
KR101239740B1 true KR101239740B1 (en) 2013-03-18

Family

ID=48181159

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110130639A KR101239740B1 (en) 2011-12-08 2011-12-08 An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table

Country Status (1)

Country Link
KR (1) KR101239740B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460570B1 (en) * 2013-10-14 2014-11-13 현대모비스(주) Camera Position Recognition System
KR101765556B1 (en) * 2016-05-11 2017-08-23 (주)캠시스 Apparatus and method for processing the image according to the velocity of automobile
WO2018062829A1 (en) * 2016-09-27 2018-04-05 주식회사 켐트로닉스 Camera image distortion correction system for svm system and correction method thereof
KR101964864B1 (en) * 2017-12-14 2019-04-02 공주대학교 산학협력단 Distortion Correction Method of Around View Image of Vehicle
WO2019108003A1 (en) * 2017-12-01 2019-06-06 엘지이노텍 주식회사 Method and device for correcting camera
KR20190129562A (en) * 2018-05-11 2019-11-20 (주)넥셀 Method and apparatus for providing around view
WO2021132739A1 (en) * 2019-12-23 2021-07-01 (주)비전에스티 Multi-channel image transmission system and method
US11276142B2 (en) 2019-06-27 2022-03-15 Electronics And Telecommunications Research Institute Apparatus and method for synthesizing virtual viewpoint images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010112433A (en) * 1999-04-16 2001-12-20 마츠시타 덴끼 산교 가부시키가이샤 Image processing device and monitoring system
KR100966288B1 (en) 2009-01-06 2010-06-28 주식회사 이미지넥스트 Around image generating method and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010112433A (en) * 1999-04-16 2001-12-20 마츠시타 덴끼 산교 가부시키가이샤 Image processing device and monitoring system
KR100966288B1 (en) 2009-01-06 2010-06-28 주식회사 이미지넥스트 Around image generating method and apparatus

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460570B1 (en) * 2013-10-14 2014-11-13 현대모비스(주) Camera Position Recognition System
KR101765556B1 (en) * 2016-05-11 2017-08-23 (주)캠시스 Apparatus and method for processing the image according to the velocity of automobile
WO2017195965A1 (en) * 2016-05-11 2017-11-16 (주)캠시스 Apparatus and method for image processing according to vehicle speed
US10783665B2 (en) 2016-05-11 2020-09-22 Cammsys Co., Ltd. Apparatus and method for image processing according to vehicle speed
CN109792477A (en) * 2016-09-27 2019-05-21 科恩托罗尼丝株式会社 For the camera image distortion correction system of SVM system and its bearing calibration
KR101850503B1 (en) * 2016-09-27 2018-04-19 주식회사 켐트로닉스 Lens Distortion Correction System for Surround View Monitoring system and method thereof
WO2018062829A1 (en) * 2016-09-27 2018-04-05 주식회사 켐트로닉스 Camera image distortion correction system for svm system and correction method thereof
WO2019108003A1 (en) * 2017-12-01 2019-06-06 엘지이노텍 주식회사 Method and device for correcting camera
US11548452B2 (en) 2017-12-01 2023-01-10 Lg Innotek Co., Ltd. Method and device for correcting vehicle view cameras
KR101964864B1 (en) * 2017-12-14 2019-04-02 공주대학교 산학협력단 Distortion Correction Method of Around View Image of Vehicle
KR20190129562A (en) * 2018-05-11 2019-11-20 (주)넥셀 Method and apparatus for providing around view
KR102077494B1 (en) * 2018-05-11 2020-02-14 (주)넥셀 Method and apparatus for providing around view
US11276142B2 (en) 2019-06-27 2022-03-15 Electronics And Telecommunications Research Institute Apparatus and method for synthesizing virtual viewpoint images
WO2021132739A1 (en) * 2019-12-23 2021-07-01 (주)비전에스티 Multi-channel image transmission system and method

Similar Documents

Publication Publication Date Title
KR101239740B1 (en) An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table
KR101339121B1 (en) An apparatus for generating around view image of vehicle using multi look-up table
JP7054293B2 (en) Rear-stitched view panorama for rear-view visualization
KR101249791B1 (en) Image generating method for around view of vehicle
JP5491235B2 (en) Camera calibration device
JP6079131B2 (en) Image processing apparatus, method, and program
US8208048B2 (en) Method for high dynamic range imaging
JP2011060216A (en) Device and method of processing image
KR101305316B1 (en) Image generating method for around view of vehicl using improved polygon matching
KR101077584B1 (en) Apparatus and method for processing images obtained by a plurality of cameras
JP5404932B2 (en) Method and apparatus for visually displaying combined video data and interval data of traffic conditions
JP5299296B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2005244916A (en) Image processor
US20120069018A1 (en) Ar process apparatus, ar process method and storage medium
JP2002524937A (en) Method and apparatus for synthesizing a high resolution image using a high resolution camera and a low resolution camera
JP4830380B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
JPWO2019146226A1 (en) Image processing device, output information control method, and program
JP4742733B2 (en) Image joint processing apparatus and image joint processing method
JP2006060425A (en) Image generating method and apparatus thereof
JP2006119843A (en) Image forming method, and apparatus thereof
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
EP2076055B1 (en) Method for displaying a virtual image
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
KR101209072B1 (en) An apparatus for generating around view image of vehicle using warping equation and multi look-up table

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee