KR101093316B1 - Method and System for Image Matching While Driving Vehicle - Google Patents

Method and System for Image Matching While Driving Vehicle Download PDF

Info

Publication number
KR101093316B1
KR101093316B1 KR1020080034883A KR20080034883A KR101093316B1 KR 101093316 B1 KR101093316 B1 KR 101093316B1 KR 1020080034883 A KR1020080034883 A KR 1020080034883A KR 20080034883 A KR20080034883 A KR 20080034883A KR 101093316 B1 KR101093316 B1 KR 101093316B1
Authority
KR
South Korea
Prior art keywords
image
homography
camera
registration
matching
Prior art date
Application number
KR1020080034883A
Other languages
Korean (ko)
Other versions
KR20090109437A (en
Inventor
정순기
박민우
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020080034883A priority Critical patent/KR101093316B1/en
Publication of KR20090109437A publication Critical patent/KR20090109437A/en
Application granted granted Critical
Publication of KR101093316B1 publication Critical patent/KR101093316B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 차량주행중 영상정합 방법 및 그 시스템에 관한 것이다.The present invention relates to an image registration method and a system thereof while driving.

본 발명은, 측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 단계, 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계, 인접영상간 호모그래피를 계산하는 단계, 상기 후방영상의 확장중심을 계산하는 단계, 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계 및 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계를 포함하여 영상정합을 하는 영상정합 방법 및 그 시스템을 제공한다.The present invention includes receiving a side image from a side camera and a rear image from a rear camera, extracting a distortion correction parameter from the rear image, calculating homography between adjacent images, and an extension center of the rear image. Comprising a step of performing a region separation for each of the side image and the rear image to the road image and the background image, and the distortion correction parameter, the homography between the adjacent image and the road image and the background image Provided is an image registration method and system for performing image registration, including a registration step of performing an image registration using the FOE to create a registration image.

본 발명에 의하면, 차량의 측방과 후방에 카메라를 설치한 경우에 카메라의 중심이 일치하지 않고 후방과 측방 카메라의 종류가 다를 경우도 제대로 된 정합을 수행하며, 차량에 장착되어 있는 환경과 종류가 다른 다수의 카메라에서 얻어진 영상에 대해서도 영상 정합을 제공하는 효과가 있다.According to the present invention, when the cameras are installed on the side and the rear of the vehicle, the centers of the cameras do not coincide with each other and the types of the rear and side cameras are different. There is an effect of providing image matching for images obtained from a plurality of cameras.

영상정합, 사각지대, 측/후방 Image registration, blind spot, side / rear

Description

차량주행중 영상정합 방법 및 그 시스템{Method and System for Image Matching While Driving Vehicle}Image Matching Method and System for Vehicle Driving {Method and System for Image Matching While Driving Vehicle}

본 발명은 차량주행중 영상정합 방법 및 그 시스템에 관한 것이다. 더욱 상세하게는, 차량의 측/후방에 복수개의 카메라를 장착하고, 각 카메라로부터의 영상을 보정 후 정합단계를 거쳐서 하나의 영상으로 생성 후 운전자에게 제공함으로써 사각지대를 제거하는 차량주행중 영상정합 방법 및 그 시스템에 관한 것이다.The present invention relates to an image registration method and a system thereof while driving. More specifically, the image registration method while driving the vehicle by removing a blind spot by mounting a plurality of cameras on the side / rear of the vehicle, and after generating the image from each camera through the matching step to provide a single image to the driver And to the system.

주행 중 운전자가 볼 수 없는 사각지대는 운전자의 안전을 위협하는 큰 위험요소이다. 차량을 운전하는 운전자는 대체로 전방만을 주시하고 있기 때문에 차량의 후방에는 주의를 기울이기가 어렵다. 이러한 위험요소를 제거하기 위해 차량에는 다양한 사각지대 제거장치가 개발되어 왔다. 사이드미러에서 볼 수 없는 사각지대를 제거하기 위해서 보조거울을 일체화시키거나, 적외선 센서로 후방의 물체를 감지하고 경보를 통해 운전자에게 위험을 알려주는 장치들이 개발되고 실제 차량에 사용되고 있다. 최근에는 차량의 후방의 영상을 운전자의 디스플레이에 출력하여 사각지대를 줄여주는 방법들이 있다.Blind spots that are invisible to the driver while driving are a major danger to the driver's safety. It is difficult to pay attention to the rear of the vehicle because the driver who drives the vehicle is generally only looking ahead. Various blind spot removal devices have been developed for vehicles to eliminate these hazards. In order to eliminate blind spots that cannot be seen in the side mirrors, a device has been developed and used in actual vehicles to integrate an auxiliary mirror or to detect a rear object with an infrared sensor and alert the driver through an alarm. Recently, there are methods for reducing blind spots by outputting the image of the rear of the vehicle to the driver's display.

하지만, 이러한 방법들은 근본적으로 운전자가 가지는 사각지대의 일부만을 제거한다는 단점을 가진다. 이것만으로는 후방에 존재하는 물체가 보이지 않는 경우가 생기며, 실제로 이러한 문제로 인해 매년 많은 운전자가 차선 변경시 후방에서 접근하는 차량의 존재를 인지하지 못해 크고 작은 교통사고로 인명피해를 입고 있다.However, these methods have the disadvantage of essentially removing only part of the blind spot that the driver has. This alone causes the objects behind to be invisible, and in fact, many drivers are not aware of the vehicles approaching from the rear when they change lanes and are suffering casualties due to large and small traffic accidents.

사이드 보조 거울의 경우에는 추가적으로 장착되는 볼록 거울을 통해 좌/우측 후방의 왜곡된 영상을 운전자가 보게 된다. 거기에 운전자와 거리가 먼 우측의 경우는 물체의 존재 여부만이 어렴풋이 감지될 뿐이다.In the case of the side auxiliary mirror, the driver sees a distorted image of the left and right rear through an additional convex mirror. In the case of the right side far away from the driver, only the existence of an object is detected dimly.

적외선 센서를 이용하여 사각지대의 물체를 감지하는 것은 사각지대에 들어온 물체들을 보여주는 것이 아니라 단지 센서의 영역 안에 물체의 존재 여부를 감별해 줄 뿐이다. 인간의 감각 중 가장 민감한 감각이 시각인 것을 고려해 봤을 때 후방을 보여주는 것이 비해 운전자의 위험물 인지능력은 상당히 떨어진다고 볼 수 있다. 더욱이 다수의 위험물이 존재할 때 운전자는 위험물이 다수인지 하나인지 알 수 없으므로 그로 인한 사고가 발생할 수도 있다.Detecting objects in the blind spot using an infrared sensor does not show objects in the blind spot, but only discriminates the presence or absence of objects in the sensor's area. Considering that the most sensitive sensation among human senses is vision, the driver's perception of dangerous goods is considerably lower than the rear view. Moreover, when there is a large number of dangerous goods, the driver may not know whether there are many dangerous goods or one, and the accident may occur.

또한, 후방의 감시 카메라의 경우 후방을 그대로 운전자에게 보여주는 효율적인 사각지대 제거 방법이기는 하지만 그 범위가 후방에 제한되어 있고, 측방의 문제는 해결하지 못한다. 더욱이 이러한 후방 감시 카메라의 경우 광각(Wide Angle)카메라를 장착하기 때문에 이로 인해 영상이 심하게 왜곡되는 문제점을 가진다.In addition, the rear surveillance camera is an efficient blind spot removal method that shows the rear as it is to the driver, but the range is limited to the rear, and side problems cannot be solved. Moreover, the rear surveillance camera has a problem that the image is severely distorted due to the mounting of a wide angle camera.

전술한 문제점을 해결하기 위해 본 발명은, 차량의 측/후방에 복수개의 카메라를 장착하고, 각 카메라로부터의 영상을 보정 후 정합단계를 거쳐서 하나의 영상으로 생성 후 운전자에게 제공함으로써 사각지대를 제거하는 데 목적이 있다.In order to solve the above problems, the present invention is equipped with a plurality of cameras on the side / rear of the vehicle, remove the blind spots by correcting the image from each camera to generate a single image through the matching step and then provide to the driver The purpose is to.

전술한 목적을 달성하기 위해 본 발명은, 차량주행중 영상정합 방법에 있어서, (a) 측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 영상수신단계; (b) 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계; (c) 인접영상간 호모그래피를 계산하는 단계; (d) 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계; (e) 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계; 및 (f) 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계를 포함하는 것을 특징으로 하는 영상정합 방법을 제공한다.In order to achieve the above object, the present invention provides a video registration method for driving a vehicle, comprising: (a) an image receiving step of receiving a side image from a side camera and a rear image from a rear camera; (b) extracting distortion correction parameters from the rear image; (c) calculating homography between adjacent images; (d) calculating a focus of expansion (FOE) of the rear image; (e) an area separation step of performing area separation on the side image and the rear image into a roadway image and a background image, respectively; And (f) a matching step of performing a matching operation using the distortion correction parameter, the homography between the adjacent images, and the FOE to the difference image and the background image to form a matching image. To provide.

또한 전술한 목적을 달성하기 위해 본 발명은, 차량주행중 영상정합 시스템에 있어서, 측방영상을 수신하는 측방카메라; 후방영상을 수신하는 후방카메라; 상기 측방영상 및 상기 후방영상을 수신하는 영상수신부; 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 보정파라미터추출부; 인접영상간 호모그래피를 계산하는 호모그래피계산부; 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 FOE계산부; 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 하는 영역분리부; 및 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 영상정합부를 포함하는 것을 특징으로 하는 영상정합 시스템을 제공한다.In addition, the present invention, in order to achieve the above object, an image matching system while driving a vehicle, comprising: a side camera for receiving a side image; A rear camera for receiving a rear image; An image receiver configured to receive the side image and the rear image; A correction parameter extracting unit extracting a distortion correction parameter from the rear image; A homography calculator for calculating homography between adjacent images; A FOE calculator configured to calculate a focus of expansion of the rear image; A region separator configured to separate regions of the side image and the rear image into a roadway image and a background image, respectively; And an image registration unit for performing image registration using the distortion correction parameter, the homography between the adjacent images, and the FOE on the difference image and the background image to form a registration image. .

본 발명에 의하면, 차량의 측방과 후방에 카메라를 설치한 경우에 카메라의 중심이 일치하지 않고 후방과 측방 카메라의 종류가 다를 경우도 제대로 된 정합을 수행하며, 차량에 장착되어 있는 환경과 종류가 다른 다수의 카메라에서 얻어진 영상에 대해서도 영상 정합을 제공하는 효과가 있다.According to the present invention, when the cameras are installed on the side and the rear of the vehicle, the centers of the cameras do not coincide with each other and the types of the rear and side cameras are different. There is an effect of providing image matching for images obtained from a plurality of cameras.

또한, 사각지대 제거를 위한 영상정합 방법 및 가시화 방법은 운전자의 안전을 위협하는 차량의 사각지대의 위험물체를 쉽게 인지하여 사고율을 낮추는 예방을 위한 안전장치로서의 효과가 있다. 특히 장착된 카메라에서는 기존의 사이드 미러와 백미러로 볼 수 없었던 넓은 영역의 영상을 획득해주고, 이러한 영상을 정합하여 운전자가 보기 편한 파노라마 등의 형태로 가시화 함으로서 위험물체의 인지능력향상에도 도움을 준다. In addition, the image registration method and the visualization method for removing the blind spot has an effect as a safety device for prevention of lowering the accident rate by easily recognizing the dangerous object of the blind spot threatening the driver's safety. In particular, the attached camera acquires images of a wide area that could not be seen with the existing side mirrors and rearview mirrors, and helps to improve the cognitive ability of dangerous objects by matching these images and visualizing them in the form of a panorama that is easy for the driver to see.

또 다른 효과로는 영상정합을 기술 측면에서 보다 나아진 성과를 보여준다. 기존의 영상 정합 방법은 대부분 영상의 투영점(카메라의 센터 위치)가 동일한 영상들만을 정합하는 기술이어서, 차량과 같이 움직이는 물체에 카메라를 장착한 경우, 모션 패럴랙스(Motion Parallax) 현상으로 영상을 정합하는 것이 불가능해지는 것을 해결하는 효과가 있다.Another effect is better image matching in terms of technology. Conventional image matching methods mostly match only images that have the same projection point (the center of the camera) of the image. When the camera is mounted on a moving object such as a vehicle, motion parallax occurs. This has the effect of solving the impossible match.

또한, 차량에 장착된 카메라는 카메라의 투영점이 일치되도록 장착하는 것이 불가능한 한계와, 더욱이 후방 카메라의 경우 일반적으로 카메라의 종류가 다르거 나 가시영역이 다른 한계도 극복하여, 기존의 영상 정합을 위한 가정을 모두 위배한 현재의 상황에서 얻어진 영상을 정합하는 효과가 있다.In addition, the camera mounted on the vehicle overcomes the limitation that it is impossible to mount the camera so that the projection point of the camera coincides, and furthermore, the rear camera generally overcomes the limitations of different camera types or different viewing areas. There is an effect of matching the images obtained in the current situation that violates all of them.

이하, 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are used as much as possible even if displayed on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention unclear.

도 1은 본 발명의 일 실시예에 따른 영상정합 방법을 이용하여 운전자에게 보여주는 화면을 예시한 도면이다.1 is a diagram illustrating a screen displayed to a driver using an image registration method according to an embodiment of the present invention.

도 1에 도시하듯이, 사각지대를 효율적으로 제거하기 위해서 차량의 후방에 후방카메라(106)와, 좌우 측방에 좌측카메라(104) 및 우측카메라(102)를 장착할 수 있으며, 이곳에서 들어오는 각 영상(좌측영상, 우측영상, 후방영상)을 정합하여 하나의 파노라마 형태의 정합영상으로 만들어서 운전자에게 제공하는 방법을 제공한다.As shown in FIG. 1, in order to efficiently remove the blind spot, a rear camera 106 and a left camera 104 and a right camera 102 may be mounted on the left and right sides of the vehicle. The present invention provides a method of matching images (left image, right image, rear image) into a panorama-type registration image and providing the driver with the image.

따라서, 본 발명은 차량의 후방과 측방에 백미러와 사이드미러를 보조하고 나아가 대체할 수 있도록 3대의 카메라를 차량의 후방과 측방의 사이드미러 위치에 장착할 수 있다. 각 카메라는 측방과 후방의 사각지대를 기존의 사이드미러와 백미러보다 더 많이 제거된 영상을 운전자에게 제공해 준다.Accordingly, the present invention can be equipped with three cameras in the rear and side of the vehicle side mirror position to assist and further replace the rear and side mirrors in the rear and side of the vehicle. Each camera provides the driver with more of the side and rear blind spots removed from conventional side and rear mirrors.

만일, 이렇게 제공받은 영상을 각각 별도로 보여주는 것은 오히려 운전자의 인지 능력을 저하시킨다. 대부분의 차량이 빠르게 주행하는 도로에서 이것은 상당히 위험한 문제이다. 따라서 본 발명에서는 3개의 영상을 하나로 정합한 정합영상을 추출하여 운전자가 보다 빠르고 효율적으로 후방의 사각지대에 존재하는 물체를 인지할 수 있는 가시화 방법을 제공한다.If each of these images is provided separately, the driver's cognitive ability is lowered. On roads where most cars run fast, this is a very dangerous problem. Accordingly, the present invention provides a visualization method that allows a driver to recognize an object present in the rear blind spot more quickly and efficiently by extracting a matched image of three images.

도 2는 본 발명의 일 실시예에 따른 영상정합 방법을 도시한 흐름도이다.2 is a flowchart illustrating an image registration method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상정합 방법은, 측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 영상수신단계(S202), 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계(S204), 인접영상간 호모그래피를 계산하는 단계(S206), 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계(S208), 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계(S210), 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계(S212)를 포함한다.In an image matching method according to an embodiment of the present invention, an image receiving step (S202) of receiving a side image from a side camera and a rear image from a rear camera, and extracting a distortion correction parameter from the rear image (S204) Computing homography between adjacent images (S206), Computing a focus of expansion (FOE) of the rear image (S208), and a side view image and a background image with respect to the lateral image and the rear image A region separation step (S210) for performing region separation, and a matching step of performing image registration using the distortion correction parameter, the homography between the adjacent images, and the FOE on the driveway image and the background image to form a matched image ( S212).

여기서, 정합단계(S212) 이후에, 정합영상에 실린더 매핑을 수행하는 실린더매핑단계(S214)를 추가로 포함할 수 있으며, 실린더매핑단계(S214) 대신에 정합영상에 차량의 정보를 포함시키는 롤파노라마영상 생성단계(S216)를 대신 수행할 수도 있다.Here, after the matching step (S212), it may further include a cylinder mapping step (S214) for performing a cylinder mapping on the registration image, rolls to include the information of the vehicle in the registration image instead of the cylinder mapping step (S214) The panoramic image generating step S216 may be performed instead.

S206단계에서 계산하는 인접영상간 호모그래피는 측방영상과 후방영상간의 측후방 호모그래피 및 후방영상의 앞뒤 프레임간의 전후간 호모그래피일 수 있다. 이때, 측방영상은 좌측영상 및 우측영상으로 구성될 수 있으며, 이 경우 측후방 호모그래피는 좌후간 호모그래피 및 우후간 호모그래피로 구성될 수 있다.The homography between adjacent images calculated in step S206 may be lateral posterior homography between the lateral image and the rear image and front and rear homography between the front and rear frames of the rear image. At this time, the side image may be composed of a left image and a right image, in this case, the lateral rear homography may be composed of left and right homography and right and left homography.

또한, 영역분리단계(S210)에서, 영역분리는 컬러기반 방법을 사용할 수 있다.In addition, in the area separation step S210, the area separation may use a color-based method.

측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 단계(S202)에서는 차량의 우측에 장착된 우측카메라(일반 카메라), 좌측에 장착된 좌측카메라(일반 카메라), 후방에 장착된 후방카메라(광각카메라)로부터 각각 우측영상, 좌측영상, 후방영상을 수신한다.In the step S202 of receiving a side image from a side camera and receiving a rear image from a rear camera, a right camera (general camera) mounted on the right side of the vehicle, a left camera (general camera) mounted on the left side, and a rear mounted on the rear side A right image, a left image and a rear image are respectively received from a camera (wide angle camera).

사각지대 영상정합을 수행하기에 앞서 계산의 효율을 위해서 주행 전에 미리 계산되어야 할 작업으로 왜곡보정파라미터 추출단계(S204), 호모그래피계산단계(S206) 및 FOE계산단계(S208)로 이루어진 보정단계를 수행한다.Before performing blind spot image registration, a correction step consisting of a distortion correction parameter extraction step (S204), a homography calculation step (S206), and a FOE calculation step (S208) is performed as a task to be calculated before driving for efficiency of calculation. To perform.

우선 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계(S204)에서, 입력 영상 중 후방의 광각카메라로부터 얻어진 영상에 대한 왜곡보정(Calibration) 작업을 수행한다. 한 장의 영상에 대해서 왜곡보정 파라미터를 구해놓으면 이후 영상들은 바로 보정하여 사용할 수 있기 때문에 이 단계에서 영상의 왜곡보정 파라미터를 구하는 작업을 수행한다. 실제 광각카메라의 영상을 보정하는 작업은 복잡한 수식들을 이용하지 않고, 왜곡되는 광각카메라의 렌즈가 구의 표면과 같다고 가정하고 구와 평면과의 관계를 이용하여 간단하고 빠르게 보정작업을 수행한다.First, in the step S204 of extracting the distortion correction parameter from the rear image, a calibration operation is performed on an image obtained from the rear wide-angle camera among the input images. If distortion correction parameters are obtained for a single image, subsequent images can be corrected and used at this stage. Correcting the image of the actual wide-angle camera does not use complex equations, and simply and quickly performs the correction using the relationship between the sphere and the plane, assuming that the distorted wide-angle camera lens is the same as the surface of the sphere.

도 3은 왜곡보정파라미터 추출단계(S204)에서 광각카메라의 영상의 왜곡 보정방법을 도시한 도면이다.3 is a diagram illustrating a distortion correction method of an image of a wide-angle camera in the distortion correction parameter extraction step (S204).

렌즈의 표면이 구라고 가정했을 때, 구의 표면에 매핑된 영상이 바로 왜곡된 영상일 것이다. 따라서 왜곡되지 않은 평면상의 (Xu, Yu)와 구면에 매핑된 영상이 동일한 평면으로 투영된 위치 (Xd, Yd) 간의 관계식을 이용하면 왜곡이 보정된 위치 (Xu, Yu)를 구할 수 있다. 도 3을 보면 그 관계식을 [수학식 1] 및 [수학식 2]과 같이 나타낼 수 있다.Assuming that the surface of the lens is a sphere, the image mapped to the surface of the sphere will be a distorted image. Accordingly plane (X u, Y u) on the non-distorted and by using a relational expression between a position projecting in the same plane image is mapped to sphere (X d, Y d) a distortion correction position (X u, Y u) Can be obtained. Referring to FIG. 3, the relational expression may be represented as in [Equation 1] and [Equation 2].

Figure 112008026859710-pat00001
Figure 112008026859710-pat00001

Figure 112008026859710-pat00002
Figure 112008026859710-pat00002

[수학식 1] 및 [수학식 2]을 이용하여 역매핑(Backward Mapping)으로 보정된 위치의 점들을 미리 계산해 둘 수 있다. 이렇게 계산된 값에 해당하는 위치를 모든 왜곡 영상에 그대로 적용하는 것만으로 왜곡이 보정된 영상을 후술하는 영상정합단계에서 빠르게 얻는 것이 가능해진다.Using Equations 1 and 2, points at positions corrected by backward mapping may be calculated in advance. By simply applying the position corresponding to the calculated value to all the distorted images as it is, it is possible to quickly obtain the distorted image in the image registration step described later.

왜곡보정을 위한 전처리 작업이 끝나고 나면 동일한 위치의 측후방 영상과 전후 프레임들 간의 차도영상을 정합하는 데 사용할 인접영상간 호모그래피를 계산(S206)한다(여기서는 robust RANSAC(Random Sample Consensus) 알고리즘 사용). 인접영상간 호모그래피를 계산하는 단계(S206)에서, 인접영상간 호모그래피는 좌측 영상과 후방영상간의 좌후간 호모그래피, 우측영상과 후방영상간의 우후간 호모그래피, 후방영상의 앞뒤 프레임간의 전후간 호모그래피를 계산한다.After the preprocessing for distortion correction, the homography between adjacent images to be used to match the difference image between the lateral rear image and the front and rear frames of the same position is calculated (S206) (here, using robust RANSAC (Random Sample Consensus) algorithm) . In calculating the homography between adjacent images (S206), homography between adjacent images includes left and right homography between a left image and a rear image, right and right homography between a right image and a rear image, and front and back between front and rear frames of a rear image. Calculate homography.

도 4는 호모그래피계산단계(S206)에서 두 영상 사이의 호모그래피가 가지는 의미를 도시한 도면이다.FIG. 4 is a diagram illustrating the meaning of homography between two images in the homography calculation step S206.

동일한 위치의 측/후방 영상이란 것은 측방 카메라와 후방 카메라가 일정 시간적인 간격을 두고, 동일한(적어도 유사한) 세계좌표계(World Coordinate) 상에서 촬영한 영상을 말한다. 일반적으로 호모그래피는 한 영상에서 다른 영상으로 가는 3x3의 변환행렬이다.The side / rear image of the same position refers to an image captured by the side camera and the rear camera on the same (at least similar) world coordinate system at a predetermined time interval. Generally, homography is a 3x3 transformation matrix going from one image to another.

도 4에 도시하듯이, 호모그래피(Hab)가 계산되면 영상a의 점(Pa)은 영상b의 점(Pb)로 매핑될 수 있다. 일반적으로 호모그래피는 한 영상에서 다른 영상으로 가는 3x3의 변환행렬이다. 따라서 측방의 차도영상과 후방의 차도영상에 대해서, 그리고 후방영상의 전후 프레임간의 호모그래피를 미리 계산해두고 이후의 영상정합 단계에서 이러한 정보를 이용할 수 있다. 이와 같은 방법으로 우후간 호모그래피, 좌후간 호모그래피 및 전후간 호모그래피를 구한다.As shown in FIG. 4, when the homography H ab is calculated, the point P a of the image a may be mapped to the point P b of the image b. Generally, homography is a 3x3 transformation matrix going from one image to another. Therefore, the homography between the lateral driveway image and the rear driveway image and the front and rear frames of the rear image can be calculated in advance, and the information can be used in the subsequent image registration step. In this manner, right to rear homography, left to right homography, and front to rear homography are obtained.

호모그래피계산단계(S206) 이후에는, 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계(S208)를 수행한다. FOE는 카메라의 위치 한 방향으로 트랜슬레이션(Translation)만이 수행될 때 영상 상의 각 모션(Motion)들이 수렴하는 한점을 일컫는다. 차도영상과 배경영상을 분리할 때 FOE를 사용하며, 미리 이 FOE를 전처리단계에서 계산해 둔다. FOE는 서로 다른 프레임의 영상들간의 일치 점을 계산하고 그 일치점으로부터 각 점들의 모션을 구한다. 이렇게 구해진 모션들이 수렴하는 위치가 바로 FOE가 된다.After the homography calculation step S206, a step of calculating a focus of expansion (FOE) of the rear image is performed (S208). The FOE refers to a point at which each motion on the image converges when only translation is performed in one direction of the camera position. The FOE is used to separate the driveway image and the background image, and this FOE is calculated in the preprocessing step. The FOE calculates coincidence points between images of different frames and obtains motion of each point from the coincidence points. The position where the motions thus converged is the FOE.

도 5는 FOE계산단계(S208)에서 계산하는 FOE의 의미와 그 계산 방법을 도시한 도면이다.5 is a view showing the meaning of the FOE calculated in the FOE calculation step (S208) and its calculation method.

S208단계에서 보정 단계의 마지막으로 FOE를 구하는 작업은 다음과 같다. 일반적으로 카메라가 일정한 방향으로 이동하면서 촬영을 하게 되면 촬영된 영상들 간의 광학 흐름은 특정한 점을 기준으로 움직이게 된다. 바로 이러한 이동하는 벡터들이 만나는 점이 바로 FOE가 된다. 도 5a는 영상 면에서 광학흐름과 FOE 간의 관계를 나타낸 것이다.In operation S208, the final operation of obtaining the FOE is as follows. In general, when the camera is photographed while moving in a certain direction, the optical flow between the captured images is moved based on a specific point. It is the FOE that meets these moving vectors. Figure 5a shows the relationship between the optical flow and FOE in the image plane.

FOE는 카메라의 이동에 의해 생기는데 여기서는 고정된 카메라가 고속의 속도로 전방으로 이동하는 상황이다. 따라서, 보정 단계에서 FOE를 구해주고, 그렇게 구해진 결과를 주행 중에 사용하도록 한다.The FOE is created by the movement of the camera, where the fixed camera moves forward at high speed. Therefore, the FOE is obtained in the calibration step, and the obtained result is used while driving.

도 5b는 후방영상의 2 프레임 동안 카메라 중심의 이동과 거기에 따라 생기는 FOE의 관계를 나타낸 그림이다.5B is a diagram showing the relationship between the movement of the camera center and the resulting FOE during two frames of the rear image.

이제 영상의 차도에서 얻어진 특징점을 이용하여 영상면의 FOE를 구한다. FOE를 구하는 방법에는 다양한 방법들이 존재하지만 크게 3가지로 분류할 수 있다. 첫 번째 방법은 이산적인 방법으로서 매칭되는 점이나 선 등을 이용하여 구하는 방법이 있다. 이 방법은 까다로우며 정확하지는 않지만 간단한 정보를 이용하여 구할 수 있는 장점이 있다. 두 번째 방법은 연속적인 방법으로서 광학흐름(optical flow)을 이용한 방법이 있다. 이 방법은 앞선 방법보다 정확하지만 계산양이 많다. 세 번째는 밝기의 변화를 이용하는 방법이 있는데 이것은 회전이 가미되지 않은 순수한 이동 변환만이 존재하는 영상에 대해서 사용할 수 있다.Now, the FOE of the image plane is obtained using the feature points obtained from the image difference. There are various ways to obtain FOE, but it can be classified into three types. The first method is a discrete method, which is obtained by using matching points or lines. This method is tricky and inaccurate but has the advantage of being available with simple information. The second method is a continuous method, which uses optical flow. This method is more accurate than the previous method, but more computational. The third method is to use a change in brightness, which can be used for an image in which there is only a pure shift transform without rotation.

우선 최소 8개 이상의 매칭되는 특징점 쌍을 알고 있다고 했을 때, [수학식 3]에 의해서 펀더멘탈 행렬(F)은 이미지 좌표상의 점들 간의 관계를 나타내므로 EIGHT_POINT 알고리즘을 이용하여 펀더멘탈 행렬(Fundamental Matrix)을 계산할 수 있다. 이때, 자동으로 좀 더 정확한 펀더멘탈 행렬을 구하기 위해서 RANSAC을 사용하여 계산할 수 있다. 여기서, x는 차량이 Oc 위치에 있을 때의 X의 2차원 좌표이며, x'은 차량이 Oc' 위치에 있을 때의 X의 2차원 좌표이다.First, when we know at least eight matching feature point pairs, the fundamental matrix (F) represents the relationship between the points in the image coordinates according to [Equation 3]. Can be. In this case, RANSAC can be used to automatically calculate a more accurate fundamental matrix. Here, x is a two-dimensional coordinate of X when the vehicle is at the position O c , and x 'is a two-dimensional coordinate of X when the vehicle is at the position O c '.

Figure 112008026859710-pat00003
Figure 112008026859710-pat00003

이렇게 얻어진 펀더멘탈 행렬(F)을 이용해서 [수학식 4]를 풀어서 에피폴(Epipole) e를 구하면 FOE를 얻을 수 있다.FOE can be obtained by solving Epipole e by solving Equation 4 using the obtained fundamental matrix (F).

Figure 112008026859710-pat00004
Figure 112008026859710-pat00004

S208단계 이후에는, 측방영상과 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계(S210)를 수행한다.After the step S208, the area separation step (S210) for performing the area separation for the side image and the rear image to the roadway image and the background image, respectively.

영상 정합을 위해서는 영상의 투영점이 일치할 뿐만 아니라 영상의 대부분이 한 평면 위에 존재해야 한다. 하지만 차량에 장착된 카메라로 촬영된 영상은 절반 이상을 차도의 영역이 차지하고 있고, 나머지는 배경부분이 차지하게 된다. 배경과 차도는 동일한 평면에 존재하지 않으므로 일반적인 영상정합방법(예를 들어, 모자이킹(Mosaiking))으로는 정합하는 것이 불가능하다.For image registration, not only the projection point of the image coincides, but most of the image must exist on one plane. However, more than half of the images taken with the camera mounted on the vehicle occupy an area of the roadway, and the rest occupy the background. Since the background and the roadway do not exist in the same plane, it is impossible to match with a general image matching method (for example, Mosaiking).

따라서, 여기서는 영상을 정합하기 위한 방법으로 배경과 차도를 분리해서 정합한다. 배경영상과 차도영상을 분리하기 위해서 우선 측면영상과 후방영상에서 서로 비슷한 위치의 영상을 사용한다. 즉, 서로 시간대는 다르지만 비슷한 위치에서 촬영된 영상을 사용함으로써 전후 사이의 이동변환을 최소화시키고 그 영상 집합을 이용해서 영역을 나누는 작업을 수행한다. 하나는 차도영역이고 하나는 배경영상 부분이 된다. 이 단계에서는 컬러기반 방법을 사용한다.Therefore, here, the background and the roadway are separated and matched as a method for matching images. In order to separate the background image and the driveway image, first, the images of the similar positions are used in the side image and the rear image. That is, by using images photographed at similar locations but different time zones, the transformation between the front and rear is minimized and the area is divided using the image set. One is the roadway area and the other is the background image part. This step uses a color-based method.

컬러기반 방법은 영상 내의 도로와 배경 등에서 휴 값과 새츄레이션 값 등이 차이가 나는 것을 이용하여 차도로 추정되는 부분을 분리하고 그 분리된 영상을 바탕으로 차도영역을 결정한다.The color-based method separates the part estimated by the roadway by using the difference between the hugh value and the saturation value in the road and the background in the image, and determines the driveway area based on the separated image.

도 6은 영역분리단계(S210)에서 컬러기반 방법으로 검출된 차도영역을 도시한 도면이다. 도 6a의 영상에서 도 6b의 차도영역을 분리한 도면이다.FIG. 6 is a diagram illustrating a roadway area detected by the color-based method in the area separation step S210. The driveway region of FIG. 6B is separated from the image of FIG. 6A.

후방 영상에 대해서 차도와 배경을 분리하는 작업을 수행해서 차도와 배경 영상을 구분했다면, 좌우측 영상과 후방영상간의 호모그래피를 이용하여 후방에서 분리한 차도 영역을 그대로 좌우측 영상에도 적용하는 것이 가능하다. 그러므로 좌우측 영상에 대해서는 별도의 계산 없이 차도영상과 배경영상을 분리하는 것이 가능하다.If the road image and the background image are separated by performing a process of separating the road image and the background image, it is possible to apply the roadway region separated from the rear side to the left and right images by using homography between the left and right images. Therefore, it is possible to separate the roadway image and the background image for the left and right images without any calculation.

도 7은 영역분리단계(S210)에서 후방영상에서 호모그래피를 사용하여 측방영상의 차도영역을 분리한 결과를 도시한 도면이다.FIG. 7 is a diagram illustrating a result of separating a roadway region of a side image by using homography in a rear image in an area separation step (S210).

도 7에 도시하듯이 좌후간 호모그래피(HL) 및 우후간 호모그래피(HR)을 이용하여 차도영역을 분리할 수 있다.As shown in FIG. 7, the roadway region may be separated using left and right homography (H L ) and right and right homography (H R ).

영역분리단계(S210) 이후에는, 차도영상과 배경영상에 왜곡보정 파라미터, 인접영상간 호모그래피 및 FOE를 이용하여 영상정합을 하여 정합영상을 만드는 정합단계(S212)를 수행한다.After the area separation step S210, a matching step S212 is performed to generate a matched image by performing image registration using a distortion correction parameter, homography between adjacent images, and a FOE on the roadway image and the background image.

차도와 배경이 분리된 영상과 보정단계에서 구한 파라미터들을 이용해서 주행 중에 최종 정합을 수행하게 된다. 이 단계에서 앞선 계산을 통해 얻은 동일 시점(비슷한 위치에서의 측/후방 영상)의 측후방영상간의 호모그래피와 전후 프레임간의 호모그래피를 이용하여 동일한 위치가 아니라 동일한 시간에 촬영된 영상의 차도영상을 후방영상 기준으로 정합한다. 이 작업을 거친 뒤에 정합 영상의 좌/우측에 가상의 측면 평면을 세우고 측방의 배경 영상을 그 평면에 매핑(Mapping) 시킨다. 이러한 방법으로 영상들을 정합한다.The final matching is performed while driving by using the image obtained by separating the road and the background and the parameters obtained in the correction step. In this step, the homograph between the lateral and posterior images at the same point in time (side / rear images at similar positions) and homography between front and rear frames is used to obtain the difference image of the image taken at the same time, not at the same position. Match based on the rear image. After this work, a virtual lateral plane is placed on the left and right sides of the matched image, and the lateral background image is mapped to the plane. In this way the images are matched.

도 8은 정합단계(S212)에서 배경영상을 측방에 세운 가상의 평면에 매핑시키는 형태를 도시한 도면이다.FIG. 8 is a diagram illustrating a form in which a background image is mapped to a virtual plane set on the side in the registration step S212.

정합단계(S212) 이후에 정합영상의 가시화 방법으로서, 정합영상에 실린더 매핑을 수행하는 실린더매핑단계(S214)를 수행할 수 있다. 여기서 실린더 투영을 수행해서 파노라마 영상을 생성한다. After the registration step S212, as a visualization method of the registration image, a cylinder mapping step S214 for performing cylinder mapping on the registration image may be performed. Here, the cylinder projection is performed to generate a panoramic image.

또 다른 가시화방법으로, 정합영상에 차량의 정보를 포함시키는 롤파노라마영상 생성단계(S216)를 수행할 수 있으며, 운전자에게 차량의 정보와 함께 후방의 정합영상정보가 제공되는 자연스러운 후방 뷰(View)를 별도로 생성하여 제공한다.As another visualization method, a roll panorama image generating step (S216) of including the vehicle information in the registration image may be performed, and a natural rear view in which the rear registration image information is provided to the driver along with the vehicle information. Create and provide separately.

도 9는 본 발명의 일 실시예에 따른 영상정합 시스템(900)을 도시한 도면이다.9 is a diagram illustrating an image matching system 900 according to an exemplary embodiment.

도 9에 도시하듯이, 본 발명의 일 실시예에 따른 영상정합 시스템(900)은, 측방영상을 수신하는 측방카메라(902), 후방영상을 수신하는 후방카메라(106), 측방영상 및 후방영상을 수신하는 영상수신부(906), 후방영상으로부터 왜곡보정 파라미터를 추출하는 보정파라미터추출부(908), 인접영상간 호모그래피를 계산하는 호모그래피계산부(910), 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 FOE계산부(912), 측방영상과 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리부(914), 차도영상과 배경영상에 왜곡보정 파라미터, 인접영상간 호모그래피 및 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 영상정합부(916)를 포함한다.As shown in FIG. 9, the image registration system 900 according to an embodiment of the present invention includes a side camera 902 for receiving a side image, a rear camera 106 for receiving a rear image, a side image, and a rear image. Image receiving unit 906 for receiving the image, correction parameter extraction unit 908 for extracting the distortion correction parameter from the rear image, homography calculation unit 910 for calculating homography between adjacent images, and an extension center of the rear image (Focus of Expansion: FOE calculation unit 912 for calculating FOE, region separation unit 914 for segmenting the side image and the rear image into the difference image and the background image, the distortion correction parameter in the difference image and the background image, And an image registration unit 916 which performs image registration using homography and neighboring images between adjacent images to form a registration image.

경우에 따라서는 여기에, 정합영상에 실린더 매핑을 수행하는 실린더매핑 또는 정합영상에 차량의 정보를 포함시키는 롤파노라마영상을 생성하는 가시화부(918)를 추가로 포함할 수 있다.In some cases, the visualizer 918 may further include a cylinder mapping for performing cylinder mapping to the registration image or a visualization unit 918 for generating a roll panorama image including information of the vehicle in the registration image.

도 9와, 도 1 내지 도 8을 참조하여 영상정합 시스템(900)의 동작을 살펴보면 아래와 같다.9 and the operation of the image registration system 900 will be described below with reference to FIGS.

주행중 차량 후방의 사각지대를 제거하기 위해서, 차량의 측면(일반 카메라)과 후방(광각 카메라)에 카메라를 장착한다. 장착된 카메라를 이용하여 주행 중에 촬영된 영상을 이용하여 정합을 수행한다.In order to remove the blind spot behind the vehicle while driving, the camera is mounted on the side (normal camera) and the rear (wide angle camera) of the vehicle. Matching is performed by using an image captured while driving using a mounted camera.

도 10은 영상획득을 위해 차량에 카메라를 장착한 모습을 도시한 도면이다.10 is a diagram illustrating a state in which a camera is mounted on a vehicle for image acquisition.

측방카메라(902)로는 차량의 좌측과 우측에 각각 우측카메라(102)와 좌측카메라(104)가 설치된다. 도 10에 도시하듯이, 좌측카메라(104)는 좌측 사이드미러의 아래쪽에 설치되고, 우측카메라(102)는 우측 사이드미러의 아래쪽에 설치되며(도 10에는 우측 사이드미러쪽은 도시되지 않음), 후방카메라(106)는 차량의 트렁크 윗부분에 설치되나 여기에 한정되지는 않는다.As the side camera 902, a right camera 102 and a left camera 104 are installed on the left and right sides of the vehicle, respectively. As shown in FIG. 10, the left camera 104 is installed below the left side mirror, and the right camera 102 is installed below the right side mirror (the right side mirror side is not shown in FIG. 10), The rear camera 106 is installed on the trunk upper part of the vehicle, but is not limited thereto.

영상수신부(906)는 측방영상 및 후방영상을 수신하는 영상수신단계(S202)를 수행한다. 먼저 차량의 좌/우측 측방과 후방에 설치된 카메라에서 주행 영상, 즉, 좌측영상, 우측영상 및 후방영상을 촬영하여 입력으로 받는다. 좌/우측의 카메라는 FOV(Field of View)가 30도인 카메라이고 후방 카메라는 FOV가 120도인 광각카메라를 사용하여 촬영한다. 측방카메라와 후방 카메라는 2.8m의 거리를 두고 설치된다. 도 11은 카메라로 촬영된 입력 영상을 도시한 도면이다.The image receiver 906 performs an image receiving step S202 for receiving the side image and the rear image. First, the driving image, that is, the left image, the right image, and the rear image are captured by the camera installed at the left and right sides and the rear of the vehicle and received as an input. Cameras on the left and right are taken using a wide-angle camera having a field of view of 30 degrees and a rear camera of 120 degrees. Side camera and rear camera are installed at a distance of 2.8m. 11 is a diagram illustrating an input image photographed by a camera.

보정파라미터추출부(908)는 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계(S204)를 수행한다. The correction parameter extractor 908 extracts the distortion correction parameter from the rear image (S204).

호모그래피계산부(910)는 인접영상간 호모그래피를 계산하는 단계(S206)를 수행한다. 단계(S206)에서 기술하듯이, 여기서 인접영상간 호모그래피는 측방영상과 후방영상간의 측후방 호모그래피 및 후방영상의 앞뒤 프레임간의 전후간 호모그래피이며, 측후방 호모그래피는 다시 좌후간 호모그래피 및 우후간 호모그래피로 이루어진다.The homography calculator 910 calculates homography between adjacent images (S206). As described in step S206, here, homography between adjacent images is lateral and homography between the lateral and rear images and front and rear homography between the front and rear frames of the rear image, and the lateral and rear homography is again performed by the left and right homography and It is made by homography.

FOE계산부(912)는 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계(S208)를 수행한다.The FOE calculator 912 calculates a focus of expansion (FOE) of the rear image (S208).

영역분리부(914)는 측방영상과 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 하는 단계(S210)를 수행한다. 여기서, 단계(S210)에서 기술하듯이 영역분리 방법으로 컬러기반 방법을 사용한다. 촬영된 영상을 바탕으로 후방 영상의 왜곡보정작업과 호모그래피 계산이 완료되고 나면, 그 정보를 바탕으로 후방 영상의 차도와 배경을 분리하는 작업이 수행된다. 도 12는 후방카메라(106)에서 분리한 배경과 차도영상의 결과를 예시한 도면이다. 이렇게 구해진 후방영상의 결과를 바탕으로 인접영상간의 호모그래피를 사용하여 측방 영상에서도 차도와 배경영상을 분리해낼 수 있다.The area separating unit 914 performs a step of separating the area into the roadway image and the background image for the lateral image and the rear image, respectively (S210). Here, the color-based method is used as the region separation method as described in step S210. After the distortion correction operation and the homography calculation of the rear image are completed based on the photographed image, the operation of separating the road image and the background of the rear image is performed based on the information. 12 is a diagram illustrating results of a background and a roadway image separated by the rear camera 106. Based on the obtained result of the rear image, it is possible to separate the road image and the background image from the side image using homography between adjacent images.

영상정합부(916)는 차도영상과 배경영상에 왜곡보정 파라미터, 인접영상간 호모그래피 및 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계(S212)를 수행한다. 차도와 배경영상이 분리되고 나면 계산된 호모그래피와 분리된 영상을 사용하여 정합을 수행한다. 도 13은 도 11의 영상이 정합된 결과를 도시한 도면이다.The image matching unit 916 performs a matching step (S212) to create a matching image by performing image registration using the distortion correction parameter, the homography between adjacent images, and the FOE on the roadway image and the background image. After the roadway and the background image are separated, registration is performed using the calculated homography and the separated image. FIG. 13 is a diagram illustrating a result of matching images of FIG. 11.

가시화부(918)는 정합영상에 실린더 매핑을 수행하는 실린더매핑 또는 정합영상에 차량의 정보를 포함시키는 롤파노라마영상을 생성하는 단계(S216)를 수행한다.The visualization unit 918 generates a roll panorama image including information of a vehicle in a cylinder mapping or registration image that performs cylinder mapping on the registration image (S216).

이렇게 정합된 영상을 좀 더 운전자에게 보기 좋은 영상을 나타내기 위해서 적절한 가시화 방법을 찾을 필요가 있다. 그 첫 번째 해결책으로 사용한 것이 실린 더 매핑을 이용한 파노라마 영상이다. 도 14는 실린더 매핑을 이용하여 만들어진 파노라마 영상이다.In order to display the matched image to the driver, it is necessary to find an appropriate visualization method. The first solution was a panoramic image using cylinder mapping. 14 is a panoramic image made using cylinder mapping.

파노라마 영상은 넓은 영역을 쉽게 표현하는 것이 가능하다. 하지만, 차량의 정보 및 다른 운전자가 필요한 정보를 쉽게 표현하지 못하고, 파노라마를 만들기 위해서 왜곡 및 제거된 영상들이 존재한다. 따라서 이러한 문제를 줄이고 정합된 본연의 자연스러운 영상으로 표현하기 위해서 차량의 정보를 포함하는 롤파노라마 영상을 만들 수 있다. 도 15는 최종 생성된 롤파노라마 영상을 도시한 도면이다. 도 15는 차량의 가상 모델을 표현하고 그곳에 차량의 주행 속도 및 다양한 정보를 표시하고 차량 주변의 후방 정보를 운전자에게 제공하기 위한 가시화 화면이다.The panoramic image can easily express a large area. However, the information of the vehicle and other drivers cannot easily express the necessary information, and there are distorted and removed images to make a panorama. Therefore, in order to reduce such a problem and express the natural image matched with each other, a roll panorama image including information of a vehicle can be made. FIG. 15 is a diagram illustrating a final roll panorama image. FIG. 15 is a visualization screen for representing a virtual model of a vehicle, displaying the driving speed and various information of the vehicle, and providing the driver with rear information around the vehicle.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

본 발명에 의하면, 차량의 측방과 후방에 카메라를 설치한 경우에 카메라의 중심이 일치하지 않고 후방과 측방 카메라의 종류가 다를 경우도 제대로 된 정합을 수행하며, 차량에 장착되어 있는 환경과 종류가 다른 다수의 카메라에서 얻어진 영 상에 대해서도 영상 정합을 제공하는 효과가 있다.According to the present invention, when the cameras are installed on the side and the rear of the vehicle, the centers of the cameras do not coincide with each other and the types of the rear and side cameras are different. There is an effect of providing image matching even for images obtained from a plurality of cameras.

또한, 사각지대 제거를 위한 영상정합 방법 및 가시화 방법은 운전자의 안전을 위협하는 차량의 사각지대의 위험물체를 쉽게 인지하여 사고율을 낮추는 예방을 위한 안전장치로서의 효과가 있다. 특히 장착된 카메라에서는 기존의 사이드 미러와 백미러로 볼 수 없었던 넓은 영역의 영상을 획득해주고, 이러한 영상을 정합하여 운전자가 보기 편한 파노라마 등의 형태로 가시화 함으로서 위험물체의 인지능력향상에도 도움을 준다. In addition, the image registration method and the visualization method for removing the blind spot has an effect as a safety device for prevention of lowering the accident rate by easily recognizing the dangerous object of the blind spot threatening the driver's safety. In particular, the attached camera acquires images of a wide area that could not be seen with the existing side mirrors and rearview mirrors, and helps to improve the cognitive ability of dangerous objects by matching these images and visualizing them in the form of a panorama that is easy for the driver to see.

또 다른 효과로는 영상정합을 기술 측면에서 보다 나아진 성과를 보여준다. 기존의 영상 정합 방법은 대부분 영상의 투영점(카메라의 센터 위치)가 동일한 영상들만을 정합하는 기술이어서, 차량과 같이 움직이는 물체에 카메라를 장착한 경우, 모션 패럴랙스(Motion Parallax) 현상으로 영상을 정합하는 것이 불가능해지는 것을 해결하는 효과가 있다.Another effect is better image matching in terms of technology. Conventional image matching methods mostly match only images that have the same projection point (the center of the camera) of the image. When the camera is mounted on a moving object such as a vehicle, motion parallax occurs. This has the effect of solving the impossible match.

또한, 차량에 장착된 카메라는 카메라의 투영점이 일치되도록 장착하는 것이 불가능한 한계와, 더욱이 후방 카메라의 경우 일반적으로 카메라의 종류가 다르거나 가시영역이 다른 한계도 극복하여, 기존의 영상 정합을 위한 가정을 모두 위배한 현재의 상황에서 얻어진 영상을 정합하는 효과가 있다.In addition, the camera mounted on the vehicle overcomes the limitation that it is impossible to mount the camera so that the projection point of the camera coincides, and furthermore, in the case of the rear camera, it overcomes the limitation of the different types of cameras or different viewing areas. There is an effect of matching the images obtained in the current situation that violates all of them.

도 1은 본 발명의 일 실시예에 따른 영상정합 방법을 이용하여 운전자에게 보여주는 화면을 예시한 도면이다.1 is a diagram illustrating a screen displayed to a driver using an image registration method according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 영상정합 방법을 도시한 흐름도이다.2 is a flowchart illustrating an image registration method according to an embodiment of the present invention.

도 3은 왜곡보정파라미터 추출단계(S204)에서 광각카메라의 영상의 왜곡 보정방법을 도시한 도면이다.3 is a diagram illustrating a distortion correction method of an image of a wide-angle camera in the distortion correction parameter extraction step (S204).

도 4는 호모그래피계산단계(S206)에서 두 영상 사이의 호모그래피가 가지는 의미를 도시한 도면이다.FIG. 4 is a diagram illustrating the meaning of homography between two images in the homography calculation step S206.

도 5는 FOE계산단계(S208)에서 FOE의 의미와 그 계산 방법을 도시한 도면이다.5 is a view showing the meaning of the FOE and the calculation method in the FOE calculation step (S208).

도 6은 영역분리단계(S210)에서 컬러기반 방법으로 검출된 차도영역을 도시한 도면이다.FIG. 6 is a diagram illustrating a roadway area detected by the color-based method in the area separation step S210.

도 7은 영역분리단계(S210)에서 후방영상에서 호모그래피를 사용하여 측방영상의 차도영역을 분리한 결과를 도시한 도면이다.FIG. 7 is a diagram illustrating a result of separating a roadway region of a side image by using homography in a rear image in an area separation step (S210).

도 8은 정합단계(S212)에서 배경영상을 측방에 세운 가상의 평면에 매핑시키는 형태를 도시한 도면이다.FIG. 8 is a diagram illustrating a form in which a background image is mapped to a virtual plane set on the side in the registration step S212.

도 9는 본 발명의 일 실시예에 따른 영상정합 시스템(900)을 도시한 도면이다.9 is a diagram illustrating an image matching system 900 according to an exemplary embodiment.

도 10은 영상획득을 위해 차량에 카메라를 장착한 모습을 도시한 도면이다.10 is a diagram illustrating a state in which a camera is mounted on a vehicle for image acquisition.

도 11은 카메라로 촬영된 입력 영상을 도시한 도면이다.11 is a diagram illustrating an input image photographed by a camera.

도 12는 후방카메라(106)에서 분리한 배경과 차도영상의 결과를 예시한 도면이다.12 is a diagram illustrating results of a background and a roadway image separated by the rear camera 106.

도 13은 도 11의 영상이 정합된 결과를 도시한 도면이다.FIG. 13 is a diagram illustrating a result of matching images of FIG. 11.

도 14는 실린더 매핑을 이용하여 만들어진 파노라마 영상이다.14 is a panoramic image made using cylinder mapping.

도 15는 최종 생성된 롤파노라마 영상을 도시한 도면이다.FIG. 15 is a diagram illustrating a final roll panorama image.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

102: 우측카메라 104: 좌측카메라102: right camera 104: left camera

106: 후방카메라 900: 영상정합시스템106: rear camera 900: video registration system

902: 측방카메라 906: 영상수신부902: side view camera 906: video receiver

908: 보정파라미터추출부 910: 호모그래피계산부908: correction parameter extraction unit 910: homography calculation unit

912: FOE계산부 914: 영역분리부912: FOE calculation unit 914: region separation unit

916: 영상정합부 918: 가시화부916: Image matching unit 918: Visualization unit

Claims (10)

차량주행중 영상정합 방법에 있어서,In the image matching method while driving the vehicle, (a) 측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 영상수신단계;(a) an image receiving step of receiving a side image from a side camera and a rear image from a rear camera; (b) 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계;(b) extracting distortion correction parameters from the rear image; (c) 인접영상간 호모그래피를 계산하는 단계;(c) calculating homography between adjacent images; (d) 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계;(d) calculating a focus of expansion (FOE) of the rear image; (e) 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계; 및(e) an area separation step of performing area separation on the side image and the rear image into a roadway image and a background image, respectively; And (f) 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계(f) a matching step of performing a matching operation on the difference image and the background image by using the distortion correction parameter, the homography between the adjacent images, and the FOE to create a matching image; 를 포함하는 것을 특징으로 하는 영상정합 방법.Image matching method comprising a. 제 1항에 있어서, 상기 인접영상간 호모그래피는,The method of claim 1, wherein the homography between adjacent images is 상기 측방영상과 상기 후방영상간의 측후방 호모그래피 및 상기 후방영상의 앞뒤 프레임간의 전후간 호모그래피인 것을 특징으로 하는 영상정합 방법.And lateral rear homography between the lateral image and the rear image, and front and rear homography between front and rear frames of the rear image. 제 2항에 있어서, 상기 측방영상은,The method of claim 2, wherein the side view image, 좌측영상 및 우측영상을 포함하고,Including a left image and a right image, 상기 측후방 호모그래피는,The side rear homography, 좌후간 호모그래피 및 우후간 호모그래피를 포함하는 것을 특징으로 하는 영상정합 방법.A left and right liver homography and a right rear homography. 제 1항에 있어서, 상기 단계 (e)에서,The method of claim 1, wherein in step (e), 상기 영역분리는 컬러기반 방법을 사용하는 것을 특징으로 하는 영상정합 방법.The area separation is an image matching method, characterized in that using a color-based method. 제 1항에 있어서, 상기 영상정합 방법은,The method of claim 1, wherein the image registration method comprises: 상기 단계 (f) 이후에 상기 정합영상에 실린더 매핑을 수행하는 실린더매핑단계 또는 상기 정합영상에 차량의 정보를 포함시키는 롤파노라마영상 생성단계를 추가로 포함하는 것을 특징으로 하는 영상정합 방법.And a cylinder mapping step of performing cylinder mapping on the registration image after the step (f) or a roll panorama image generation step of including information of the vehicle in the registration image. 차량주행중 영상정합 시스템에 있어서,In image matching system while driving a vehicle, 측방영상을 수신하는 측방카메라;A side camera for receiving a side image; 후방영상을 수신하는 후방카메라;A rear camera for receiving a rear image; 상기 측방영상 및 상기 후방영상을 수신하는 영상수신부;An image receiver configured to receive the side image and the rear image; 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 보정파라미터추출부;A correction parameter extracting unit extracting a distortion correction parameter from the rear image; 인접영상간 호모그래피를 계산하는 호모그래피계산부;A homography calculator for calculating homography between adjacent images; 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 FOE계산부;A FOE calculator configured to calculate a focus of expansion of the rear image; 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 하는 영역분리부; 및A region separator configured to separate regions of the side image and the rear image into a roadway image and a background image, respectively; And 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 영상정합부An image matching unit for generating a registration image by performing image registration using the distortion correction parameter, the homography between the adjacent images, and the FOE on the difference image and the background image. 를 포함하는 것을 특징으로 하는 영상정합 시스템.Image matching system comprising a. 제 6항에 있어서, 상기 인접영상간 호모그래피는,The method of claim 6, wherein the homography between adjacent images, 상기 측방영상과 상기 후방영상간의 측후방 호모그래피 및 상기 후방영상의 앞뒤 프레임간의 전후간 호모그래피인 것을 특징으로 하는 영상정합 시스템.And a front and rear homography between the front and rear frames of the rear image and the rear and rear homography between the side image and the rear image. 제 7항에 있어서, 상기 측방카메라는,The method of claim 7, wherein the side camera, 우측카메라 및 좌측카메라를 포함하고,Including a right camera and a left camera, 상기 측방영상은,The side image is, 좌측영상 및 우측영상을 포함하고,Including a left image and a right image, 상기 측후방 호모그래피는,The side rear homography, 좌후간 호모그래피 및 우후간 호모그래피를 포함하는 것을 특징으로 하는 영상정합 시스템.An image registration system comprising left to right homography and right to left homography. 제 6항에 있어서, 상기 영역분리부는,The method of claim 6, wherein the region separator, 상기 영역분리 방법으로 컬러기반 방법을 사용하는 것을 특징으로 하는 영상정합 시스템.And a color-based method as the area separation method. 제 6항에 있어서, 상기 영상정합 시스템은,The method of claim 6, wherein the image registration system, 상기 정합영상에 실린더 매핑을 수행하는 실린더매핑 또는 상기 정합영상에 차량의 정보를 포함시키는 롤파노라마영상을 생성하는 가시화부를 추가로 포함하는 것을 특징으로 하는 영상정합 시스템.And a visualization unit configured to generate a cylinder mapping for performing cylinder mapping to the registration image or a roll panorama image including information of a vehicle in the registration image.
KR1020080034883A 2008-04-15 2008-04-15 Method and System for Image Matching While Driving Vehicle KR101093316B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080034883A KR101093316B1 (en) 2008-04-15 2008-04-15 Method and System for Image Matching While Driving Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080034883A KR101093316B1 (en) 2008-04-15 2008-04-15 Method and System for Image Matching While Driving Vehicle

Publications (2)

Publication Number Publication Date
KR20090109437A KR20090109437A (en) 2009-10-20
KR101093316B1 true KR101093316B1 (en) 2011-12-14

Family

ID=41552728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080034883A KR101093316B1 (en) 2008-04-15 2008-04-15 Method and System for Image Matching While Driving Vehicle

Country Status (1)

Country Link
KR (1) KR101093316B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136636A (en) 2015-05-20 2016-11-30 주식회사 와이즈오토모티브 Panorama view variable system and method for controlling the same

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103237685B (en) * 2010-12-30 2017-06-13 明智汽车公司 Blind area display device and method
KR101295618B1 (en) * 2011-12-09 2013-08-12 주식회사 와이즈오토모티브 Apparatus and method for displaying blind spot
KR101224090B1 (en) * 2011-08-04 2013-01-21 엘지전자 주식회사 Apparatus and method for detecting nearing car
KR101697512B1 (en) 2011-12-15 2017-01-19 한국전자통신연구원 Image registration device and method thereof
KR101438892B1 (en) * 2012-07-03 2014-09-05 현대자동차주식회사 Apparatus and method for displaying dead zone of vehicle
KR101378337B1 (en) * 2012-10-30 2014-03-27 주식회사 이미지넥스트 Apparatus and method for processing image of camera
KR101398069B1 (en) * 2013-03-28 2014-05-27 주식회사 이미지넥스트 Homography estimation method and system for surround view monitoring
KR101994721B1 (en) * 2013-08-16 2019-07-01 삼성전기주식회사 System for providing around image and method for providing around image
WO2015056826A1 (en) * 2013-10-18 2015-04-23 주식회사 이미지넥스트 Camera image processing apparatus and method
KR102380862B1 (en) * 2015-09-01 2022-03-31 삼성전자주식회사 Method and apparatus for image processing
WO2019098729A1 (en) * 2017-11-16 2019-05-23 주식회사 아르비존 Vehicle monitoring method and device
KR102535136B1 (en) * 2021-08-05 2023-05-26 현대모비스 주식회사 Method And Apparatus for Image Registration

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100578041B1 (en) 2004-06-02 2006-05-11 (주)에이직뱅크 Network camera apparatus having a traffic information collection and addition function and the traffic information process method
JP2008187566A (en) 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method and vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100578041B1 (en) 2004-06-02 2006-05-11 (주)에이직뱅크 Network camera apparatus having a traffic information collection and addition function and the traffic information process method
JP2008187566A (en) 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Camera calibration apparatus and method and vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문(2005)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136636A (en) 2015-05-20 2016-11-30 주식회사 와이즈오토모티브 Panorama view variable system and method for controlling the same

Also Published As

Publication number Publication date
KR20090109437A (en) 2009-10-20

Similar Documents

Publication Publication Date Title
KR101093316B1 (en) Method and System for Image Matching While Driving Vehicle
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
KR101359660B1 (en) Augmented reality system for head-up display
JP6303090B2 (en) Image processing apparatus and image processing program
JP3764086B2 (en) Vehicle information providing device
EP2928178B1 (en) On-board control device
EP1251032A2 (en) Apparatus and method of recognizing vehicle travelling behind
EP3203725B1 (en) Vehicle-mounted image recognition device
US11263758B2 (en) Image processing method and apparatus
JP2002335524A (en) Driving support device
JP2010044561A (en) Monitoring device to be mounted on vehicle
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
US20160286170A1 (en) Surround view system for a vehicle
US20150035973A1 (en) Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle
JP2015184907A (en) Image processor and image processing program
JP5521217B2 (en) Obstacle detection device and obstacle detection method
JP2012198857A (en) Approaching object detector and approaching object detection method
JP6617610B2 (en) Vehicle display device
CN107531182B (en) Display device for vehicle and display method for vehicle
KR20170016143A (en) Lane recognition system using light fied camera and method therefor
KR20150050233A (en) device for lane detection
JP3226699B2 (en) Perimeter monitoring device for vehicles
JP2016213759A (en) Rear monitor
TW201739648A (en) Method for superposing images reducing a driver&#39;s blind corners to improve driving safety.
KR101432727B1 (en) moving object detection system using Head light beam pattern for crash prevention of vehicle and object and moving object detection method using Thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140922

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150923

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160927

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170922

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180920

Year of fee payment: 8