KR101093316B1 - Method and System for Image Matching While Driving Vehicle - Google Patents
Method and System for Image Matching While Driving Vehicle Download PDFInfo
- Publication number
- KR101093316B1 KR101093316B1 KR1020080034883A KR20080034883A KR101093316B1 KR 101093316 B1 KR101093316 B1 KR 101093316B1 KR 1020080034883 A KR1020080034883 A KR 1020080034883A KR 20080034883 A KR20080034883 A KR 20080034883A KR 101093316 B1 KR101093316 B1 KR 101093316B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- homography
- camera
- registration
- matching
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
본 발명은 차량주행중 영상정합 방법 및 그 시스템에 관한 것이다.The present invention relates to an image registration method and a system thereof while driving.
본 발명은, 측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 단계, 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계, 인접영상간 호모그래피를 계산하는 단계, 상기 후방영상의 확장중심을 계산하는 단계, 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계 및 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계를 포함하여 영상정합을 하는 영상정합 방법 및 그 시스템을 제공한다.The present invention includes receiving a side image from a side camera and a rear image from a rear camera, extracting a distortion correction parameter from the rear image, calculating homography between adjacent images, and an extension center of the rear image. Comprising a step of performing a region separation for each of the side image and the rear image to the road image and the background image, and the distortion correction parameter, the homography between the adjacent image and the road image and the background image Provided is an image registration method and system for performing image registration, including a registration step of performing an image registration using the FOE to create a registration image.
본 발명에 의하면, 차량의 측방과 후방에 카메라를 설치한 경우에 카메라의 중심이 일치하지 않고 후방과 측방 카메라의 종류가 다를 경우도 제대로 된 정합을 수행하며, 차량에 장착되어 있는 환경과 종류가 다른 다수의 카메라에서 얻어진 영상에 대해서도 영상 정합을 제공하는 효과가 있다.According to the present invention, when the cameras are installed on the side and the rear of the vehicle, the centers of the cameras do not coincide with each other and the types of the rear and side cameras are different. There is an effect of providing image matching for images obtained from a plurality of cameras.
영상정합, 사각지대, 측/후방 Image registration, blind spot, side / rear
Description
본 발명은 차량주행중 영상정합 방법 및 그 시스템에 관한 것이다. 더욱 상세하게는, 차량의 측/후방에 복수개의 카메라를 장착하고, 각 카메라로부터의 영상을 보정 후 정합단계를 거쳐서 하나의 영상으로 생성 후 운전자에게 제공함으로써 사각지대를 제거하는 차량주행중 영상정합 방법 및 그 시스템에 관한 것이다.The present invention relates to an image registration method and a system thereof while driving. More specifically, the image registration method while driving the vehicle by removing a blind spot by mounting a plurality of cameras on the side / rear of the vehicle, and after generating the image from each camera through the matching step to provide a single image to the driver And to the system.
주행 중 운전자가 볼 수 없는 사각지대는 운전자의 안전을 위협하는 큰 위험요소이다. 차량을 운전하는 운전자는 대체로 전방만을 주시하고 있기 때문에 차량의 후방에는 주의를 기울이기가 어렵다. 이러한 위험요소를 제거하기 위해 차량에는 다양한 사각지대 제거장치가 개발되어 왔다. 사이드미러에서 볼 수 없는 사각지대를 제거하기 위해서 보조거울을 일체화시키거나, 적외선 센서로 후방의 물체를 감지하고 경보를 통해 운전자에게 위험을 알려주는 장치들이 개발되고 실제 차량에 사용되고 있다. 최근에는 차량의 후방의 영상을 운전자의 디스플레이에 출력하여 사각지대를 줄여주는 방법들이 있다.Blind spots that are invisible to the driver while driving are a major danger to the driver's safety. It is difficult to pay attention to the rear of the vehicle because the driver who drives the vehicle is generally only looking ahead. Various blind spot removal devices have been developed for vehicles to eliminate these hazards. In order to eliminate blind spots that cannot be seen in the side mirrors, a device has been developed and used in actual vehicles to integrate an auxiliary mirror or to detect a rear object with an infrared sensor and alert the driver through an alarm. Recently, there are methods for reducing blind spots by outputting the image of the rear of the vehicle to the driver's display.
하지만, 이러한 방법들은 근본적으로 운전자가 가지는 사각지대의 일부만을 제거한다는 단점을 가진다. 이것만으로는 후방에 존재하는 물체가 보이지 않는 경우가 생기며, 실제로 이러한 문제로 인해 매년 많은 운전자가 차선 변경시 후방에서 접근하는 차량의 존재를 인지하지 못해 크고 작은 교통사고로 인명피해를 입고 있다.However, these methods have the disadvantage of essentially removing only part of the blind spot that the driver has. This alone causes the objects behind to be invisible, and in fact, many drivers are not aware of the vehicles approaching from the rear when they change lanes and are suffering casualties due to large and small traffic accidents.
사이드 보조 거울의 경우에는 추가적으로 장착되는 볼록 거울을 통해 좌/우측 후방의 왜곡된 영상을 운전자가 보게 된다. 거기에 운전자와 거리가 먼 우측의 경우는 물체의 존재 여부만이 어렴풋이 감지될 뿐이다.In the case of the side auxiliary mirror, the driver sees a distorted image of the left and right rear through an additional convex mirror. In the case of the right side far away from the driver, only the existence of an object is detected dimly.
적외선 센서를 이용하여 사각지대의 물체를 감지하는 것은 사각지대에 들어온 물체들을 보여주는 것이 아니라 단지 센서의 영역 안에 물체의 존재 여부를 감별해 줄 뿐이다. 인간의 감각 중 가장 민감한 감각이 시각인 것을 고려해 봤을 때 후방을 보여주는 것이 비해 운전자의 위험물 인지능력은 상당히 떨어진다고 볼 수 있다. 더욱이 다수의 위험물이 존재할 때 운전자는 위험물이 다수인지 하나인지 알 수 없으므로 그로 인한 사고가 발생할 수도 있다.Detecting objects in the blind spot using an infrared sensor does not show objects in the blind spot, but only discriminates the presence or absence of objects in the sensor's area. Considering that the most sensitive sensation among human senses is vision, the driver's perception of dangerous goods is considerably lower than the rear view. Moreover, when there is a large number of dangerous goods, the driver may not know whether there are many dangerous goods or one, and the accident may occur.
또한, 후방의 감시 카메라의 경우 후방을 그대로 운전자에게 보여주는 효율적인 사각지대 제거 방법이기는 하지만 그 범위가 후방에 제한되어 있고, 측방의 문제는 해결하지 못한다. 더욱이 이러한 후방 감시 카메라의 경우 광각(Wide Angle)카메라를 장착하기 때문에 이로 인해 영상이 심하게 왜곡되는 문제점을 가진다.In addition, the rear surveillance camera is an efficient blind spot removal method that shows the rear as it is to the driver, but the range is limited to the rear, and side problems cannot be solved. Moreover, the rear surveillance camera has a problem that the image is severely distorted due to the mounting of a wide angle camera.
전술한 문제점을 해결하기 위해 본 발명은, 차량의 측/후방에 복수개의 카메라를 장착하고, 각 카메라로부터의 영상을 보정 후 정합단계를 거쳐서 하나의 영상으로 생성 후 운전자에게 제공함으로써 사각지대를 제거하는 데 목적이 있다.In order to solve the above problems, the present invention is equipped with a plurality of cameras on the side / rear of the vehicle, remove the blind spots by correcting the image from each camera to generate a single image through the matching step and then provide to the driver The purpose is to.
전술한 목적을 달성하기 위해 본 발명은, 차량주행중 영상정합 방법에 있어서, (a) 측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 영상수신단계; (b) 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계; (c) 인접영상간 호모그래피를 계산하는 단계; (d) 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계; (e) 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계; 및 (f) 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계를 포함하는 것을 특징으로 하는 영상정합 방법을 제공한다.In order to achieve the above object, the present invention provides a video registration method for driving a vehicle, comprising: (a) an image receiving step of receiving a side image from a side camera and a rear image from a rear camera; (b) extracting distortion correction parameters from the rear image; (c) calculating homography between adjacent images; (d) calculating a focus of expansion (FOE) of the rear image; (e) an area separation step of performing area separation on the side image and the rear image into a roadway image and a background image, respectively; And (f) a matching step of performing a matching operation using the distortion correction parameter, the homography between the adjacent images, and the FOE to the difference image and the background image to form a matching image. To provide.
또한 전술한 목적을 달성하기 위해 본 발명은, 차량주행중 영상정합 시스템에 있어서, 측방영상을 수신하는 측방카메라; 후방영상을 수신하는 후방카메라; 상기 측방영상 및 상기 후방영상을 수신하는 영상수신부; 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 보정파라미터추출부; 인접영상간 호모그래피를 계산하는 호모그래피계산부; 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 FOE계산부; 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 하는 영역분리부; 및 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 영상정합부를 포함하는 것을 특징으로 하는 영상정합 시스템을 제공한다.In addition, the present invention, in order to achieve the above object, an image matching system while driving a vehicle, comprising: a side camera for receiving a side image; A rear camera for receiving a rear image; An image receiver configured to receive the side image and the rear image; A correction parameter extracting unit extracting a distortion correction parameter from the rear image; A homography calculator for calculating homography between adjacent images; A FOE calculator configured to calculate a focus of expansion of the rear image; A region separator configured to separate regions of the side image and the rear image into a roadway image and a background image, respectively; And an image registration unit for performing image registration using the distortion correction parameter, the homography between the adjacent images, and the FOE on the difference image and the background image to form a registration image. .
본 발명에 의하면, 차량의 측방과 후방에 카메라를 설치한 경우에 카메라의 중심이 일치하지 않고 후방과 측방 카메라의 종류가 다를 경우도 제대로 된 정합을 수행하며, 차량에 장착되어 있는 환경과 종류가 다른 다수의 카메라에서 얻어진 영상에 대해서도 영상 정합을 제공하는 효과가 있다.According to the present invention, when the cameras are installed on the side and the rear of the vehicle, the centers of the cameras do not coincide with each other and the types of the rear and side cameras are different. There is an effect of providing image matching for images obtained from a plurality of cameras.
또한, 사각지대 제거를 위한 영상정합 방법 및 가시화 방법은 운전자의 안전을 위협하는 차량의 사각지대의 위험물체를 쉽게 인지하여 사고율을 낮추는 예방을 위한 안전장치로서의 효과가 있다. 특히 장착된 카메라에서는 기존의 사이드 미러와 백미러로 볼 수 없었던 넓은 영역의 영상을 획득해주고, 이러한 영상을 정합하여 운전자가 보기 편한 파노라마 등의 형태로 가시화 함으로서 위험물체의 인지능력향상에도 도움을 준다. In addition, the image registration method and the visualization method for removing the blind spot has an effect as a safety device for prevention of lowering the accident rate by easily recognizing the dangerous object of the blind spot threatening the driver's safety. In particular, the attached camera acquires images of a wide area that could not be seen with the existing side mirrors and rearview mirrors, and helps to improve the cognitive ability of dangerous objects by matching these images and visualizing them in the form of a panorama that is easy for the driver to see.
또 다른 효과로는 영상정합을 기술 측면에서 보다 나아진 성과를 보여준다. 기존의 영상 정합 방법은 대부분 영상의 투영점(카메라의 센터 위치)가 동일한 영상들만을 정합하는 기술이어서, 차량과 같이 움직이는 물체에 카메라를 장착한 경우, 모션 패럴랙스(Motion Parallax) 현상으로 영상을 정합하는 것이 불가능해지는 것을 해결하는 효과가 있다.Another effect is better image matching in terms of technology. Conventional image matching methods mostly match only images that have the same projection point (the center of the camera) of the image. When the camera is mounted on a moving object such as a vehicle, motion parallax occurs. This has the effect of solving the impossible match.
또한, 차량에 장착된 카메라는 카메라의 투영점이 일치되도록 장착하는 것이 불가능한 한계와, 더욱이 후방 카메라의 경우 일반적으로 카메라의 종류가 다르거 나 가시영역이 다른 한계도 극복하여, 기존의 영상 정합을 위한 가정을 모두 위배한 현재의 상황에서 얻어진 영상을 정합하는 효과가 있다.In addition, the camera mounted on the vehicle overcomes the limitation that it is impossible to mount the camera so that the projection point of the camera coincides, and furthermore, the rear camera generally overcomes the limitations of different camera types or different viewing areas. There is an effect of matching the images obtained in the current situation that violates all of them.
이하, 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. First of all, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are used as much as possible even if displayed on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention unclear.
도 1은 본 발명의 일 실시예에 따른 영상정합 방법을 이용하여 운전자에게 보여주는 화면을 예시한 도면이다.1 is a diagram illustrating a screen displayed to a driver using an image registration method according to an embodiment of the present invention.
도 1에 도시하듯이, 사각지대를 효율적으로 제거하기 위해서 차량의 후방에 후방카메라(106)와, 좌우 측방에 좌측카메라(104) 및 우측카메라(102)를 장착할 수 있으며, 이곳에서 들어오는 각 영상(좌측영상, 우측영상, 후방영상)을 정합하여 하나의 파노라마 형태의 정합영상으로 만들어서 운전자에게 제공하는 방법을 제공한다.As shown in FIG. 1, in order to efficiently remove the blind spot, a
따라서, 본 발명은 차량의 후방과 측방에 백미러와 사이드미러를 보조하고 나아가 대체할 수 있도록 3대의 카메라를 차량의 후방과 측방의 사이드미러 위치에 장착할 수 있다. 각 카메라는 측방과 후방의 사각지대를 기존의 사이드미러와 백미러보다 더 많이 제거된 영상을 운전자에게 제공해 준다.Accordingly, the present invention can be equipped with three cameras in the rear and side of the vehicle side mirror position to assist and further replace the rear and side mirrors in the rear and side of the vehicle. Each camera provides the driver with more of the side and rear blind spots removed from conventional side and rear mirrors.
만일, 이렇게 제공받은 영상을 각각 별도로 보여주는 것은 오히려 운전자의 인지 능력을 저하시킨다. 대부분의 차량이 빠르게 주행하는 도로에서 이것은 상당히 위험한 문제이다. 따라서 본 발명에서는 3개의 영상을 하나로 정합한 정합영상을 추출하여 운전자가 보다 빠르고 효율적으로 후방의 사각지대에 존재하는 물체를 인지할 수 있는 가시화 방법을 제공한다.If each of these images is provided separately, the driver's cognitive ability is lowered. On roads where most cars run fast, this is a very dangerous problem. Accordingly, the present invention provides a visualization method that allows a driver to recognize an object present in the rear blind spot more quickly and efficiently by extracting a matched image of three images.
도 2는 본 발명의 일 실시예에 따른 영상정합 방법을 도시한 흐름도이다.2 is a flowchart illustrating an image registration method according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 영상정합 방법은, 측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 영상수신단계(S202), 상기 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계(S204), 인접영상간 호모그래피를 계산하는 단계(S206), 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계(S208), 상기 측방영상과 상기 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계(S210), 상기 차도영상과 상기 배경영상에 상기 왜곡보정 파라미터, 상기 인접영상간 호모그래피 및 상기 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계(S212)를 포함한다.In an image matching method according to an embodiment of the present invention, an image receiving step (S202) of receiving a side image from a side camera and a rear image from a rear camera, and extracting a distortion correction parameter from the rear image (S204) Computing homography between adjacent images (S206), Computing a focus of expansion (FOE) of the rear image (S208), and a side view image and a background image with respect to the lateral image and the rear image A region separation step (S210) for performing region separation, and a matching step of performing image registration using the distortion correction parameter, the homography between the adjacent images, and the FOE on the driveway image and the background image to form a matched image ( S212).
여기서, 정합단계(S212) 이후에, 정합영상에 실린더 매핑을 수행하는 실린더매핑단계(S214)를 추가로 포함할 수 있으며, 실린더매핑단계(S214) 대신에 정합영상에 차량의 정보를 포함시키는 롤파노라마영상 생성단계(S216)를 대신 수행할 수도 있다.Here, after the matching step (S212), it may further include a cylinder mapping step (S214) for performing a cylinder mapping on the registration image, rolls to include the information of the vehicle in the registration image instead of the cylinder mapping step (S214) The panoramic image generating step S216 may be performed instead.
S206단계에서 계산하는 인접영상간 호모그래피는 측방영상과 후방영상간의 측후방 호모그래피 및 후방영상의 앞뒤 프레임간의 전후간 호모그래피일 수 있다. 이때, 측방영상은 좌측영상 및 우측영상으로 구성될 수 있으며, 이 경우 측후방 호모그래피는 좌후간 호모그래피 및 우후간 호모그래피로 구성될 수 있다.The homography between adjacent images calculated in step S206 may be lateral posterior homography between the lateral image and the rear image and front and rear homography between the front and rear frames of the rear image. At this time, the side image may be composed of a left image and a right image, in this case, the lateral rear homography may be composed of left and right homography and right and left homography.
또한, 영역분리단계(S210)에서, 영역분리는 컬러기반 방법을 사용할 수 있다.In addition, in the area separation step S210, the area separation may use a color-based method.
측방카메라로부터 측방영상을 수신하고 후방카메라로부터 후방영상을 수신하는 단계(S202)에서는 차량의 우측에 장착된 우측카메라(일반 카메라), 좌측에 장착된 좌측카메라(일반 카메라), 후방에 장착된 후방카메라(광각카메라)로부터 각각 우측영상, 좌측영상, 후방영상을 수신한다.In the step S202 of receiving a side image from a side camera and receiving a rear image from a rear camera, a right camera (general camera) mounted on the right side of the vehicle, a left camera (general camera) mounted on the left side, and a rear mounted on the rear side A right image, a left image and a rear image are respectively received from a camera (wide angle camera).
사각지대 영상정합을 수행하기에 앞서 계산의 효율을 위해서 주행 전에 미리 계산되어야 할 작업으로 왜곡보정파라미터 추출단계(S204), 호모그래피계산단계(S206) 및 FOE계산단계(S208)로 이루어진 보정단계를 수행한다.Before performing blind spot image registration, a correction step consisting of a distortion correction parameter extraction step (S204), a homography calculation step (S206), and a FOE calculation step (S208) is performed as a task to be calculated before driving for efficiency of calculation. To perform.
우선 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계(S204)에서, 입력 영상 중 후방의 광각카메라로부터 얻어진 영상에 대한 왜곡보정(Calibration) 작업을 수행한다. 한 장의 영상에 대해서 왜곡보정 파라미터를 구해놓으면 이후 영상들은 바로 보정하여 사용할 수 있기 때문에 이 단계에서 영상의 왜곡보정 파라미터를 구하는 작업을 수행한다. 실제 광각카메라의 영상을 보정하는 작업은 복잡한 수식들을 이용하지 않고, 왜곡되는 광각카메라의 렌즈가 구의 표면과 같다고 가정하고 구와 평면과의 관계를 이용하여 간단하고 빠르게 보정작업을 수행한다.First, in the step S204 of extracting the distortion correction parameter from the rear image, a calibration operation is performed on an image obtained from the rear wide-angle camera among the input images. If distortion correction parameters are obtained for a single image, subsequent images can be corrected and used at this stage. Correcting the image of the actual wide-angle camera does not use complex equations, and simply and quickly performs the correction using the relationship between the sphere and the plane, assuming that the distorted wide-angle camera lens is the same as the surface of the sphere.
도 3은 왜곡보정파라미터 추출단계(S204)에서 광각카메라의 영상의 왜곡 보정방법을 도시한 도면이다.3 is a diagram illustrating a distortion correction method of an image of a wide-angle camera in the distortion correction parameter extraction step (S204).
렌즈의 표면이 구라고 가정했을 때, 구의 표면에 매핑된 영상이 바로 왜곡된 영상일 것이다. 따라서 왜곡되지 않은 평면상의 (Xu, Yu)와 구면에 매핑된 영상이 동일한 평면으로 투영된 위치 (Xd, Yd) 간의 관계식을 이용하면 왜곡이 보정된 위치 (Xu, Yu)를 구할 수 있다. 도 3을 보면 그 관계식을 [수학식 1] 및 [수학식 2]과 같이 나타낼 수 있다.Assuming that the surface of the lens is a sphere, the image mapped to the surface of the sphere will be a distorted image. Accordingly plane (X u, Y u) on the non-distorted and by using a relational expression between a position projecting in the same plane image is mapped to sphere (X d, Y d) a distortion correction position (X u, Y u) Can be obtained. Referring to FIG. 3, the relational expression may be represented as in [Equation 1] and [Equation 2].
[수학식 1] 및 [수학식 2]을 이용하여 역매핑(Backward Mapping)으로 보정된 위치의 점들을 미리 계산해 둘 수 있다. 이렇게 계산된 값에 해당하는 위치를 모든 왜곡 영상에 그대로 적용하는 것만으로 왜곡이 보정된 영상을 후술하는 영상정합단계에서 빠르게 얻는 것이 가능해진다.Using
왜곡보정을 위한 전처리 작업이 끝나고 나면 동일한 위치의 측후방 영상과 전후 프레임들 간의 차도영상을 정합하는 데 사용할 인접영상간 호모그래피를 계산(S206)한다(여기서는 robust RANSAC(Random Sample Consensus) 알고리즘 사용). 인접영상간 호모그래피를 계산하는 단계(S206)에서, 인접영상간 호모그래피는 좌측 영상과 후방영상간의 좌후간 호모그래피, 우측영상과 후방영상간의 우후간 호모그래피, 후방영상의 앞뒤 프레임간의 전후간 호모그래피를 계산한다.After the preprocessing for distortion correction, the homography between adjacent images to be used to match the difference image between the lateral rear image and the front and rear frames of the same position is calculated (S206) (here, using robust RANSAC (Random Sample Consensus) algorithm) . In calculating the homography between adjacent images (S206), homography between adjacent images includes left and right homography between a left image and a rear image, right and right homography between a right image and a rear image, and front and back between front and rear frames of a rear image. Calculate homography.
도 4는 호모그래피계산단계(S206)에서 두 영상 사이의 호모그래피가 가지는 의미를 도시한 도면이다.FIG. 4 is a diagram illustrating the meaning of homography between two images in the homography calculation step S206.
동일한 위치의 측/후방 영상이란 것은 측방 카메라와 후방 카메라가 일정 시간적인 간격을 두고, 동일한(적어도 유사한) 세계좌표계(World Coordinate) 상에서 촬영한 영상을 말한다. 일반적으로 호모그래피는 한 영상에서 다른 영상으로 가는 3x3의 변환행렬이다.The side / rear image of the same position refers to an image captured by the side camera and the rear camera on the same (at least similar) world coordinate system at a predetermined time interval. Generally, homography is a 3x3 transformation matrix going from one image to another.
도 4에 도시하듯이, 호모그래피(Hab)가 계산되면 영상a의 점(Pa)은 영상b의 점(Pb)로 매핑될 수 있다. 일반적으로 호모그래피는 한 영상에서 다른 영상으로 가는 3x3의 변환행렬이다. 따라서 측방의 차도영상과 후방의 차도영상에 대해서, 그리고 후방영상의 전후 프레임간의 호모그래피를 미리 계산해두고 이후의 영상정합 단계에서 이러한 정보를 이용할 수 있다. 이와 같은 방법으로 우후간 호모그래피, 좌후간 호모그래피 및 전후간 호모그래피를 구한다.As shown in FIG. 4, when the homography H ab is calculated, the point P a of the image a may be mapped to the point P b of the image b. Generally, homography is a 3x3 transformation matrix going from one image to another. Therefore, the homography between the lateral driveway image and the rear driveway image and the front and rear frames of the rear image can be calculated in advance, and the information can be used in the subsequent image registration step. In this manner, right to rear homography, left to right homography, and front to rear homography are obtained.
호모그래피계산단계(S206) 이후에는, 상기 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계(S208)를 수행한다. FOE는 카메라의 위치 한 방향으로 트랜슬레이션(Translation)만이 수행될 때 영상 상의 각 모션(Motion)들이 수렴하는 한점을 일컫는다. 차도영상과 배경영상을 분리할 때 FOE를 사용하며, 미리 이 FOE를 전처리단계에서 계산해 둔다. FOE는 서로 다른 프레임의 영상들간의 일치 점을 계산하고 그 일치점으로부터 각 점들의 모션을 구한다. 이렇게 구해진 모션들이 수렴하는 위치가 바로 FOE가 된다.After the homography calculation step S206, a step of calculating a focus of expansion (FOE) of the rear image is performed (S208). The FOE refers to a point at which each motion on the image converges when only translation is performed in one direction of the camera position. The FOE is used to separate the driveway image and the background image, and this FOE is calculated in the preprocessing step. The FOE calculates coincidence points between images of different frames and obtains motion of each point from the coincidence points. The position where the motions thus converged is the FOE.
도 5는 FOE계산단계(S208)에서 계산하는 FOE의 의미와 그 계산 방법을 도시한 도면이다.5 is a view showing the meaning of the FOE calculated in the FOE calculation step (S208) and its calculation method.
S208단계에서 보정 단계의 마지막으로 FOE를 구하는 작업은 다음과 같다. 일반적으로 카메라가 일정한 방향으로 이동하면서 촬영을 하게 되면 촬영된 영상들 간의 광학 흐름은 특정한 점을 기준으로 움직이게 된다. 바로 이러한 이동하는 벡터들이 만나는 점이 바로 FOE가 된다. 도 5a는 영상 면에서 광학흐름과 FOE 간의 관계를 나타낸 것이다.In operation S208, the final operation of obtaining the FOE is as follows. In general, when the camera is photographed while moving in a certain direction, the optical flow between the captured images is moved based on a specific point. It is the FOE that meets these moving vectors. Figure 5a shows the relationship between the optical flow and FOE in the image plane.
FOE는 카메라의 이동에 의해 생기는데 여기서는 고정된 카메라가 고속의 속도로 전방으로 이동하는 상황이다. 따라서, 보정 단계에서 FOE를 구해주고, 그렇게 구해진 결과를 주행 중에 사용하도록 한다.The FOE is created by the movement of the camera, where the fixed camera moves forward at high speed. Therefore, the FOE is obtained in the calibration step, and the obtained result is used while driving.
도 5b는 후방영상의 2 프레임 동안 카메라 중심의 이동과 거기에 따라 생기는 FOE의 관계를 나타낸 그림이다.5B is a diagram showing the relationship between the movement of the camera center and the resulting FOE during two frames of the rear image.
이제 영상의 차도에서 얻어진 특징점을 이용하여 영상면의 FOE를 구한다. FOE를 구하는 방법에는 다양한 방법들이 존재하지만 크게 3가지로 분류할 수 있다. 첫 번째 방법은 이산적인 방법으로서 매칭되는 점이나 선 등을 이용하여 구하는 방법이 있다. 이 방법은 까다로우며 정확하지는 않지만 간단한 정보를 이용하여 구할 수 있는 장점이 있다. 두 번째 방법은 연속적인 방법으로서 광학흐름(optical flow)을 이용한 방법이 있다. 이 방법은 앞선 방법보다 정확하지만 계산양이 많다. 세 번째는 밝기의 변화를 이용하는 방법이 있는데 이것은 회전이 가미되지 않은 순수한 이동 변환만이 존재하는 영상에 대해서 사용할 수 있다.Now, the FOE of the image plane is obtained using the feature points obtained from the image difference. There are various ways to obtain FOE, but it can be classified into three types. The first method is a discrete method, which is obtained by using matching points or lines. This method is tricky and inaccurate but has the advantage of being available with simple information. The second method is a continuous method, which uses optical flow. This method is more accurate than the previous method, but more computational. The third method is to use a change in brightness, which can be used for an image in which there is only a pure shift transform without rotation.
우선 최소 8개 이상의 매칭되는 특징점 쌍을 알고 있다고 했을 때, [수학식 3]에 의해서 펀더멘탈 행렬(F)은 이미지 좌표상의 점들 간의 관계를 나타내므로 EIGHT_POINT 알고리즘을 이용하여 펀더멘탈 행렬(Fundamental Matrix)을 계산할 수 있다. 이때, 자동으로 좀 더 정확한 펀더멘탈 행렬을 구하기 위해서 RANSAC을 사용하여 계산할 수 있다. 여기서, x는 차량이 Oc 위치에 있을 때의 X의 2차원 좌표이며, x'은 차량이 Oc' 위치에 있을 때의 X의 2차원 좌표이다.First, when we know at least eight matching feature point pairs, the fundamental matrix (F) represents the relationship between the points in the image coordinates according to [Equation 3]. Can be. In this case, RANSAC can be used to automatically calculate a more accurate fundamental matrix. Here, x is a two-dimensional coordinate of X when the vehicle is at the position O c , and x 'is a two-dimensional coordinate of X when the vehicle is at the position O c '.
이렇게 얻어진 펀더멘탈 행렬(F)을 이용해서 [수학식 4]를 풀어서 에피폴(Epipole) e를 구하면 FOE를 얻을 수 있다.FOE can be obtained by solving Epipole e by solving Equation 4 using the obtained fundamental matrix (F).
S208단계 이후에는, 측방영상과 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리단계(S210)를 수행한다.After the step S208, the area separation step (S210) for performing the area separation for the side image and the rear image to the roadway image and the background image, respectively.
영상 정합을 위해서는 영상의 투영점이 일치할 뿐만 아니라 영상의 대부분이 한 평면 위에 존재해야 한다. 하지만 차량에 장착된 카메라로 촬영된 영상은 절반 이상을 차도의 영역이 차지하고 있고, 나머지는 배경부분이 차지하게 된다. 배경과 차도는 동일한 평면에 존재하지 않으므로 일반적인 영상정합방법(예를 들어, 모자이킹(Mosaiking))으로는 정합하는 것이 불가능하다.For image registration, not only the projection point of the image coincides, but most of the image must exist on one plane. However, more than half of the images taken with the camera mounted on the vehicle occupy an area of the roadway, and the rest occupy the background. Since the background and the roadway do not exist in the same plane, it is impossible to match with a general image matching method (for example, Mosaiking).
따라서, 여기서는 영상을 정합하기 위한 방법으로 배경과 차도를 분리해서 정합한다. 배경영상과 차도영상을 분리하기 위해서 우선 측면영상과 후방영상에서 서로 비슷한 위치의 영상을 사용한다. 즉, 서로 시간대는 다르지만 비슷한 위치에서 촬영된 영상을 사용함으로써 전후 사이의 이동변환을 최소화시키고 그 영상 집합을 이용해서 영역을 나누는 작업을 수행한다. 하나는 차도영역이고 하나는 배경영상 부분이 된다. 이 단계에서는 컬러기반 방법을 사용한다.Therefore, here, the background and the roadway are separated and matched as a method for matching images. In order to separate the background image and the driveway image, first, the images of the similar positions are used in the side image and the rear image. That is, by using images photographed at similar locations but different time zones, the transformation between the front and rear is minimized and the area is divided using the image set. One is the roadway area and the other is the background image part. This step uses a color-based method.
컬러기반 방법은 영상 내의 도로와 배경 등에서 휴 값과 새츄레이션 값 등이 차이가 나는 것을 이용하여 차도로 추정되는 부분을 분리하고 그 분리된 영상을 바탕으로 차도영역을 결정한다.The color-based method separates the part estimated by the roadway by using the difference between the hugh value and the saturation value in the road and the background in the image, and determines the driveway area based on the separated image.
도 6은 영역분리단계(S210)에서 컬러기반 방법으로 검출된 차도영역을 도시한 도면이다. 도 6a의 영상에서 도 6b의 차도영역을 분리한 도면이다.FIG. 6 is a diagram illustrating a roadway area detected by the color-based method in the area separation step S210. The driveway region of FIG. 6B is separated from the image of FIG. 6A.
후방 영상에 대해서 차도와 배경을 분리하는 작업을 수행해서 차도와 배경 영상을 구분했다면, 좌우측 영상과 후방영상간의 호모그래피를 이용하여 후방에서 분리한 차도 영역을 그대로 좌우측 영상에도 적용하는 것이 가능하다. 그러므로 좌우측 영상에 대해서는 별도의 계산 없이 차도영상과 배경영상을 분리하는 것이 가능하다.If the road image and the background image are separated by performing a process of separating the road image and the background image, it is possible to apply the roadway region separated from the rear side to the left and right images by using homography between the left and right images. Therefore, it is possible to separate the roadway image and the background image for the left and right images without any calculation.
도 7은 영역분리단계(S210)에서 후방영상에서 호모그래피를 사용하여 측방영상의 차도영역을 분리한 결과를 도시한 도면이다.FIG. 7 is a diagram illustrating a result of separating a roadway region of a side image by using homography in a rear image in an area separation step (S210).
도 7에 도시하듯이 좌후간 호모그래피(HL) 및 우후간 호모그래피(HR)을 이용하여 차도영역을 분리할 수 있다.As shown in FIG. 7, the roadway region may be separated using left and right homography (H L ) and right and right homography (H R ).
영역분리단계(S210) 이후에는, 차도영상과 배경영상에 왜곡보정 파라미터, 인접영상간 호모그래피 및 FOE를 이용하여 영상정합을 하여 정합영상을 만드는 정합단계(S212)를 수행한다.After the area separation step S210, a matching step S212 is performed to generate a matched image by performing image registration using a distortion correction parameter, homography between adjacent images, and a FOE on the roadway image and the background image.
차도와 배경이 분리된 영상과 보정단계에서 구한 파라미터들을 이용해서 주행 중에 최종 정합을 수행하게 된다. 이 단계에서 앞선 계산을 통해 얻은 동일 시점(비슷한 위치에서의 측/후방 영상)의 측후방영상간의 호모그래피와 전후 프레임간의 호모그래피를 이용하여 동일한 위치가 아니라 동일한 시간에 촬영된 영상의 차도영상을 후방영상 기준으로 정합한다. 이 작업을 거친 뒤에 정합 영상의 좌/우측에 가상의 측면 평면을 세우고 측방의 배경 영상을 그 평면에 매핑(Mapping) 시킨다. 이러한 방법으로 영상들을 정합한다.The final matching is performed while driving by using the image obtained by separating the road and the background and the parameters obtained in the correction step. In this step, the homograph between the lateral and posterior images at the same point in time (side / rear images at similar positions) and homography between front and rear frames is used to obtain the difference image of the image taken at the same time, not at the same position. Match based on the rear image. After this work, a virtual lateral plane is placed on the left and right sides of the matched image, and the lateral background image is mapped to the plane. In this way the images are matched.
도 8은 정합단계(S212)에서 배경영상을 측방에 세운 가상의 평면에 매핑시키는 형태를 도시한 도면이다.FIG. 8 is a diagram illustrating a form in which a background image is mapped to a virtual plane set on the side in the registration step S212.
정합단계(S212) 이후에 정합영상의 가시화 방법으로서, 정합영상에 실린더 매핑을 수행하는 실린더매핑단계(S214)를 수행할 수 있다. 여기서 실린더 투영을 수행해서 파노라마 영상을 생성한다. After the registration step S212, as a visualization method of the registration image, a cylinder mapping step S214 for performing cylinder mapping on the registration image may be performed. Here, the cylinder projection is performed to generate a panoramic image.
또 다른 가시화방법으로, 정합영상에 차량의 정보를 포함시키는 롤파노라마영상 생성단계(S216)를 수행할 수 있으며, 운전자에게 차량의 정보와 함께 후방의 정합영상정보가 제공되는 자연스러운 후방 뷰(View)를 별도로 생성하여 제공한다.As another visualization method, a roll panorama image generating step (S216) of including the vehicle information in the registration image may be performed, and a natural rear view in which the rear registration image information is provided to the driver along with the vehicle information. Create and provide separately.
도 9는 본 발명의 일 실시예에 따른 영상정합 시스템(900)을 도시한 도면이다.9 is a diagram illustrating an
도 9에 도시하듯이, 본 발명의 일 실시예에 따른 영상정합 시스템(900)은, 측방영상을 수신하는 측방카메라(902), 후방영상을 수신하는 후방카메라(106), 측방영상 및 후방영상을 수신하는 영상수신부(906), 후방영상으로부터 왜곡보정 파라미터를 추출하는 보정파라미터추출부(908), 인접영상간 호모그래피를 계산하는 호모그래피계산부(910), 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 FOE계산부(912), 측방영상과 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 수행하는 영역분리부(914), 차도영상과 배경영상에 왜곡보정 파라미터, 인접영상간 호모그래피 및 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 영상정합부(916)를 포함한다.As shown in FIG. 9, the
경우에 따라서는 여기에, 정합영상에 실린더 매핑을 수행하는 실린더매핑 또는 정합영상에 차량의 정보를 포함시키는 롤파노라마영상을 생성하는 가시화부(918)를 추가로 포함할 수 있다.In some cases, the
도 9와, 도 1 내지 도 8을 참조하여 영상정합 시스템(900)의 동작을 살펴보면 아래와 같다.9 and the operation of the
주행중 차량 후방의 사각지대를 제거하기 위해서, 차량의 측면(일반 카메라)과 후방(광각 카메라)에 카메라를 장착한다. 장착된 카메라를 이용하여 주행 중에 촬영된 영상을 이용하여 정합을 수행한다.In order to remove the blind spot behind the vehicle while driving, the camera is mounted on the side (normal camera) and the rear (wide angle camera) of the vehicle. Matching is performed by using an image captured while driving using a mounted camera.
도 10은 영상획득을 위해 차량에 카메라를 장착한 모습을 도시한 도면이다.10 is a diagram illustrating a state in which a camera is mounted on a vehicle for image acquisition.
측방카메라(902)로는 차량의 좌측과 우측에 각각 우측카메라(102)와 좌측카메라(104)가 설치된다. 도 10에 도시하듯이, 좌측카메라(104)는 좌측 사이드미러의 아래쪽에 설치되고, 우측카메라(102)는 우측 사이드미러의 아래쪽에 설치되며(도 10에는 우측 사이드미러쪽은 도시되지 않음), 후방카메라(106)는 차량의 트렁크 윗부분에 설치되나 여기에 한정되지는 않는다.As the
영상수신부(906)는 측방영상 및 후방영상을 수신하는 영상수신단계(S202)를 수행한다. 먼저 차량의 좌/우측 측방과 후방에 설치된 카메라에서 주행 영상, 즉, 좌측영상, 우측영상 및 후방영상을 촬영하여 입력으로 받는다. 좌/우측의 카메라는 FOV(Field of View)가 30도인 카메라이고 후방 카메라는 FOV가 120도인 광각카메라를 사용하여 촬영한다. 측방카메라와 후방 카메라는 2.8m의 거리를 두고 설치된다. 도 11은 카메라로 촬영된 입력 영상을 도시한 도면이다.The
보정파라미터추출부(908)는 후방영상으로부터 왜곡보정 파라미터를 추출하는 단계(S204)를 수행한다. The
호모그래피계산부(910)는 인접영상간 호모그래피를 계산하는 단계(S206)를 수행한다. 단계(S206)에서 기술하듯이, 여기서 인접영상간 호모그래피는 측방영상과 후방영상간의 측후방 호모그래피 및 후방영상의 앞뒤 프레임간의 전후간 호모그래피이며, 측후방 호모그래피는 다시 좌후간 호모그래피 및 우후간 호모그래피로 이루어진다.The
FOE계산부(912)는 후방영상의 확장중심(Focus of Expansion: FOE)을 계산하는 단계(S208)를 수행한다.The
영역분리부(914)는 측방영상과 후방영상에 대하여 차도영상과 배경영상으로 각각 영역분리를 하는 단계(S210)를 수행한다. 여기서, 단계(S210)에서 기술하듯이 영역분리 방법으로 컬러기반 방법을 사용한다. 촬영된 영상을 바탕으로 후방 영상의 왜곡보정작업과 호모그래피 계산이 완료되고 나면, 그 정보를 바탕으로 후방 영상의 차도와 배경을 분리하는 작업이 수행된다. 도 12는 후방카메라(106)에서 분리한 배경과 차도영상의 결과를 예시한 도면이다. 이렇게 구해진 후방영상의 결과를 바탕으로 인접영상간의 호모그래피를 사용하여 측방 영상에서도 차도와 배경영상을 분리해낼 수 있다.The
영상정합부(916)는 차도영상과 배경영상에 왜곡보정 파라미터, 인접영상간 호모그래피 및 FOE를 이용하여 영상정합을 수행하여 정합영상을 만드는 정합단계(S212)를 수행한다. 차도와 배경영상이 분리되고 나면 계산된 호모그래피와 분리된 영상을 사용하여 정합을 수행한다. 도 13은 도 11의 영상이 정합된 결과를 도시한 도면이다.The
가시화부(918)는 정합영상에 실린더 매핑을 수행하는 실린더매핑 또는 정합영상에 차량의 정보를 포함시키는 롤파노라마영상을 생성하는 단계(S216)를 수행한다.The
이렇게 정합된 영상을 좀 더 운전자에게 보기 좋은 영상을 나타내기 위해서 적절한 가시화 방법을 찾을 필요가 있다. 그 첫 번째 해결책으로 사용한 것이 실린 더 매핑을 이용한 파노라마 영상이다. 도 14는 실린더 매핑을 이용하여 만들어진 파노라마 영상이다.In order to display the matched image to the driver, it is necessary to find an appropriate visualization method. The first solution was a panoramic image using cylinder mapping. 14 is a panoramic image made using cylinder mapping.
파노라마 영상은 넓은 영역을 쉽게 표현하는 것이 가능하다. 하지만, 차량의 정보 및 다른 운전자가 필요한 정보를 쉽게 표현하지 못하고, 파노라마를 만들기 위해서 왜곡 및 제거된 영상들이 존재한다. 따라서 이러한 문제를 줄이고 정합된 본연의 자연스러운 영상으로 표현하기 위해서 차량의 정보를 포함하는 롤파노라마 영상을 만들 수 있다. 도 15는 최종 생성된 롤파노라마 영상을 도시한 도면이다. 도 15는 차량의 가상 모델을 표현하고 그곳에 차량의 주행 속도 및 다양한 정보를 표시하고 차량 주변의 후방 정보를 운전자에게 제공하기 위한 가시화 화면이다.The panoramic image can easily express a large area. However, the information of the vehicle and other drivers cannot easily express the necessary information, and there are distorted and removed images to make a panorama. Therefore, in order to reduce such a problem and express the natural image matched with each other, a roll panorama image including information of a vehicle can be made. FIG. 15 is a diagram illustrating a final roll panorama image. FIG. 15 is a visualization screen for representing a virtual model of a vehicle, displaying the driving speed and various information of the vehicle, and providing the driver with rear information around the vehicle.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.
본 발명에 의하면, 차량의 측방과 후방에 카메라를 설치한 경우에 카메라의 중심이 일치하지 않고 후방과 측방 카메라의 종류가 다를 경우도 제대로 된 정합을 수행하며, 차량에 장착되어 있는 환경과 종류가 다른 다수의 카메라에서 얻어진 영 상에 대해서도 영상 정합을 제공하는 효과가 있다.According to the present invention, when the cameras are installed on the side and the rear of the vehicle, the centers of the cameras do not coincide with each other and the types of the rear and side cameras are different. There is an effect of providing image matching even for images obtained from a plurality of cameras.
또한, 사각지대 제거를 위한 영상정합 방법 및 가시화 방법은 운전자의 안전을 위협하는 차량의 사각지대의 위험물체를 쉽게 인지하여 사고율을 낮추는 예방을 위한 안전장치로서의 효과가 있다. 특히 장착된 카메라에서는 기존의 사이드 미러와 백미러로 볼 수 없었던 넓은 영역의 영상을 획득해주고, 이러한 영상을 정합하여 운전자가 보기 편한 파노라마 등의 형태로 가시화 함으로서 위험물체의 인지능력향상에도 도움을 준다. In addition, the image registration method and the visualization method for removing the blind spot has an effect as a safety device for prevention of lowering the accident rate by easily recognizing the dangerous object of the blind spot threatening the driver's safety. In particular, the attached camera acquires images of a wide area that could not be seen with the existing side mirrors and rearview mirrors, and helps to improve the cognitive ability of dangerous objects by matching these images and visualizing them in the form of a panorama that is easy for the driver to see.
또 다른 효과로는 영상정합을 기술 측면에서 보다 나아진 성과를 보여준다. 기존의 영상 정합 방법은 대부분 영상의 투영점(카메라의 센터 위치)가 동일한 영상들만을 정합하는 기술이어서, 차량과 같이 움직이는 물체에 카메라를 장착한 경우, 모션 패럴랙스(Motion Parallax) 현상으로 영상을 정합하는 것이 불가능해지는 것을 해결하는 효과가 있다.Another effect is better image matching in terms of technology. Conventional image matching methods mostly match only images that have the same projection point (the center of the camera) of the image. When the camera is mounted on a moving object such as a vehicle, motion parallax occurs. This has the effect of solving the impossible match.
또한, 차량에 장착된 카메라는 카메라의 투영점이 일치되도록 장착하는 것이 불가능한 한계와, 더욱이 후방 카메라의 경우 일반적으로 카메라의 종류가 다르거나 가시영역이 다른 한계도 극복하여, 기존의 영상 정합을 위한 가정을 모두 위배한 현재의 상황에서 얻어진 영상을 정합하는 효과가 있다.In addition, the camera mounted on the vehicle overcomes the limitation that it is impossible to mount the camera so that the projection point of the camera coincides, and furthermore, in the case of the rear camera, it overcomes the limitation of the different types of cameras or different viewing areas. There is an effect of matching the images obtained in the current situation that violates all of them.
도 1은 본 발명의 일 실시예에 따른 영상정합 방법을 이용하여 운전자에게 보여주는 화면을 예시한 도면이다.1 is a diagram illustrating a screen displayed to a driver using an image registration method according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 영상정합 방법을 도시한 흐름도이다.2 is a flowchart illustrating an image registration method according to an embodiment of the present invention.
도 3은 왜곡보정파라미터 추출단계(S204)에서 광각카메라의 영상의 왜곡 보정방법을 도시한 도면이다.3 is a diagram illustrating a distortion correction method of an image of a wide-angle camera in the distortion correction parameter extraction step (S204).
도 4는 호모그래피계산단계(S206)에서 두 영상 사이의 호모그래피가 가지는 의미를 도시한 도면이다.FIG. 4 is a diagram illustrating the meaning of homography between two images in the homography calculation step S206.
도 5는 FOE계산단계(S208)에서 FOE의 의미와 그 계산 방법을 도시한 도면이다.5 is a view showing the meaning of the FOE and the calculation method in the FOE calculation step (S208).
도 6은 영역분리단계(S210)에서 컬러기반 방법으로 검출된 차도영역을 도시한 도면이다.FIG. 6 is a diagram illustrating a roadway area detected by the color-based method in the area separation step S210.
도 7은 영역분리단계(S210)에서 후방영상에서 호모그래피를 사용하여 측방영상의 차도영역을 분리한 결과를 도시한 도면이다.FIG. 7 is a diagram illustrating a result of separating a roadway region of a side image by using homography in a rear image in an area separation step (S210).
도 8은 정합단계(S212)에서 배경영상을 측방에 세운 가상의 평면에 매핑시키는 형태를 도시한 도면이다.FIG. 8 is a diagram illustrating a form in which a background image is mapped to a virtual plane set on the side in the registration step S212.
도 9는 본 발명의 일 실시예에 따른 영상정합 시스템(900)을 도시한 도면이다.9 is a diagram illustrating an
도 10은 영상획득을 위해 차량에 카메라를 장착한 모습을 도시한 도면이다.10 is a diagram illustrating a state in which a camera is mounted on a vehicle for image acquisition.
도 11은 카메라로 촬영된 입력 영상을 도시한 도면이다.11 is a diagram illustrating an input image photographed by a camera.
도 12는 후방카메라(106)에서 분리한 배경과 차도영상의 결과를 예시한 도면이다.12 is a diagram illustrating results of a background and a roadway image separated by the
도 13은 도 11의 영상이 정합된 결과를 도시한 도면이다.FIG. 13 is a diagram illustrating a result of matching images of FIG. 11.
도 14는 실린더 매핑을 이용하여 만들어진 파노라마 영상이다.14 is a panoramic image made using cylinder mapping.
도 15는 최종 생성된 롤파노라마 영상을 도시한 도면이다.FIG. 15 is a diagram illustrating a final roll panorama image.
< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>
102: 우측카메라 104: 좌측카메라102: right camera 104: left camera
106: 후방카메라 900: 영상정합시스템106: rear camera 900: video registration system
902: 측방카메라 906: 영상수신부902: side view camera 906: video receiver
908: 보정파라미터추출부 910: 호모그래피계산부908: correction parameter extraction unit 910: homography calculation unit
912: FOE계산부 914: 영역분리부912: FOE calculation unit 914: region separation unit
916: 영상정합부 918: 가시화부916: Image matching unit 918: Visualization unit
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080034883A KR101093316B1 (en) | 2008-04-15 | 2008-04-15 | Method and System for Image Matching While Driving Vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080034883A KR101093316B1 (en) | 2008-04-15 | 2008-04-15 | Method and System for Image Matching While Driving Vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090109437A KR20090109437A (en) | 2009-10-20 |
KR101093316B1 true KR101093316B1 (en) | 2011-12-14 |
Family
ID=41552728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080034883A KR101093316B1 (en) | 2008-04-15 | 2008-04-15 | Method and System for Image Matching While Driving Vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101093316B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160136636A (en) | 2015-05-20 | 2016-11-30 | 주식회사 와이즈오토모티브 | Panorama view variable system and method for controlling the same |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103237685B (en) * | 2010-12-30 | 2017-06-13 | 明智汽车公司 | Blind area display device and method |
KR101295618B1 (en) * | 2011-12-09 | 2013-08-12 | 주식회사 와이즈오토모티브 | Apparatus and method for displaying blind spot |
KR101224090B1 (en) * | 2011-08-04 | 2013-01-21 | 엘지전자 주식회사 | Apparatus and method for detecting nearing car |
KR101697512B1 (en) | 2011-12-15 | 2017-01-19 | 한국전자통신연구원 | Image registration device and method thereof |
KR101438892B1 (en) * | 2012-07-03 | 2014-09-05 | 현대자동차주식회사 | Apparatus and method for displaying dead zone of vehicle |
KR101378337B1 (en) * | 2012-10-30 | 2014-03-27 | 주식회사 이미지넥스트 | Apparatus and method for processing image of camera |
KR101398069B1 (en) * | 2013-03-28 | 2014-05-27 | 주식회사 이미지넥스트 | Homography estimation method and system for surround view monitoring |
KR101994721B1 (en) * | 2013-08-16 | 2019-07-01 | 삼성전기주식회사 | System for providing around image and method for providing around image |
WO2015056826A1 (en) * | 2013-10-18 | 2015-04-23 | 주식회사 이미지넥스트 | Camera image processing apparatus and method |
KR102380862B1 (en) * | 2015-09-01 | 2022-03-31 | 삼성전자주식회사 | Method and apparatus for image processing |
WO2019098729A1 (en) * | 2017-11-16 | 2019-05-23 | 주식회사 아르비존 | Vehicle monitoring method and device |
KR102535136B1 (en) * | 2021-08-05 | 2023-05-26 | 현대모비스 주식회사 | Method And Apparatus for Image Registration |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100578041B1 (en) | 2004-06-02 | 2006-05-11 | (주)에이직뱅크 | Network camera apparatus having a traffic information collection and addition function and the traffic information process method |
JP2008187566A (en) | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | Camera calibration apparatus and method and vehicle |
-
2008
- 2008-04-15 KR KR1020080034883A patent/KR101093316B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100578041B1 (en) | 2004-06-02 | 2006-05-11 | (주)에이직뱅크 | Network camera apparatus having a traffic information collection and addition function and the traffic information process method |
JP2008187566A (en) | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | Camera calibration apparatus and method and vehicle |
Non-Patent Citations (1)
Title |
---|
논문(2005) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160136636A (en) | 2015-05-20 | 2016-11-30 | 주식회사 와이즈오토모티브 | Panorama view variable system and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
KR20090109437A (en) | 2009-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101093316B1 (en) | Method and System for Image Matching While Driving Vehicle | |
JP6091586B1 (en) | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM | |
KR101359660B1 (en) | Augmented reality system for head-up display | |
JP6303090B2 (en) | Image processing apparatus and image processing program | |
JP3764086B2 (en) | Vehicle information providing device | |
EP2928178B1 (en) | On-board control device | |
EP1251032A2 (en) | Apparatus and method of recognizing vehicle travelling behind | |
EP3203725B1 (en) | Vehicle-mounted image recognition device | |
US11263758B2 (en) | Image processing method and apparatus | |
JP2002335524A (en) | Driving support device | |
JP2010044561A (en) | Monitoring device to be mounted on vehicle | |
US10733464B2 (en) | Method, system and device of obtaining 3D-information of objects | |
US20160286170A1 (en) | Surround view system for a vehicle | |
US20150035973A1 (en) | Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle | |
JP2015184907A (en) | Image processor and image processing program | |
JP5521217B2 (en) | Obstacle detection device and obstacle detection method | |
JP2012198857A (en) | Approaching object detector and approaching object detection method | |
JP6617610B2 (en) | Vehicle display device | |
CN107531182B (en) | Display device for vehicle and display method for vehicle | |
KR20170016143A (en) | Lane recognition system using light fied camera and method therefor | |
KR20150050233A (en) | device for lane detection | |
JP3226699B2 (en) | Perimeter monitoring device for vehicles | |
JP2016213759A (en) | Rear monitor | |
TW201739648A (en) | Method for superposing images reducing a driver's blind corners to improve driving safety. | |
KR101432727B1 (en) | moving object detection system using Head light beam pattern for crash prevention of vehicle and object and moving object detection method using Thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140922 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150923 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160927 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170922 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20180920 Year of fee payment: 8 |