KR20180110534A - Apparatus and method for around view monitoring - Google Patents

Apparatus and method for around view monitoring Download PDF

Info

Publication number
KR20180110534A
KR20180110534A KR1020170040231A KR20170040231A KR20180110534A KR 20180110534 A KR20180110534 A KR 20180110534A KR 1020170040231 A KR1020170040231 A KR 1020170040231A KR 20170040231 A KR20170040231 A KR 20170040231A KR 20180110534 A KR20180110534 A KR 20180110534A
Authority
KR
South Korea
Prior art keywords
image
detecting
area
top view
vehicle
Prior art date
Application number
KR1020170040231A
Other languages
Korean (ko)
Other versions
KR101949349B1 (en
Inventor
이중현
유영준
Original Assignee
주식회사 이알랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이알랩 filed Critical 주식회사 이알랩
Priority to KR1020170040231A priority Critical patent/KR101949349B1/en
Publication of KR20180110534A publication Critical patent/KR20180110534A/en
Application granted granted Critical
Publication of KR101949349B1 publication Critical patent/KR101949349B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • H04N5/23238
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

An apparatus for monitoring an around view according to an embodiment of the present invention includes an image receiving part for receiving images from a plurality of cameras, a 2D table correction part which detecting a plurality of straight lines corresponding to at least one of a reference line, a feature point, and a vehicle area from each of the images, calculating a homography matrix between surfaces including the straight line of an adjacent image among the images, and generating a 2D lookup table according to the homography, and a 2D matching part for matching the images according to the 2D lookup table to generate a top view image. The lookup table is automatically corrected even if the shooting angle of the camera is changed.

Description

어라운드 뷰 모니터링 장치{APPARATUS AND METHOD FOR AROUND VIEW MONITORING}[0001] APPARATUS AND METHOD FOR AROUND VIEW MONITORING [0002]

본 발명은 어라운드 뷰 모니터링 기술에 관한 것으로, 보다 상세하게는 카메라의 촬영 각도가 변경되는 경우 자동으로 오차를 보정하여 영상을 정합하는 어라운드 뷰 모니터링 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to an approach view monitoring technology, and more particularly, to an approach view monitoring technology for automatically correcting an error when a photographing angle of a camera is changed to match images.

어라운드 뷰 모니터링(AVM: Around View Monitoring) 장치는 차량에 설치된 4대의 광각 카메라 영상을 하나의 영상으로 정합하여 차량 주변 환경 정보를 운전자에게 제공하는 기술이다. 어라운드 뷰 모니터링 기술을 플래그쉽 모델 차량에 대부분 적용되어 있는 기술이다. The AVM (Around View Monitoring) device is a technology that provides the driver with surrounding environment information by matching four wide-angle camera images installed in the vehicle with one image. Around-view monitoring technology is a technology most applied to flagship model vehicles.

탑 뷰 AVM(Top View AVM)은 4개의 영상을 정합하여 차량의 위에서 보는 것과 같은 2차원 영상을 표시해주는 기술로써 2000년대에 주로 보급된 AVM 기술이다. 2010년대에는 3차원으로 AVM을 제공하는 3D AVM이 개발되었다.Top View AVM (AVM) is a technology that displays two-dimensional images as seen from the top of a vehicle by matching four images. In the 2010s, 3D AVM was developed that provides AVM in three dimensions.

본 발명의 선행기술로 한국공개특허공보 제 10-2013-0040595호가 있다.Korean Patent Laid-Open Publication No. 10-2013-0040595 is a prior art of the present invention.

본 발명이 해결하고자 하는 과제는 카메라의 촬영 각도가 변경되더라도 자동으로 룩업 테이블을 보정하는 어라운드 뷰 모니터링 장치 및 방법을 제공하는 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an apparatus and method for monitoring an ambient view, which automatically corrects a lookup table even when a photographing angle of a camera is changed.

본 발명의 일 측면에 따르면, 복수의 카메라로부터 영상을 각각 수신하는 영상 수신부; 각 상기 영상으로부터 참조선, 특징점, 차량 영역 중 하나 이상에 따른 복수의 직선을 검출하고, 상기 영상 중 인접한 영상의 상기 직선을 포함하는 면 간의 호모그래피(homography) 행렬을 산출하고, 상기 호모그래피 행렬에 따라 2D 룩업 테이블을 생성하는 2D 테이블 보정부; 및 상기 2D 룩업 테이블에 따라 상기 영상을 정합하여 탑 뷰 영상을 생성하는 2D 정합부;를 포함하는 어라운드 뷰 모니터링 장치가 제공된다.According to an aspect of the present invention, there is provided an image processing apparatus comprising: an image receiving unit for receiving images from a plurality of cameras, respectively; Detecting a plurality of straight lines corresponding to at least one of a reference line, a minutiae, and a vehicle area from each of the images, calculating a homography matrix between surfaces of the adjacent images including the straight line, A 2D table correcting unit for generating a 2D lookup table according to the 2D lookup table; And a 2D matching unit for matching the images according to the 2D look-up table to generate a top view image.

상기 2D 테이블 보정부는, 상기 영상으로부터 상기 참조선을 검출하는 참조선 검출부; 상기 영상으로부터 특징점에 대응하는 그림자 영역 및 조명 영역을 검출하고, 상기 그림자 영역 및 상기 조명 영역의 외곽선을 구성하는 직선을 산출하는 특징점 검출부; 상기 영상으로부터 차량 영역을 검출하고, 상기 차량 영역의 외곽선을 구성하는 직선을 산출하는 차량 영역 검출부; 상기 참조선, 상기 특징점, 상기 차량 영역 중 하나 이상에 따른 복수의 직선을 포함하는 면 간의 호모그래피 행렬을 산출하는 행렬 산출부; 및 상기 호모그래피 행렬에 따라 상기 2D 룩업 테이블을 생성하는 룩업 테이블 보정부;를 포함할 수 있다.Wherein the 2D table correction unit comprises: a reference line detection unit for detecting the reference line from the image; A feature point detection unit which detects a shadow region and an illumination region corresponding to the feature point from the image and calculates a straight line constituting the shadow region and the outline of the illumination region; A vehicle area detecting unit for detecting a vehicle area from the image and calculating a straight line constituting an outline of the vehicle area; A matrix calculation unit for calculating a homography matrix between surfaces including a plurality of straight lines along at least one of the reference line, the minutiae, and the vehicle area; And a look-up table corrector for generating the 2D look-up table according to the homography matrix.

상기 참조선은 차량에서 미리 지정된 방향으로 투사된 빛이 외부 환경에 의해 반사되어 카메라에 의해 촬영된 상기 영상 내에 나타난 선일 수 있다.The reference line may be a line that is projected in a predetermined direction in the vehicle and is reflected by the external environment and appears in the image photographed by the camera.

상기 특짐점 검출부는 주간에 차량이 직진 중인 경우, 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 그림자 영역을 산출하고, 야간에 촬영된 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 조명 영역을 산출할 수 있다.Wherein the special point detecting unit generates a frame difference image for an out-of-vehicle area in an image when the vehicle is straight ahead during a day, applies a moving average recursive filter to each pixel value of the difference image, To generate a shadow area including pixels whose pixel values are within a predetermined range from 0, generate an inter-frame difference image for the non-vehicle area in the image taken at night, A moving average recursive filter may be applied to the moving average recursive filter and the lighting area including the pixels whose pixel value applying the moving average recursive filter is within a predetermined range from 0 may be calculated.

상기 차량 영역 검출부는, 상기 영상의 이전 프레임과 현재 프레임의 대응하는 픽셀 간의 차이값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀을 포함하는 영역을 상기 차량 영역으로 검출할 수 있다.The vehicle area detecting unit may detect, as the vehicle area, an area including a pixel whose value obtained by applying a moving average recursive filter to a difference between corresponding pixels of a previous frame and a current frame of the image is within a predetermined range from 0 have.

상기 탑 뷰 영상으로부터 변환 영역을 검출하고, 상기 변환 영역에 대한 변환을 수행하기 위한 3D 룩업 테이블을 생성하는 3D 테이블 보정부; 및 상기 3D 룩업 테이블에 따라 상기 탑 뷰 영상을 정합하여 3D 영상을 생성하는 3D 정합부를 더 포함할 수 있다.A 3D table correcting unit for detecting a transform region from the top view image and generating a 3D lookup table for performing transform on the transform region; And a 3D matching unit for matching the top view image according to the 3D lookup table to generate a 3D image.

상기 3D 테이블 보정부는, 상기 탑 뷰 영상으로부터 노면 영역을 검출하는 노면 검출부; 상기 노면 영역에 피팅(fitting)되는 도형을 검출하는 피팅부; 상기 탑 뷰 영상 중 상기 도형의 외부에 해당하는 영역을 상기 변환 영역으로 선정하는 변환 영역 산출부; 및 상기 변환 영역 내의 픽셀의 위치를 지정된 곡률에 따라 변경하도록 하는 3D 룩업 테이블을 생성하는 룩업 테이블 보정부;를 포함할 수 있다.Wherein the 3D table correcting unit comprises: a road surface detecting unit for detecting a road surface area from the top view image; A fitting part for detecting a figure to be fitted to the road surface area; A conversion area calculating unit for selecting, as the conversion area, an area corresponding to the outside of the figure from among the top view images; And a look-up table corrector for generating a 3D look-up table for changing a position of a pixel in the transform area according to a specified curvature.

상기 노면 검출부는, 이전 탑 뷰 영상의 픽셀을 운행 방향으로 차량 속도에 상응하는 거리만큼 이동시켜 예측 영상을 생성하고, 상기 예측 영상의 각 픽셀값과 현재 탑 뷰 영상의 각 픽셀값 간의 차를 각 픽셀값으로 포함하는 예측 차 영상을 생성하고, 상기 예측 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내에 해당하는 픽셀을 상기 노면 영역으로 검출할 수 있다.The road surface detection unit generates a predictive image by moving the pixel of the previous top view image by a distance corresponding to the vehicle speed in the driving direction and calculates a difference between each pixel value of the predictive image and each pixel value of the current top view image And a pixel corresponding to a pixel value within a predetermined range from 0, which is obtained by applying a moving average recursive filter to each pixel value of the predicted difference image, can be detected as the road surface area.

상기 피팅부는 상기 탑 뷰 영상 상에 도형 중 상기 노면 영역의 외곽선의 각 픽셀과의 거리합이 가장 작은 도형을 검출할 수 있다.The fitting unit can detect a figure having the smallest sum of distances from the pixels of the outline of the road surface area on the top view image.

본 발명의 다른 측면에 따르면, 어라운드 뷰 모니터링 장치가 어라운드 뷰 모니터링을 제공하는 방법에 있어서, 복수의 카메라로부터 영상을 각각 수신하는 단계; 상기 영상으로부터 참조선, 특징점, 차량 영역 중 하나 이상에 따른 복수의 직선을 검출하는 단계; 상기 영상 중 인접한 영상의 상기 직선을 포함하는 면 간의 호모그래피(homography) 행렬을 산출하는 단계; 상기 호모그래피 행렬에 따라 2D 룩업 테이블을 생성하는 단계; 및 상기 2D 룩업 테이블에 따라 상기 영상을 정합하여 탑 뷰 영상을 생성하는 단계; 를 포함하는 어라운드 뷰 모니터링 방법이 제공된다.According to another aspect of the present invention, there is provided a method of providing an overview view monitoring method, the method comprising: receiving an image from a plurality of cameras, respectively; Detecting a plurality of straight lines corresponding to at least one of a reference line, a feature point, and a vehicle area from the image; Calculating a homography matrix between planes of the adjacent images including the straight line; Generating a 2D look-up table according to the homography matrix; And generating a top view image by matching the images according to the 2D look-up table; A method of monitoring an ambient view is provided.

상기 영상으로부터 참조선, 특징점, 차량 영역 중 하나 이상에 따른 복수의 직선을 검출하는 단계는 상기 영상으로부터 상기 참조선을 검출하는 단계; 상기 영상으로부터 특징점에 대응하는 그림자 영역 및 조명 영역을 검출하고, 상기 그림자 영역 및 상기 조명 영역의 외곽선을 구성하는 직선을 산출하는 단계; 및 상기 영상으로부터 차량 영역을 검출하고, 상기 차량 영역의 외곽선을 구성하는 직선을 산출하는 단계; 를 포함할 수 있다.The step of detecting a plurality of straight lines corresponding to at least one of the reference line, the feature point, and the vehicle area from the image may include: detecting the reference line from the image; Detecting a shadow region and an illumination region corresponding to the feature point from the image and calculating a straight line constituting the shadow region and an outline of the illumination region; And detecting a vehicle area from the image and calculating a straight line constituting an outline of the vehicle area; . ≪ / RTI >

상기 참조선은 차량에서 미리 지정된 방향으로 투사된 빛이 외부 환경에 의해 반사되어 카메라에 의해 촬영된 상기 영상 내에 나타난 선일 수 있다.The reference line may be a line that is projected in a predetermined direction in the vehicle and is reflected by the external environment and appears in the image photographed by the camera.

상기 영상으로부터 특징점에 대응하는 그림자 영역 및 조명 영역을 검출하고, 상기 그림자 영역 및 상기 조명 영역의 외곽선을 구성하는 직선을 산출하는 단계는, 주간에 차량이 직진 중인 경우, 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 그림자 영역을 산출하는 단계; 야간에 촬영된 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 조명 영역을 산출하는 단계; 및 상기 그림자 영역 및 상기 조명 영역의 외곽선에 상응하는 직선을 검출하는 단계;를 포함할 수 있다.Wherein the step of detecting a shadow region and an illumination region corresponding to a feature point from the image and calculating a straight line constituting the shadow region and an outline of the illumination region includes calculating, Frame difference image, applying a moving average recursive filter to each pixel value of the difference image, and applying the moving average recursive filter to the shadow region including pixels having a pixel value within a predetermined range from 0 Calculating; A moving average recursive filter is applied to each pixel value of the difference image, and the pixel value to which the moving average recursive filter is applied is changed from 0 to Calculating the illumination area including pixels within a specified range; And detecting a straight line corresponding to the shadow region and the outline of the illumination region.

상기 영상으로부터 차량 영역을 검출하고, 상기 차량 영역의 외곽선을 구성하는 직선을 산출하는 단계는, 상기 영상의 이전 프레임과 현재 프레임의 대응하는 픽셀 간의 차이값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀을 포함하는 영역을 상기 차량 영역으로 검출하는 단계일 수 있다.Calculating a straight line constituting an outline of the vehicle area by detecting a vehicle area from the image includes calculating a difference between values of pixels corresponding to a previous frame and a current frame of the image by a value obtained by applying a moving average recursive filter to 0 Detecting a region including a pixel within a predetermined range from the vehicle area as the vehicle area.

상기 어라운드 뷰 모니터링 방법은 상기 탑 뷰 영상으로부터 변환 영역을 검출하고, 상기 변환 영역에 대한 변환을 수행하기 위한 3D 룩업 테이블을 생성하는 단계; 및 상기 3D 룩업 테이블에 따라 상기 탑 뷰 영상을 정합하여 3D 영상을 생성하는 단계를 더 포함할 수 있다.The method includes the steps of: detecting a transform region from the top view image and generating a 3D lookup table for transforming the transform region; And generating a 3D image by matching the top view image according to the 3D lookup table.

상기 탑 뷰 영상으로부터 변환 영역을 검출하고, 상기 변환 영역에 대한 변환을 수행하기 위한 3D 룩업 테이블을 생성하는 단계는, 상기 탑 뷰 영상으로부터 노면 영역을 검출하는 단계; 상기 노면 영역에 피팅(fitting)되는 도형을 검출하는 단계; 상기 탑 뷰 영상 중 상기 도형의 외부에 해당하는 영역을 상기 변환 영역으로 선정하는 단계; 및 상기 변환 영역 내의 픽셀의 위치를 지정된 곡률에 따라 변경하도록 하는 3D 룩업 테이블을 생성하는 단계;를 포함할 수 있다.The step of detecting a transform region from the top view image and generating a 3D lookup table for transforming the transform region may include detecting a road surface region from the top view image, Detecting a figure to be fitted to the road surface area; Selecting an area of the top view image corresponding to the outside of the figure as the conversion area; And generating a 3D lookup table that causes a position of a pixel in the transformation region to change according to a specified curvature.

상기 탑 뷰 영상으로부터 노면 영역을 검출하는 단계는, 이전 탑 뷰 영상의 픽셀을 운행 방향으로 차량 속도에 상응하는 거리만큼 이동시켜 예측 영상을 생성하는 단계; 상기 예측 영상의 각 픽셀값과 현재 탑 뷰 영상의 각 픽셀값 간의 차를 각 픽셀값으로 포함하는 예측 차 영상을 생성하는 단계; 및 상기 예측 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내에 해당하는 픽셀을 상기 노면 영역으로 검출하는 단계를 포함할 수 있다.The step of detecting a road surface area from the top view image may include generating a predicted image by moving a pixel of the previous top view image by a distance corresponding to a vehicle speed in a traveling direction; Generating a prediction difference image including a difference between pixel values of the prediction image and pixel values of a current top view image as pixel values; And detecting the pixel corresponding to the pixel value of the predicted difference image by applying a moving average recursive filter within a predetermined range from 0 to the road surface region.

상기 노면 영역에 피팅(fitting)되는 도형을 검출하는 단계는, 상기 탑 뷰 영상 상에 도형 중 상기 노면 영역의 외곽선의 각 픽셀과의 거리합이 가장 작은 도형을 검출하는 단계일 수 있다.The step of detecting a figure to be fitted to the road surface area may be a step of detecting a figure having the smallest sum of distances from each pixel of the outline of the road surface area on the top view image.

상술한 바와 같이 본 발명에 따르면, 사고 등의 외적인 요인으로 카메라의 촬영 각도가 변경되더라도 자동으로 정상적인 어라운드 뷰 모니터링을 제공할 수 있다.As described above, according to the present invention, normal surround view monitoring can be automatically provided even when the photographing angle of the camera is changed due to an external factor such as an accident.

도 1은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치를 예시한 블록도.
도 2는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치의 2D 테이블 보정부를 예시한 블록도.
도 3은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 촬영하는 차량에서 투사된 참조선을 예시한 도면.
도 4는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 생성하는 소실점에 의해 이루어지는 선을 나타낸 도면.
도 5는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 기울어진 카메라에 의해 생성된 소실점에 의해 이루어지는 선을 나타낸 도면.
도 6은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치의 3D 테이블 보정부를 예시한 블록도.
도 7은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 어라운드 뷰를 모니터링하는 방법을 예시한 순서도.
도 8은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 2D 룩업 테이블을 보정하는 과정을 예시한 순서도.
도 9는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 3D 룩업 테이블을 생성하는 과정을 예시한 도면.
1 is a block diagram illustrating an apparatus for monitoring an overview view according to an embodiment of the present invention.
BACKGROUND OF THE INVENTION Field of the Invention [0001]
3 is a view illustrating a reference line projected from a vehicle photographed by an ambient view monitoring apparatus according to an embodiment of the present invention;
FIG. 4 is a diagram illustrating a line formed by the vanishing point generated by the surrounding view monitoring apparatus according to the embodiment of the present invention; FIG.
5 is a diagram of lines in which the surround view monitoring device according to an embodiment of the present invention is made by a vanishing point created by a tilted camera;
6 is a block diagram illustrating a 3D table correction unit of an apparatus for monitoring the surround view according to an embodiment of the present invention;
7 is a flowchart illustrating a method of monitoring an overview view of an overview view monitoring apparatus according to an exemplary embodiment of the present invention;
FIG. 8 is a flowchart illustrating a process of an ambient view monitoring apparatus correcting a 2D look-up table according to an embodiment of the present invention. FIG.
9 is a diagram illustrating a process of generating a 3D lookup table by an ambient view monitoring apparatus according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

도 1은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치를 예시한 블록도이다.FIG. 1 is a block diagram illustrating an apparatus for monitoring an overview view according to an exemplary embodiment of the present invention. Referring to FIG.

도 1을 참조하면, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치는 영상 수신부(110), 2D 테이블 보정부(120), 2D 정합부(130), 3D 테이블 보정부(140) 및 3D 정합부(150)를 포함한다.Referring to FIG. 1, an apparatus for monitoring an ambient view according to an exemplary embodiment of the present invention includes an image receiving unit 110, a 2D table correcting unit 120, a 2D matching unit 130, a 3D table correcting unit 140, (150).

영상 수신부(110)는 복수의 카메라로부터 영상을 수신한다. 이 때, 각 카메라는 지정된 방향을 촬영하도록 설치된 카메라이고, 바람직하게는 차량의 전면, 후면, 측면을 각각 촬영하는 4개의 카메라일 수 있다. 영상 수신부(110)는 각 카메라로부터 수신한 영상을 각각 2D 테이블 보정부(120) 및 2D 정합부(130)로 전송할 수 있다.The image receiving unit 110 receives images from a plurality of cameras. At this time, each camera is a camera installed to photograph a designated direction, and preferably, it may be four cameras that respectively photograph the front, rear, and side of the vehicle. The image receiving unit 110 may transmit the images received from the cameras to the 2D table correcting unit 120 and the 2D matching unit 130, respectively.

2D 테이블 보정부(120)는 영상 수신부(110)로부터 수신한 영상을 분석하여 2D 정합부(130)에서 영상을 정합할 때 사용하는 2D 룩업 테이블(2D Geometric Look-up Table)을 보정한다. 2D 테이블 보정부(120)가 2D 룩업 테이블을 보정하는 과정은 추후 도 2를 참조하여 상세히 설명하도록 한다.The 2D table corrector 120 analyzes the image received from the image receiver 110 and corrects the 2D geometric look-up table used when the 2D matching unit 130 matches the images. The process of correcting the 2D look-up table by the 2D table correcting unit 120 will be described later in detail with reference to FIG.

2D 정합부(130)는 각 영상을 2D 룩업 테이블에 따라 보정하여 정합하여 차량의 위에서 보는 것과 같은 2차원 영상(이하, 탑 뷰 영상이라 지칭)을 생성한다. 이 때, 2D 정합부(130)는 2D 룩업 테이블을 미리 저장한 이후, 2D 테이블 보정부(120)에 따라 2D 룩업 테이블이 보정된 경우, 보정된 2D 룩업 테이블을 저장할 수 있다. 2D 정합부(130)는 탑 뷰 영상을 3D 테이블 보정부(140) 및 3D 정합부(150)로 전송한다.The 2D matching unit 130 corrects each of the images according to the 2D look-up table and matches them to generate a two-dimensional image (hereinafter referred to as a top view image) as viewed from above the vehicle. At this time, the 2D matching unit 130 may store the corrected 2D look-up table if the 2D look-up table is corrected according to the 2D table correcting unit 120 after storing the 2D look-up table in advance. The 2D matching unit 130 transmits the top view image to the 3D table correcting unit 140 and the 3D matching unit 150.

3D 테이블 보정부(140)는 2D 정합부(130)로부터 수신한 탑 뷰 영상을 분석하여 3D 정합부(150)에 저장된 3D 룩업 테이블을 보정한다. 추후, 도 6을 참조하여 3D 테이블 보정부(140)가 3D 룩업 테이블을 보정하는 과정을 상세히 설명하도록 한다. The 3D table correction unit 140 analyzes the top view image received from the 2D matching unit 130 and corrects the 3D lookup table stored in the 3D matching unit 150. [ Hereinafter, a process of correcting the 3D lookup table by the 3D table corrector 140 will be described in detail with reference to FIG.

2D 정합부(130)는 각 영상을 3D 룩업 테이블에 따라 보정하여 정합하여 차량의 주위를 다양한 시점에서 볼 수 있는 3차원 영상(이하, 3D 영상이라 지칭)을 생성한다. 이 때, 3D 정합부(150)는 3D 룩업 테이블을 미리 저장한 이후, 3D 테이블 보정부(140)에 따라 3D 룩업 테이블이 보정된 경우, 보정된 3D 룩업 테이블을 저장할 수 있다. 3D 정합부(150)는 3D 영상을 외부(예를 들어, 디스플레이 장치)로 출력할 수 있다.The 2D matching unit 130 corrects each of the images according to the 3D look-up table, and matches them to generate a three-dimensional image (hereinafter referred to as 3D image) that can be viewed at various points around the vehicle. At this time, the 3D matching unit 150 may store the corrected 3D look-up table if the 3D look-up table is corrected according to the 3D table correcting unit 140 after storing the 3D look-up table in advance. The 3D matching unit 150 may output the 3D image to an external device (e.g., a display device).

도 2는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치의 2D 테이블 보정부를 예시한 블록도이고, 도 3은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 촬영하는 차량에서 투사된 참조선을 예시한 도면이고, 도 4는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 생성하는 소실점에 의해 이루어지는 선을 나타낸 도면이고, 도 5는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 기울어진 카메라에 의해 생성된 소실점에 의해 이루어지는 선을 나타낸 도면이다.FIG. 2 is a block diagram illustrating a 2D table correcting unit of an ambient view monitoring apparatus according to an exemplary embodiment of the present invention. FIG. 3 is a block diagram of an ambient view monitoring apparatus according to an embodiment of the present invention. FIG. 4 is a diagram illustrating a line formed by the vanishing point generated by the surrounding view monitoring apparatus according to an exemplary embodiment of the present invention, and FIG. 5 is a view illustrating an example of the surround view monitoring apparatus according to an exemplary embodiment of the present invention. And a line formed by a vanishing point generated by an inclined camera.

도 2를 참조하면, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치의 2D 테이블 보정부(120)는 참조선 검출부(210), 특징점 검출부(220), 차량 영역 검출부(230), 행렬 산출부(240), 소실점 검출부(250), 롤 각도 산출부(260) 및 룩업 테이블 보정부(270)를 포함한다.2, the 2D table corrector 120 of the apparatus for monitoring the surround view according to an embodiment of the present invention includes a reference line detection unit 210, a feature point detection unit 220, a vehicle region detection unit 230, A vanishing point detecting unit 250, a roll angle calculating unit 260, and a lookup table correcting unit 270.

참조선 검출부(210)는 영상으로부터 참조선을 검출한다. 이 때, 도 3과 같이 참조선은 차량에서 미리 지정된 방향으로 투사된 빛이 외부 환경에 의해 반사되어 카메라에 의해 촬영된 영상 내에 나타난 선(310)을 의미한다. 이 때, 참조선 검출부(210)는 영상 내에서 미리 지정된 색의 픽셀에 대한 분산이 가장 적은 직선을 Least Mean Square를 통해 검출할 수 있다.The reference line detection unit 210 detects a reference line from an image. Referring to FIG. 3, the reference line indicates a line 310 that is projected in a predetermined direction in the vehicle and is reflected by the external environment and appears in the image captured by the camera. In this case, the reference line detection unit 210 can detect a straight line having the smallest variance with respect to pixels of a predetermined color in the image through the Least Mean Square.

특징점 검출부(220)는 각 영상으로부터 특징점을 검출한다. 특징점 검출부(220)는 주간 주행 중 또는 야간 주행 중 특징점을 각각 추출할 수 있다. 예를 들어, 특징점 검출부(220)는 주간 주행 중 차량이 직진하고 있는지 판단한다. 이 때, 특징점 검출부(220)는 차량의 주간 주행 중 차량으로부터 현재 스티어링 회전각 등을 나타내는 회전 정보를 수신하여, 차량이 현재 직진 또는 회전 중인지 판단할 수 있다. 특징점 검출부(220)는 현재 차량이 직진 중인 경우, 영상에서 차량 영역을 제외한 나머지 영역(이하, 차량 외 영역이라 지칭)에 대한 차영상을 산출한다. 이 때, 차량 영역을 산출하는 과정은 추후 차량 영역 검출부(230)의 설명을 통해 상세히 설명하도록 한다. 특징점 검출부(220)는 영상의 이전 프레임과 현재 프레임의 대응하는 차량 외 영역 상 위치의 픽셀 간의 차를 픽셀값으로 하는 차 영상을 생성할 수 있다. 특징점 검출부(220)는 연속하는 프레임 간의 픽셀값 차에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 그림자 영역을 산출한다. 즉, 주간 주행 중 특정 프레임 간 픽셀 값의 차이가 지속적으로 0과 유사한 값을 가지는 픽셀은 그림자에 해당하는 영역으로, 특징점 검출부(220)는 해당 픽셀을 그림자 영역에 포함시킬 수 있다.The feature point detection unit 220 detects feature points from each image. The minutiae point detecting unit 220 can extract the minutiae during the daytime running or the nighttime running. For example, the feature point detection unit 220 determines whether the vehicle is traveling straight during the daytime running. At this time, the minutia matching point detector 220 can receive rotation information indicating the current steering rotation angle and the like from the vehicle during the weekly running of the vehicle, and can determine whether the vehicle is currently being straightened or rotated. The minutiae point detecting unit 220 calculates a difference image for the remaining area excluding the vehicle area (hereinafter referred to as " out-of-area area ") in the image when the current vehicle is running straight. The process of calculating the vehicle area at this time will be described in detail later with reference to the description of the vehicle area detection unit 230. [ The minutiae point detecting unit 220 may generate a difference image having a pixel value as a difference between pixels in a position on the out-of-vehicle area corresponding to the previous frame and the current frame of the image. The feature point detection unit 220 calculates a shadow area including pixels having a value obtained by applying a moving average recursive filter to a pixel value difference between consecutive frames from 0 to a predetermined range. That is, a pixel whose difference between pixel values between specific frames during a daytime running continuously has a value similar to 0 is an area corresponding to a shadow, and the feature point detector 220 may include the pixel in the shadow area.

또한, 특징점 검출부(220)는 야간 주행 중 차량 외 영역에 대한 차영상을 산출할 수 있다. 예를 들어, 특징점 검출부(220)는 영상의 이전 프레임과 현재 프레임의 대응하는 차량외 영역 상 위치의 픽셀 간의 차를 픽셀값으로 하는 차 영상을 생성할 수 있다. 특징점 검출부(220)는 연속하는 프레임 간의 픽셀값 차에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 조명 영역을 산출한다. 즉, 야간 주행 중 특정 프레임 간 픽셀 값의 차이가 지속적으로 0과 유사한 값을 가지는 픽셀은 조명이 투사된 영역으로, 특징점 검출부(220)는 해당 픽셀을 조명 영역에 포함시킬 수 있다. In addition, the minutiae point detecting unit 220 can calculate a difference image for the out-of-vehicle area during nighttime driving. For example, the minutia matching point detector 220 may generate a difference image having a pixel value as a difference between pixels in a position on the out-of-vehicle area corresponding to a previous frame and a current frame of the image. The feature point detection unit 220 calculates an illumination region including pixels whose values obtained by applying a moving average recursive filter to a pixel value difference between consecutive frames are within a predetermined range from 0. That is, a pixel whose difference between pixel values between specific frames during nighttime driving continuously has a value similar to 0 is an illuminated area, and the minutia detection unit 220 may include the pixel in the illumination area.

따라서, 특징점 검출부(220)는 주간 주행 중 그림자 영역을 추출하고, 야간 주행 중 조명 영역을 추출할 수 있다. 이 때, 특징점 검출부(220)는 그림자 영역 및 조명 영역의 외곽선을 구성하는 직선을 산출할 수 있다. Accordingly, the minutiae point detecting unit 220 can extract the shadow region during the daytime running and extract the illumination region during nighttime driving. At this time, the feature point detection unit 220 can calculate a straight line constituting the outline of the shadow region and the illumination region.

차량 영역 검출부(230)는 영상으로부터 차량 영역을 검출한다. 예를 들어, 차량 영역 검출부(230)는 모든 촬영 상황의 영상(정차 중, 주간 주행 중 직진 또는 회전 시, 야간 주행 중)의 이전 프레임과 현재 프레임의 대응하는 픽셀 간의 차이값에 대한 평균 재귀 필터를 적용한 값이 미리 지정된 범위 내인 픽셀을 포함하는 영역을 차량 영역으로 검출할 수 있다. 이 때, 차량 영역 검출부(220)가 검출하는 차량 영역은 모든 촬영 상황의 영상에 대한 차이값을 통해 검출하기 때문에 상술한 제한된 상황의 영상으로 검출하는 그림자 영역과 조명 영역과는 구분될 수 있다. 차량 영역 검출부(230)는 차량 영역의 외곽선이 형성하는 직선을 산출할 수 있다. The vehicle area detecting unit 230 detects the vehicle area from the image. For example, the vehicle area detecting unit 230 may detect an average recursive filter (hereinafter referred to as an average recursive filter) for the difference between the previous frame of the current frame and the corresponding pixel of the current frame in all the photographing situations (during stoppage, during straight- Can be detected as the vehicle area. At this time, since the vehicle area detected by the vehicle area detecting unit 220 is detected through the difference value with respect to the image of all the photographing situations, it can be distinguished from the shadow area and the illuminating area which are detected by the image of the limited condition. The vehicle area detecting section 230 can calculate a straight line formed by the outline of the vehicle area.

행렬 산출부(240)는 각 영상 중 인접한 영상의 그림자 영역, 조명 영역 및 차량 영역으로 형성되는 면 간의 틀어짐을 나타내는 호모그래피 행렬(Homography matrix)를 산출한다. 이 때, 행렬 산출부(240)는 호모그래피 행렬을 하기의 수학식 1에 따라 산출할 수 있다.The matrix calculation unit 240 calculates a homography matrix indicating a deviation between a shadow region, an illumination region, and a vehicle region of a neighboring image among the images. At this time, the matrix calculation unit 240 can calculate the homography matrix according to the following equation (1).

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

이 때,

Figure pat00002
는 일 영상의 면 상에 위치하는 점을 의미하고,
Figure pat00003
는 일 영상과 인접한 타 영상의 면 상에 위치하는 점을 의미하고, s는 x축 및 y 축의 크기 변환 행렬이고, R은 3차원 회전 변환 행렬이고, T는 3차원 이동 변환 행렬이고,
Figure pat00004
는 호모그래피 행렬을 의미한다.At this time,
Figure pat00002
Means a point located on a plane of one image,
Figure pat00003
Where s is the x-axis and y-axis magnitude conversion matrix, R is the three-dimensional rotation transformation matrix, T is the three-dimensional motion transformation matrix,
Figure pat00004
Denotes a homography matrix.

이 때, 행렬 산출부(240)는 참조선 검출부(210), 특징점 검출부(220) 및 차량 영역 검출부(230)로부터 각 영상에 대한 직선을 나타내는 정보(이하, 직선 정보)를 수신하고, 2개 이상의 직선으로 형성되는 3차원의 면을 검출할 수 있다. 따라서, 행렬 산출부(240)는 각 영상에 대응하는 면을 각각 검출하고, 인접한 영상의 면 간의 틀어짐을 나타내는 호모그래피 행렬을 수학식 1에 따라 산출할 수 있다. At this time, the matrix calculating unit 240 receives information indicating a straight line (hereinafter, referred to as linear information) for each image from the reference line detecting unit 210, the minutiae point detecting unit 220 and the vehicle area detecting unit 230, It is possible to detect the three-dimensional surface formed by the above straight line. Accordingly, the matrix calculator 240 can detect the faces corresponding to the respective images, and calculate the homography matrix indicating the deviation between the faces of adjacent images according to Equation (1).

행렬 산출부(240)는 호모그래피 행렬을 룩업 테이블 보정부(270)로 전송한다.The matrix calculator 240 transmits the homography matrix to the lookup table corrector 270.

소실점 검출부(250)는 각 영상의 소실점을 산출한다. 이 때, 소실점 검출부(250)는 공지된 소실점 산출방식에 따라 각 영상의 소실점을 산출할 수 있다. 소실점 검출부(250)는 영상의 각 프레임 상 소실점의 위치를 누적한 누적 히스토그램을 생성한다. 소실점 검출부(250)는 누적 히스토그램을 롤 각도 산출부(260)로 전송한다.The vanishing point detecting unit 250 calculates the vanishing point of each image. At this time, the vanishing point detecting unit 250 can calculate the vanishing point of each image according to the known vanishing point calculating method. The vanishing point detector 250 generates a cumulative histogram by accumulating the positions of vanishing points on each frame of the image. The vanishing point detecting unit 250 transmits the cumulative histogram to the roll angle calculating unit 260.

롤 각도 산출부(260)는 누적 히스토그램으로부터 각 영상의 롤 각도를 산출한다. 이 때, 카메라가 촬영 방향이 수평으로 차량에 장착된 경우, 도 4의 410과 같이 차량이 회전할 때, 소실점이 영상 상에서 수평선 상에 위치하는 것으로 누적 히스토그램이 표현될 수 있고, 420과 같이 각 소실점을 연결한 선분은 수평선이 될 수 있다. 이 때, 도 5와 같이 카메라의 촬영 방향의 롤 각도가 0도가 아닌 경우(카메라가 틀어져서 장착된 경우), 차량의 요 운동(yaw)에 따른 소실점을 이은 선은 영상 내에서 수평선이 아닌 대각선을 형성할 수 있다. 또한, 카메라의 촬영 방향의 롤 각도가 0도가 아닌 경우, 요철이 있는 노면 상의 차량 주행으로 인해 차량이 피치 운동(pitch) 소실점으로 형성되는 선은 수직선이 아닌 대각선을 형성할 수 있다. 롤 각도 산출부(260)는 누적 히스토그램에서 차량의 요 운동시 소실점으로 형성되는 선과 화면 내 수평선 간의 각도(510) 또는 차량의 피치 운동에 따른 소실점을 이은 선과 영상 상의 수직선 간의 각도를 롤 각도로 산출할 수 있다. 롤 각도 산출부(260)는 롤 각도를 행렬 산출부(240)로 전송한다.The roll angle calculating unit 260 calculates the roll angle of each image from the cumulative histogram. At this time, when the camera is mounted on the vehicle horizontally in the photographing direction, the accumulated histogram can be expressed as the vanishing point is located on the horizontal line on the image when the vehicle rotates as shown in 410 of FIG. The line connecting the vanishing point can be a horizontal line. In this case, when the roll angle in the photographing direction of the camera is not 0 degrees (when the camera is turned on and mounted) as shown in Fig. 5, the line connecting the vanishing point according to the yaw motion of the vehicle is a diagonal line Can be formed. Also, when the roll angle in the photographing direction of the camera is not 0 degrees, a line formed by the vehicle as a pitch vanishing point due to the vehicle running on the road surface with irregularities may form a diagonal line instead of a vertical line. The roll angle calculating unit 260 calculates an angle between a line formed as a vanishing point in the yawing motion of the vehicle and an in-plane horizontal line in a cumulative histogram or an angle between a line passing through a vanishing point and a vertical line on the image, can do. The roll angle calculating section 260 transmits the roll angle to the matrix calculating section 240.

이 때, 행렬 산출부(240)는 롤 각도에 따른 회전 행렬을 포함하는 호모그래피 행렬을 산출할 수 있다. 즉, 행렬 산출부(240)는 수학식 1의 x축 및 y 축의 크기 변환 행렬인 S에 대해 2개의 미지수를 포함하고, 피치, 요 및 롤에 대한 회전 변환 행렬에 대한 3개의 미지수를 포함하고, x축, y축, z축 상 이동 변환 행렬에 대한 3개의 미지수를 포함하는 호모그래피 행렬을 산출한다. 이 때, 회전 변환 행렬 중 롤에 대한 성분값을 롤 각도 산출부(260)로부터 수신하였기 때문에 총 7개의 미지수에 대한 값을 산출 할 수 있다. 따라서, 행렬 산출부(240)는 롤 각도를 이용하여 호모그래피 행렬을 산출하기 때문에 계산 복잡도를 낮출 수 있다.At this time, the matrix calculation unit 240 may calculate a homography matrix including a rotation matrix according to the roll angle. That is, the matrix calculation unit 240 includes two unknowns for S, which is the x-axis and y-axis magnitude conversion matrix of Equation (1), and includes three unknowns for the rotation transformation matrix for pitch, yaw and roll , and a homography matrix including three unknowns for the x, y, and z axis shift transformation matrices. At this time, since the component values for the rolls of the rotation conversion matrix are received from the roll angle calculation unit 260, a total of seven unknown values can be calculated. Therefore, the matrix calculation unit 240 calculates the homography matrix using the roll angle, thereby reducing the calculation complexity.

룩업 테이블 보정부(270)는 호모그래피 행렬에 따라 룩업 테이블의 보정하고, 보정된 룩업 테이블을 2D 정합부(130)로 전송한다. 예를 들어, 룩업 테이블 보정부(270)는 영상의 각 좌표에 대해 호모그래피 행렬 변환을 적용한 좌표를 매칭하여 저장한 2D 룩업 테이블을 생성할 수 있다. 따라서, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치는 사고 등의 원인에 의해 카메라의 촬영 방향이 차량의 생산시와 달리 변경된 경우에도 2D 룩업 테이블을 자동으로 보정하여 탑 뷰 영상을 정상적으로 생성할 수 있다.The lookup table corrector 270 corrects the lookup table according to the homography matrix and transmits the corrected lookup table to the 2D matching unit 130. [ For example, the lookup table correcting unit 270 may generate a 2D lookup table storing and matching coordinates obtained by applying a homography matrix transformation to each coordinate of an image. Accordingly, the surround view monitoring apparatus according to an embodiment of the present invention automatically corrects the 2D look-up table even when the shooting direction of the camera is changed due to an accident or the like, unlike the case of production of the vehicle, .

도 6은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치의 3D 테이블 보정부를 예시한 블록도이다.6 is a block diagram illustrating a 3D table correction unit of an apparatus for monitoring the surround view according to an exemplary embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치의 3D 테이블 보정부(140)는 노면 검출부(610), 피팅부(620), 변환 영역 산출부(630) 및 룩업 테이블 보정부(640)를 포함한다.6, the 3D table correcting unit 140 of the surrounding view monitoring apparatus according to an embodiment of the present invention includes a road surface detecting unit 610, a fitting unit 620, a conversion area calculating unit 630, Gt; 640 < / RTI >

노면 검출부(610)는 차량 속도 및 운행 방향을 차량으로부터 수신한다. 노면 검출부(610)는 차량 속도 및 운행 방향에 따라 이전 탑 뷰 영상의 노면 변화량을 예측한 예측 영상을 생성한다. 즉, 노면 검출부(610)는 이전 탑 뷰 영상의 픽셀을 운행 방향으로 차량 속도에 상응하는 거리만큼 이동시켜 예측 영상을 생성할 수 있다. 노면 검출부(610)는 예측 영상의 각 픽셀값과 현재 탑 뷰 영상의 각 픽셀값 간의 차를 각 픽셀값으로 포함하는 예측 차 영상을 생성한다. 노면 검출부(610)는 예측 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내에 해당하는 픽셀을 노면 영역으로 검출할 수 있다. 노면 검출부(610)는 노면 영역을 나타내는 노면 영역 정보를 피팅부(620)로 전송한다.The road surface detection unit 610 receives the vehicle speed and the direction of travel from the vehicle. The road surface detecting unit 610 generates a predicted image that predicts a road surface change amount of the previous top view image according to the vehicle speed and the driving direction. That is, the road surface detector 610 can generate the predicted image by moving the pixel of the previous top view image by a distance corresponding to the vehicle speed in the driving direction. The road surface detection unit 610 generates a predicted difference image including a difference between each pixel value of the predicted image and each pixel value of the current top view image as each pixel value. The road surface detection unit 610 can detect, as a road surface area, pixels corresponding to a pixel value within a predetermined range from a value obtained by applying a moving average recursive filter to each pixel value of the predicted difference image. The road surface detection unit 610 transmits the road surface area information indicating the road surface area to the fitting unit 620.

피팅부(620)는 노면 영역 정보를 임의의 도형(예를 들어 타원)과 피팅한다. 예를 들어, 피팅부(620)는 탑 뷰 영상에 위치하는 임의의 도형(타원) 중 노면 영역의 외곽선의 각 픽셀과의 거리합이 가장 작은 도형을 산출할 수 있다. 즉, 피팅부(620)는 Least Mean Square에 따른 임의의 도형을 검출한다.The fitting portion 620 fits the road surface area information with an arbitrary shape (for example, an ellipse). For example, the fitting unit 620 can calculate a figure having the smallest sum of distances from each pixel of the outline of the road surface region among arbitrary figures (ellipses) positioned in the top view image. That is, the fitting unit 620 detects an arbitrary figure according to the Least Mean Square.

변환 영역 산출부(630)는 탑 뷰 영상 중 산출된 도형의 외부에 해당하는 영역을 변환 영역으로 선정한다.The conversion area calculating unit 630 selects an area corresponding to the outside of the figure calculated in the top view image as the conversion area.

룩업 테이블 보정부(640)는 변환 영역 상에 위치한 탑 뷰 영상 픽셀의 삼차원 상 위치를 미리 지정된 곡률에 따라 변환한 위치와 변환하기 전의 픽셀 위치를 매칭하여 저장한 3D 룩업 테이블을 생성하여 3D 정합부(150)로 전송한다.The lookup table correcting unit 640 generates a 3D lookup table that matches and stores the position converted from the three-dimensional position of the top view image pixel located on the conversion area according to the predetermined curvature and the pixel position before the conversion, (150).

따라서, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치는 3D 룩업 테이블을 탑 뷰 영상의 노면 검출 패턴에 따라 변경하여 카메라의 촬영 방향이 변경된 경우에도 3D 영상을 정상적으로 생성할 수 있다.Therefore, the surrounding view monitoring apparatus according to the embodiment of the present invention can change the 3D lookup table according to the road surface detection pattern of the top view image, and can normally generate the 3D image even when the photographing direction of the camera is changed.

도 7은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 어라운드 뷰를 모니터링하는 방법을 예시한 순서도이다. 이하, 설명하는 각 단계는 어라운드 뷰 모니터링 장치에 포함된 각 기능부 중 하나에 의해 수행되는 과정이나, 발명의 간결하고 명확한 설명을 위해 각 단계의 주체를 어라운드 뷰 모니터링 장치로 통칭하도록 한다.FIG. 7 is a flowchart illustrating a method of monitoring an ambient view by an ambient view monitoring apparatus according to an exemplary embodiment of the present invention. Hereinafter, each of the steps described below is referred to as a surrounding view monitoring apparatus for the process performed by one of the functional units included in the surrounding view monitoring apparatus, or the subject of each step for the sake of brevity and clear explanation of the invention.

도 7을 참조하면, 단계 710에서 어라운드 뷰 모니터링 장치는 복수 카메라로부터 영상을 수신한다. 예를 들어, 어라운드 뷰 모니터링 장치는 차량의 전면, 후면, 측면에 설치된 카메라로부터 영상을 각각 수신할 수 있다.Referring to FIG. 7, in step 710, the surrounding view monitoring apparatus receives an image from a plurality of cameras. For example, the surround view monitoring device can receive images from cameras installed on the front, rear, and side of the vehicle, respectively.

단계 720에서 어라운드 뷰 모니터링 장치는 각 영상으로부터 참조선, 특징점, 차량 영역 및 소실점을 검출하고, 참조선, 특징점, 차량 영역 및 소실점에 따라 2D 룩업 테이블을 보정한다. 단계 420의 상세한 보정 과정은 추후 도 8을 참조하여 상세히 설명하도록 한다. In step 720, the surround view monitoring apparatus detects reference lines, feature points, vehicle areas, and vanishing points from each image, and corrects the 2D lookup table according to reference lines, feature points, vehicle areas, and vanishing points. The detailed correction process of step 420 will be described in detail later with reference to FIG.

단계 730에서 어라운드 뷰 모니터링 장치는 2D 룩업 테이블에 따라 각 영상을 정합하여 탑 뷰 영상을 생성한다.In step 730, the surrounding view monitoring apparatus generates a top view image by matching each image according to a 2D lookup table.

단계 740에서 어라운드 뷰 모니터링 장치는 탑 뷰 영상으로부터 변환 영역을 검출하고, 변환 영역에 따라 3D 룩업 테이블을 보정한다. In step 740, the surrounding view monitoring apparatus detects the conversion area from the top view image and corrects the 3D lookup table according to the conversion area.

단계 750에서 어라운드 뷰 모니터링 장치는 3D 룩업 테이블에 따라 탑 뷰 영상을 정합하여 3D 영상을 생성한다.In step 750, the surrounding view monitoring apparatus matches the top view image according to the 3D lookup table to generate a 3D image.

도 8은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 2D 룩업 테이블을 보정하는 과정을 예시한 순서도이다.FIG. 8 is a flowchart illustrating a process of correcting a 2D look-up table by an ambient view monitoring apparatus according to an embodiment of the present invention.

도 8을 참조하면, 단계 810에서 어라운드 뷰 모니터링 장치는 각 영상으로부터 참조선을 검출한다. 예를 들어, 영상 내에서 미리 지정된 색의 픽셀에 대한 분산이 가장 적은 직선을 Least Mean Square를 통해 검출할 수 있다.Referring to FIG. 8, in step 810, the surrounding view monitoring apparatus detects a reference line from each image. For example, a straight line with the smallest variance for pixels of a predetermined color in an image can be detected through a Least Mean Square.

단계 820에서 어라운드 뷰 모니터링 장치는 각 영상으로부터 특징점을 검출한다. 예를 들어, 어라운드 뷰 모니터링 장치는 주간 주행 중 차량이 직진하고 있는지 판단한다. 이 때, 어라운드 뷰 모니터링 장치는 주간 주행 중 차량으로부터 현재 스티어링 회전각 등을 나타내는 회전 정보를 수신하여, 차량이 현재 직진 또는 회전 중인지 판단할 수 있다. 어라운드 뷰 모니터링 장치는 현재 차량이 직진 중인 경우, 차량 외 영역에 대한 차영상을 산출한다. 어라운드 뷰 모니터링 장치는 영상의 이전 프레임과 현재 프레임의 대응하는 차량 외 영역 상 위치의 픽셀 간의 차를 픽셀값으로 하는 차 영상을 생성할 수 있다. 어라운드 뷰 모니터링 장치는 연속하는 프레임 간의 픽셀값 차에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 그림자 영역을 산출한다. 즉, 주간 주행 중 특정 프레임 간 픽셀 값의 차이가 지속적으로 0과 유사한 값을 가지는 픽셀은 그림자에 해당하는 영역으로, 어라운드 뷰 모니터링 장치는 해당 픽셀을 그림자 영역에 포함시킬 수 있다. 또한, 어라운드 뷰 모니터링 장치는 야간 주행 중 차량 외 영역에 대한 차영상을 산출할 수 있다. 예를 들어, 어라운드 뷰 모니터링 장치는 영상의 이전 프레임과 현재 프레임의 대응하는 차량외 영역 상 위치의 픽셀 간의 차를 픽셀값으로 하는 차 영상을 생성할 수 있다. 어라운드 뷰 모니터링 장치는 연속하는 프레임 간의 픽셀값 차에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 조명 영역을 산출한다. 즉, 야간 주행 중 특정 프레임 간 픽셀 값의 차이가 지속적으로 0과 유사한 값을 가지는 픽셀은 조명이 투사된 영역으로, 어라운드 뷰 모니터링 장치는 해당 픽셀을 조명 영역에 포함시킬 수 있다. 어라운드 뷰 모니터링 장치는 주간 주행 중 그림자 영역을 추출하고, 야간 주행 중 조명 영역을 추출할 수 있다. 이 때, 어라운드 뷰 모니터링 장치는 그림자 영역 및 조명 영역의 외곽선을 구성하는 직선을 산출할 수 있다. In step 820, the surrounding view monitoring apparatus detects feature points from each image. For example, the surround view monitoring device determines whether the vehicle is traveling straight during the daytime running. At this time, the surrounding view monitoring apparatus can receive rotation information indicating the current steering rotation angle and the like from the vehicle during the daytime running to determine whether the vehicle is currently being straightened or rotated. The surround view monitoring apparatus calculates a difference image for the area outside the vehicle when the vehicle is currently traveling straight. The surround view monitoring apparatus can generate a difference image in which a pixel value is a difference between pixels in a position on the out-of-vehicle area corresponding to the previous frame and the current frame of the image. The surround view monitoring apparatus calculates a shadow area including pixels having a value obtained by applying a moving average recursive filter to a pixel value difference between successive frames within a predetermined range from 0. That is, a pixel whose difference between pixel values between specific frames during a daytime running continuously has a value similar to 0 is an area corresponding to a shadow, and the surrounding view monitoring apparatus can include the pixel in the shadow area. In addition, the surround view monitoring apparatus can calculate a difference image for an area outside the vehicle during night driving. For example, the surround view monitoring apparatus can generate a difference image in which a pixel value is a difference between pixels of a previous frame of the image and a corresponding position on the out-of-vehicle region of the current frame. The surround view monitoring apparatus calculates an illumination area including pixels whose values obtained by applying a moving average recursive filter to pixel difference between consecutive frames are within a predetermined range from 0. That is, a pixel whose difference between pixel values between specific frames during nighttime driving continuously has a value similar to 0 is an area where illumination is projected, and the surrounding view monitoring device can include the pixel in the illumination area. The surround view monitoring device can extract shadow areas during daytime driving and extract lighting areas during nighttime driving. At this time, the surrounding view monitoring apparatus can calculate a straight line constituting the outline of the shadow region and the illumination region.

단계 830에서 어라운드 뷰 모니터링 장치는 각 영상으로부터 차량 영역을 검출한다. 예를 들어, 어라운드 뷰 모니터링 장치는 영상의 이전 프레임과 현재 프레임의 대응하는 픽셀 간의 차이값이 0으로부터 미리 지정된 범위 내인 픽셀을 포함하는 영역을 차량 영역으로 검출할 수 있다. 어라운드 뷰 모니터링 장치는 차량 영역의 외곽선이 형성하는 직선을 산출할 수 있다.In step 830, the surrounding view monitoring device detects the vehicle area from each image. For example, the surround view monitoring apparatus can detect, as a vehicle area, an area including pixels whose difference value between the previous frame and the current frame of the image is within a predetermined range from zero. The surround view monitoring apparatus can calculate a straight line formed by the outline of the vehicle area.

단계 840에서 어라운드 뷰 모니터링 장치는 각 영상으로부터 소실점을 검출한다. In step 840, the surround view monitoring apparatus detects a vanishing point from each image.

단계 850에서 어라운드 뷰 모니터링 장치는 각 영상의 각 프레임에 상응하는 소실점을 누적 히스토그램으로 저장하고, 누적 히스토그램으로부터 롤 각도를 산출한다. 예를 들어, 차량이 회전한 경우, 소실점이 영상 상에서 수평선 상에 위치하는 것으로 누적 히스토그램이 표현될 수 있다. 이 때, 어라운드 뷰 모니터링 장치는 누적 히스토그램에서 차량의 요 운동시 소실점으로 형성되는 선과 화면 내 수평선 간의 각도 또는 차량의 피치 운동에 따른 소실점을 이은 선과 영상 상의 수직선 간의 각도를 롤 각도로 산출할 수 있다.In step 850, the surrounding view monitoring apparatus stores a vanishing point corresponding to each frame of each image as a cumulative histogram, and calculates a roll angle from the cumulative histogram. For example, when the vehicle rotates, the cumulative histogram can be expressed as the vanishing point is located on the horizontal line on the image. At this time, the surround view monitoring apparatus can calculate the angle between the line formed by the vanishing point of the vehicle's yawing motion and the horizontal line on the screen or the angle between the line passing through the vanishing point and the vertical line on the image, .

단계 860에서 어라운드 뷰 모니터링 장치는 각 영상 중 인접한 영상의 면 간의 호모그래피 행렬을 산출한다. 예를 들어, 어라운드 뷰 모니터링 장치는 각 영상에 대한 참조선, 특징점 및 차량 영역 중 하나 이상에 따른 2개 이상의 직선으로 형성되는 3차원의 면을 검출할 수 있다. 어라운드 뷰 모니터링 장치는 인접한 영상의 면 간의 틀어짐을 나타내는 호모그래피 행렬을 상술한 수학식 1에 따라 산출할 수 있다.In step 860, the surrounding view monitoring apparatus calculates a homography matrix between adjacent faces of the images. For example, the surround view monitoring device can detect three-dimensional surfaces formed by two or more straight lines according to at least one of reference lines, feature points, and vehicle regions for each image. The surrounding view monitoring apparatus can calculate a homography matrix representing a deviation between adjacent images in accordance with Equation (1).

단계 870에서 어라운드 뷰 모니터링 장치는 호모그래피 행렬에 따라 룩업 테이블을 생성한다. 예를 들어, 어라운드 뷰 모니터링 장치는 영상의 각 좌표에 대해 호모그래피 행렬 변환을 적용한 좌표를 매칭하여 저장한 2D 룩업 테이블을 생성할 수 있다. 따라서, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치는 사고 등의 원인에 의해 카메라의 촬영 방향이 차량의 생산시와 달리 변경된 경우에도 2D 룩업 테이블을 자동으로 보정하여 탑 뷰 영상을 정상적으로 생성할 수 있다.In step 870, the surrounding view monitoring apparatus generates a lookup table according to the homography matrix. For example, the surrounding view monitoring apparatus can generate a 2D look-up table storing coordinates of coordinates of the image by matching the coordinates to which the homography matrix transformation is applied. Accordingly, the surround view monitoring apparatus according to an embodiment of the present invention automatically corrects the 2D look-up table even when the shooting direction of the camera is changed due to an accident or the like, unlike the case of production of the vehicle, .

도 9는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치가 3D 룩업 테이블을 생성하는 과정을 예시한 도면이다.9 is a diagram illustrating a process of generating the 3D lookup table by the surrounding view monitoring apparatus according to an embodiment of the present invention.

도 9를 참조하면, 단계 910에서 어라운드 뷰 모니터링 장치는 탑 뷰 영상으로부터 노면 영역을 검출한다. 예를 들어, 어라운드 뷰 모니터링 장치는 차량 속도 및 운행 방향에 따라 이전 탑 뷰 영상의 노면 변화량을 예측한 예측 영상을 생성한다. 즉, 노면 검출부(610)는 이전 탑 뷰 영상의 픽셀을 운행 방향으로 차량 속도에 상응하는 거리만큼 이동시켜 예측 영상을 생성할 수 있다. 어라운드 뷰 모니터링 장치는 예측 영상의 각 픽셀값과 현재 탑 뷰 영상 의 각 픽셀값 간의 차를 각 픽셀값으로 포함하는 예측 차 영상을 생성한다. 어라운드 뷰 모니터링 장치는 예측 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내에 해당하는 픽셀을 노면 영역으로 검출할 수 있다.Referring to FIG. 9, in step 910, the surrounding view monitoring apparatus detects a road surface area from a top view image. For example, the surrounding view monitoring apparatus generates a predicted image that predicts the amount of road surface change of the previous top view image according to the vehicle speed and the driving direction. That is, the road surface detector 610 can generate the predicted image by moving the pixel of the previous top view image by a distance corresponding to the vehicle speed in the driving direction. The surround view monitoring apparatus generates a prediction difference image including a difference between each pixel value of the prediction image and each pixel value of the current top view image as each pixel value. The surround view monitoring apparatus can detect a pixel corresponding to a pixel value within a predetermined range from a value obtained by applying a moving average recursive filter to each pixel value of the predicted difference image as a road surface region.

단계 920에서 어라운드 뷰 모니터링 장치는 노면 영역과 도형을 피팅한다. 예를 들어, 어라운드 뷰 모니터링 장치는 탑 뷰 영상에 위치하는 임의의 도형(예를 들어, 타원) 중 노면 영역의 외곽선의 각 픽셀과의 거리합이 가장 작은 도형을 산출할 수 있다. 즉, 피팅부(620)는 Least Mean Square에 따른 도형을 검출할 수 있다.In step 920, the ambient view monitoring device fits the road surface area and the geometry. For example, the surrounding view monitoring apparatus can calculate a figure having the smallest sum of distances from each pixel of the outline of the road surface region among arbitrary figures (for example, ellipses) located in the top view image. That is, the fitting unit 620 can detect a figure according to the Least Mean Square.

단계 930에서 어라운드 뷰 모니터링 장치는 탑 뷰 영상 중 피팅된 도형의 외부 영역을 변환 영역으로 설정한다.In step 930, the surrounding view monitoring apparatus sets the outer region of the fitted figure of the top view image as the transform region.

단계 940에서 어라운드 뷰 모니터링 장치는 변환 영역 상에 위치한 탑 뷰 영상 픽셀의 삼차원 상 위치를 미리 지정된 곡률에 따라 변환한 위치와 변환하기 전의 픽셀 위치를 매칭하여 저장한 3D 룩업 테이블을 생성한다.In step 940, the surrounding view monitoring apparatus generates a 3D lookup table storing and storing the position converted from the 3D position of the top view image pixel located on the conversion area according to the predetermined curvature and the pixel position before conversion.

따라서, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 장치는 3D 룩업 테이블을 탑 뷰 영상의 노면 검출 패턴에 따라 변경하여 카메라의 촬영 방향이 변경된 경우에도 3D 영상을 정상적으로 생성할 수 있다.Therefore, the surrounding view monitoring apparatus according to the embodiment of the present invention can change the 3D lookup table according to the road surface detection pattern of the top view image, and can normally generate the 3D image even when the photographing direction of the camera is changed.

이제까지 본 발명에 대하여 그 실시 예를 중심으로 살펴보았다. 전술한 실시 예 외의 많은 실시 예들이 본 발명의 특허청구범위 내에 존재한다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. The present invention has been described above with reference to the embodiments thereof. Many embodiments other than the above-described embodiments are within the scope of the claims of the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. The disclosed embodiments should, therefore, be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (18)

복수의 카메라로부터 영상을 각각 수신하는 영상 수신부;
각 상기 영상으로부터 참조선, 특징점, 차량 영역 중 하나 이상에 따른 복수의 직선을 검출하고, 상기 영상 중 인접한 영상의 상기 직선을 포함하는 면 간의 호모그래피(homography) 행렬을 산출하고, 상기 호모그래피 행렬에 따라 2D 룩업 테이블을 생성하는 2D 테이블 보정부; 및
상기 2D 룩업 테이블에 따라 상기 영상을 정합하여 탑 뷰 영상을 생성하는 2D 정합부;
를 포함하는 어라운드 뷰 모니터링 장치.
An image receiving unit for receiving images from a plurality of cameras, respectively;
Detecting a plurality of straight lines corresponding to at least one of a reference line, a minutiae, and a vehicle area from each of the images, calculating a homography matrix between surfaces of the adjacent images including the straight line, A 2D table correcting unit for generating a 2D lookup table according to the 2D lookup table; And
A 2D matching unit for matching the images according to the 2D look-up table to generate a top view image;
The monitoring device comprising:
제1 항에 있어서,
상기 2D 테이블 보정부는,
상기 영상으로부터 상기 참조선을 검출하는 참조선 검출부;
상기 영상으로부터 특징점에 대응하는 그림자 영역 및 조명 영역을 검출하고, 상기 그림자 영역 및 상기 조명 영역의 외곽선을 구성하는 직선을 산출하는 특징점 검출부;
상기 영상으로부터 차량 영역을 검출하고, 상기 차량 영역의 외곽선을 구성하는 직선을 산출하는 차량 영역 검출부;
상기 참조선, 상기 특징점, 상기 차량 영역 중 하나 이상에 따른 복수의 직선을 포함하는 면 간의 호모그래피 행렬을 산출하는 행렬 산출부; 및
상기 호모그래피 행렬에 따라 상기 2D 룩업 테이블을 생성하는 룩업 테이블 보정부;
를 포함하는 것을 특징으로 하는 어라운드 뷰 모니터링 장치.
The method according to claim 1,
Wherein the 2D table correction unit comprises:
A reference line detection unit for detecting the reference line from the image;
A feature point detection unit which detects a shadow region and an illumination region corresponding to the feature point from the image and calculates a straight line constituting the shadow region and the outline of the illumination region;
A vehicle area detecting unit for detecting a vehicle area from the image and calculating a straight line constituting an outline of the vehicle area;
A matrix calculation unit for calculating a homography matrix between surfaces including a plurality of straight lines along at least one of the reference line, the minutiae, and the vehicle area; And
A lookup table correcting unit for generating the 2D lookup table according to the homography matrix;
And a monitoring unit for monitoring the surrounding view.
제2 항에 있어서,
상기 참조선은 차량에서 미리 지정된 방향으로 투사된 빛이 외부 환경에 의해 반사되어 카메라에 의해 촬영된 상기 영상 내에 나타난 선인 것을 특징으로 하는 어라운드 뷰 모니터링 장치.
3. The method of claim 2,
Wherein the reference line is a line that is projected in a predetermined direction in the vehicle and is reflected by the external environment and appears in the image captured by the camera.
제2 항에 있어서,
상기 특짐점 검출부는
주간에 차량이 직진 중인 경우, 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 그림자 영역을 산출하고,
야간에 촬영된 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 조명 영역을 산출하는 것을 특징으로 하는 어라운드 뷰 모니터링 장치.
3. The method of claim 2,
The special point detecting unit
A moving average recursive filter is applied to each pixel value of the difference image, and the pixel value of the pixel value to which the moving average recursive filter is applied Calculates the shadow area including pixels within a predetermined range from 0,
A moving average recursive filter is applied to each pixel value of the difference image, and the pixel value to which the moving average recursive filter is applied is changed from 0 to And calculates the illumination area including the pixels within the specified range.
제2 항에 있어서,
상기 차량 영역 검출부는,
상기 영상의 이전 프레임과 현재 프레임의 대응하는 픽셀 간의 차이값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀을 포함하는 영역을 상기 차량 영역으로 검출하는 것을 특징으로 하는 어라운드 뷰 모니터링 장치.
3. The method of claim 2,
Wherein the vehicle-
Wherein the area detection unit detects, as the vehicle area, an area including a pixel whose value obtained by applying a moving average recursive filter to a difference between corresponding pixels of a previous frame and a current frame of the image is within a predetermined range from 0, Device.
제1 항에 있어서,
상기 탑 뷰 영상으로부터 변환 영역을 검출하고, 상기 변환 영역에 대한 변환을 수행하기 위한 3D 룩업 테이블을 생성하는 3D 테이블 보정부; 및
상기 3D 룩업 테이블에 따라 상기 탑 뷰 영상을 정합하여 3D 영상을 생성하는 3D 정합부
를 더 포함하는 것을 특징으로 하는 어라운드 뷰 모니터링 장치.
The method according to claim 1,
A 3D table correcting unit for detecting a transform region from the top view image and generating a 3D lookup table for performing transform on the transform region; And
A 3D matching unit for matching the top view images according to the 3D lookup table to generate a 3D image,
Further comprising: means for monitoring the surrounding view.
제6 항에 있어서,
상기 3D 테이블 보정부는,
상기 탑 뷰 영상으로부터 노면 영역을 검출하는 노면 검출부;
상기 노면 영역에 피팅(fitting)되는 도형을 검출하는 피팅부;
상기 탑 뷰 영상 중 상기 도형의 외부에 해당하는 영역을 상기 변환 영역으로 선정하는 변환 영역 산출부; 및
상기 변환 영역 내의 픽셀의 위치를 지정된 곡률에 따라 변경하도록 하는 3D 룩업 테이블을 생성하는 룩업 테이블 보정부;
를 포함하는 어라운드 뷰 모니터링 장치.
The method according to claim 6,
Wherein the 3D table correcting unit comprises:
A road surface detecting unit for detecting a road surface area from the top view image;
A fitting part for detecting a figure to be fitted to the road surface area;
A conversion area calculating unit for selecting, as the conversion area, an area corresponding to the outside of the figure from among the top view images; And
A lookup table correcting unit for generating a 3D lookup table for changing a position of a pixel in the conversion area according to a specified curvature;
The monitoring device comprising:
제7 항에 있어서,
상기 노면 검출부는,
이전 탑 뷰 영상의 픽셀을 운행 방향으로 차량 속도에 상응하는 거리만큼 이동시켜 예측 영상을 생성하고,
상기 예측 영상의 각 픽셀값과 현재 탑 뷰 영상의 각 픽셀값 간의 차를 각 픽셀값으로 포함하는 예측 차 영상을 생성하고,
상기 예측 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내에 해당하는 픽셀을 상기 노면 영역으로 검출하는 것을 특징으로 하는 어라운드 뷰 모니터링 장치.
8. The method of claim 7,
The road-
The predicted image is generated by moving the pixels of the previous top view image by a distance corresponding to the vehicle speed in the traveling direction,
Generating a prediction difference image including a difference between each pixel value of the prediction image and each pixel value of the current top view image as each pixel value,
Wherein a pixel corresponding to a value obtained by applying a moving average recursive filter to each pixel value of the predicted difference image is within a predetermined range from 0 to the road surface area.
제7 항에 있어서,
상기 피팅부는 상기 탑 뷰 영상 상에 도형 중 상기 노면 영역의 외곽선의 각 픽셀과의 거리합이 가장 작은 도형을 검출하는 것을 특징으로 하는 어라운드 뷰 모니터링 장치.
8. The method of claim 7,
Wherein the fitting unit detects an image having a smallest sum of distances from pixels of the outline of the road surface area on the top view image.
어라운드 뷰 모니터링 장치가 어라운드 뷰 모니터링을 제공하는 방법에 있어서,
복수의 카메라로부터 영상을 각각 수신하는 단계;
상기 영상으로부터 참조선, 특징점, 차량 영역 중 하나 이상에 따른 복수의 직선을 검출하는 단계;
상기 영상 중 인접한 영상의 상기 직선을 포함하는 면 간의 호모그래피(homography) 행렬을 산출하는 단계;
상기 호모그래피 행렬에 따라 2D 룩업 테이블을 생성하는 단계; 및
상기 2D 룩업 테이블에 따라 상기 영상을 정합하여 탑 뷰 영상을 생성하는 단계;
를 포함하는 어라운드 뷰 모니터링 방법.
A method of providing an overview view monitoring device, the method comprising:
Receiving images from a plurality of cameras, respectively;
Detecting a plurality of straight lines corresponding to at least one of a reference line, a feature point, and a vehicle area from the image;
Calculating a homography matrix between planes of the adjacent images including the straight line;
Generating a 2D look-up table according to the homography matrix; And
Generating a top view image by matching the images according to the 2D look-up table;
The method comprising the steps of:
제10 항에 있어서,
상기 영상으로부터 참조선, 특징점, 차량 영역 중 하나 이상에 따른 복수의 직선을 검출하는 단계는
상기 영상으로부터 상기 참조선을 검출하는 단계;
상기 영상으로부터 특징점에 대응하는 그림자 영역 및 조명 영역을 검출하고, 상기 그림자 영역 및 상기 조명 영역의 외곽선을 구성하는 직선을 산출하는 단계; 및
상기 영상으로부터 차량 영역을 검출하고, 상기 차량 영역의 외곽선을 구성하는 직선을 산출하는 단계;
를 포함하는 것을 특징으로 하는 어라운드 뷰 모니터링 방법.
11. The method of claim 10,
The step of detecting a plurality of straight lines corresponding to at least one of the reference line, the feature point and the vehicle area from the image
Detecting the reference line from the image;
Detecting a shadow region and an illumination region corresponding to the feature point from the image and calculating a straight line constituting the shadow region and an outline of the illumination region; And
Detecting a vehicle area from the image and calculating a straight line constituting an outline of the vehicle area;
And monitoring the surrounding view.
제11 항에 있어서,
상기 참조선은 차량에서 미리 지정된 방향으로 투사된 빛이 외부 환경에 의해 반사되어 카메라에 의해 촬영된 상기 영상 내에 나타난 선인 것을 특징으로 하는 어라운드 뷰 모니터링 방법.
12. The method of claim 11,
Wherein the reference line is a line that is projected in a predetermined direction in the vehicle and is reflected by the external environment and appears in the image captured by the camera.
제11 항에 있어서,
상기 영상으로부터 특징점에 대응하는 그림자 영역 및 조명 영역을 검출하고, 상기 그림자 영역 및 상기 조명 영역의 외곽선을 구성하는 직선을 산출하는 단계는,
주간에 차량이 직진 중인 경우, 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 그림자 영역을 산출하는 단계;
야간에 촬영된 영상에서 차량 외 영역에 대한 프레임 간 차 영상을 생성하고, 상기 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용하고, 상기 이동 평균 재귀 필터를 적용한 상기 픽셀값이 0으로부터 미리 지정된 범위 내인 픽셀들을 포함하는 상기 조명 영역을 산출하는 단계; 및
상기 그림자 영역 및 상기 조명 영역의 외곽선에 상응하는 직선을 검출하는 단계;
를 포함하는 것을 특징으로 하는 어라운드 뷰 모니터링 방법.
12. The method of claim 11,
Detecting a shadow region and an illumination region corresponding to a feature point from the image, and calculating a straight line constituting the shadow region and an outline of the illumination region,
A moving average recursive filter is applied to each pixel value of the difference image, and the pixel value of the pixel value to which the moving average recursive filter is applied Calculating the shadow area including pixels within a predetermined range from 0;
A moving average recursive filter is applied to each pixel value of the difference image, and the pixel value to which the moving average recursive filter is applied is changed from 0 to Calculating the illumination area including pixels within a specified range; And
Detecting a straight line corresponding to the shadow region and the outline of the illumination region;
And monitoring the surrounding view.
제11 항에 있어서,
상기 영상으로부터 차량 영역을 검출하고, 상기 차량 영역의 외곽선을 구성하는 직선을 산출하는 단계는,
상기 영상의 이전 프레임과 현재 프레임의 대응하는 픽셀 간의 차이값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내인 픽셀을 포함하는 영역을 상기 차량 영역으로 검출하는 단계인 것을 특징으로 하는 어라운드 뷰 모니터링 방법.
12. The method of claim 11,
Wherein the step of detecting a vehicle area from the image and calculating a straight line constituting an outline of the vehicle area comprises:
And detecting, as the vehicle area, an area including a pixel whose value obtained by applying a moving average recursive filter to a difference value between corresponding pixels of a previous frame and a current frame of the image is within a predetermined range from 0, View monitoring method.
제10 항에 있어서,
상기 탑 뷰 영상으로부터 변환 영역을 검출하고, 상기 변환 영역에 대한 변환을 수행하기 위한 3D 룩업 테이블을 생성하는 단계; 및
상기 3D 룩업 테이블에 따라 상기 탑 뷰 영상을 정합하여 3D 영상을 생성하는 단계
를 더 포함하는 것을 특징으로 하는 어라운드 뷰 모니터링 방법.
11. The method of claim 10,
Detecting a transform region from the top view image and generating a 3D lookup table for performing a transform on the transform region; And
Generating 3D images by matching the top view images according to the 3D lookup table
Further comprising the steps of:
제15 항에 있어서,
상기 탑 뷰 영상으로부터 변환 영역을 검출하고, 상기 변환 영역에 대한 변환을 수행하기 위한 3D 룩업 테이블을 생성하는 단계는,
상기 탑 뷰 영상으로부터 노면 영역을 검출하는 단계;
상기 노면 영역에 피팅(fitting)되는 도형을 검출하는 단계;
상기 탑 뷰 영상 중 상기 도형의 외부에 해당하는 영역을 상기 변환 영역으로 선정하는 단계; 및
상기 변환 영역 내의 픽셀의 위치를 지정된 곡률에 따라 변경하도록 하는 3D 룩업 테이블을 생성하는 단계;
를 포함하는 어라운드 뷰 모니터링 방법.
16. The method of claim 15,
The step of detecting a transform region from the top view image and generating a 3D lookup table for performing a transform on the transform region,
Detecting a road surface region from the top view image;
Detecting a figure to be fitted to the road surface area;
Selecting an area of the top view image corresponding to the outside of the figure as the conversion area; And
Generating a 3D lookup table that causes a position of a pixel in the transformation region to change according to a specified curvature;
The method comprising the steps of:
제16 항에 있어서,
상기 탑 뷰 영상으로부터 노면 영역을 검출하는 단계는,
이전 탑 뷰 영상의 픽셀을 운행 방향으로 차량 속도에 상응하는 거리만큼 이동시켜 예측 영상을 생성하는 단계;
상기 예측 영상의 각 픽셀값과 현재 탑 뷰 영상의 각 픽셀값 간의 차를 각 픽셀값으로 포함하는 예측 차 영상을 생성하는 단계; 및
상기 예측 차 영상의 각 픽셀값에 대해 이동 평균 재귀 필터를 적용한 값이 0으로부터 미리 지정된 범위 내에 해당하는 픽셀을 상기 노면 영역으로 검출하는 단계
를 포함하는 것을 특징으로 하는 어라운드 뷰 모니터링 방법.
17. The method of claim 16,
The step of detecting a road surface area from the top view image may include:
Generating a prediction image by moving a pixel of the previous top view image by a distance corresponding to a vehicle speed in a traveling direction;
Generating a prediction difference image including a difference between pixel values of the prediction image and pixel values of a current top view image as pixel values; And
Detecting a pixel corresponding to a pixel value of the predicted difference image by applying a moving average recursive filter within a predetermined range from 0 to the road surface region;
And monitoring the surrounding view.
제16 항에 있어서,
상기 노면 영역에 피팅(fitting)되는 도형을 검출하는 단계는,
상기 탑 뷰 영상 상에 도형 중 상기 노면 영역의 외곽선의 각 픽셀과의 거리합이 가장 작은 도형을 검출하는 단계인 것을 특징으로 하는 어라운드 뷰 모니터링 방법.
17. The method of claim 16,
Wherein the step of detecting a figure to be fitted to the road surface area comprises:
Detecting an image having a smallest sum of distances from pixels of an outline of the road surface area on the top view image.
KR1020170040231A 2017-03-29 2017-03-29 Apparatus and method for around view monitoring KR101949349B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170040231A KR101949349B1 (en) 2017-03-29 2017-03-29 Apparatus and method for around view monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170040231A KR101949349B1 (en) 2017-03-29 2017-03-29 Apparatus and method for around view monitoring

Publications (2)

Publication Number Publication Date
KR20180110534A true KR20180110534A (en) 2018-10-10
KR101949349B1 KR101949349B1 (en) 2019-02-21

Family

ID=63876042

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170040231A KR101949349B1 (en) 2017-03-29 2017-03-29 Apparatus and method for around view monitoring

Country Status (1)

Country Link
KR (1) KR101949349B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150014311A (en) * 2013-07-29 2015-02-06 인하대학교 산학협력단 Device, method and vehicle for providing around view

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150014311A (en) * 2013-07-29 2015-02-06 인하대학교 산학협력단 Device, method and vehicle for providing around view

Also Published As

Publication number Publication date
KR101949349B1 (en) 2019-02-21

Similar Documents

Publication Publication Date Title
US11170466B2 (en) Dense structure from motion
JP6896044B2 (en) Road vertical contour detection
US9378553B2 (en) Stereo image processing device for vehicle
JP4956452B2 (en) Vehicle environment recognition device
CN109155066B (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle
US20160182793A1 (en) Image distortion correction of a camera with a rolling shutter
US20120327189A1 (en) Stereo Camera Apparatus
US7623700B2 (en) Stereoscopic image processing apparatus and the method of processing stereoscopic images
US10984555B2 (en) Object detection device and vehicle
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
JP6032034B2 (en) Object detection device
WO2019156072A1 (en) Attitude estimating device
EP3803790A1 (en) Motion segmentation in video from non-stationary cameras
JP6768554B2 (en) Calibration device
JP2008309519A (en) Object detection device using image processing
US20240054656A1 (en) Signal processing device, signal processing method, and signal processing system
CN111316322B (en) Road surface area detection device
CN102713511A (en) Distance calculation device for vehicle
CN111260538B (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
KR101949349B1 (en) Apparatus and method for around view monitoring
US11477371B2 (en) Partial image generating device, storage medium storing computer program for partial image generation and partial image generating method
JP2015011665A (en) Apparatus and method for detecting marking on road surface
JP2020087210A (en) Calibration device and calibration method
WO2024150543A1 (en) On-vehicle camera system and image processing method
JP7519275B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right