KR102024834B1 - Tolerance compensating apparatus and method for automatic vehicle-mounted camera - Google Patents

Tolerance compensating apparatus and method for automatic vehicle-mounted camera Download PDF

Info

Publication number
KR102024834B1
KR102024834B1 KR1020180046789A KR20180046789A KR102024834B1 KR 102024834 B1 KR102024834 B1 KR 102024834B1 KR 1020180046789 A KR1020180046789 A KR 1020180046789A KR 20180046789 A KR20180046789 A KR 20180046789A KR 102024834 B1 KR102024834 B1 KR 102024834B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
edge
information
extracted
Prior art date
Application number
KR1020180046789A
Other languages
Korean (ko)
Inventor
유영준
이중현
고택현
김주현
Original Assignee
주식회사 이알랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이알랩 filed Critical 주식회사 이알랩
Priority to KR1020180046789A priority Critical patent/KR102024834B1/en
Application granted granted Critical
Publication of KR102024834B1 publication Critical patent/KR102024834B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a calibration device of a camera and a method thereof. More specifically, the present invention relates to a calibration device of a camera installed in a vehicle which calibrates an error generated after a camera installed in a vehicle is installed in the vehicle during the driving of the vehicle; and to a method thereof. According to an embodiment of the present invention, the calibration of the camera installed in the vehicle can be performed from images obtained while driving without a pattern of being installing the camera in front and rear sides, or left and right sides.

Description

차량에 설치된 카메라의 보정 장치 및 방법{TOLERANCE COMPENSATING APPARATUS AND METHOD FOR AUTOMATIC VEHICLE-MOUNTED CAMERA}Device and method for calibrating camera installed in vehicle {TOLERANCE COMPENSATING APPARATUS AND METHOD FOR AUTOMATIC VEHICLE-MOUNTED CAMERA}

본 발명은 카메라의 보정 장치 및 방법에 관한 것으로, 보다 구체적으로 차량에 설치된 카메라가 차량에 설치된 후 발생하는 오차를 차량의 주행 중에 보정하기 위한 차량에 설치된 카메라의 보정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for calibrating a camera, and more particularly, to a camera and an apparatus for calibrating a camera installed in a vehicle for calibrating an error occurring after the camera installed in the vehicle is installed in a vehicle.

최근 자동차 산업의 발달로 인하여 1가구 1자동차 시대라고 할 정도로 자동차의 보급은 상용화되었고, 차량의 안전도 향상과 운전자의 편의를 도모하기 위해 다양한 첨단 전자 기술이 자동차에 적용되고 있다. 이러한 첨단 전자 기술 중 자동차의 주변 환경을 촬영하여 표시함으로써 운전자가 자동차의 주변 환경을 육안을 통해 편리하게 확인할 수 있는 주변 모니터링 시스템(Around View Monitoring system, 이하 AVM 시스템)이 있다. AVM 시스템은 자동차의 전방, 후방, 좌측 및 우측에 각각 설치된 카메라를 통해 주변 환경을 촬영하고, 촬영된 영상을 기초로 중복 영역을 자연스럽게 보이도록 보정 처리하여 자동차의 주변 환경을 화면 상에 표시한다. 이에 따라 운전자는 표시된 주변 환경을 통해 자동차의 주변 상황을 정확하게 인식할 수 있고, 사이드 미러나 백 미러를 보지 않고도 편리하게 주차를 할 수 있다.Recently, due to the development of the automobile industry, the spread of automobiles has been commercialized to the age of one family and one automobile, and various high-tech electronic technologies are applied to automobiles in order to improve the safety of vehicles and the convenience of drivers. Among these advanced electronic technologies, there is an ambient view monitoring system (AVM system), which allows a driver to conveniently check the surrounding environment of the vehicle by photographing and displaying the surrounding environment of the vehicle. The AVM system photographs the surrounding environment through cameras installed on the front, rear, left and right sides of the vehicle, and displays the surrounding environment of the vehicle on the screen by correcting the overlapped region to look natural based on the captured image. Accordingly, the driver can accurately recognize the surroundings of the vehicle through the displayed surrounding environment and can conveniently park without looking at the side mirror or the rear mirror.

도 1은 종래의 차량에 설치된 카메라의 보정 시스템을 설명하기 위한 도면이다.1 is a view for explaining a correction system of a camera installed in a conventional vehicle.

도 1을 참조하면, 차량(V)은 보정판(PL1, PL2, PL3, PL4)이 설치된 장소에서 미리 정해진 위치에 배치된다. 정확한 공차 보정을 위해 차량(V)은 미리 정해진 위치에 정확히 배치되는 것이 바람직하다. 예컨대 차량(V)의 앞뒤 바퀴 축(도시하지 않음)이 기준선(L1L1`), (L2L2`)에 위치하도록 배치시킬 수 있다. 이를 위해 차량을 촬영하는 비전 시스템(도시하지 않음) 또는 차량의 위치를 감지하는 센서 시스템(도시하지 않음) 등을 구비하고, 차량(V)이 정확히 미리 정해진 위치에 배치되었는지 여부를 확인하도록 구현할 수도 있다. 보정판(PL1, PL2, PL3, PL4)은 차량(V)이 소정 위치에 배치된 경우 차량(V)의 각 모서리 외측 바닥(차량이 위치한 지면 상)에 위치하도록 설치될 수 있다. 즉, 차량(V)의 전방 좌측 모서리, 전방 우측 모서리, 후방 좌측 모서리 및 후방 우측 모서리 바닥에 각각 보정판(PL1, PL2, PL3, PL4)이 설치된다. 물론, 보정판(PL1, PL2, PL3, PL4)의 설치 위치는 변경될 수 있으며, 예컨대, 보정판(PL1, PL2, PL3, PL4)이 차량(V)의 각 바퀴 축 선 상에서 일정 거리를 두고 설치될 수 있다. 여기서 보정판(PL1, PL2, PL3, PL4)은 카메라(210, 220, 230, 240)에서 촬영된 각 영상에 두 개의 보정판이 포함되도록 차량(V)의 각 모서리에서 일정 거리를 두고 설치될 수 있다. 즉, 전방에 설치된 카메라(210)에서 촬영된 영상에는 보정판(PL1, PL2)이 포함되고, 후방에 설치된 카메라(220)에서 촬영된 영상에는 보정판(PL3, PL4)이 포함되며, 좌측에 설치된 카메라(230)에서 촬영된 영상에는 보정판(PL1, PL3)이 포함되고, 우측에 설치된 카메라(240)에서 촬영된 영상에는 보정판(PL2, PL4)이 포함되도록 차량(V)의 각 모서리에서 일정 거리를 두고 보정판(PL1, PL2, PL3, PL4)이 설치된다.Referring to FIG. 1, the vehicle V is disposed at a predetermined position at a place where the correction plates PL1, PL2, PL3, and PL4 are installed. For accurate tolerance correction, the vehicle V is preferably placed exactly at a predetermined position. For example, the front and rear wheel shafts (not shown) of the vehicle V may be disposed at the reference lines L1L1 'and L2L2'. To this end, it is equipped with a vision system (not shown) for photographing the vehicle or a sensor system (not shown) for detecting the position of the vehicle, and may be implemented to check whether or not the vehicle V is disposed at a precisely predetermined position. have. The correction plates PL1, PL2, PL3, and PL4 may be installed to be located on the bottom of each corner of the vehicle V (on the ground on which the vehicle is located) when the vehicle V is disposed at a predetermined position. That is, the correction plates PL1, PL2, PL3, and PL4 are installed at the bottom of the front left corner, the front right corner, the rear left corner, and the rear right corner of the vehicle V, respectively. Of course, the installation position of the correction plates (PL1, PL2, PL3, PL4) can be changed, for example, the correction plates (PL1, PL2, PL3, PL4) is to be installed at a certain distance on each wheel axis of the vehicle (V). Can be. Here, the correction plates PL1, PL2, PL3, and PL4 may be installed at a predetermined distance from each corner of the vehicle V such that two correction plates are included in each image photographed by the cameras 210, 220, 230, and 240. . That is, the image captured by the camera 210 installed in the front includes the correction plate (PL1, PL2), the image captured by the camera 220 installed in the rear includes the correction plate (PL3, PL4), the camera installed on the left The image photographed at 230 includes correction plates PL1 and PL3, and the image captured by the camera 240 installed on the right includes correction plates PL2 and PL4 at a predetermined distance from each corner of the vehicle V. Correction plates PL1, PL2, PL3, and PL4 are installed.

한편, 차량 위치 자동 표시 시스템을 위한 카메라를 차량에 장착 시 생산 공정 상 오차가 발생할 수 있다. 이러한 공정 상 발생하는 오차를 작업자 개입 없이 자동으로 정확하게 보정하여 차량 생산 효율을 높이기 위한 방법이 요구되고 있다. 아울러, 차량 장착 후 차량 운행 과정에서 발생하는 사고 또는 기타 원인 등으로 오차가 발생하는 경우에 이를 해결하기 위한 방법 또한 요구되고 있다.On the other hand, when the camera for the vehicle position automatic display system is mounted on the vehicle, an error may occur in the production process. There is a need for a method for automatically and accurately correcting errors occurring in such a process without operator intervention to increase vehicle production efficiency. In addition, when an error occurs due to an accident or other causes that occur during the vehicle driving process after the vehicle is also required to solve the problem.

본 발명에 대한 선행기술문헌으로는 특허등록10-0948886호(2010.03.15)가 있다.As a prior art document on the present invention, there is a patent registration 10-0948886 (2010.03.15).

본 발명은 양산 시 공차로 인하여 서로 다른 시야(영상)를 제공하는 카메라의 공차를 보정하는 차량에 설치된 카메라의 보정 장치 및 방법을 제공한다.The present invention provides an apparatus and method for calibrating a camera installed in a vehicle that corrects a tolerance of a camera that provides a different field of view (image) due to a tolerance in mass production.

본 발명은 전후 또는 좌우 측에 설치하는 패턴 없이 주행 중 취득한 영상으로부터 차량에 설치된 카메라의 보정 장치 및 방법을 제공한다.The present invention provides an apparatus and a method for calibrating a camera installed in a vehicle from an image acquired while driving without a pattern installed on the front, rear, left and right sides.

본 발명은 패턴과 차량을 정렬시키기 위한 설비가 필요 없고, 야외 촬영 시 빛 반사와 같이 밝기 변화율에 영향을 거의 받지 않는 차량에 설치된 카메라의 보정 장치 및 방법을 제공한다.The present invention provides a device and a method for calibrating a camera installed in a vehicle that does not require a device for aligning a pattern and a vehicle, and is hardly influenced by a rate of change of brightness, such as light reflection during outdoor shooting.

본 발명의 일 측면에 따르면, 차량에 설치된 카메라의 보정 장치가 제공된다.According to one aspect of the invention, there is provided a device for calibrating a camera installed in a vehicle.

본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 장치는 연속적으로 촬영된 차량 주변 촬영 영상들을 입력하는 영상 입력부, 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 자차 추출부, 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 회전 추정부 및 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 이동 추정부를 포함할 수 있다.An apparatus for calibrating a camera installed in a vehicle according to an exemplary embodiment of the present disclosure may include an image input unit for inputting continuously captured images of surrounding images of a vehicle, and extracting a residual vehicle edge from an image of continuously inputting surrounding images of a vehicle. A rotation estimator is configured to calculate rotation angle information using cross-correlation and dispersion values of transformed values obtained by Hough transforming the edge image of the vehicle extracted from the input surrounding image of the vehicle and the vehicle edge image of the previously stored reference image. And a moving estimator for estimating a moving value using a normalized cross correlation between the edge image of the vehicle extracted from the input surrounding image captured by the calculated rotation angle information and the edge image of the vehicle extracted from the stored reference image. can do.

본 발명의 다른 일 측면에 따르면, 차량에 설치된 카메라의 보정 방법이 제공된다.According to another aspect of the present invention, a method for calibrating a camera installed in a vehicle is provided.

본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 방법은 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 단계, 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 단계 및 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method of calibrating a camera installed in a vehicle may include extracting an edge image of a vehicle from a continuously captured image of a surrounding vehicle, and extracting an edge image of the vehicle extracted from the input surrounding image of the vehicle. Computing the rotation angle information by using the cross-correlation and dispersion values of the transformed values of the transformed vehicle image of the stored reference image Hough transformed from the input image around the vehicle corrected using the calculated rotation angle information Estimating a moving value using the normalized cross correlation between the extracted frame image of the vehicle and the frame image extracted from the pre-stored reference image.

상술한 바와 같이 본 발명의 일 실시 예에 따르면, 양산 시 공차로 인하여 서로 다른 시야(영상)를 제공하는 카메라의 공차를 보정할 수 있다.As described above, according to an exemplary embodiment of the present disclosure, a tolerance of a camera providing different views (images) may be corrected due to a tolerance during mass production.

본 발명의 일 실시 예에 따르면, 전후 또는 좌우 측에 설치하는 패턴 없이 주행 중 취득한 영상으로부터 차량에 설치된 카메라의 보정을 수행할 수 있다. According to an embodiment of the present invention, a camera installed in a vehicle may be corrected from an image acquired while driving without a pattern installed on the front, rear, left, and right sides.

본 발명의 일 실시 예에 따르면, 패턴과 차량을 정렬시키기 위한 설비가 필요 없고, 야외 촬영 시 빛 반사와 같이 밝기 변화율에 영향을 거의 받지 않고 차량에 설치된 카메라의 보정을 수행할 수 있다.According to an embodiment of the present invention, there is no need for a device for aligning the pattern with the vehicle, and the camera installed in the vehicle can be calibrated without being affected by the brightness change rate such as light reflection during outdoor shooting.

도 1은 종래의 차량에 설치된 카메라의 보정 시스템을 설명하기 위한 도면.
도 2 내지 도 6은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 장치를 설명하기 위한 도면들.
도 7 내지 도 13은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 방법을 설명하기 위한 도면들.
BRIEF DESCRIPTION OF THE DRAWINGS The figure for demonstrating the correction system of the camera installed in the conventional vehicle.
2 to 6 are views for explaining a correction apparatus of a camera installed in a vehicle according to an embodiment of the present invention.
7 to 13 are views for explaining a calibration method of a camera installed in a vehicle according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명하도록 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In addition, when a part is said to "include" a certain component, it means that it may further include other components, except to exclude other components unless specifically stated otherwise.

도 2 내지 도 6은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 장치를 설명하기 위한 도면들이다.2 to 6 are views for explaining a correction apparatus of a camera installed in a vehicle according to an embodiment of the present invention.

도 2을 참조하면, 본 발명에 따른 차량에 설치된 카메라의 보정 시스템은 카메라 보정 장치(100) 및 차량에 설치된 카메라(200)을 포함한다.2, the camera calibration system installed in a vehicle according to the present invention includes a camera calibration apparatus 100 and a camera 200 installed in a vehicle.

카메라 보정 장치(100)는 차량에 설치된 카메라(200)로부터 촬영된 영상을 입력 받고, 입력된 영상과 기 저장된 기준 영상을 비교하여 차량에 설치된 카메라(200)를 보정한다. 이하 카메라 보정 장치(100)는 도 2 내지 도 6에서 더욱 상세히 설명하기로 한다.The camera calibrating apparatus 100 receives an image captured by the camera 200 installed in the vehicle, and corrects the camera 200 installed in the vehicle by comparing the input image with a previously stored reference image. Hereinafter, the camera calibrating apparatus 100 will be described in more detail with reference to FIGS. 2 to 6.

차량에 설치된 카메라(200)는 차량에 설치되어 차량 주변을 촬영한다. 차량에 설치된 카메라(200)는 AVM 시스템을 구현하기 위하여 전후방 또는 좌우 측 중 적어도 하나에 설치될 수 있다. 차량에 설치된 카메라(200)는 차량 주변 촬영 영상을 카메라 보정 장치(100)로 전송한다. The camera 200 installed in the vehicle is installed in the vehicle to photograph the surroundings of the vehicle. The camera 200 installed in the vehicle may be installed in at least one of front, rear, left and right sides to implement the AVM system. The camera 200 installed in the vehicle transmits the surrounding image of the vehicle to the camera calibrating apparatus 100.

도 3을 참조하면, 카메라 보정 장치(100)는 영상 입력부(110), 자차 추출부(120), 회전 추정부(130), 이동 추정부(140) 및 기준 영상 저장부(150)를 포함한다.Referring to FIG. 3, the camera calibrating apparatus 100 may include an image input unit 110, an error extraction unit 120, a rotation estimating unit 130, a movement estimating unit 140, and a reference image storing unit 150. .

영상 입력부(110)는 차량에 설치된 카메라(200)로부터 연속적으로 촬영된 차량 주변 촬영 영상들을 입력한다.The image input unit 110 inputs continuously captured images of the vehicle, which are continuously photographed from the camera 200 installed in the vehicle.

자차 추출부(120)는 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출한다. 자차 추출부(120)는 이하 도 4에서 더욱 상세히 설명하기로 한다.The host vehicle extracting unit 120 extracts an edge image of the host vehicle from the continuously input surrounding image of the vehicle. The porcelain extractor 120 will be described in more detail below with reference to FIG. 4.

회전 추정부(130)는 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출한다. 회전 추정부(130)는 이하 도 5에서 더욱 상세히 설명하기로 한다.The rotation estimator 130 converts the rotation angle information using cross-correlation and variance values of transform values obtained by Huff transforming the edge image of the vehicle extracted from the input surrounding image of the vehicle and the vehicle edge image of the pre-stored reference image. Calculate. The rotation estimator 130 will be described in more detail later with reference to FIG. 5.

이동 추정부(140)는 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 2차원의 이동 값(△X, △Y)을 추정한다. 이동 추정부(140)는 이하 도 6에서 더욱 상세히 설명하기로 한다.The motion estimator 140 uses a normalized cross correlation between the edge image of the vehicle extracted from the input surrounding image of the vehicle corrected using the calculated rotation angle information and the edge image of the vehicle extracted from the stored reference image. The moving values DELTA X and DELTA Y are estimated. The movement estimator 140 will be described in more detail later with reference to FIG. 6.

기준 영상 저장부(150)는 차량에 설치된 카메라(200)의 기준 영상을 저장한다. 여기서, 기준 영상은 차량에 설치된 카메라(200)에서 촬영되는 경우 보정이 필요 없는 차량의 테두리 이미지일 수 있다.The reference image storage unit 150 stores a reference image of the camera 200 installed in the vehicle. Here, the reference image may be an edge image of the vehicle that does not need correction when photographed by the camera 200 installed in the vehicle.

도 4를 참조하면, 자차 추출부(120)는 테두리 추출부(122), 변화율 계산부(124) 및 자차 테두리 산출부(126)을 포함한다.Referring to FIG. 4, the deviation extractor 120 includes an edge extractor 122, a change rate calculator 124, and an error tolerance frame calculator 126.

테두리 추출부(122)는 입력한 차량 주변 촬영 영상들에서 에지 추출 방법을 통하여 임의의 테두리를 추출한다. 테두리 추출부(122)는 예를 들면, 캐니 에지 또는 소벨 에지 추출 방법을 이용하여 입력한 차량 주변 촬영 영상에서 임의의 테두리를 추출할 수 있다. The edge extractor 122 extracts an arbitrary edge from the input surrounding image captured by the edge extracting method. The edge extracting unit 122 may extract an arbitrary edge from the surrounding image of the vehicle input by using, for example, a canny edge or a sobel edge extraction method.

변화율 계산부(124)는 연속적으로 입력한 차량 주변 촬영 영상들에서 추출한 임의의 테두리들의 각 픽셀 값의 이동 평균 필터(Moving Average Filter) 값을 계산한다. The change rate calculator 124 calculates a moving average filter value of each pixel value of arbitrary edges extracted from continuously input images of surrounding images of the vehicle.

테두리 산출부(126)는 계산된 각 픽셀 값의 이동 평균 필터 결과 값이 미리 설정된 임계 값과 비교하여 미리 설정된 임계 값보다 큰 픽셀을 자차 테두리로 산출한다. 테두리 산출부(126)는 계산된 각 픽셀 값의 변화율이 이동 평균 필터(Moving Average Filter) 결과 값을 이용하는 경우에는 이동 평균 필터 결과 값이 0~1 사이의 값이 되므로, 임계 값 이상인 경우 자차 테두리로 판단할 수 있다. 테두리 산출부(126)는 이동 평균 필터 결과 값을 이용하는 경우 결과값이 0과 1중에서 1이 자차 테두리의 후보군이 될 수 있다. 결과 값 0은 배경 후보군일 수 있다. 테두리 산출부(126)는 만약 자차 테두리가 계속 1이면 가장 이상적인 환경이기 때문에 이동 평균 필터 결과값은 1이 된다. 테두리 산출부(126)는 자차 테두리가 아닌 경우는 1과 0이 반복되면서 0으로 수렴하는 값이 된다. 즉, 테두리 산출부(126)는 변화율이 적을수록 이동평균필터 결과 값이 1에 가깝고, 반대로 변화율이 클수록 이동평균필터 결과 값이 0에 가까워 진다. 그러므로 테두리 산출부(126)는 임계 값을 설정하여 이동 평균 필터 결과 값 중에 1에 가까운 값을 자차 테두리로 결정할 수 있다.The edge calculator 126 calculates a pixel having a larger threshold value than the preset threshold value by comparing the calculated moving average filter result value of each pixel value with a preset threshold value. The edge calculator 126 calculates a moving average filter result value between 0 and 1 when the calculated change rate of each pixel value uses a moving average filter result value. Judging by When the moving average filter result value is used, the edge calculating unit 126 may be a candidate group of the edges of the vehicle, where a result value is 0 and 1. The result value 0 may be a background candidate group. Since the edge calculator 126 is the most ideal environment if the margin of error is continuously 1, the moving average filter result is 1. The edge calculating unit 126 is a value that converges to 0 while repeating 1 and 0 when the edge is not an error frame. In other words, the smaller the rate of change, the closer the moving average filter result value is to 1, and the larger the change rate, the closer the moving average filter result value is to 0. Therefore, the edge calculator 126 may set a threshold value and determine a value close to 1 in the moving average filter result value as the own vehicle edge.

도 5를 참조하면, 회전 추정부(130)는 허프 변환부(132), 분산 계산부(134), 상관 관계부(136) 및 회전 산출부(138)을 포함한다.Referring to FIG. 5, the rotation estimator 130 includes a Hough transform unit 132, a variance calculator 134, a correlation unit 136, and a rotation calculator 138.

허프 변환부(132)는 입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트와 기 저장된 기준 영상의 자차 테두리 정보에 대해서도 모든 픽셀 포인트를 허프 변환한다. 허프 변환부(132)는 픽셀 포인트의 좌표 정보(x, y)를 허프 변환하여 각도 정보(θ)와 거리 정보(ρ)로 변환할 수 있다. The hough transform unit 132 performs a Hough transform on all pixel points included in the inputted error frame information and all pixel points with respect to the error frame information of the pre-stored reference image. The Hough transform unit 132 may Hough transform coordinate information (x, y) of the pixel point to convert the angle information θ and the distance information ρ.

분산 계산부(134)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)를 계산한다.The variance calculation unit 134 calculates variance information S 2 of the angle information θ of the HV transform value of the inputted error order information and the error order information of the reference image.

상관 관계부(136)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)들의 교차 상관 관계를 계산한다. The correlation unit 136 calculates a cross correlation of the variance information S 2 with respect to the angle information θ of the HV transform value of the inputted error frame information and the error frame information of the reference image.

여기서, 회전 회전관계 추정을 위한 교차 상관 관계(Cross-Correlation)는 두 신호의 유사성을 측정하는 척도로 사용되며, 비교하고자 하는 두 신호를 극좌표로 표현하고, 두 신호를 각각 R1, R2라 하면 교차 상관 관계(Cross-Correlation) 정의는 다음 수식 1과 같다.Here, the cross-correlation for estimating the rotational rotation relationship is used as a measure for measuring the similarity between two signals. The two signals to be compared are expressed in polar coordinates, and the two signals are expressed as R1 and R2, respectively. Cross-Correlation is defined in Equation 1 below.

수식 1 Equation 1

C[ω] = ∑φ=1 360 R1[ω]R2[ω + φ]C [ω] = ∑ φ = 1 360 R1 [ω] R2 [ω + φ]

여기서, 신호 R은 분산 정보(S2)의 극좌표값, ω는 극좌표값의 각도, φ는 상관 관계를 검출하는 범위이다. 신호 R은 각도 정보(θ)에 대한 분산 정보(S2)을 극좌표계로 다음 수식 2와 같이 변환된 값을 의미한다.Here, the signal R is a polar coordinate value of the variance information S 2 , ω is an angle of the polar coordinate value, and φ is a range for detecting correlation. The signal R means a value obtained by converting the dispersion information S 2 of the angle information θ into the polar coordinate system as shown in Equation 2 below.

수식 2Equation 2

R[ω]= r e R [ω] = re

여기서 r 과 φ 는 다음 수식에 의하여 계산된다. Where r and φ are calculated by

r = S2 (0≤ φ < 180), S2 (180≤ φ < 360)r = S 2 (0≤ φ <180), S 2 (180≤ φ <360)

φ = θ (0≤ φ < 180), 2θ (180≤ φ < 360)φ = θ (0≤ φ <180), 2θ (180≤ φ <360)

회전 산출부(138)는 계산된 교차 상관 관계를 이용하여 회전 각도 정보를 산출한다. The rotation calculator 138 calculates rotation angle information using the calculated cross correlation.

회전 산출부(138)는 아래 수식 3을 이용하여 두 신호의 차이(delay)를 산출하여 회전 각도 정보를 산출할 수 있다. The rotation calculator 138 may calculate rotation angle information by calculating a delay between two signals using Equation 3 below.

수식 3Equation 3

Figure 112018040220988-pat00001
Figure 112018040220988-pat00002
Figure 112018040220988-pat00001
Figure 112018040220988-pat00002

여기서 은 두 신호의 각도 차이,

Figure 112018040220988-pat00003
Figure 112018040220988-pat00004
를 최대로 만드는 ω값을 의미한다.Where is the angular difference between the two signals,
Figure 112018040220988-pat00003
Is
Figure 112018040220988-pat00004
It means the ω value that makes the maximum.

도 6을 참조하면, 이동 추정부(140)는 회전 보정부(142) 및 이동 산출부(144)를 포함한다. Referring to FIG. 6, the movement estimator 140 includes a rotation corrector 142 and a movement calculator 144.

회전 보정부(142)는 산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정한다.The rotation correction unit 142 rotates the edge image of the vehicle extracted from the input surrounding image of the vehicle by using the calculated rotation angle information.

이동 산출부(144)는 회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 2차원의 이동 값(△X, △Y)을 산출한다.The movement calculating unit 144 uses a normalized cross-correlation between the edge image of the vehicle extracted from the rotationally corrected input surrounding image and the vehicle image extracted from the pre-stored reference image, using a normalized cross correlation (ΔX, Δ). Calculate Y).

도 7 내지 도 13은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 방법을 설명하기 위한 도면들이다.7 to 13 are views for explaining a calibration method of a camera installed in a vehicle according to an embodiment of the present invention.

도 7을 참조하면, 본 발명에 따른 차량에 설치된 카메라의 보정 방법은 차량에 설치된 카메라의 보정 장치(100)에서 단계 S100의 자차 검출 단계, 단계 S200회전 추정 단계 및 단계 S300이동 추정 단계를 포함한다. 이하에서 더욱 상세히 설명한다. Referring to FIG. 7, the method for calibrating a camera installed in a vehicle according to the present invention includes a step of detecting a host vehicle in step S100, a step S200 rotation estimation step, and a step S300 movement estimation step in the calibration device 100 of a camera installed in a vehicle. . It will be described in more detail below.

단계 S100의 자차 검출 단계는 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출한다. The host vehicle detection step of step S100 extracts a host vehicle edge image from continuously captured surrounding images of the vehicle.

단계 S200회전 추정 단계는 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출한다. In the step S200 rotation estimation, rotation angle information is calculated using cross-correlation and dispersion values of transformed values obtained by Huff transforming the edge image of the vehicle extracted from the input surrounding image of the vehicle and the vehicle edge image of the previously stored reference image. do.

단계 S300이동 추정 단계는 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정한다.In step S300, the moving estimation step estimates a moving value by using a normalized cross correlation between the edge image of the vehicle extracted from the input surrounding image of the vehicle corrected using the calculated rotation angle information and the edge image of the vehicle extracted from the previously stored reference image. do.

이하에서는 단계 S100의 자차 검출 단계를 상세히 설명한다.Hereinafter, the host vehicle detecting step of step S100 will be described in detail.

단계 S110에서 카메라의 보정 장치(100)는 연속적인 차량 주변 영상을 입력한다.In operation S110, the camera calibrating apparatus 100 inputs a continuous vehicle surrounding image.

단계 S120에서 카메라의 보정 장치(100)는 연속적으로 입력한 차량 주변 영상에서 테두리를 검출한다. In operation S120, the calibrating apparatus 100 of the camera detects an edge from a continuously surrounding image of the vehicle.

도 8을 참조하면, 카메라의 보정 장치(100)는 입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 차량 주변 영상의 테두리를 검출한다.Referring to FIG. 8, the camera calibrating apparatus 100 detects an edge of a vehicle surrounding image by applying a Sobel edge method in a continuous frame of the input surrounding image of the vehicle.

도 9는 본 발명의 일 실시 예에 따른 차량 주변 영상과, 입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 검출한 차량 주변 영상의 테두리 이미지를 보여준다. 도 9를 참조하면, 입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 검출한 차량 주변 영상의 테두리 이미지는 자차 테두리 부분과, 자차외 테두리 부분들(910, 920)을 포함하며, 자차 테두리 부분에서 데이터가 손실된 부분(930)을 더 포함할 수 있다. 9 is a view illustrating a frame image of a vehicle surrounding image and a vehicle surrounding image detected by applying the Sobel edge method in a continuous frame of an input vehicle surrounding image according to an exemplary embodiment. Referring to FIG. 9, the edge image of the surrounding image detected by applying the Sobel edge method in a continuous frame of the input surrounding image of the vehicle includes an edge of the vehicle and an edge of the edge of the vehicle, 910 and 920. The data may further include a portion 930 in which data is missing from the edge of the vehicle.

단계 S130에서 카메라의 보정 장치(100)는 연속적으로 입력한 차량 주변 영상에서 검출한 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 계산한다. In operation S130, the camera calibrating apparatus 100 calculates a moving average filter result value for each pixel point of the edge images detected from the continuously input surrounding image of the vehicle.

단계 S140에서 카메라의 보정 장치(100)는 계산된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 미리 설정한 임계 값과 비교한다. In operation S140, the camera calibrating apparatus 100 compares a moving average filter result value for each pixel point of the calculated edge images with a preset threshold.

도 8을 참조하면, 카메라의 보정 장치(100)는 연속적인 테두리 이미지들의 이동 평균 필터를 이용하여 계산된 테두리 이미지들의 각 픽셀 포인트에 대한 변화율을 산출할 수 있다. Referring to FIG. 8, the camera calibrating apparatus 100 may calculate a rate of change for each pixel point of the edge images calculated using a moving average filter of successive edge images.

단계 S150에서 카메라의 보정 장치(100)는 비교 결과, 산출된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값이 미리 설정된 임계 값보다 큰 픽셀들을 이용하여 자차 테두리 정보를 산출한다. 이는 연속적으로 입력된 차량 주변 촬영 영상에서 차량은 움직이더라도 자차의 테두리는 변화하지 않고, 주변 환경만 변화하기 때문이다.In operation S150, the camera calibrating apparatus 100 calculates the own vehicle edge information using pixels having a moving average filter result value for each pixel point of the calculated edge images greater than a preset threshold. This is because the edge of the host vehicle does not change even when the vehicle moves in the continuously captured images of the surrounding images of the vehicle, and only the surrounding environment changes.

다음 단계 S200회전 추정 단계를 상세히 설명한다.Next step S200 rotation estimation step will be described in detail.

단계 S210에서 카메라의 보정 장치(100)는 산출한 자차 테두리 정보를 입력한다. In operation S210, the camera calibrating apparatus 100 inputs the calculated host vehicle edge information.

단계 S220에서 카메라의 보정 장치(100)는 입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트를 허프(Hough) 변환한다. 또한, 카메라의 보정 장치(100)는 기 저장된 기준 영상의 자차 테두리 정보에 대해서도 모든 픽셀 포인트를 허프 변환한다. In operation S220, the camera calibrating apparatus 100 hough-transforms all pixel points included in the inputted vehicle edge information. Also, the camera calibrating apparatus 100 huff-transforms all pixel points with respect to the own vehicle edge information of the previously stored reference image.

단계 S230에서 카메라의 보정 장치(100)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)를 계산한다. In operation S230, the camera calibrating apparatus 100 calculates variance information S 2 of the angle information θ of the Hough transform value of the inputted host vehicle edge information and the host vehicle edge information of the reference image.

도 10을 참조하면, 카메라의 보정 장치(100)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보에 포함된 모든 픽셀 포인트 (x, y) 좌표 정보를 각도정보(θ)와 거리정보(ρ)로 허프 변환하고, 각도 정보(θ)에 대한 분산 정보(S^2)를 계산한다. Referring to FIG. 10, the calibrating apparatus 100 of the camera may include angle information θ and distance information ρ for all pixel point (x, y) coordinate information included in the input data of the deviation and the deviation of the reference image. Hough transform to the &lt; RTI ID = 0.0 &gt;), &lt; / RTI &gt;

도 11을 참조하면, 카메라 보정 장치(100)는 기준 영상의 자차 테두리 정보(1110)과 입력된 자차 테두리 정보(1120)에 대해 테두리의 픽셀 포인트 한 개를 곡선 1개로 변환할 수 있다(1130, 1140). Referring to FIG. 11, the camera calibrating apparatus 100 may convert one pixel point of an edge into one curve with respect to the host vehicle edge information 1110 and the input host vehicle edge information 1120 of the reference image (1130). 1140).

단계 S240 및 단계 S250에서 카메라의 보정 장치(100)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)들을 극좌표계로 변환하고, 교차 상관 관계(Cross-Correlation)를 계산하여 회전 각도를 산출한다. In operation S240 and step S250, the camera calibration apparatus 100 converts the dispersion information S 2 of the angle information θ of the HV transform value of the input data of the deviation and the deviation of the reference image into a polar coordinate system. The cross angle is calculated by calculating cross-correlation.

도 12를 참조하면, 카메라의 보정 장치(100)는 카메라의 보정 장치(100)는 산출한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)들을 표시할 수 있고, 이를 극좌표계로 변환하고 교차 상관 관계를 산출하여 입력한 자체 테두리 정보 및 기준 영상의 자차 테두리 정보의 회전 각도 정보를 산출할 수 있다. Referring to FIG. 12, the camera calibrating apparatus 100 may perform dispersion information S on the angle information θ of the Hough transform value of the calibrated edge information calculated by the camera calibrating apparatus 100 and the calibrated edge information of the reference image. 2 ) can be displayed and converted to the polar coordinate system and cross-correlation can be calculated to calculate rotation angle information of the inputted edge information and the own-order edge information of the reference image.

다음에서는 다시 도 7을 참조하여 단계 S300이동 추정 단계를 상세히 설명한다.Next, the step S300 movement estimation step will be described in detail with reference to FIG. 7 again.

단계 S310에서 카메라의 보정 장치(100)는 산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정한다.In operation S310, the correction apparatus 100 of the camera rotates and corrects the edge image of the vehicle extracted from the input surrounding image of the vehicle by using the calculated rotation angle information.

단계 S320및 단계 S330에서 카메라의 보정 장치(100)는 회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 2차원의 이동 값(△X, △Y)을 산출한다.In steps S320 and S330, the camera correction apparatus 100 performs a two-dimensional image by using a normalized cross correlation between the edge image of the vehicle extracted from the rotationally corrected input surrounding image of the vehicle and the edge image of the vehicle extracted from a previously stored reference image. The moving values DELTA X and DELTA Y are calculated.

도 13을 참조하면, 카메라의 보정 장치(100)는 산출한 회전 각도 정보 및 이동 값을 이용하여 차량의 주행 중에 입력된 차량 주변 촬영 영상을 기준 영상과 같이 보정할 수 있다. Referring to FIG. 13, the calibrating apparatus 100 of the camera may correct the surrounding image of the vehicle, which is input while driving the vehicle, as the reference image, using the calculated rotation angle information and the movement value.

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block of the block diagrams and respective steps of the flowcharts attached to the present invention may be performed by computer program instructions. These computer program instructions may be embedded in an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that the instructions executed by the encoding processor of the computer or other programmable data processing equipment are not included in each block or block diagram. It will create means for performing the functions described in each step of the flowchart. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of each step of the block diagram. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.

더불어 각 블록 또는 각 단계는 특정된 논리적 기능을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a portion of a module, segment or code that includes one or more executable instructions for executing a specified logical function. It should also be noted that in some alternative embodiments, the functions noted in the blocks or steps may occur out of order. For example, the two blocks or steps shown in succession may in fact be executed substantially concurrently or the blocks or steps may sometimes be performed in the reverse order, depending on the functionality involved.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art will appreciate that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the embodiments described above are to be understood as illustrative and not restrictive in all aspects. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .

Claims (11)

차량에 설치된 카메라의 보정 장치에 있어서,
연속적으로 촬영된 차량 주변 촬영 영상들을 입력하는 영상 입력부;
연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 자차 추출부;
입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 회전 추정부; 및
상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지는 상기 회전 각도 정보를 이용하여 회전 보정하고, 회전 보정된 상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 이동 추정부를 포함하는 차량에 설치된 카메라의 보정 장치.
In the camera calibration device installed in a vehicle,
An image input unit configured to input continuously photographed surrounding images of the vehicle;
A self-extraction unit extracting an edge-of-vehicle edge image from continuously captured surrounding images of the vehicle;
A rotation estimating unit configured to calculate rotation angle information by using cross-correlation and dispersion values of transformed values obtained by transforming a vehicle frame image extracted from the input surrounding image of the vehicle and the vehicle frame image of the pre-stored reference image; And
The edge image of the vehicle extracted from the input surrounding image of the vehicle is rotated and corrected using the rotation angle information, and the edge image of the vehicle extracted from the input rotational correction image of the corrected vehicle is extracted from the frame image and the pre-stored reference image. And a moving estimator for estimating a moving value using a normalized cross correlation of the edge image.
제1 항에 있어서,
상기 연속적으로 촬영된 차량 주변 촬영 영상은 차량이 주행 중에 차량에 설치된 카메라를 통하여 입력된 것을 특징으로 하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
And the continuously captured surrounding image of the vehicle is input through a camera installed in the vehicle while the vehicle is driving.
제1 항에 있어서,
상기 자차 추출부는
입력한 차량 주변 촬영 영상들에서 에지 추출 방법을 통하여 임의의 테두리를 추출하는 테두리 추출부;
연속적으로 입력한 차량 주변 촬영 영상들에서 추출한 임의의 테두리들의 각 픽셀 값의 이동 평균 필터 결과 값을 계산하는 변화율 계산부; 및
계산된 각 픽셀 값의 이동 평균 필터 값이 미리 설정된 임계 값보다 큰 픽셀을 자차 테두리로 산출하는 테두리 산출부를 포함하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
The host tea extracting unit
An edge extracting unit extracting an arbitrary edge from the input surrounding image of the vehicle through an edge extracting method;
A change rate calculator configured to calculate a moving average filter result value of each pixel value of arbitrary edges extracted from consecutively captured surrounding images of the vehicle; And
And an edge calculator configured to calculate, as an edge of the car, a pixel having a calculated moving average filter value of each pixel value greater than a preset threshold value.
제3 항에 있어서,
상기 테두리 추출부는,
소벨 에지 추출 방법을 이용하여 입력한 차량 주변 촬영 영상에서 임의의 테두리를 추출하는 차량에 설치된 카메라의 보정 장치.
The method of claim 3, wherein
The edge extracting unit,
Compensation apparatus for a camera installed in a vehicle for extracting an arbitrary edge from the surrounding image captured by the Sobel edge extraction method.
제1 항에 있어서,
상기 회전 추정부는,
입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트와 기 저장된 기준 영상의 자차 테두리 정보에 대해서도 모든 픽셀 포인트를 허프 변환하는 허프 변환부;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보를 계산하는 분산 계산부;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보들의 교차 상관 관계를 계산하는 상관 관계부; 및
계산된 교차 상관 관계를 이용하여 회전 각도 정보를 산출하는 회전 산출부를 포함하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
The rotation estimation unit,
A Hough transform unit that huff-transforms all pixel points included in the inputted autonomous frame information and all pixel points with respect to the pre-stored autonomous frame information;
A variance calculator configured to calculate variance information of angle information of the HV transform value of the inputted host vehicle edge information and the host vehicle edge information of the reference image;
A correlation unit configured to calculate a cross correlation between the variance information on the angle information of the inputted error range information and the Hough transform value of the error range information of the reference image; And
And a rotation calculator configured to calculate rotation angle information using the calculated cross correlation.
제1 항에 있어서,
상기 이동 추정부는
산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정하는 회전 보정부; 및
회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 이동 값을 산출하는 이동 산출부를 포함하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
The movement estimating unit
A rotation correction unit configured to rotate and correct the edge image of the vehicle extracted from the input surrounding image of the vehicle using the calculated rotation angle information; And
Correction apparatus for a camera installed in a vehicle including a moving calculation unit for calculating a moving value by using normalized cross correlation between the edge image of the vehicle extracted from the rotationally corrected input of the surrounding image of the vehicle and the frame image extracted from the pre-stored reference image. .
차량에 설치된 카메라의 보정 장치에서 수행되는 카메라의 보정 방법에 있어서,
연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 단계;
입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 단계; 및
상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지는 상기 회전 각도 정보를 이용하여 회전 보정하고, 회전 보정된 상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
In the camera calibration method performed in the camera calibration device installed in a vehicle,
Extracting an edge of an edge of a vehicle from continuously captured surrounding images of the vehicle;
Calculating rotation angle information by using cross-correlation and variance values of transform values obtained by Hough transforming the edge image of the vehicle extracted from the input surrounding image of the vehicle and the vehicle edge image of the previously stored reference image; And
The edge image of the vehicle extracted from the input surrounding image of the vehicle is rotated and corrected using the rotation angle information, and the edge image of the vehicle extracted from the input rotational correction image of the corrected vehicle is extracted from the frame image and the pre-stored reference image. Estimating a moving value using a normalized cross correlation of the edge image.
제7항에 있어서,
상기 자차 테두리(edge) 이미지를 추출하는 단계는,
입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 차량 주변 영상의 테두리를 검출하는 단계;
연속적으로 입력한 차량 주변 영상에서 검출한 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 계산하는 단계;
계산된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 미리 설정한 임계 값을 비교하는 단계; 및
비교 결과, 산출된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값이 미리 설정된 임계 값보다 큰 픽셀들을 이용하여 자차 테두리 정보를 산출하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
The method of claim 7, wherein
Extracting the host vehicle edge image,
Detecting an edge of the surrounding image of the vehicle by applying the Sobel edge method to a continuous frame of the input surrounding image of the vehicle;
Calculating a moving average filter result value for each pixel point of edge images detected from continuously inputted surrounding images of the vehicle;
Comparing a moving average filter result value for each pixel point of the calculated edge images with a preset threshold value; And
Comprising a comparison result, the method of calibrating the camera installed in the vehicle comprising the step of calculating the own vehicle edge information using pixels whose moving average filter result value for each pixel point of the edge image is larger than a predetermined threshold value.
제7항에 있어서,
상기 회전 각도 정보를 산출하는 단계는,
입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트를 허프(Hough) 변환하는 단계;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보를 계산하는 단계;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보들을 극좌표계로 변환하고, 교차 상관 관계를 계산하여 회전 각도를 산출하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
The method of claim 7, wherein
Computing the rotation angle information,
Hough transforming all the pixel points included in the inputted vehicle edge information;
Calculating variance information of angle information of the HV transform value of the inputted host vehicle edge information and the host vehicle edge information of the reference image;
Compensating the camera installed in the vehicle comprising the step of converting the variance information of the angle information of the HV transform value of the input of the vehicle edge information and the reference image of the reference image to the polar coordinate system, and calculating the cross-correlation Way.
제7항에 있어서,
상기 이동 값을 추정하는 단계는,
산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정하는 단계;
회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 이동 값을 산출하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
The method of claim 7, wherein
Estimating the shift value,
Rotating correction of the edge image of the vehicle extracted from the input surrounding image of the vehicle by using the calculated rotation angle information;
And calculating a moving value using a normalized cross-correlation of the edge image of the vehicle extracted from the rotation-corrected input surrounding image of the vehicle and the frame image of the vehicle extracted from the pre-stored reference image.
제7항 내지 제10항 중 어느 한 항의 카메라 보정 방법을 실행하는 컴퓨터 프로그램이 저장된 컴퓨터가 판독 가능한 기록매체.
A non-transitory computer-readable recording medium storing a computer program for executing the method of any one of claims 7 to 10.
KR1020180046789A 2018-04-23 2018-04-23 Tolerance compensating apparatus and method for automatic vehicle-mounted camera KR102024834B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180046789A KR102024834B1 (en) 2018-04-23 2018-04-23 Tolerance compensating apparatus and method for automatic vehicle-mounted camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180046789A KR102024834B1 (en) 2018-04-23 2018-04-23 Tolerance compensating apparatus and method for automatic vehicle-mounted camera

Publications (1)

Publication Number Publication Date
KR102024834B1 true KR102024834B1 (en) 2019-09-24

Family

ID=68068924

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180046789A KR102024834B1 (en) 2018-04-23 2018-04-23 Tolerance compensating apparatus and method for automatic vehicle-mounted camera

Country Status (1)

Country Link
KR (1) KR102024834B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220034538A (en) 2020-09-11 2022-03-18 에스엘 주식회사 Detecting method of contaminated area of the camera image mounted on moving objects
KR20220039358A (en) 2020-09-22 2022-03-29 에스엘 주식회사 Detecting method of contaminated area of the camera image mounted on moving objects
KR20230056334A (en) 2021-10-20 2023-04-27 주식회사 에스엘미러텍 Digital Side Mirror System

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150112656A (en) * 2014-03-28 2015-10-07 주식회사 하나비전테크 Method to calibrate camera and apparatus therefor
KR101677232B1 (en) * 2015-11-27 2016-11-30 중앙대학교 산학협력단 Device and method for calibrating carmera on vehicle
WO2017122552A1 (en) * 2016-01-15 2017-07-20 ソニー株式会社 Image processing device and method, program, and image processing system
JP2017211200A (en) * 2016-05-23 2017-11-30 株式会社デンソー Camera calibrating device, and camera calibrating method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150112656A (en) * 2014-03-28 2015-10-07 주식회사 하나비전테크 Method to calibrate camera and apparatus therefor
KR101677232B1 (en) * 2015-11-27 2016-11-30 중앙대학교 산학협력단 Device and method for calibrating carmera on vehicle
WO2017122552A1 (en) * 2016-01-15 2017-07-20 ソニー株式会社 Image processing device and method, program, and image processing system
JP2017211200A (en) * 2016-05-23 2017-11-30 株式会社デンソー Camera calibrating device, and camera calibrating method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220034538A (en) 2020-09-11 2022-03-18 에스엘 주식회사 Detecting method of contaminated area of the camera image mounted on moving objects
KR20220039358A (en) 2020-09-22 2022-03-29 에스엘 주식회사 Detecting method of contaminated area of the camera image mounted on moving objects
KR20230056334A (en) 2021-10-20 2023-04-27 주식회사 에스엘미러텍 Digital Side Mirror System

Similar Documents

Publication Publication Date Title
US10701341B2 (en) Calibration method, calibration device, and computer program product
CN104715473B (en) The method that position for the video camera vehicle-mounted to automotive vehicle carries out angle calibration system
KR102024834B1 (en) Tolerance compensating apparatus and method for automatic vehicle-mounted camera
JP6354425B2 (en) In-vehicle camera mounting attitude detection method and apparatus
US11341681B2 (en) Method for calibrating the position and orientation of a camera relative to a calibration pattern
KR20190030242A (en) Method and apparatus for providing camera calibration for vehicles
WO2022078074A1 (en) Method and system for detecting position relation between vehicle and lane line, and storage medium
CN112489136B (en) Calibration method, position determination device, electronic equipment and storage medium
KR101705558B1 (en) Top view creating method for camera installed on vehicle and AVM system
KR101268282B1 (en) Lane departure warning system in navigation for vehicle and method thereof
US20200074660A1 (en) Image processing device, driving assistance system, image processing method, and program
US20120128211A1 (en) Distance calculation device for vehicle
JP2013092820A (en) Distance estimation apparatus
KR101276073B1 (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
KR20180011552A (en) Apparatus and method for generating around view
KR20180022277A (en) System for measuring vehicle interval based blackbox
WO2021204867A1 (en) A system and method to track a coupled vehicle
JP7183729B2 (en) Imaging abnormality diagnosis device
CN110276231B (en) Eye opening and closing degree detection device, equipment and method
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
WO2019206723A1 (en) Online evaluation for camera intrinsic parameters
JP6492603B2 (en) Image processing apparatus, system, image processing method, and program
US9519833B2 (en) Lane detection method and system using photographing unit
KR102441065B1 (en) Apparatus for automatic correction of camera angle, system having the same and method thereof
JP6855254B2 (en) Image processing device, image processing system, and image processing method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant