KR102024834B1 - Tolerance compensating apparatus and method for automatic vehicle-mounted camera - Google Patents
Tolerance compensating apparatus and method for automatic vehicle-mounted camera Download PDFInfo
- Publication number
- KR102024834B1 KR102024834B1 KR1020180046789A KR20180046789A KR102024834B1 KR 102024834 B1 KR102024834 B1 KR 102024834B1 KR 1020180046789 A KR1020180046789 A KR 1020180046789A KR 20180046789 A KR20180046789 A KR 20180046789A KR 102024834 B1 KR102024834 B1 KR 102024834B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- image
- edge
- information
- extracted
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/168—Segmentation; Edge detection involving transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20061—Hough transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 카메라의 보정 장치 및 방법에 관한 것으로, 보다 구체적으로 차량에 설치된 카메라가 차량에 설치된 후 발생하는 오차를 차량의 주행 중에 보정하기 위한 차량에 설치된 카메라의 보정 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for calibrating a camera, and more particularly, to a camera and an apparatus for calibrating a camera installed in a vehicle for calibrating an error occurring after the camera installed in the vehicle is installed in a vehicle.
최근 자동차 산업의 발달로 인하여 1가구 1자동차 시대라고 할 정도로 자동차의 보급은 상용화되었고, 차량의 안전도 향상과 운전자의 편의를 도모하기 위해 다양한 첨단 전자 기술이 자동차에 적용되고 있다. 이러한 첨단 전자 기술 중 자동차의 주변 환경을 촬영하여 표시함으로써 운전자가 자동차의 주변 환경을 육안을 통해 편리하게 확인할 수 있는 주변 모니터링 시스템(Around View Monitoring system, 이하 AVM 시스템)이 있다. AVM 시스템은 자동차의 전방, 후방, 좌측 및 우측에 각각 설치된 카메라를 통해 주변 환경을 촬영하고, 촬영된 영상을 기초로 중복 영역을 자연스럽게 보이도록 보정 처리하여 자동차의 주변 환경을 화면 상에 표시한다. 이에 따라 운전자는 표시된 주변 환경을 통해 자동차의 주변 상황을 정확하게 인식할 수 있고, 사이드 미러나 백 미러를 보지 않고도 편리하게 주차를 할 수 있다.Recently, due to the development of the automobile industry, the spread of automobiles has been commercialized to the age of one family and one automobile, and various high-tech electronic technologies are applied to automobiles in order to improve the safety of vehicles and the convenience of drivers. Among these advanced electronic technologies, there is an ambient view monitoring system (AVM system), which allows a driver to conveniently check the surrounding environment of the vehicle by photographing and displaying the surrounding environment of the vehicle. The AVM system photographs the surrounding environment through cameras installed on the front, rear, left and right sides of the vehicle, and displays the surrounding environment of the vehicle on the screen by correcting the overlapped region to look natural based on the captured image. Accordingly, the driver can accurately recognize the surroundings of the vehicle through the displayed surrounding environment and can conveniently park without looking at the side mirror or the rear mirror.
도 1은 종래의 차량에 설치된 카메라의 보정 시스템을 설명하기 위한 도면이다.1 is a view for explaining a correction system of a camera installed in a conventional vehicle.
도 1을 참조하면, 차량(V)은 보정판(PL1, PL2, PL3, PL4)이 설치된 장소에서 미리 정해진 위치에 배치된다. 정확한 공차 보정을 위해 차량(V)은 미리 정해진 위치에 정확히 배치되는 것이 바람직하다. 예컨대 차량(V)의 앞뒤 바퀴 축(도시하지 않음)이 기준선(L1L1`), (L2L2`)에 위치하도록 배치시킬 수 있다. 이를 위해 차량을 촬영하는 비전 시스템(도시하지 않음) 또는 차량의 위치를 감지하는 센서 시스템(도시하지 않음) 등을 구비하고, 차량(V)이 정확히 미리 정해진 위치에 배치되었는지 여부를 확인하도록 구현할 수도 있다. 보정판(PL1, PL2, PL3, PL4)은 차량(V)이 소정 위치에 배치된 경우 차량(V)의 각 모서리 외측 바닥(차량이 위치한 지면 상)에 위치하도록 설치될 수 있다. 즉, 차량(V)의 전방 좌측 모서리, 전방 우측 모서리, 후방 좌측 모서리 및 후방 우측 모서리 바닥에 각각 보정판(PL1, PL2, PL3, PL4)이 설치된다. 물론, 보정판(PL1, PL2, PL3, PL4)의 설치 위치는 변경될 수 있으며, 예컨대, 보정판(PL1, PL2, PL3, PL4)이 차량(V)의 각 바퀴 축 선 상에서 일정 거리를 두고 설치될 수 있다. 여기서 보정판(PL1, PL2, PL3, PL4)은 카메라(210, 220, 230, 240)에서 촬영된 각 영상에 두 개의 보정판이 포함되도록 차량(V)의 각 모서리에서 일정 거리를 두고 설치될 수 있다. 즉, 전방에 설치된 카메라(210)에서 촬영된 영상에는 보정판(PL1, PL2)이 포함되고, 후방에 설치된 카메라(220)에서 촬영된 영상에는 보정판(PL3, PL4)이 포함되며, 좌측에 설치된 카메라(230)에서 촬영된 영상에는 보정판(PL1, PL3)이 포함되고, 우측에 설치된 카메라(240)에서 촬영된 영상에는 보정판(PL2, PL4)이 포함되도록 차량(V)의 각 모서리에서 일정 거리를 두고 보정판(PL1, PL2, PL3, PL4)이 설치된다.Referring to FIG. 1, the vehicle V is disposed at a predetermined position at a place where the correction plates PL1, PL2, PL3, and PL4 are installed. For accurate tolerance correction, the vehicle V is preferably placed exactly at a predetermined position. For example, the front and rear wheel shafts (not shown) of the vehicle V may be disposed at the reference lines L1L1 'and L2L2'. To this end, it is equipped with a vision system (not shown) for photographing the vehicle or a sensor system (not shown) for detecting the position of the vehicle, and may be implemented to check whether or not the vehicle V is disposed at a precisely predetermined position. have. The correction plates PL1, PL2, PL3, and PL4 may be installed to be located on the bottom of each corner of the vehicle V (on the ground on which the vehicle is located) when the vehicle V is disposed at a predetermined position. That is, the correction plates PL1, PL2, PL3, and PL4 are installed at the bottom of the front left corner, the front right corner, the rear left corner, and the rear right corner of the vehicle V, respectively. Of course, the installation position of the correction plates (PL1, PL2, PL3, PL4) can be changed, for example, the correction plates (PL1, PL2, PL3, PL4) is to be installed at a certain distance on each wheel axis of the vehicle (V). Can be. Here, the correction plates PL1, PL2, PL3, and PL4 may be installed at a predetermined distance from each corner of the vehicle V such that two correction plates are included in each image photographed by the
한편, 차량 위치 자동 표시 시스템을 위한 카메라를 차량에 장착 시 생산 공정 상 오차가 발생할 수 있다. 이러한 공정 상 발생하는 오차를 작업자 개입 없이 자동으로 정확하게 보정하여 차량 생산 효율을 높이기 위한 방법이 요구되고 있다. 아울러, 차량 장착 후 차량 운행 과정에서 발생하는 사고 또는 기타 원인 등으로 오차가 발생하는 경우에 이를 해결하기 위한 방법 또한 요구되고 있다.On the other hand, when the camera for the vehicle position automatic display system is mounted on the vehicle, an error may occur in the production process. There is a need for a method for automatically and accurately correcting errors occurring in such a process without operator intervention to increase vehicle production efficiency. In addition, when an error occurs due to an accident or other causes that occur during the vehicle driving process after the vehicle is also required to solve the problem.
본 발명에 대한 선행기술문헌으로는 특허등록10-0948886호(2010.03.15)가 있다.As a prior art document on the present invention, there is a patent registration 10-0948886 (2010.03.15).
본 발명은 양산 시 공차로 인하여 서로 다른 시야(영상)를 제공하는 카메라의 공차를 보정하는 차량에 설치된 카메라의 보정 장치 및 방법을 제공한다.The present invention provides an apparatus and method for calibrating a camera installed in a vehicle that corrects a tolerance of a camera that provides a different field of view (image) due to a tolerance in mass production.
본 발명은 전후 또는 좌우 측에 설치하는 패턴 없이 주행 중 취득한 영상으로부터 차량에 설치된 카메라의 보정 장치 및 방법을 제공한다.The present invention provides an apparatus and a method for calibrating a camera installed in a vehicle from an image acquired while driving without a pattern installed on the front, rear, left and right sides.
본 발명은 패턴과 차량을 정렬시키기 위한 설비가 필요 없고, 야외 촬영 시 빛 반사와 같이 밝기 변화율에 영향을 거의 받지 않는 차량에 설치된 카메라의 보정 장치 및 방법을 제공한다.The present invention provides a device and a method for calibrating a camera installed in a vehicle that does not require a device for aligning a pattern and a vehicle, and is hardly influenced by a rate of change of brightness, such as light reflection during outdoor shooting.
본 발명의 일 측면에 따르면, 차량에 설치된 카메라의 보정 장치가 제공된다.According to one aspect of the invention, there is provided a device for calibrating a camera installed in a vehicle.
본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 장치는 연속적으로 촬영된 차량 주변 촬영 영상들을 입력하는 영상 입력부, 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 자차 추출부, 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 회전 추정부 및 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 이동 추정부를 포함할 수 있다.An apparatus for calibrating a camera installed in a vehicle according to an exemplary embodiment of the present disclosure may include an image input unit for inputting continuously captured images of surrounding images of a vehicle, and extracting a residual vehicle edge from an image of continuously inputting surrounding images of a vehicle. A rotation estimator is configured to calculate rotation angle information using cross-correlation and dispersion values of transformed values obtained by Hough transforming the edge image of the vehicle extracted from the input surrounding image of the vehicle and the vehicle edge image of the previously stored reference image. And a moving estimator for estimating a moving value using a normalized cross correlation between the edge image of the vehicle extracted from the input surrounding image captured by the calculated rotation angle information and the edge image of the vehicle extracted from the stored reference image. can do.
본 발명의 다른 일 측면에 따르면, 차량에 설치된 카메라의 보정 방법이 제공된다.According to another aspect of the present invention, a method for calibrating a camera installed in a vehicle is provided.
본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 방법은 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 단계, 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 단계 및 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method of calibrating a camera installed in a vehicle may include extracting an edge image of a vehicle from a continuously captured image of a surrounding vehicle, and extracting an edge image of the vehicle extracted from the input surrounding image of the vehicle. Computing the rotation angle information by using the cross-correlation and dispersion values of the transformed values of the transformed vehicle image of the stored reference image Hough transformed from the input image around the vehicle corrected using the calculated rotation angle information Estimating a moving value using the normalized cross correlation between the extracted frame image of the vehicle and the frame image extracted from the pre-stored reference image.
상술한 바와 같이 본 발명의 일 실시 예에 따르면, 양산 시 공차로 인하여 서로 다른 시야(영상)를 제공하는 카메라의 공차를 보정할 수 있다.As described above, according to an exemplary embodiment of the present disclosure, a tolerance of a camera providing different views (images) may be corrected due to a tolerance during mass production.
본 발명의 일 실시 예에 따르면, 전후 또는 좌우 측에 설치하는 패턴 없이 주행 중 취득한 영상으로부터 차량에 설치된 카메라의 보정을 수행할 수 있다. According to an embodiment of the present invention, a camera installed in a vehicle may be corrected from an image acquired while driving without a pattern installed on the front, rear, left, and right sides.
본 발명의 일 실시 예에 따르면, 패턴과 차량을 정렬시키기 위한 설비가 필요 없고, 야외 촬영 시 빛 반사와 같이 밝기 변화율에 영향을 거의 받지 않고 차량에 설치된 카메라의 보정을 수행할 수 있다.According to an embodiment of the present invention, there is no need for a device for aligning the pattern with the vehicle, and the camera installed in the vehicle can be calibrated without being affected by the brightness change rate such as light reflection during outdoor shooting.
도 1은 종래의 차량에 설치된 카메라의 보정 시스템을 설명하기 위한 도면.
도 2 내지 도 6은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 장치를 설명하기 위한 도면들.
도 7 내지 도 13은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 방법을 설명하기 위한 도면들.BRIEF DESCRIPTION OF THE DRAWINGS The figure for demonstrating the correction system of the camera installed in the conventional vehicle.
2 to 6 are views for explaining a correction apparatus of a camera installed in a vehicle according to an embodiment of the present invention.
7 to 13 are views for explaining a calibration method of a camera installed in a vehicle according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시 예를 상세히 설명하도록 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 또한, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In addition, when a part is said to "include" a certain component, it means that it may further include other components, except to exclude other components unless specifically stated otherwise.
도 2 내지 도 6은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 장치를 설명하기 위한 도면들이다.2 to 6 are views for explaining a correction apparatus of a camera installed in a vehicle according to an embodiment of the present invention.
도 2을 참조하면, 본 발명에 따른 차량에 설치된 카메라의 보정 시스템은 카메라 보정 장치(100) 및 차량에 설치된 카메라(200)을 포함한다.2, the camera calibration system installed in a vehicle according to the present invention includes a
카메라 보정 장치(100)는 차량에 설치된 카메라(200)로부터 촬영된 영상을 입력 받고, 입력된 영상과 기 저장된 기준 영상을 비교하여 차량에 설치된 카메라(200)를 보정한다. 이하 카메라 보정 장치(100)는 도 2 내지 도 6에서 더욱 상세히 설명하기로 한다.The
차량에 설치된 카메라(200)는 차량에 설치되어 차량 주변을 촬영한다. 차량에 설치된 카메라(200)는 AVM 시스템을 구현하기 위하여 전후방 또는 좌우 측 중 적어도 하나에 설치될 수 있다. 차량에 설치된 카메라(200)는 차량 주변 촬영 영상을 카메라 보정 장치(100)로 전송한다. The
도 3을 참조하면, 카메라 보정 장치(100)는 영상 입력부(110), 자차 추출부(120), 회전 추정부(130), 이동 추정부(140) 및 기준 영상 저장부(150)를 포함한다.Referring to FIG. 3, the
영상 입력부(110)는 차량에 설치된 카메라(200)로부터 연속적으로 촬영된 차량 주변 촬영 영상들을 입력한다.The
자차 추출부(120)는 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출한다. 자차 추출부(120)는 이하 도 4에서 더욱 상세히 설명하기로 한다.The host
회전 추정부(130)는 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출한다. 회전 추정부(130)는 이하 도 5에서 더욱 상세히 설명하기로 한다.The
이동 추정부(140)는 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 2차원의 이동 값(△X, △Y)을 추정한다. 이동 추정부(140)는 이하 도 6에서 더욱 상세히 설명하기로 한다.The
기준 영상 저장부(150)는 차량에 설치된 카메라(200)의 기준 영상을 저장한다. 여기서, 기준 영상은 차량에 설치된 카메라(200)에서 촬영되는 경우 보정이 필요 없는 차량의 테두리 이미지일 수 있다.The reference
도 4를 참조하면, 자차 추출부(120)는 테두리 추출부(122), 변화율 계산부(124) 및 자차 테두리 산출부(126)을 포함한다.Referring to FIG. 4, the
테두리 추출부(122)는 입력한 차량 주변 촬영 영상들에서 에지 추출 방법을 통하여 임의의 테두리를 추출한다. 테두리 추출부(122)는 예를 들면, 캐니 에지 또는 소벨 에지 추출 방법을 이용하여 입력한 차량 주변 촬영 영상에서 임의의 테두리를 추출할 수 있다. The
변화율 계산부(124)는 연속적으로 입력한 차량 주변 촬영 영상들에서 추출한 임의의 테두리들의 각 픽셀 값의 이동 평균 필터(Moving Average Filter) 값을 계산한다. The
테두리 산출부(126)는 계산된 각 픽셀 값의 이동 평균 필터 결과 값이 미리 설정된 임계 값과 비교하여 미리 설정된 임계 값보다 큰 픽셀을 자차 테두리로 산출한다. 테두리 산출부(126)는 계산된 각 픽셀 값의 변화율이 이동 평균 필터(Moving Average Filter) 결과 값을 이용하는 경우에는 이동 평균 필터 결과 값이 0~1 사이의 값이 되므로, 임계 값 이상인 경우 자차 테두리로 판단할 수 있다. 테두리 산출부(126)는 이동 평균 필터 결과 값을 이용하는 경우 결과값이 0과 1중에서 1이 자차 테두리의 후보군이 될 수 있다. 결과 값 0은 배경 후보군일 수 있다. 테두리 산출부(126)는 만약 자차 테두리가 계속 1이면 가장 이상적인 환경이기 때문에 이동 평균 필터 결과값은 1이 된다. 테두리 산출부(126)는 자차 테두리가 아닌 경우는 1과 0이 반복되면서 0으로 수렴하는 값이 된다. 즉, 테두리 산출부(126)는 변화율이 적을수록 이동평균필터 결과 값이 1에 가깝고, 반대로 변화율이 클수록 이동평균필터 결과 값이 0에 가까워 진다. 그러므로 테두리 산출부(126)는 임계 값을 설정하여 이동 평균 필터 결과 값 중에 1에 가까운 값을 자차 테두리로 결정할 수 있다.The
도 5를 참조하면, 회전 추정부(130)는 허프 변환부(132), 분산 계산부(134), 상관 관계부(136) 및 회전 산출부(138)을 포함한다.Referring to FIG. 5, the
허프 변환부(132)는 입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트와 기 저장된 기준 영상의 자차 테두리 정보에 대해서도 모든 픽셀 포인트를 허프 변환한다. 허프 변환부(132)는 픽셀 포인트의 좌표 정보(x, y)를 허프 변환하여 각도 정보(θ)와 거리 정보(ρ)로 변환할 수 있다. The
분산 계산부(134)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)를 계산한다.The
상관 관계부(136)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)들의 교차 상관 관계를 계산한다. The
여기서, 회전 회전관계 추정을 위한 교차 상관 관계(Cross-Correlation)는 두 신호의 유사성을 측정하는 척도로 사용되며, 비교하고자 하는 두 신호를 극좌표로 표현하고, 두 신호를 각각 R1, R2라 하면 교차 상관 관계(Cross-Correlation) 정의는 다음 수식 1과 같다.Here, the cross-correlation for estimating the rotational rotation relationship is used as a measure for measuring the similarity between two signals. The two signals to be compared are expressed in polar coordinates, and the two signals are expressed as R1 and R2, respectively. Cross-Correlation is defined in
수식 1
C[ω] = ∑φ=1 360 R1[ω]R2[ω + φ]C [ω] = ∑ φ = 1 360 R1 [ω] R2 [ω + φ]
여기서, 신호 R은 분산 정보(S2)의 극좌표값, ω는 극좌표값의 각도, φ는 상관 관계를 검출하는 범위이다. 신호 R은 각도 정보(θ)에 대한 분산 정보(S2)을 극좌표계로 다음 수식 2와 같이 변환된 값을 의미한다.Here, the signal R is a polar coordinate value of the variance information S 2 , ω is an angle of the polar coordinate value, and φ is a range for detecting correlation. The signal R means a value obtained by converting the dispersion information S 2 of the angle information θ into the polar coordinate system as shown in
수식 2
R[ω]= r e jφ R [ω] = re jφ
여기서 r 과 φ 는 다음 수식에 의하여 계산된다. Where r and φ are calculated by
r = S2 (0≤ φ < 180), S2 (180≤ φ < 360)r = S 2 (0≤ φ <180), S 2 (180≤ φ <360)
φ = θ (0≤ φ < 180), 2θ (180≤ φ < 360)φ = θ (0≤ φ <180), 2θ (180≤ φ <360)
회전 산출부(138)는 계산된 교차 상관 관계를 이용하여 회전 각도 정보를 산출한다. The
회전 산출부(138)는 아래 수식 3을 이용하여 두 신호의 차이(delay)를 산출하여 회전 각도 정보를 산출할 수 있다. The
수식 3Equation 3
여기서 은 두 신호의 각도 차이, 는 를 최대로 만드는 ω값을 의미한다.Where is the angular difference between the two signals, Is It means the ω value that makes the maximum.
도 6을 참조하면, 이동 추정부(140)는 회전 보정부(142) 및 이동 산출부(144)를 포함한다. Referring to FIG. 6, the
회전 보정부(142)는 산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정한다.The
이동 산출부(144)는 회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 2차원의 이동 값(△X, △Y)을 산출한다.The
도 7 내지 도 13은 본 발명의 일 실시 예에 따른 차량에 설치된 카메라의 보정 방법을 설명하기 위한 도면들이다.7 to 13 are views for explaining a calibration method of a camera installed in a vehicle according to an embodiment of the present invention.
도 7을 참조하면, 본 발명에 따른 차량에 설치된 카메라의 보정 방법은 차량에 설치된 카메라의 보정 장치(100)에서 단계 S100의 자차 검출 단계, 단계 S200회전 추정 단계 및 단계 S300이동 추정 단계를 포함한다. 이하에서 더욱 상세히 설명한다. Referring to FIG. 7, the method for calibrating a camera installed in a vehicle according to the present invention includes a step of detecting a host vehicle in step S100, a step S200 rotation estimation step, and a step S300 movement estimation step in the
단계 S100의 자차 검출 단계는 연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출한다. The host vehicle detection step of step S100 extracts a host vehicle edge image from continuously captured surrounding images of the vehicle.
단계 S200회전 추정 단계는 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출한다. In the step S200 rotation estimation, rotation angle information is calculated using cross-correlation and dispersion values of transformed values obtained by Huff transforming the edge image of the vehicle extracted from the input surrounding image of the vehicle and the vehicle edge image of the previously stored reference image. do.
단계 S300이동 추정 단계는 산출된 회전 각도 정보를 이용하여 보정한 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정한다.In step S300, the moving estimation step estimates a moving value by using a normalized cross correlation between the edge image of the vehicle extracted from the input surrounding image of the vehicle corrected using the calculated rotation angle information and the edge image of the vehicle extracted from the previously stored reference image. do.
이하에서는 단계 S100의 자차 검출 단계를 상세히 설명한다.Hereinafter, the host vehicle detecting step of step S100 will be described in detail.
단계 S110에서 카메라의 보정 장치(100)는 연속적인 차량 주변 영상을 입력한다.In operation S110, the
단계 S120에서 카메라의 보정 장치(100)는 연속적으로 입력한 차량 주변 영상에서 테두리를 검출한다. In operation S120, the calibrating
도 8을 참조하면, 카메라의 보정 장치(100)는 입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 차량 주변 영상의 테두리를 검출한다.Referring to FIG. 8, the
도 9는 본 발명의 일 실시 예에 따른 차량 주변 영상과, 입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 검출한 차량 주변 영상의 테두리 이미지를 보여준다. 도 9를 참조하면, 입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 검출한 차량 주변 영상의 테두리 이미지는 자차 테두리 부분과, 자차외 테두리 부분들(910, 920)을 포함하며, 자차 테두리 부분에서 데이터가 손실된 부분(930)을 더 포함할 수 있다. 9 is a view illustrating a frame image of a vehicle surrounding image and a vehicle surrounding image detected by applying the Sobel edge method in a continuous frame of an input vehicle surrounding image according to an exemplary embodiment. Referring to FIG. 9, the edge image of the surrounding image detected by applying the Sobel edge method in a continuous frame of the input surrounding image of the vehicle includes an edge of the vehicle and an edge of the edge of the vehicle, 910 and 920. The data may further include a
단계 S130에서 카메라의 보정 장치(100)는 연속적으로 입력한 차량 주변 영상에서 검출한 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 계산한다. In operation S130, the
단계 S140에서 카메라의 보정 장치(100)는 계산된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 미리 설정한 임계 값과 비교한다. In operation S140, the
도 8을 참조하면, 카메라의 보정 장치(100)는 연속적인 테두리 이미지들의 이동 평균 필터를 이용하여 계산된 테두리 이미지들의 각 픽셀 포인트에 대한 변화율을 산출할 수 있다. Referring to FIG. 8, the
단계 S150에서 카메라의 보정 장치(100)는 비교 결과, 산출된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값이 미리 설정된 임계 값보다 큰 픽셀들을 이용하여 자차 테두리 정보를 산출한다. 이는 연속적으로 입력된 차량 주변 촬영 영상에서 차량은 움직이더라도 자차의 테두리는 변화하지 않고, 주변 환경만 변화하기 때문이다.In operation S150, the
다음 단계 S200회전 추정 단계를 상세히 설명한다.Next step S200 rotation estimation step will be described in detail.
단계 S210에서 카메라의 보정 장치(100)는 산출한 자차 테두리 정보를 입력한다. In operation S210, the
단계 S220에서 카메라의 보정 장치(100)는 입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트를 허프(Hough) 변환한다. 또한, 카메라의 보정 장치(100)는 기 저장된 기준 영상의 자차 테두리 정보에 대해서도 모든 픽셀 포인트를 허프 변환한다. In operation S220, the
단계 S230에서 카메라의 보정 장치(100)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)를 계산한다. In operation S230, the
도 10을 참조하면, 카메라의 보정 장치(100)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보에 포함된 모든 픽셀 포인트 (x, y) 좌표 정보를 각도정보(θ)와 거리정보(ρ)로 허프 변환하고, 각도 정보(θ)에 대한 분산 정보(S^2)를 계산한다. Referring to FIG. 10, the calibrating
도 11을 참조하면, 카메라 보정 장치(100)는 기준 영상의 자차 테두리 정보(1110)과 입력된 자차 테두리 정보(1120)에 대해 테두리의 픽셀 포인트 한 개를 곡선 1개로 변환할 수 있다(1130, 1140). Referring to FIG. 11, the
단계 S240 및 단계 S250에서 카메라의 보정 장치(100)는 입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)들을 극좌표계로 변환하고, 교차 상관 관계(Cross-Correlation)를 계산하여 회전 각도를 산출한다. In operation S240 and step S250, the
도 12를 참조하면, 카메라의 보정 장치(100)는 카메라의 보정 장치(100)는 산출한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보(θ)에 대한 분산 정보(S2)들을 표시할 수 있고, 이를 극좌표계로 변환하고 교차 상관 관계를 산출하여 입력한 자체 테두리 정보 및 기준 영상의 자차 테두리 정보의 회전 각도 정보를 산출할 수 있다. Referring to FIG. 12, the
다음에서는 다시 도 7을 참조하여 단계 S300이동 추정 단계를 상세히 설명한다.Next, the step S300 movement estimation step will be described in detail with reference to FIG. 7 again.
단계 S310에서 카메라의 보정 장치(100)는 산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정한다.In operation S310, the
단계 S320및 단계 S330에서 카메라의 보정 장치(100)는 회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 2차원의 이동 값(△X, △Y)을 산출한다.In steps S320 and S330, the
도 13을 참조하면, 카메라의 보정 장치(100)는 산출한 회전 각도 정보 및 이동 값을 이용하여 차량의 주행 중에 입력된 차량 주변 촬영 영상을 기준 영상과 같이 보정할 수 있다. Referring to FIG. 13, the calibrating
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block of the block diagrams and respective steps of the flowcharts attached to the present invention may be performed by computer program instructions. These computer program instructions may be embedded in an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that the instructions executed by the encoding processor of the computer or other programmable data processing equipment are not included in each block or block diagram. It will create means for performing the functions described in each step of the flowchart. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of each step of the block diagram. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.
더불어 각 블록 또는 각 단계는 특정된 논리적 기능을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또한 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a portion of a module, segment or code that includes one or more executable instructions for executing a specified logical function. It should also be noted that in some alternative embodiments, the functions noted in the blocks or steps may occur out of order. For example, the two blocks or steps shown in succession may in fact be executed substantially concurrently or the blocks or steps may sometimes be performed in the reverse order, depending on the functionality involved.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art will appreciate that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the embodiments described above are to be understood as illustrative and not restrictive in all aspects. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. .
Claims (11)
연속적으로 촬영된 차량 주변 촬영 영상들을 입력하는 영상 입력부;
연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 자차 추출부;
입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 회전 추정부; 및
상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지는 상기 회전 각도 정보를 이용하여 회전 보정하고, 회전 보정된 상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 이동 추정부를 포함하는 차량에 설치된 카메라의 보정 장치.
In the camera calibration device installed in a vehicle,
An image input unit configured to input continuously photographed surrounding images of the vehicle;
A self-extraction unit extracting an edge-of-vehicle edge image from continuously captured surrounding images of the vehicle;
A rotation estimating unit configured to calculate rotation angle information by using cross-correlation and dispersion values of transformed values obtained by transforming a vehicle frame image extracted from the input surrounding image of the vehicle and the vehicle frame image of the pre-stored reference image; And
The edge image of the vehicle extracted from the input surrounding image of the vehicle is rotated and corrected using the rotation angle information, and the edge image of the vehicle extracted from the input rotational correction image of the corrected vehicle is extracted from the frame image and the pre-stored reference image. And a moving estimator for estimating a moving value using a normalized cross correlation of the edge image.
상기 연속적으로 촬영된 차량 주변 촬영 영상은 차량이 주행 중에 차량에 설치된 카메라를 통하여 입력된 것을 특징으로 하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
And the continuously captured surrounding image of the vehicle is input through a camera installed in the vehicle while the vehicle is driving.
상기 자차 추출부는
입력한 차량 주변 촬영 영상들에서 에지 추출 방법을 통하여 임의의 테두리를 추출하는 테두리 추출부;
연속적으로 입력한 차량 주변 촬영 영상들에서 추출한 임의의 테두리들의 각 픽셀 값의 이동 평균 필터 결과 값을 계산하는 변화율 계산부; 및
계산된 각 픽셀 값의 이동 평균 필터 값이 미리 설정된 임계 값보다 큰 픽셀을 자차 테두리로 산출하는 테두리 산출부를 포함하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
The host tea extracting unit
An edge extracting unit extracting an arbitrary edge from the input surrounding image of the vehicle through an edge extracting method;
A change rate calculator configured to calculate a moving average filter result value of each pixel value of arbitrary edges extracted from consecutively captured surrounding images of the vehicle; And
And an edge calculator configured to calculate, as an edge of the car, a pixel having a calculated moving average filter value of each pixel value greater than a preset threshold value.
상기 테두리 추출부는,
소벨 에지 추출 방법을 이용하여 입력한 차량 주변 촬영 영상에서 임의의 테두리를 추출하는 차량에 설치된 카메라의 보정 장치.
The method of claim 3, wherein
The edge extracting unit,
Compensation apparatus for a camera installed in a vehicle for extracting an arbitrary edge from the surrounding image captured by the Sobel edge extraction method.
상기 회전 추정부는,
입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트와 기 저장된 기준 영상의 자차 테두리 정보에 대해서도 모든 픽셀 포인트를 허프 변환하는 허프 변환부;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보를 계산하는 분산 계산부;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보들의 교차 상관 관계를 계산하는 상관 관계부; 및
계산된 교차 상관 관계를 이용하여 회전 각도 정보를 산출하는 회전 산출부를 포함하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
The rotation estimation unit,
A Hough transform unit that huff-transforms all pixel points included in the inputted autonomous frame information and all pixel points with respect to the pre-stored autonomous frame information;
A variance calculator configured to calculate variance information of angle information of the HV transform value of the inputted host vehicle edge information and the host vehicle edge information of the reference image;
A correlation unit configured to calculate a cross correlation between the variance information on the angle information of the inputted error range information and the Hough transform value of the error range information of the reference image; And
And a rotation calculator configured to calculate rotation angle information using the calculated cross correlation.
상기 이동 추정부는
산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정하는 회전 보정부; 및
회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 이동 값을 산출하는 이동 산출부를 포함하는 차량에 설치된 카메라의 보정 장치.
The method of claim 1,
The movement estimating unit
A rotation correction unit configured to rotate and correct the edge image of the vehicle extracted from the input surrounding image of the vehicle using the calculated rotation angle information; And
Correction apparatus for a camera installed in a vehicle including a moving calculation unit for calculating a moving value by using normalized cross correlation between the edge image of the vehicle extracted from the rotationally corrected input of the surrounding image of the vehicle and the frame image extracted from the pre-stored reference image. .
연속적으로 입력한 차량 주변 촬영 영상에서 자차 테두리(edge) 이미지를 추출하는 단계;
입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상의 차량 테두리 이미지를 허프 변환한 변환 값들의 분산 값들과 교차 상관(correlation)을 이용하여 회전 각도 정보를 산출하는 단계; 및
상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지는 상기 회전 각도 정보를 이용하여 회전 보정하고, 회전 보정된 상기 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 교차 상관을 이용하여 이동 값을 추정하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
In the camera calibration method performed in the camera calibration device installed in a vehicle,
Extracting an edge of an edge of a vehicle from continuously captured surrounding images of the vehicle;
Calculating rotation angle information by using cross-correlation and variance values of transform values obtained by Hough transforming the edge image of the vehicle extracted from the input surrounding image of the vehicle and the vehicle edge image of the previously stored reference image; And
The edge image of the vehicle extracted from the input surrounding image of the vehicle is rotated and corrected using the rotation angle information, and the edge image of the vehicle extracted from the input rotational correction image of the corrected vehicle is extracted from the frame image and the pre-stored reference image. Estimating a moving value using a normalized cross correlation of the edge image.
상기 자차 테두리(edge) 이미지를 추출하는 단계는,
입력한 차량 주변 영상의 연속된 프레임에서 소벨 에지 방법을 적용하여 차량 주변 영상의 테두리를 검출하는 단계;
연속적으로 입력한 차량 주변 영상에서 검출한 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 계산하는 단계;
계산된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값을 미리 설정한 임계 값을 비교하는 단계; 및
비교 결과, 산출된 테두리 이미지들의 각 픽셀 포인트에 대한 이동 평균 필터 결과 값이 미리 설정된 임계 값보다 큰 픽셀들을 이용하여 자차 테두리 정보를 산출하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
The method of claim 7, wherein
Extracting the host vehicle edge image,
Detecting an edge of the surrounding image of the vehicle by applying the Sobel edge method to a continuous frame of the input surrounding image of the vehicle;
Calculating a moving average filter result value for each pixel point of edge images detected from continuously inputted surrounding images of the vehicle;
Comparing a moving average filter result value for each pixel point of the calculated edge images with a preset threshold value; And
Comprising a comparison result, the method of calibrating the camera installed in the vehicle comprising the step of calculating the own vehicle edge information using pixels whose moving average filter result value for each pixel point of the edge image is larger than a predetermined threshold value.
상기 회전 각도 정보를 산출하는 단계는,
입력한 자차 테두리 정보에 포함된 모든 픽셀 포인트를 허프(Hough) 변환하는 단계;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보를 계산하는 단계;
입력한 자차 테두리 정보 및 기준 영상의 자차 테두리 정보의 허프 변환 값의 각도 정보에 대한 분산 정보들을 극좌표계로 변환하고, 교차 상관 관계를 계산하여 회전 각도를 산출하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
The method of claim 7, wherein
Computing the rotation angle information,
Hough transforming all the pixel points included in the inputted vehicle edge information;
Calculating variance information of angle information of the HV transform value of the inputted host vehicle edge information and the host vehicle edge information of the reference image;
Compensating the camera installed in the vehicle comprising the step of converting the variance information of the angle information of the HV transform value of the input of the vehicle edge information and the reference image of the reference image to the polar coordinate system, and calculating the cross-correlation Way.
상기 이동 값을 추정하는 단계는,
산출된 회전 각도 정보를 이용하여 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지를 회전 보정하는 단계;
회전 보정된 입력한 차량 주변 촬영 영상에서 추출한 차량의 테두리 이미지와 기 저장된 기준 영상에서 추출한 차량의 테두리 이미지를 정규화 상호 상관을 이용하여 이동 값을 산출하는 단계를 포함하는 차량에 설치된 카메라의 보정 방법.
The method of claim 7, wherein
Estimating the shift value,
Rotating correction of the edge image of the vehicle extracted from the input surrounding image of the vehicle by using the calculated rotation angle information;
And calculating a moving value using a normalized cross-correlation of the edge image of the vehicle extracted from the rotation-corrected input surrounding image of the vehicle and the frame image of the vehicle extracted from the pre-stored reference image.
A non-transitory computer-readable recording medium storing a computer program for executing the method of any one of claims 7 to 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180046789A KR102024834B1 (en) | 2018-04-23 | 2018-04-23 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180046789A KR102024834B1 (en) | 2018-04-23 | 2018-04-23 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102024834B1 true KR102024834B1 (en) | 2019-09-24 |
Family
ID=68068924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180046789A KR102024834B1 (en) | 2018-04-23 | 2018-04-23 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102024834B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220034538A (en) | 2020-09-11 | 2022-03-18 | 에스엘 주식회사 | Detecting method of contaminated area of the camera image mounted on moving objects |
KR20220039358A (en) | 2020-09-22 | 2022-03-29 | 에스엘 주식회사 | Detecting method of contaminated area of the camera image mounted on moving objects |
KR20230056334A (en) | 2021-10-20 | 2023-04-27 | 주식회사 에스엘미러텍 | Digital Side Mirror System |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150112656A (en) * | 2014-03-28 | 2015-10-07 | 주식회사 하나비전테크 | Method to calibrate camera and apparatus therefor |
KR101677232B1 (en) * | 2015-11-27 | 2016-11-30 | 중앙대학교 산학협력단 | Device and method for calibrating carmera on vehicle |
WO2017122552A1 (en) * | 2016-01-15 | 2017-07-20 | ソニー株式会社 | Image processing device and method, program, and image processing system |
JP2017211200A (en) * | 2016-05-23 | 2017-11-30 | 株式会社デンソー | Camera calibrating device, and camera calibrating method |
-
2018
- 2018-04-23 KR KR1020180046789A patent/KR102024834B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150112656A (en) * | 2014-03-28 | 2015-10-07 | 주식회사 하나비전테크 | Method to calibrate camera and apparatus therefor |
KR101677232B1 (en) * | 2015-11-27 | 2016-11-30 | 중앙대학교 산학협력단 | Device and method for calibrating carmera on vehicle |
WO2017122552A1 (en) * | 2016-01-15 | 2017-07-20 | ソニー株式会社 | Image processing device and method, program, and image processing system |
JP2017211200A (en) * | 2016-05-23 | 2017-11-30 | 株式会社デンソー | Camera calibrating device, and camera calibrating method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220034538A (en) | 2020-09-11 | 2022-03-18 | 에스엘 주식회사 | Detecting method of contaminated area of the camera image mounted on moving objects |
KR20220039358A (en) | 2020-09-22 | 2022-03-29 | 에스엘 주식회사 | Detecting method of contaminated area of the camera image mounted on moving objects |
KR20230056334A (en) | 2021-10-20 | 2023-04-27 | 주식회사 에스엘미러텍 | Digital Side Mirror System |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10701341B2 (en) | Calibration method, calibration device, and computer program product | |
CN104715473B (en) | The method that position for the video camera vehicle-mounted to automotive vehicle carries out angle calibration system | |
KR102024834B1 (en) | Tolerance compensating apparatus and method for automatic vehicle-mounted camera | |
JP6354425B2 (en) | In-vehicle camera mounting attitude detection method and apparatus | |
US11341681B2 (en) | Method for calibrating the position and orientation of a camera relative to a calibration pattern | |
KR20190030242A (en) | Method and apparatus for providing camera calibration for vehicles | |
WO2022078074A1 (en) | Method and system for detecting position relation between vehicle and lane line, and storage medium | |
CN112489136B (en) | Calibration method, position determination device, electronic equipment and storage medium | |
KR101705558B1 (en) | Top view creating method for camera installed on vehicle and AVM system | |
KR101268282B1 (en) | Lane departure warning system in navigation for vehicle and method thereof | |
US20200074660A1 (en) | Image processing device, driving assistance system, image processing method, and program | |
US20120128211A1 (en) | Distance calculation device for vehicle | |
JP2013092820A (en) | Distance estimation apparatus | |
KR101276073B1 (en) | System and method for detecting distance between forward vehicle using image in navigation for vehicle | |
KR20180011552A (en) | Apparatus and method for generating around view | |
KR20180022277A (en) | System for measuring vehicle interval based blackbox | |
WO2021204867A1 (en) | A system and method to track a coupled vehicle | |
JP7183729B2 (en) | Imaging abnormality diagnosis device | |
CN110276231B (en) | Eye opening and closing degree detection device, equipment and method | |
US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
WO2019206723A1 (en) | Online evaluation for camera intrinsic parameters | |
JP6492603B2 (en) | Image processing apparatus, system, image processing method, and program | |
US9519833B2 (en) | Lane detection method and system using photographing unit | |
KR102441065B1 (en) | Apparatus for automatic correction of camera angle, system having the same and method thereof | |
JP6855254B2 (en) | Image processing device, image processing system, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |