KR20180052415A - Method for compensating camera tolerance based on a camera image of a vehicle - Google Patents

Method for compensating camera tolerance based on a camera image of a vehicle Download PDF

Info

Publication number
KR20180052415A
KR20180052415A KR1020160149683A KR20160149683A KR20180052415A KR 20180052415 A KR20180052415 A KR 20180052415A KR 1020160149683 A KR1020160149683 A KR 1020160149683A KR 20160149683 A KR20160149683 A KR 20160149683A KR 20180052415 A KR20180052415 A KR 20180052415A
Authority
KR
South Korea
Prior art keywords
camera
tolerance
vehicle
correcting
image
Prior art date
Application number
KR1020160149683A
Other languages
Korean (ko)
Other versions
KR102479253B1 (en
Inventor
손민성
김현상
김신구
김경환
오충재
전은석
Original Assignee
현대자동차주식회사
서강대학교산학협력단
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 서강대학교산학협력단, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160149683A priority Critical patent/KR102479253B1/en
Publication of KR20180052415A publication Critical patent/KR20180052415A/en
Application granted granted Critical
Publication of KR102479253B1 publication Critical patent/KR102479253B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a technology for correcting a tolerance of a camera for a vehicle mounted on a car, which applies an image recognizing technology to an image input through the camera provided in the vehicle, recognizes and obtains information on a surrounding environment of the vehicle, calculates a tolerance generated in the corresponding camera according to daily vehicle driving based on the recognized information and automatically corrects the tolerance, thereby significantly reducing inconvenience of a driver and a vehicle producer due to application of an additional device, equipment or a technology required in the conventional technology for correcting the tolerance of the camera, and improving marketability of a product vehicle. The method for correcting a tolerance based on a camera image of a vehicle comprises the following steps of: receiving image information from the camera; detecting feature points P and P′ corresponding to two continuous images within the received image information; calculating and estimating ego-motion of the feature points P and P′, and estimating a position relationship and a moving direction (d) of the camera at the time of capturing the two images based on the estimated ego-motion; projecting the position of the camera on a virtual image plane, and calculating a distance and a direction from the projected camera position to a virtual straight line (g); and estimating the tolerance by calculating the direction and the height of the camera from the distance and the direction from the projected camera position to the straight line (g).

Description

차량용 카메라 영상 기반 공차 보정 방법 {METHOD FOR COMPENSATING CAMERA TOLERANCE BASED ON A CAMERA IMAGE OF A VEHICLE}≪ Desc / Clms Page number 1 > METHOD FOR COMPENSATING CAMERA TOLERANCE BASED ON A CAMERA IMAGE OF A VEHICLE &

본 발명은 자동차에 장착되는 차량용 카메라의 공차를 보정하는 기술에 관한 것으로서, 보다 상세하게는, 차량에 구비된 카메라를 통하여 입력되는 영상에 영상인식 기술을 적용하여 차량 주변 환경의 정보를 인식하여 획득하되, 인식된 정보를 바탕으로 해당 카메라에 발생한 공차를 산출하여 이를 자동으로 보정하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a technique for correcting a tolerance of a vehicle camera mounted on a vehicle, and more particularly, The present invention relates to a technique of calculating a tolerance generated in a camera based on recognized information and automatically correcting the calculated tolerance.

일반적으로 자동차에 장착되어 차량의 주행보조 역할을 수행하는 운전자 주행보조시스템(ADAS, Advanced Driver Assistance Systems)은 차량의 주변 상황을 영상으로 촬영하여 운전자에게 제공하기 위하여 구비되는 최소한 하나 이상의 카메라를 포함한다. Generally, an ADAS (Advanced Driver Assistance System), which is mounted on an automobile and plays a role of assisting the driving of the vehicle, includes at least one camera provided to photograph the surrounding situation of the vehicle and provide it to the driver .

통상적으로 운전자 주행보조시스템의 카메라는 사전 설계된 특정 위치에 특정 방향, 예를 들어, 차량 후방을 지향하도록 고정 장착되어 영상을 촬영하도록 이루어지며, 상기 카메라로부터 촬영된 영상과, 카메라의 위치 및 지향 방향을 기반으로 하여 사전 설정된 알고리즘 또는 프로그램 절차에 따라 운전자에게 필요한 정보를 계산하도록 이루어진다.Typically, the camera of the driver's running assist system is configured to photograph an image in a predetermined direction, for example, a fixed direction so as to be directed in a specific direction, for example, the rear of the vehicle, To calculate information necessary for the driver according to a predetermined algorithm or program procedure.

그러나, 운전자 주행보조시스템의 카메라는 자동차의 장기간의 운행에 따른 자연스런 노후화 또는 차량 진동 또는 사고 등으로 인하여 카메라와 차량 사이의 관계, 즉, 카메라의 최초 설계된 고정 위치 또는 지향 방향의 의도하지 않은 오차가 발생할 수 있었다. 통상적으로 이러한 오차를 공차(Tolerance)라고 한다. However, the camera of the driver's driving assist system has a problem in that the relationship between the camera and the vehicle, that is, the unintended error of the camera's initially designed fixed position or the direction of the camera due to natural deterioration due to long- . This error is commonly referred to as tolerance.

이러한 공차는 카메라로부터 촬영되어 운전자에게 제공되는 영상의 오차 뿐만아니라, 촬영된 영상으로부터 사전 설정된 영상인식 알고리즘에 의하여 산출된 정보에도 오차를 유발하기 때문에 주기적으로 카메라에 발생하는 공차를 보정해야 할 필요성이 있었다.Such a tolerance may cause not only an error of the image captured by the camera and provided to the driver but also an error in the information calculated by a predetermined image recognition algorithm from the captured image so that it is necessary to periodically correct the tolerance generated in the camera there was.

그러나, 공차의 보정은 운전자 스스로 인식하기 힘들 뿐만 아니라, 공차의 보정을 위해서는 관련 설비와 기술을 갖춘 특정 정비소를 방문해야 하는 제약이 있기 때문에 운전자의 불편을 유발할 수 있었다. 따라서, 공차가 발생하였음에도 불구하고, 인식하지 못하여 공차가 발생한 카메라로부터 획득한 정보가 그대로 운전자에게 제공되거나, 또는 공차를 인식하였음에도 정비소를 방분하기 어려운 여건상 보정을 미루게 되는 단점이 있었다.However, the correction of the tolerance is not only difficult for the driver to recognize himself, but also can inconvenience the driver because there is a restriction to visit a specific workshop equipped with related equipments and techniques to correct the tolerance. Therefore, despite the occurrence of the tolerance, there is a disadvantage in that the information obtained from the camera in which the tolerance is not recognized is provided to the driver as it is, or the correction is delayed due to circumstances in which it is difficult to dispense the workshop even though the tolerance is recognized.

상기와 같은 문제를 해결하기 위한 종래의 기술로서, 대한민국 특허공개공보 제 10-2015-0135697호 "카메라 파라미터 측정 장치 및 그 방법"은 사전 설정된 길이를 갖는 기준 표지(패턴)를 서로 다른 시점에서 촬영한 복수의 영상으로부터 표지의 양 끝점에 상응하는 투영점과 사전 설정된 기준 영상점 간의 영상 거리를 산출하고, 이를 바탕으로 카메라의 높이 및 촬영 방향을 산출하는 기술을 제시하고 있다. 그러나, 상기 종래의 기술은 카메라의 보정 시, 길이가 정해진 특수한 패턴을 가진 타겟을 이용하여야 하기 때문에, 해당 타겟이 필수적으로 요구된다는 문제가 있었다.As a conventional technique for solving the above problems, Korean Patent Laid-Open Publication No. 10-2015-0135697 entitled " Camera Parameter Measuring Apparatus and Method "discloses a technique in which reference marks (patterns) A method of calculating the image distance between a projection point corresponding to both end points of a cover sheet and a predetermined reference image point from a plurality of images and calculating a height and a photographing direction of the camera based on the calculated image distances. However, in the above-mentioned conventional technique, there is a problem that, when the camera is calibrated, a target having a specific pattern whose length is determined should be used, so that the target is necessarily required.

따라서, 상기와 같은 차량의 사용중 발생하는 카메라의 공차로 인한 차량 상품성 저하 문제와, 공차 보정에 따른 어려움 및 불편함을 해결하기 위한 보다 진보된 기술의 개발이 요구되고 있다.Therefore, it is required to develop a more advanced technology for solving the problem of lowering the commerciality of the vehicle due to the tolerance of the camera occurring during the use of the vehicle and the difficulty and inconvenience caused by the tolerance correction.

본 발명은 상기와 같은 문제를 해결하기 위하여 창안된 것으로서,The present invention has been made to solve the above problems,

차량에 구비된 카메라를 통해 입력되는 영상에 영상인식 기술을 적용하여 차량 주변 환경의 정보를 인식하여 획득하되, 인식된 정보를 바탕으로 일상적인 차량 운행에 따라 해당 카메라에 발생한 공차를 산출하여 이를 자동으로 보정하도록 함으로써, 카메라의 공차 보정을 위하여 종래 기술에서 요구되는 추가적인 장치, 설비 또는 기술의 적용에 따른 운전자와 자동차 생산자의 불편함을 크게 감소시키고, 더 나아가, 제품 차량의 상품성을 향상시키는 것을 목적으로 한다.The image recognition technology is applied to an image input through a camera installed in a vehicle to recognize and acquire information about the environment around the vehicle. Based on the recognized information, a tolerance generated in the corresponding camera is calculated according to a routine vehicle operation, It is possible to greatly reduce the inconvenience of the driver and the vehicle manufacturer due to the application of the additional apparatus, equipment or technology required in the prior art for the tolerance correction of the camera, and further to improve the commerciality of the product vehicle .

상기와 같은 목적을 달성하기 위한 본 발명은, According to an aspect of the present invention,

차량용 카메라 영상 기반 공차 보정 방법에 있어서, 카메라로부터 영상정보를 수신하는 단계; 수신한 영상정보 내의 연속하는 두 영상의 서로 대응하는 특징점 P와 P'를 검출하는 단계; 상기 특징점 P와 P'의 에고-모션(ego-motion)을 계산 및 추정하고, 추정된 에고 모션을 기준으로 두 영상을 촬영한 시점의 카메라의 위치 관계 및 이동 방향(d)을 추정하는 단계; 가상 영상 평면 상에 카메라의 위치를 투영하고, 투영된 카메라의 위치로부터 가상의 직선(g) 까지의 거리 및 방향을 계산하는 단계; 및 투영된 카메라의 위치로부터 상기 직선(g) 까지의 거리 및 방향으로부터 카메라의 방향 및 높이를 산출함으로써 공차를 추정하는 단계를 포함하는 것을 특징으로 한다.A camera camera based image tolerance correction method, comprising: receiving image information from a camera; Detecting corresponding feature points P and P 'of two consecutive images in the received image information; Calculating and estimating ego-motion of the minutiae points P and P ', estimating a positional relationship and a moving direction (d) of the camera at the time of photographing two images based on the estimated ego motion; Projecting the position of the camera on the virtual image plane, calculating the distance and direction from the projected camera position to the imaginary straight line (g); And estimating the tolerance by calculating the direction and height of the camera from the distance and direction from the position of the projected camera to the straight line g.

또한, 카메라의 이동 방향(d)을 기준으로 추가 특징점들을 추적하고, 추적된 추가 특징점들의 3차원 좌표를 계산하는 단계; 카메라의 이동 방향과 수직한 가상 영상 평면에 3차원 좌표 계산된 추가 특징점들을 투영하는 단계; 및 가상 영상 평면 상에서 가장 많은 추가 특징점을 포함하는 직선(g)을 검출하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include tracking additional feature points based on a moving direction (d) of the camera and calculating three-dimensional coordinates of the additional feature points tracked; Projecting additional feature points calculated in three-dimensional coordinates on a virtual image plane perpendicular to the moving direction of the camera; And detecting a straight line g including the largest number of additional feature points on the virtual image plane.

또한, 카메라의 광각 렌즈의 광학 특성에 기반하여 영상의 왜곡을 보정하는 단계를 더 포함하는 것을 특징으로 한다.The method further includes correcting distortion of the image based on optical characteristics of the wide angle lens of the camera.

또한, 산출된 카메라의 이동 방향(d)을 기준으로 차량의 정면 방향을 추정하는 단계를 더 포함하는 것을 특징으로 한다.The method further includes estimating a front direction of the vehicle based on the calculated moving direction (d) of the camera.

또한, 캔 통신 라인을 통하여 차량 공차보정부로부터 차량의 이동 거리에 대한 정보를 수신하는 단계; 수신된 이동 거리에 대한 정보와 상기 영상 정보로부터 산출된 카메라의 이동 거리(d) 사이의 오차비율을 계산하는 단계; 및 계산된 오차비율을 투영된 카메라의 위치로부터 상기 직선(g) 까지의 거리 및 방향과 계산된 오차비율을 적용하여 카메라의 방향 및 높이를 산출함으로써 공차를 추정하는 단계를 더 포함하는 것을 특징으로 한다.Receiving information on the moving distance of the vehicle from the vehicle tolerance correcting unit via the CAN communication line; Calculating an error ratio between information on the received movement distance and a movement distance d of the camera calculated from the image information; And estimating the tolerance by calculating the direction and height of the camera by applying the calculated error ratio to the distance and direction from the projected camera position to the straight line g and the calculated error ratio. do.

또한, 공차 발생 판단시 경고메세지를 생성 및 출력하는 단계를 더 포함하는 것을 특징으로 한다.The method may further include generating and outputting a warning message when determining the occurrence of the tolerance.

또한, 공차 발생 판단시, 추정된 공차 비율을 상기 카메라로부터 획득한 영상정보 내의 가상 영상 평면 상의 카메라의 위치에 반영하여 공차를 자동으로 보정하는 단계를 더 포함하는 것을 특징으로 한다.The method further includes the step of automatically correcting the tolerance by reflecting the estimated tolerance ratio at the position of the camera on the virtual image plane in the image information acquired from the camera when the tolerance occurrence is determined.

상기와 같은 구성을 통하여 본 발명의 차량용 카메라 영상 기반 공차 보정 방법은 이하의 특징적인 장점을 제공한다.The camera-based image-based tolerance correction method of the present invention provides the following characteristic advantages through the above-described configuration.

1) 차량의 일상적인 사용 중에 발생할 수 있는 카메라의 공차를 해당 카메라로부터 획득되는 영상으로부터 영상인식 기술을 이용하여 자동으로 분석하여 보정함으로써, 차량 출고 후 외부 충격 또는 노후화에 의하여 생기는 카메라의 지속적인 자세 변화에 따른 공차에 능동적 대응이 가능한 효과가 있다.1) Automatically analyzing and correcting the camera tolerance that may occur during daily use of the vehicle from the image obtained from the camera by using the image recognition technology, thereby making it possible to continuously change the attitude of the camera caused by external shock or aging after shipment It is possible to actively cope with the tolerance according to the present invention.

2) 차량 주행 중 카메라에 발생하는 공차를 자동으로 보정함으로써, 공차 보정을 위하여 차량 정비소를 방문해야 하는 번거로움을 해결할 수 있는 효과가 있다.2) Automatically correcting the tolerance generated in the camera while driving the vehicle can solve the problem of visiting the vehicle repair shop for tolerance correction.

3) 인식 기능이 탑재된 후방 카메라가 차량에 구비된 경우, 카메라 자세가 인식 성능에 밀접한 연관이 있으므로, 본 기술의 적용 시 인식 성능에 대한 안전성을 확보하여 운전자의 안전을 확보할 수 있는 효과가 있다.3) When a rear camera equipped with a recognition function is installed in a vehicle, since the camera posture is closely related to the recognition performance, it is possible to secure the safety of the driver by securing the recognition performance when applying the present technology have.

4) 카메라의 공차 발생시 경고메세지를 출력하여 공차 발생을 인지하도록 함으로써, 운전자의 안전성을 증대시킬 수 있는 효과가 있다.4) When the tolerance of the camera is generated, a warning message is output to recognize the occurrence of the tolerance, so that the safety of the driver can be increased.

도 1은 본 발명의 바람직한 실시예에 따른 차량용 카메라 영상 기반 공차 보정 방법의 실시를 위한 시스템을 개략적으로 도시하는 블럭도이다.
도 2는 본 발명의 바람직한 실시예에 따른 차량용 카메라 영상 기반 공차 보정 방법을 나타내는 플로우차트이다.
도 3은 산출된 카메라의 이동 방향 성분을 나타내고 있다.
도 4는 KLT 특징 추적에 의하여 추정한 특징점 P 및 P'와, 카메라 중심의 추정된 이동방향(d)에 따른 추가 특징점들을 각각 나타낸다.
도 5는 선형 삼각측량 알고리즘의 일 예를 나타낸다.
도 6a는 이동 방향과 수직한 임의의 가상 영상 평면에 3차원 특징점들을 투영하는 단계를 개략적으로 나타낸 모식도이며, 도 6b는 도 6b의 가상 영상 평면 상에서 지면으로부터 카메라의 높이를 계산하는 단계를 개략적으로 나타낸다.
1 is a block diagram schematically illustrating a system for practicing a vehicle camera image-based tolerance correction method according to a preferred embodiment of the present invention.
2 is a flowchart illustrating a method for correcting a camera camera image-based tolerance according to a preferred embodiment of the present invention.
Fig. 3 shows the computed moving direction component of the camera.
FIG. 4 shows feature points P and P 'estimated by the KLT feature tracking and additional feature points according to the estimated moving direction (d) of the camera center, respectively.
Figure 5 shows an example of a linear triangulation algorithm.
FIG. 6A is a schematic view schematically showing the step of projecting three-dimensional feature points on any imaginary image plane perpendicular to the moving direction, FIG. 6B schematically shows a step of calculating the height of the camera from the ground on the virtual image plane of FIG. .

이하, 본 발명의 기술적 구성을 구체적으로 기술하기에 앞서, 본 명세서 및 특허 청구범위의 전반에 걸쳐 사용된 용어나 단어는 통상적이거나 또는 사전적인 의미로 한정되어 해석되는 것으로 이해해서는 안되며, 해당 용어나 단어는 '발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙'에 입각하여 기술된 것이며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 기술 구성은 본 발명의 가장 바람직한 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. 또한, 본 명세서에서 사용된 용어는 특정 실시예를 이해하기 쉽게 설명하기 위한 목적으로 사용되는 것으로, 본 발명을 제한하기 위한 것이 아니다. 본 명세서 상에 단수 형태로 기재된 구성요소는 별도로 특정하는 것이 아니라면 복수의 형태를 포함하는 것으로 이해되어야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The word is described based on the principle that the inventor can properly define the concept of a term in order to explain his or her invention in the best way. The word is interpreted as a meaning and concept consistent with the technical idea of the present invention. . Therefore, the embodiments described in this specification and the technical structures shown in the drawings are only the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It should be understood that various equivalents and modifications are possible. In addition, the terms used herein are used for the purpose of easy understanding of specific embodiments, and are not intended to limit the present invention. It is to be understood that the elements described in the singular form in this specification include plural forms unless otherwise specified.

본 발명은 자동차에 장착되는 카메라의 공차를 보정하는 기술에 관한 것으로서, 차량에 구비된 카메라를 통해 입력되는 영상에 영상인식 기술을 적용하여 차량 주변 환경의 정보를 인식하여 획득하되, 인식된 정보를 바탕으로 해당 카메라에 발생한 공차를 산출하여 이를 자동으로 보정하도록 함으로써, 카메라의 공차 보정을 위하여 종래 기술에서 요구되는 추가적인 장치, 설비 또는 기술의 적용에 따른 운전자와 자동차 생산자의 불편함을 크게 감소시키고, 더 나아가, 제품 차량의 상품성을 향상시키도록 이루어진다.The present invention relates to a technology for correcting a tolerance of a camera mounted on an automobile. It is an object of the present invention to recognize and acquire information on the surroundings of a vehicle by applying an image recognition technology to an image input through a camera provided in the vehicle, It is possible to greatly reduce the inconvenience of the driver and the vehicle manufacturer due to the application of additional devices, equipments or technologies required in the prior art for correcting the tolerances of the camera, And further, to improve the merchantability of the product vehicle.

이하, 도면을 참조로 하여 본 발명의 바람직한 실시예를 상세히 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 바람직한 실시예에 따른 차량용 카메라 영상 기반 공차 보정 방법의 실시를 위한 시스템을 개략적으로 나타내는 블록도이고, 도 2는 본 발명의 바람직한 실시예에 따른 차량용 카메라 영상 기반 공차 보정 방법을 나타내는 블록도이다.FIG. 1 is a block diagram schematically showing a system for implementing a camera-based image-based tolerance correction method according to a preferred embodiment of the present invention, and FIG. 2 is a flowchart illustrating a method for correcting a camera camera-based tolerance according to a preferred embodiment of the present invention Fig.

도 1에 도시된 바와 같이, 본 발명의 차량용 카메라 영상 기반 공차 보정 방법은 자동차에 설치되어 차량 주변 영상을 촬영하여 영상정보를 획득 및 생성하는 최소한 하나 이상의 카메라(20)(예를 들어, 자동차의 후방 카메라); 상기 카메라(20)로부터 영상정보를 수신하여 해당 영상정보에 최소한 하나 이상의 영상인식 알고리즘을 적용함으로써 상기 카메라(20)의 공차를 분석 및 인식하고, 공차 발생 판단시 해당 영상 정보의 가상 영상 평면을 보정함으로써, 카메라(20)의 공차를 보정하는 공차보정부(10); 및 상기 공차보정부(10)와 차량 제어부(예를 들어, BCM 등)를 연결하여 공차 발생 판단에 필요한 차량 정보를 상기 공차보정부(10)에서 수신 가능하도록 하는 캔(CAN) 통신 라인(30)을 포함하여 이루어진다.As shown in FIG. 1, the vehicle camera image-based tolerance correcting method of the present invention includes at least one camera 20 (for example, a camera of an automobile) installed in an automobile and photographing a vehicle peripheral image to acquire and generate image information Rear camera); The camera 20 receives the image information, analyzes and recognizes the tolerance of the camera 20 by applying at least one image recognition algorithm to the image information, and corrects the virtual image plane of the image information at the time of determining the occurrence of the tolerance A tolerance correcting unit 10 for correcting the tolerance of the camera 20; And a CAN communication line 30 for connecting the tolerance correcting unit 10 and a vehicle control unit (for example, a BCM or the like) to allow the tolerance correcting unit 10 to receive vehicle information necessary for determining the occurrence of a tolerance ).

상기 카메라(20)는 자동차에 설치되어 그 지향된 방향의 영상을 촬영하여 영상정보를 생성하도록 이루어진 구성요소로서, 생성된 영상정보를 상기 공차보정부(10)로 전송하도록 이루어진다. 이하, 본 발명의 바람직한 실시예를 기술함에 있어, 설명의 편의상 상기 카메라(20)는 자동차의 후방 카메라인 것을 기준으로 기술하도록 하나, 이에 한정하는 것은 아니며, 자동차에 설치된 어떠한 카메라, 예를 들어, 전방 카메라에 적용되거나, 또는 둘 이상의 카메라에 각각 적용될 수 있는 것으로 이해되어야 한다. The camera 20 is installed in an automobile and generates image information by photographing an image in a direction of the camera 20. The generated image information is transmitted to the tolerance correcting unit 10. [ Hereinafter, in describing the preferred embodiment of the present invention, the camera 20 will be described on the basis of a rear camera of an automobile, but the present invention is not limited thereto. For example, It should be understood that the invention can be applied to a front camera, or to two or more cameras respectively.

또한, 상기 카메라(20)는 차량 주변의 상황을 연속적으로 영상을 촬영한 동영상을 포함한 영상정보를 생성 및 출력하거나, 또는, 사전 설정된 주기로 차량 주변 상황을 촬영한 사진 또는 복수의 동영상을 포함한 영상정보를 주기적으로 생성 및 출력함으로써, 상기 공차보정부(10)로 전송하도록 이루어진다.In addition, the camera 20 may generate and output image information including a moving image continuously photographing the surroundings of the vehicle, or may display a photograph of the surroundings of the vehicle at a predetermined cycle or image information including a plurality of moving images To the tolerance correcting unit 10 by periodically generating and outputting the error signal.

상기 영상정보는 예를 들어, 하나의 동영상 내의 사전 설정된 주기로 획득된 복수의 영상 구간 또는 정지영상을 포함하는 영상정보, 최소한 둘 이상의 동영상을 포함하는 영상정보, 또는 최소한 둘 이상의 정지영상을 포함하는 영상정보가 될 수 있다.The image information includes, for example, image information including a plurality of image sections or still images obtained in a predetermined period in one moving image, image information including at least two moving images, or image including at least two still images It can be information.

상기 공차보정부(10)는 상기 카메라(20)로부터 영상정보를 수신하여 해당 영상정보에 최소한 하나 이상의 영상인식 알고리즘을 적용함으로써, 상기 카메라(20)의 공차를 분석 및 인식하고 공차 발생 판단시, 해당 영상 정보의 가상 영상 평면을 보정함으로써, 카메라(20)의 공차를 보정하도록 이루어진 구성요소이다.The tolerance correcting unit 10 analyzes and recognizes the tolerance of the camera 20 by receiving image information from the camera 20 and applying at least one image recognition algorithm to the image information, And corrects the tolerance of the camera 20 by correcting the virtual image plane of the image information.

이를 위하여 상기 공차보정부(10)는 상기 카메라(20)로부터 입력되는 최소한 하나 이상의 영상정보, 예를 들어, 하나의 동영상 내의 사전 설정된 주기로 획득된 복수의 영상 구간 또는 정지영상을 포함하는 영상정보, 최소한 둘 이상의 동영상을 포함하는 영상정보, 또는 최소한 둘 이상의 정지영상을 포함하는 영상정보 등의 영상정보에 영상인식 알고리즘을 적용하도록 이루어진다.For this purpose, the tolerance correcting unit 10 includes at least one image information input from the camera 20, for example, image information including a plurality of image sections or still images obtained at predetermined periods in one moving image, The image recognition algorithm is applied to image information such as image information including at least two moving images, or image information including at least two still images.

상기 공차보정부(10)는 상기와 같은 영상처리 및 알고리즘의 수행을 위한 목적으로 전자제어유닛(ECU) 또는 마이크로 컨트롤 유닛(MCU)등을 포함하여 이루어진 별도의 구성요소로서 해당 차량에 설치되거나, 또는 차량에 제어를 위하여 기 구비된 차량 제어부(예를 들어, 차체제어모듈(BCM) 또는 클러스터 제어부 등)에 포함된 구성으로 이루어질 수 있다.The tolerance correcting unit 10 may be installed in the vehicle as a separate component including an electronic control unit (ECU) or a micro control unit (MCU) for the purpose of performing the image processing and the algorithm as described above, (E.g., a vehicle body control module (BCM) or a cluster control unit) equipped for control of the vehicle.

상기 공차보정부(10)는 상기 카메라(20)로부터 입력되는 영상정보에 영상인식 알고리즘을 적용하여 영상정보 내의 특징점을 검출 및 추적 후, 카메라(20) 렌즈의 좌표 왜곡을 보정하고, 에고-모션을 적용하여 영상정보를 획득한 시점 각각의 카메라(20)의 위치관계 및 이동 방향을 추정하며, 검출된 특징점을 기반으로 3차원 추가 특징점 정보를 더 추정하고, 이를 바탕으로 지면으로부터의 카메라(20)의 높이를 추정함으로써, 공차를 판단하고 이를 보정하도록 이루어진다.The tolerance correcting unit 10 detects and tracks feature points in the image information by applying an image recognition algorithm to the image information input from the camera 20, corrects the coordinate distortion of the lens of the camera 20, And further estimates the three-dimensional additional feature point information based on the detected feature points. Based on the estimated three-dimensional additional feature point information, the camera 20 To determine the tolerance and to correct it.

상기 공차보정부(10)에서 공차를 추정 및 보정하는 방법은 도 2를 참조로 하여보다 상세히 기술하도록 한다.A method for estimating and correcting the tolerance in the tolerance correcting unit 10 will be described in more detail with reference to FIG.

먼저, 차량에 구비된 카메라(20), 예를 들어, 차량의 후방 카메라는 차량 주변을 촬영하여 영상정보를 생성하고, 이를 출력하여 상기 공차보정부(10)로 전송한다(S001).First, a camera 20 installed in a vehicle, for example, a rear camera of a vehicle, photographs the surroundings of the vehicle, generates image information, and outputs the image information to the tolerance correcting unit 10 (S001).

상기 공차보정부(10)는 상기 카메라(20)에서 입력된 영상정보(예를 들어, 하나의 동영상 내의 사전 설정된 주기로 획득된 복수의 영상 구간 또는 정지영상을 포함하는 영상정보, 최소한 둘 이상의 동영상을 포함하는 영상정보, 또는 최소한 둘 이상의 정지영상을 포함하는 영상정보 등)내의 연속하는 두 영상에 각각 영상인식 알고리즘을 적용하여 각 영상의 서로 대응하는 특징점 P와 P'를 검출한다(S002).The tolerance correcting unit 10 corrects the image information inputted from the camera 20 (for example, image information including a plurality of image sections or still images obtained in a predetermined period in one moving image, at least two moving images (I.e., image information including at least two or more still images, etc.), the feature points P and P 'corresponding to the respective images are detected (S002).

이 단계에서는 예를 들어, 아래와 같은 코너 검출 알고리즘과 특징점 추적 알고리즘이 사용될 수 있다.At this stage, for example, the following corner detection algorithm and feature point tracking algorithm can be used.

a) 해리스 코너 검출 알고리즘(Harris corner detector)a) Harris corner detector (Harris corner detector)

-해리스 코너 검출 알고리즘은 영상 내의 코너 포인트를 검출하는 알고리즘으로서, 영상 내의 특정 물체(object)를 추적하거나 인식하기 위하여 영상을 매칭하는데 주로 사용되는 알고리즘이다. 상기 해리스 코너 검출 알고리즘은 영상을 매칭할 때 각 영상을 서로 매칭하기 위한 특징점을 검출하는데 사용된다.- Harris Corner Detection Algorithm is an algorithm for detecting corner points in an image. It is an algorithm mainly used for matching images to track or recognize specific objects in an image. The Harris corner detection algorithm is used to detect feature points for matching each image when matching the images.

본 발명의 바람직한 실시예에서, 상기 공차보정부(10)는 수신한 영상정보에 해리스 코너 검출 알고리즘을 사용함으로써, 연속하는 두 영상 속의 특징점들을 검출한다.In the preferred embodiment of the present invention, the tolerance correcting unit 10 detects feature points in two consecutive images by using the Harris corner detection algorithm for the received image information.

b) KLT 특징 추적 알고리즘(KLT feature tracker)b) KLT feature tracker (KLT feature tracker)

-KLT 특징 추적 알고리즘은 특징점이 검출된 각각의 영상의 매칭을 위하여, 가장 효율적인 특징점을 추적하기 위한 알고리즘이다.-KLT feature tracking algorithm is an algorithm to track the most efficient feature points for matching of detected images of feature points.

본 발명의 바람직한 실시예에서, 상기 공차보정부(10)는 상기 해리스 코너 검출 알고리즘을 사용하여 검출하여 획득한 연속하는 두 영상 속의 특징점들 중 대응하는 특징점 P와 P'를 추적하기 위하여 KLT 특징 추적 알고리즘을 사용한다. In the preferred embodiment of the present invention, the tolerance correcting unit 10 uses the Harris corner detection algorithm to track the KLT feature traces to track corresponding feature points P and P 'among the feature points in two consecutive images detected and obtained Algorithm.

결과적으로 상기 공차보정부(10)는 상기 카메라(20)로부터 수신한 두 영상에 해리스 코너 검출 알고리즘과 KLT 특징 추적 알고리즘을 적용하여 두 영상의 매칭을 위한 대응하는 특징점 P와 P'를 획득할 수 있다.As a result, the tolerance correcting unit 10 may apply the Harris corner detection algorithm and the KLT feature tracking algorithm to the two images received from the camera 20 to obtain corresponding feature points P and P ' have.

한편, 상기 공차보정부(10)는 상기 카메라(20)를 구성하는 광각렌즈의 광학 특성으로 인한 영상의 왜곡을 보정하는 단계를 수행한다(S003).Meanwhile, the tolerance correcting unit 10 performs a step of correcting distortion of the image due to the optical characteristics of the wide angle lens constituting the camera 20 (S003).

통상적으로 차량에 적용되는 카메라는 광범위한 화각을 위하여 광각렌즈가 사용되는데, 상기 광각 렌즈는 그 광학 특성상 촬영한 영상을 왜곡하는 단점이 존재한다.본 발명의 공차보정부(10)는 광각렌즈의 영상 왜곡으로 인하여 인식된 영상 내의 오브젝트들의 좌표가 왜곡되는 것을 방지하기 위하여 광각 렌즈의 왜곡을 보정하는 단계를 수행한다. In general, a wide angle lens is used for a wide angle of view of a camera. However, the wide angle lens has a disadvantage in that the image is distorted due to its optical characteristics. In order to prevent the distortion of the coordinates of the objects in the recognized image due to the distortion, a step of correcting the distortion of the wide-angle lens is performed.

광각 렌즈의 왜곡을 보정하는 단계는 해당 차량에 적용되는 카메라의 광각 렌즈의 광학 특성을 적용하여 수행될 수 있으며, 자세한 설명은 생략하도록 한다.The step of correcting the distortion of the wide-angle lens can be performed by applying the optical characteristics of the wide-angle lens of the camera applied to the vehicle, and a detailed description thereof will be omitted.

상기 공차보정부(10)는 상기 단계 S002에서 검출된 서로 대응하는 특징점 P와 P'의 에고-모션(ego-motion)을 계산 및 추정함으로써, 에고 모션을 기준으로 차량의 정면 방향을 추정하도록 이루어진다(S004).The tolerance correcting unit 10 estimates the front direction of the vehicle based on the ego motion by calculating and estimating ego-motion of the corresponding minutiae points P and P 'detected in step S002 (S004).

본 발명의 일 실시예에서, 차량의 에고 모션 추정은 에피폴라 제약조건을 적용하여 추정된다. 다시말해서, 상기 공차보정부(10)는 특징점 P와 P'에 에피폴라 제약조건(epipolar constraint)을 이용한 점 매칭(point matching) 알고리즘을 적용하여 각 특징점을 촬영한 시점의 카메라(20)의 에고 모션(ego-motion)을 추정한다.In one embodiment of the present invention, the ego motion estimation of the vehicle is estimated by applying epipolar constraints. In other words, the tolerance correcting unit 10 applies a point matching algorithm using the epipolar constraint to the minutiae points P and P ' Estimate motion (ego-motion).

이때, 상기 공차보정부(10)는 상기 두 영상들 사이에서 검출된 특징점 P와 P'로부터 상기 이미지들에 대한 에피폴라(epipolar) 기하를 도출하며, 상기 에피폴라 기하로부터 도출된 에피폴라 제약조건 하에서 각 특징점 P와 P'를 매칭함으로써, 두 카메라의 위치관계 및 이동 방향을 추정할 수 있다.At this time, the tolerance correcting unit 10 derives an epipolar geometry for the images from the feature points P and P 'detected between the two images, and the epipolar constraint derived from the epipolar geometry The positional relationship between the two cameras and the moving direction can be estimated by matching each of the minutiae points P and P '.

상기 에피폴라 제약조건은 이하의 수식으로 나타낼 수 있다.The epipolar constraint can be expressed by the following equation.

[식 1][Equation 1]

Figure pat00001
Figure pat00001

결과적으로 상기와 같은 에피폴라 제약조건이 적용된 기초 행렬은 이하의 수식과 같다.As a result, the basic matrix to which the above-mentioned epipolar constraint is applied is expressed by the following equation.

[식 2][Formula 2]

Figure pat00002
Figure pat00002

상기 식 2에서 F는 기초행렬(fundamental matrix), p는 특징점(project point), K는 카메라 고유 특성 파라미터(camera intrinsic parameter), t는 이동 행렬(translation matrix), 및 R은 회전 행렬(rotation matrix)을 나타낸다.(2) where F is a fundamental matrix, p is a project point, K is a camera intrinsic parameter, t is a translation matrix, and R is a rotation matrix ).

한편, 본 발명의 다른 실시예에서는, 가우스-뉴턴법(Gauss-Newton Method)을 적용하여 에고 모션을 추정할 수 있다. 이 실시예에서의 기초 행렬은 아래의 식과 같다.Meanwhile, in another embodiment of the present invention, ego motion can be estimated by applying a Gauss-Newton method. The basic matrix in this embodiment is expressed by the following equation.

[식 3][Formula 3]

Figure pat00003
Figure pat00003

여기에서 추정된 파라미터는 아래와 같다The estimated parameters are as follows

Figure pat00004
Figure pat00004

상기 추정된 파라미터에 최소자승법 (least square object funtion)을 아래와 같이 적용하여 추정된 파라미터 중 최적화된 파라미터를 결정하여 에고 모션을 추정할 수 있다.By applying a least square object function to the estimated parameters as described below, it is possible to estimate the ego motion by determining an optimized parameter among the estimated parameters.

[식 4][Formula 4]

Figure pat00005
Figure pat00005

본 발명의 또 다른 실시예에서는, RANSAC 알고리즘을 적용하여 에고-모션을 추정하도록 구성될 수 있다. 상기 RANSAC(RANdom SAmple Consensus) 알고리즘은 가장 많은 수의 데이터들로부터 지지를 받는 모델을 선택하는 공지의 알고리즘으로써, 이 실시예에서는 다수의 특징점 P와 P'에 RANSAC 알고리즘을 적용하여 에고-모션을 추정하도록 이루어진다.In another embodiment of the present invention, the RANSAC algorithm may be applied to estimate ego-motion. The RANSAC algorithm is a well-known algorithm for selecting a model supported from the largest number of data. In this embodiment, the RANSAC algorithm is applied to a plurality of feature points P and P ' .

상기와 같이 추정된 카메라(20)의 에고-모션을 바탕으로 이하의 식을 통하여 카메라(20) 중심의 이동방향 (d)를 계산한다. 도 3은 이러한 방식으로 산출된 카메라(20)의 이동 방향 성분을 나타내고 있다.Based on the estimated echo-motion of the camera 20, the moving direction d of the center of the camera 20 is calculated through the following equation. 3 shows the moving direction component of the camera 20 calculated in this way.

[식 5][Formula 5]

Figure pat00006
Figure pat00006

이후, 상기 공차보정부(10)는 상기 단계 S004를 통하여 카메라(20)의 에고-모션으로 추정하여 획득한 영상 내의 카메라(20) 이동방향(d)을 기준으로 추가적으로 특징점들을 더 추적하고, 그 후 특징점들의 3차원 좌표를 계산한다(S005).Thereafter, the tolerance correcting unit 10 further tracks the feature points on the basis of the moving direction (d) of the camera 20 in the image obtained by estimating the echo-motion of the camera 20 through the step S004, The three-dimensional coordinates of the posterior feature points are calculated (S005).

이 단계에서는 엣젤 트래킹(edgel tracking) 알고리즘으로 상기 단계 S002에서 KLT 특징 추적에 의하여 추정한 특징점 P 및 P'와 함께, 상기 단계 S004에서 획득한 카메라(20) 중심의 추정된 이동방향(d)에 따른 추가 특징점들을 추정한다.In this step, with the feature point P and P 'estimated by the KLT feature tracking in step S002 with the edgel tracking algorithm, the estimated moving direction d of the center of the camera 20 acquired in step S004 To estimate the additional feature points.

도 4는 KLT 특징 추적에 의하여 추정한 특징점 P 및 P'와, 카메라(20) 중심의 추정된 이동방향(d)에 따른 추가 특징점들을 각각 나타낸다.4 shows the feature points P and P 'estimated by the KLT feature tracking and the additional feature points according to the estimated movement direction d of the center of the camera 20, respectively.

이후, 상기 공차보정부(10)는 엣젤 트래킹 알고리즘에 의하여 획득한 추가 특징점들에 3차원 좌표 계산을 위한 선형 삼각측량(linear triangulation) 알고리즘을 적용하여 각 특징점들의 3차원 좌표를 계산한다. 도 5는 선형 삼각측량 알고리즘의 일 예를 나타낸다.Then, the tolerance correcting unit 10 calculates a three-dimensional coordinate of each feature point by applying a linear triangulation algorithm for calculating three-dimensional coordinates to the additional feature points obtained by the islet tracking algorithm. Figure 5 shows an example of a linear triangulation algorithm.

상기 단계 S005를 통하여 추정된 카메라(20)의 이동 방향을 바탕으로 지면(g)을 추정하고, 추정된 지면(g)으로부터 상기 카메라(20)의 높이를 추정한다(S006).Estimates the ground surface g based on the moving direction of the camera 20 estimated through the step S005 and estimates the height of the camera 20 from the estimated ground surface g in step S006.

이 단계는 상기 단계 S005를 통하여 추정된 카메라(20)의 이동 방향과 수직한 가상 영상 평면에 카메라(20)의 이동 방향(d)으로 산출된 3차원 특징점들을 투영하고, 허프 변환(hough transform) 알고리즘을 적용하여 투영면 상에서 가장 많은 특징점을 포함하는 직선을 검출함으로써 달성될 수 있다.In this step, the three-dimensional feature points calculated in the moving direction (d) of the camera 20 are projected onto a virtual image plane perpendicular to the moving direction of the camera 20 estimated through the step S005, and a hough transform is performed. Algorithm to detect a straight line containing the largest number of feature points on the projection plane.

이후, 상기 3차원 특징점들이 투영된 가상 영상 평면 상에 카메라(20)의 위치를 투영하고, 검출된 가장 많은 특징점을 포함하는 직선까지의 거리 및 방향을 계산하고, 동시에 지면(g)과의 거리 및 방향을 계산한다.Thereafter, the position of the camera 20 is projected onto the virtual image plane on which the three-dimensional minutiae are projected, the distance and direction to the straight line including the detected most minutiae points are calculated, and at the same time, And direction.

도 20a는 이동 방향과 수직한 임의의 가상 영상 평면에 3차원 특징점들을 투영하는 단계를 개략적으로 나타낸 모식도이며, 도 20b는 도 20b의 가상 영상 평면 상에서 지면으로부터 카메라(20)의 높이를 계산하는 단계를 개략적으로 나타낸다.20A is a schematic view schematically showing the step of projecting three-dimensional feature points on any imaginary image plane perpendicular to the moving direction, FIG. 20B is a view showing a step of calculating the height of the camera 20 from the ground on the virtual image plane of FIG. 20B Fig.

한편, 상기 단계에서 산출된 카메라(20)의 이동 방향(d)과 지면(g)으로의 방향이 각각 상기 카메라(20)의 정면 방향과 하방으로 이루어지는 회전 행렬을 계산함으로써, 차량의 방향을 판단하고(S007), The direction of the vehicle 20 is calculated by calculating a rotation matrix in which the direction of movement d of the camera 20 and the direction of the ground g of the camera 20 are respectively the front direction and the downward direction of the camera 20, (S007),

상기 캔 통신 라인(30)을 통하여 차량 제어부로부터 차량의 이동 거리에 대한 정보를 수신하고, 상기 영상 정보로부터 산출된 카메라(20)의 이동 거리 사이의 오차비율을 계산하며, 이를 상기 단계에서 영상으로 산출한 카메라(20)의 높이에 적용하여 지면(g)으로부터 실제 카메라(20)가 위치한 높이를 계산함으로써, 공차를 추정한다(S008)Receives information on the moving distance of the vehicle from the vehicle control unit via the can communication line 30 and calculates an error ratio between the moving distance of the camera 20 calculated from the image information, The tolerance is estimated by calculating the height at which the actual camera 20 is located from the ground surface g by applying the calculated height to the calculated height of the camera 20 (S008)

상기 단계S007에서 공차가 발생한 것으로 판단이 되면, 상기 공차보정부(10)는 경고메세지를 생성하여 차량 내 클러스터 등으로 출력하도록 함으로써, 공차발생 경고메세지를 운전자에게 제공한다(S009). 이때 경고메세지의 출력은 예를 들어, 차량에 구비된 클러스터 내에 포함된 임의의 출력장치, 예를 들어, 디스플레이 수단 등을 통하여 출력될 수 있다.If it is determined in step S007 that a tolerance has been generated, the tolerance correcting unit 10 generates a warning message and outputs the warning message to a cluster in the vehicle or the like, thereby providing a tolerance occurrence warning message to the driver (S009). At this time, the output of the warning message may be output through any output device included in the cluster provided in the vehicle, for example, a display means or the like.

마지막으로, 상기 공차보정부(10)는 공차 발생 판단시 상기 단계들로부터 산출된 공차 비율을 상기 카메라(20)로부터 획득한 영상정보 내의 가상 영상 평면 상의 카메라(20)의 위치에 반영하여 공차를 자동으로 보정할 수 있다(S009).Lastly, the tolerance correcting unit 10 reflects the tolerance ratio calculated from the steps at the time of determining the tolerance to the position of the camera 20 on the virtual image plane in the image information acquired from the camera 20, It can be corrected automatically (S009).

본 발명은 상기와 같은 구성을 통하여, 차량의 일상적인 사용 중에 발생할 수 있는 카메라(20)의 공차를 해당 카메라(20)로부터 획득되는 영상으로부터 영상인식 기술을 이용하여 자동으로 분석하여 보정함으로써, 차량 출고 후 외부 충격 또는 노후화에 의하여 생기는 카메라(20)의 지속적인 자세 변화에 따른 공차에 능동적 대응할 수 있으며, 공차 보정을 위하여 차량 정비소를 방문해야 하는 번거로움을 해결하며, 더 나아가, 인식 기능이 탑재된 후방 카메라(20)가 차량에 구비된 경우, 카메라(20) 자세가 인식 성능에 밀접한 연관이 있으므로, 본 기술의 적용 시 인식 성능에 대한 안전성을 확보하여 운전자의 안전을 확보할 수 있는 장점을 제공하고, 마지막으로, 카메라(20)의 공차 발생시 경고메세지를 출력하여 공차 발생을 인지하도록 함으로써, 운전자의 안전성을 증대시킬 수 있는 장점을 제공한다.According to the present invention, the tolerance of the camera 20, which may occur during daily use of the vehicle, is automatically analyzed and corrected from the image obtained from the camera 20 using the image recognition technology, It is possible to actively cope with the tolerance according to the continuous attitude change of the camera 20 caused by external shock or aging after shipment, to solve the troubles to visit the car repair shop for the tolerance correction, and furthermore, When the rear camera 20 is provided in the vehicle, since the posture of the camera 20 is closely related to the recognition performance, safety of the recognition performance is ensured when applying the present technology, thereby providing the advantage of securing the safety of the driver Finally, when the tolerance of the camera 20 is generated, a warning message is output to recognize the occurrence of the tolerance, Thereby increasing the safety of the apparatus.

이상으로 본 발명의 차량용 카메라 영상 기반 공차 보정 방법의 바람직한 실시예를 상세하게 설명하였으나, 이는 본 발명에 대한 이해를 돕기 위하여 특정한 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도, 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 고안이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the scope of the invention is not limited to the disclosed exemplary embodiments. . It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

10: 공차보정부
20: 카메라
30: 캔 통신 라인
10: Tolerance correction unit
20: Camera
30: Can communication line

Claims (7)

차량용 카메라 영상 기반 공차 보정 방법에 있어서,
카메라로부터 영상정보를 수신하는 단계;
수신한 영상정보 내의 연속하는 두 영상의 서로 대응하는 특징점 P와 P'를 검출하는 단계;
상기 특징점 P와 P'의 에고-모션(ego-motion)을 계산 및 추정하고, 추정된 에고 모션을 기준으로 두 영상을 촬영한 시점의 카메라의 위치 관계 및 이동 방향(d)을 추정하는 단계;
가상 영상 평면 상에 카메라의 위치를 투영하고, 투영된 카메라의 위치로부터 가상의 직선(g) 까지의 거리 및 방향을 계산하는 단계; 및
투영된 카메라의 위치로부터 상기 직선(g) 까지의 거리 및 방향으로부터 카메라의 방향 및 높이를 산출함으로써 공차를 추정하는 단계;
를 포함하는 것을 특징으로 하는 차량용 카메라 영상 기반 공차 보정 방법.
A method for correcting a camera camera image based tolerance,
Receiving image information from a camera;
Detecting corresponding feature points P and P 'of two consecutive images in the received image information;
Calculating and estimating ego-motion of the minutiae points P and P ', estimating a positional relationship and a moving direction (d) of the camera at the time of photographing two images based on the estimated ego motion;
Projecting the position of the camera on the virtual image plane, calculating the distance and direction from the projected camera position to the imaginary straight line (g); And
Estimating the tolerance by calculating the direction and height of the camera from the distance and direction from the position of the projected camera to the straight line g;
Wherein the camera image based tolerance correction method comprises:
제 1항에 있어서,
카메라의 이동 방향(d)을 기준으로 추가 특징점들을 추적하고, 추적된 추가 특징점들의 3차원 좌표를 계산하는 단계;
카메라의 이동 방향과 수직한 가상 영상 평면에 3차원 좌표 계산된 추가 특징점들을 투영하는 단계; 및
가상 영상 평면 상에서 가장 많은 추가 특징점을 포함하는 직선(g)을 검출하는 단계;
를 더 포함하는 것을 특징으로 하는 차량용 카메라 영상 기반 공차 보정 방법.
The method according to claim 1,
Tracking additional feature points based on a moving direction (d) of the camera, and calculating three-dimensional coordinates of the additional feature points tracked;
Projecting additional feature points calculated in three-dimensional coordinates on a virtual image plane perpendicular to the moving direction of the camera; And
Detecting a straight line (g) including the largest number of additional feature points on the virtual image plane;
Further comprising the step of correcting the tolerance of the camera image based on the tolerance.
제 1항에 있어서,
카메라의 광각 렌즈의 광학 특성에 기반하여 영상의 왜곡을 보정하는 단계;
를 더 포함하는 것을 특징으로 하는 차량용 카메라 영상 기반 공차 보정 방법.
The method according to claim 1,
Correcting image distortion based on an optical characteristic of a wide-angle lens of a camera;
Further comprising the step of correcting the tolerance of the camera image based on the tolerance.
제 1항에 있어서,
산출된 카메라의 이동 방향(d)을 기준으로 차량의 정면 방향을 추정하는 단계;
를 더 포함하는 것을 특징으로 하는 차량용 카메라 영상 기반 공차 보정 방법.
The method according to claim 1,
Estimating a front direction of the vehicle based on the calculated moving direction (d) of the camera;
Further comprising the step of correcting the tolerance of the camera image based on the tolerance.
제 1항에 있어서,
캔 통신 라인을 통하여 차량 공차보정부로부터 차량의 이동 거리에 대한 정보를 수신하는 단계;
수신된 이동 거리에 대한 정보와 상기 영상 정보로부터 산출된 카메라의 이동 거리(d) 사이의 오차비율을 계산하는 단계; 및
계산된 오차비율을 투영된 카메라의 위치로부터 상기 직선(g) 까지의 거리 및 방향과 계산된 오차비율을 적용하여 카메라의 방향 및 높이를 산출함으로써 공차를 추정하는 단계;
를 더 포함하는 것을 특징으로 하는 차량용 카메라 영상 기반 공차 보정 방법.
The method according to claim 1,
Receiving information on a moving distance of the vehicle from the vehicle tolerance correcting unit via the CAN communication line;
Calculating an error ratio between information on the received movement distance and a movement distance d of the camera calculated from the image information; And
Estimating the tolerance by calculating the direction and height of the camera by applying the calculated error ratio to the distance and direction from the projected camera position to the straight line g and the calculated error ratio;
Further comprising the step of correcting the tolerance of the camera image based on the tolerance.
제 1항에 있어서,
공차 발생 판단시 경고메세지를 생성 및 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 차량용 카메라 영상 기반 공차 보정 방법.
The method according to claim 1,
Generating and outputting a warning message upon determining a tolerance occurrence;
Further comprising the step of correcting the tolerance of the camera image based on the tolerance.
제 1항에 있어서,
공차 발생 판단시,
추정된 공차 비율을 상기 카메라로부터 획득한 영상정보 내의 가상 영상 평면 상의 카메라의 위치에 반영하여 공차를 자동으로 보정하는 단계;
를 더 포함하는 것을 특징으로 하는 차량용 카메라 영상 기반 공차 보정 방법.
The method according to claim 1,
When judging the occurrence of the tolerance,
Automatically correcting the tolerance by reflecting the estimated tolerance ratio on the position of the camera on the virtual image plane in the image information acquired from the camera;
Further comprising the step of correcting the tolerance of the camera image based on the tolerance.
KR1020160149683A 2016-11-10 2016-11-10 Method for compensating camera tolerance based on a camera image of a vehicle KR102479253B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160149683A KR102479253B1 (en) 2016-11-10 2016-11-10 Method for compensating camera tolerance based on a camera image of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160149683A KR102479253B1 (en) 2016-11-10 2016-11-10 Method for compensating camera tolerance based on a camera image of a vehicle

Publications (2)

Publication Number Publication Date
KR20180052415A true KR20180052415A (en) 2018-05-18
KR102479253B1 KR102479253B1 (en) 2022-12-19

Family

ID=62454058

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160149683A KR102479253B1 (en) 2016-11-10 2016-11-10 Method for compensating camera tolerance based on a camera image of a vehicle

Country Status (1)

Country Link
KR (1) KR102479253B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11783507B2 (en) 2020-08-25 2023-10-10 Samsung Electronics Co., Ltd. Camera calibration apparatus and operating method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217233A (en) * 2010-04-01 2011-10-27 Alpine Electronics Inc On-vehicle camera calibration system, and computer program
KR20120140515A (en) * 2011-06-21 2012-12-31 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor
JP2013186816A (en) * 2012-03-09 2013-09-19 Topcon Corp Moving image processor, moving image processing method and program for moving image processing
JP2014101075A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Image processing apparatus, image processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011217233A (en) * 2010-04-01 2011-10-27 Alpine Electronics Inc On-vehicle camera calibration system, and computer program
KR20120140515A (en) * 2011-06-21 2012-12-31 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor
JP2013186816A (en) * 2012-03-09 2013-09-19 Topcon Corp Moving image processor, moving image processing method and program for moving image processing
JP2014101075A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Image processing apparatus, image processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11783507B2 (en) 2020-08-25 2023-10-10 Samsung Electronics Co., Ltd. Camera calibration apparatus and operating method

Also Published As

Publication number Publication date
KR102479253B1 (en) 2022-12-19

Similar Documents

Publication Publication Date Title
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
US9729858B2 (en) Stereo auto-calibration from structure-from-motion
JP4814669B2 (en) 3D coordinate acquisition device
JP6767998B2 (en) Estimating external parameters of the camera from the lines of the image
JP5906272B2 (en) Stereo image processing apparatus for vehicle
EP2757527B1 (en) System and method for distorted camera image correction
US20160275694A1 (en) Image processor, photographing device, program, apparatus control system, and apparatus
US10300854B2 (en) Apparatus and method of generating top-view image
KR101672732B1 (en) Apparatus and method for tracking object
US20090295922A1 (en) In-vehicle device
KR101808092B1 (en) Apparatus and method for auto-correcting and generating avm image
WO2009016509A3 (en) Image processing of motion artefacts by landmark tracking
JP2014074632A (en) Calibration apparatus of in-vehicle stereo camera and calibration method
US8675047B2 (en) Detection device of planar area and stereo camera system
CN112184827B (en) Method and device for calibrating multiple cameras
CN109345591A (en) A kind of vehicle itself attitude detecting method and device
JP7137464B2 (en) Camera calibration device, camera calibration method, and program
KR101394770B1 (en) Image stabilization method and system using curve lane model
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
EP1236126A1 (en) System and method for detecting obstacles to vehicle motion
KR20180052415A (en) Method for compensating camera tolerance based on a camera image of a vehicle
JP2021193340A (en) Self-position estimation device
JP7019431B2 (en) Camera calibration device, camera calibration method, and program
WO2017010268A1 (en) Estimation device and estimation program
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant