KR102478074B1 - Around view monitoring system and method for compensating camera tolerance there of - Google Patents

Around view monitoring system and method for compensating camera tolerance there of Download PDF

Info

Publication number
KR102478074B1
KR102478074B1 KR1020160070211A KR20160070211A KR102478074B1 KR 102478074 B1 KR102478074 B1 KR 102478074B1 KR 1020160070211 A KR1020160070211 A KR 1020160070211A KR 20160070211 A KR20160070211 A KR 20160070211A KR 102478074 B1 KR102478074 B1 KR 102478074B1
Authority
KR
South Korea
Prior art keywords
camera
transformation matrix
correction
cameras
tolerance
Prior art date
Application number
KR1020160070211A
Other languages
Korean (ko)
Other versions
KR20170138166A (en
Inventor
이성수
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020160070211A priority Critical patent/KR102478074B1/en
Publication of KR20170138166A publication Critical patent/KR20170138166A/en
Application granted granted Critical
Publication of KR102478074B1 publication Critical patent/KR102478074B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 어라운드 뷰 모니터링 시스템은 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라 중 두 개 이상의 카메라를 포함하는 영상 촬영부, 상기 카메라의 공차를 보정하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 영상 촬영부에 포함된 각 카메라별로 촬영된 각 영상으로부터 하나 이상의 보정점을 검출하고, 미리 설정된 기준 좌표계의 보정점을 상기 각 영상의 보정점의 위치로 투영시킨 결과에 기초하여, 기준 좌표계에 대응하는 상기 각 카메라별 회전 및 위치 정보를 추정하고, 상기 추정된 각 카메라의 회전 및 위치 정보에 기초하여 각 카메라간 변환 행렬을 산출한 뒤, 상기 변환 행렬에 기초하여 탑 뷰(top view) 영상을 생성하기 위한 룩 업 테이블을 생성하되, 상기 프로세서는 상기 각 카메라간 변환 행렬이 폐루프 조건을 만족하는 경우, 상기 변환 행렬에 기초하여 상기 룩 업 테이블을 생성한다.An around-view monitoring system according to the present invention includes an image capture unit including two or more of front, rear, left, and right cameras installed around a vehicle, a memory storing a program for correcting a tolerance of the camera, and a memory stored in the memory. A processor for executing a stored program, wherein the processor detects one or more correction points from each image captured by each camera included in the image capture unit as the program is executed, and corrects a preset reference coordinate system. Based on the result of projecting the point to the position of the correction point of each image, rotation and position information for each camera corresponding to the reference coordinate system is estimated, and each camera is based on the estimated rotation and position information of each camera. After calculating an inter-camera transformation matrix, a look-up table for generating a top view image is generated based on the transformation matrix, wherein the processor satisfies the closed-loop condition when the inter-camera transformation matrix satisfies, The look-up table is generated based on the transformation matrix.

Description

어라운드 뷰 모니터링 시스템 및 이의 공차 보정 방법{AROUND VIEW MONITORING SYSTEM AND METHOD FOR COMPENSATING CAMERA TOLERANCE THERE OF}AROUND VIEW MONITORING SYSTEM AND METHOD FOR COMPENSATING CAMERA TOLERANCE THERE OF}

본 발명은 어라운드 뷰 모니터링 시스템 및 이의 공차 보정 방법에 관한 것이다.The present invention relates to an around view monitoring system and a tolerance correction method thereof.

차량의 어라운드 뷰 모니터링 시스템(AVMS, Around View Monitoring System)은 차량에 설치된 4개의 카메라(전방, 후방, 좌측, 우측)로부터 영상을 수신하여 차량 주변을 조감도(Bird’s Eye View) 형태로 보여주는 시스템이다.The vehicle's Around View Monitoring System (AVMS) is a system that receives images from four cameras (front, rear, left, and right) installed in the vehicle and displays the surroundings of the vehicle in the form of a Bird's Eye View.

이와 같이 다수의 카메라에서 촬영되는 영상을 이용하는 어라운드 뷰 모니터링 시스템은 카메라 조립시 공차를 보정하는 작업이 필수적이다. 이를 위해 차량의 각 제조사들은 어라운드 뷰 모니터링 시스템을 구비하는 차량에 대하여 어라운드 뷰 영상의 정합성을 만족하도록 공차를 보정한 후 차량을 출고한다.In this way, the around-view monitoring system using images captured by multiple cameras needs to correct tolerances when assembling the cameras. To this end, each manufacturer of the vehicle releases the vehicle after correcting the tolerance to satisfy the consistency of the around-view image of the vehicle equipped with the around-view monitoring system.

그러나 차량을 출고한 이후, 차량을 지속적으로 이용함에 따라 운행 도중에 발생하는 차량의 진동, 사이드 미러의 폴딩, 차량 문의 개폐 등의 다양한 환경적 요인으로 인하여 출고시에 보정된 공차는 변경되어 영상의 정합성이 낮아지게 되는 문제가 발생하게 된다. However, due to various environmental factors such as vehicle vibration during operation, folding of side mirrors, and opening and closing of vehicle doors as the vehicle is continuously used after the vehicle is shipped, the tolerance corrected at the time of shipment is changed to improve image consistency. This lowering will cause problems.

이에 따라, 주행 또는 주차 시 운전자는 왜곡된 어라운드 뷰 영상을 이용해야 되는 불편함을 초래하게 된다.Accordingly, when driving or parking, the driver has to use the distorted around-view image, causing inconvenience.

이를 해소하기 위해서는 변경된 공차를 보정해야 하나, 현재 공차 보정을 위해서는 공차 보정이 가능한 서비스 센터나 사업소 등을 방문하여 수리해야 하는 번거로움이 존재한다.In order to solve this problem, it is necessary to correct the changed tolerance, but the inconvenience of visiting and repairing a service center or business office where tolerance correction is possible exists in order to correct the current tolerance.

따라서, 공차가 변경되더라도 이를 보정하여 정합된 어라운드 뷰 영상을 제공할 수 있는 어라운드 뷰 모니터링 시스템이 필요한 실정이다.Accordingly, there is a need for an around-view monitoring system capable of providing a matched around-view image by correcting the tolerance even when the tolerance is changed.

이와 관련하여, 한국공개특허공보 제10-2015-0144090호(발명의 명칭: 어라운드 뷰 모니터링 시스템 및 어라운드 뷰 모니터링 시스템의 동작방법)는 공차 보정 환경에서 차량을 지정된 위치로 정확히 이동시킨 후, 카메라 별 영상으로부터 검출된 보정점을 이용하여 3×3 변환 행렬을 계산하여 탑 뷰(top view) 영상을 생성하는 방법을 개시하고 있다.In this regard, Korean Patent Laid-Open Publication No. 10-2015-0144090 (title of the invention: around-view monitoring system and operation method of the around-view monitoring system) discloses that after accurately moving a vehicle to a designated position in a tolerance correction environment, each camera Disclosed is a method of generating a top view image by calculating a 3×3 transformation matrix using a correction point detected from an image.

그러나 종래 기술의 경우 차량을 지정된 위치로 정확히 이동시켜야만 하고, 이동시킨 뒤 정지된 상황에서만 공차 보정이 가능하다는 한계가 있다. However, in the case of the prior art, there is a limit in that the vehicle must be accurately moved to a designated position, and tolerance correction is possible only in a stopped state after moving the vehicle.

본 발명의 실시예는 차량에 설치된 복수의 카메라간 변환 행렬을 산출하고, 산출된 각 변환 행렬이 폐루프 조건을 만족하는 경우 공차 보정을 수행함으로써, 차량의 이동 상황에서도 공차를 보정할 수 있는 어라운드 뷰 모니터링 시스템 및 이의 공차 보정 방법을 제공한다.An embodiment of the present invention calculates a conversion matrix between a plurality of cameras installed in a vehicle, and performs tolerance correction when each calculated conversion matrix satisfies a closed loop condition, thereby correcting the tolerance even when the vehicle is moving. A view monitoring system and a tolerance correction method thereof are provided.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 어라운드 뷰 모니터링 시스템은 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라 중 두 개 이상의 카메라를 포함하는 영상 촬영부, 상기 카메라의 공차를 보정하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 영상 촬영부에 포함된 각 카메라별로 촬영된 각 영상으로부터 하나 이상의 보정점을 검출하고, 미리 설정된 기준 좌표계의 보정점을 상기 각 영상의 보정점의 위치로 투영시킨 결과에 기초하여, 기준 좌표계에 대응하는 상기 각 카메라별 회전 및 위치 정보를 추정하고, 상기 추정된 각 카메라의 회전 및 위치 정보에 기초하여 각 카메라간 변환 행렬을 산출한 뒤, 상기 변환 행렬에 기초하여 탑 뷰(top view) 영상을 생성하기 위한 룩 업 테이블을 생성하되, 상기 각 카메라간 변환 행렬이 폐루프 조건을 만족하는 경우, 상기 변환 행렬에 기초하여 상기 룩 업 테이블을 생성한다.As a technical means for achieving the above-described technical problem, an around view monitoring system according to a first aspect of the present invention includes an image capture unit including two or more of front, rear, left and right cameras installed around a vehicle; A memory storing a program for correcting the tolerance of the camera and a processor executing the program stored in the memory. At this time, as the processor executes the program, the processor detects one or more correction points from each image captured by each camera included in the image capture unit, and sets the correction point of the preset reference coordinate system to the correction point of each image. Based on the result of projecting to the position of , rotation and position information for each camera corresponding to the reference coordinate system is estimated, and a transformation matrix between each camera is calculated based on the estimated rotation and position information of each camera. Then, A look-up table for generating a top view image is generated based on the transformation matrix, but when the transformation matrix between cameras satisfies a closed loop condition, the look-up table is generated based on the transformation matrix generate

또한, 본 발명의 제 2 측면에 따른 어라운드 뷰 모니터링 시스템에서의 공차 보정 방법은 복수의 카메라에 의해 촬영된 각 영상으로부터 하나 이상의 보정점을 검출하는 단계; 미리 설정된 기준 좌표계 상의 보정점을 상기 카메라의 좌표계 상의 상기 검출된 보정점의 위치로 투영시키는 단계; 상기 보정점의 투영 결과에 기초하여, 상기 기준 좌표계에 대응하는 상기 각 카메라별 회전 및 위치 정보를 추정하는 단계; 상기 추정된 각 카메라의 회전 및 위치 정보에 기초하여 각 카메라간 변환 행렬을 산출하는 단계; 상기 각 카메라간 변환 행렬이 폐루프 조건을 만족하는지 여부를 판단하는 단계 및 상기 폐루프 조건을 만족하는 경우, 상기 변환 행렬에 기초하여 탑 뷰(top view) 영상을 생성하기 위한 룩 업 테이블을 산출하는 단계를 포함한다.Also, a tolerance correction method in an around view monitoring system according to a second aspect of the present invention includes detecting one or more correction points from each image captured by a plurality of cameras; projecting a correction point on a preset reference coordinate system to a position of the detected correction point on the coordinate system of the camera; estimating rotation and position information for each camera corresponding to the reference coordinate system based on a projection result of the correction point; Calculating a transformation matrix between each camera based on the estimated rotation and position information of each camera; Determining whether the transformation matrix between the cameras satisfies a closed-loop condition, and if the closed-loop condition is satisfied, calculating a look-up table for generating a top view image based on the transformation matrix It includes steps to

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 차량의 정지 상태뿐만 아니라 이동 상황 및 임의의 위치에서도 공차를 보정할 수 있다.According to any one of the above-described problem solving means of the present invention, the tolerance can be corrected not only in a stationary state of the vehicle but also in a moving state and an arbitrary position.

이에 따라, 공차 보정 시간을 단축시킬 수 있어 작업자의 개입을 최소화함으로써 차량 생산 공정의 효율을 높일 수 있고, 차량 주변의 영상을 보다 정확하게 제공할 수 있다.Accordingly, it is possible to shorten the tolerance correction time, thereby minimizing the operator's intervention, thereby increasing the efficiency of the vehicle production process, and providing more accurate images of the surroundings of the vehicle.

도 1은 종래 기술에 따른 어라운드 뷰 모니터링 시스템에서의 공차 보정 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템의 블록도이다.
도 3은 미리 설정된 기준 좌표계 상의 보정점을 카메라의 좌표계 상의 검출된 보정점의 위치로 투영시키는 과정을 설명하기 위한 도면이다.
도 4는 카메라에 의해 촬영된 영상으로부터 탑 뷰 영상을 생성하는 예시도이다.
도 5는 폐루프 조건을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 공차 보정 방법의 순서도이다.
1 is a diagram for explaining a tolerance correction method in an around view monitoring system according to the prior art.
2 is a block diagram of an around view monitoring system according to an embodiment of the present invention.
3 is a diagram for explaining a process of projecting a correction point on a preset reference coordinate system to a position of a detected correction point on a camera coordinate system.
4 is an exemplary view of generating a top view image from an image captured by a camera.
5 is a diagram for explaining a closed loop condition.
6 is a flowchart of a tolerance correction method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the entire specification, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

도 1은 종래 기술에 따른 어라운드 뷰 모니터링 시스템에서의 공차 보정 방법을 설명하기 위한 도면이다.1 is a diagram for explaining a tolerance correction method in an around view monitoring system according to the prior art.

종래 기술에 따른 어라운드 뷰 모니터링 시스템에서의 공차 보정 방법은 카메라에서 촬영된 영상을 이용하여, 영상에 포함된 보정판(pl)에서 보정점 좌표를 인식할 수 있다. 즉, 격자 무늬로 이루어진 보정판(pl)에서 수평 방향으로 격자 모서리에 해당하는 보정점 좌표를 인식할 수 있다. 그리고 인식된 보정점 좌표로부터 3×3 변환 행렬(Homography)을 산출하여 탑 뷰 영상을 생성할 수 있다.A tolerance correction method in an around-view monitoring system according to the related art may recognize correction point coordinates in a correction plate pl included in an image using an image captured by a camera. That is, it is possible to recognize correction point coordinates corresponding to grid edges in the horizontal direction in the correction plate pl formed of a grid pattern. In addition, a top-view image may be generated by calculating a 3×3 transformation matrix (homography) from the recognized correction point coordinates.

이를 위해, 종래 기술에서는 차량이 기 설정된 차량 위치에 정차하고 있어야 하고, 차량 위치에 복수의 보정판(pl)이 설치되야 하며, 카메라에서 복수의 보정판(pl)을 포함한 영상을 촬영함으로써 공차를 보정하게 된다.To this end, in the prior art, the vehicle must be stopped at a preset vehicle position, a plurality of compensating plates (pl) must be installed at the vehicle position, and a camera takes an image including a plurality of compensating plates (pl) to correct the tolerance. do.

이와 같이, 종래 기술의 경우 차량을 지정된 위치로 정확히 이동시켜야만 하고, 이동시킨 뒤 정지된 상황에서만 공차 보정이 가능하다는 한계가 있으며, 카메라의 공차를 보정하는데 많은 시간이 소요된다는 문제가 있었다. As such, in the case of the prior art, there is a problem that the vehicle must be accurately moved to a designated position, and there is a limit that tolerance correction is possible only in a stopped situation after moving, and it takes a lot of time to correct the camera tolerance.

이러한 문제점을 해결하기 위하여, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100) 및 이의 공차 보정 방법은 차량에 설치된 복수의 카메라간 변환 행렬을 산출하고, 산출된 각 변환 행렬이 폐루프 조건을 만족하는 경우 공차 보정을 수행함으로써, 차량의 이동 상황 또는 지정된 위치가 아닌 임의의 위치에서도 공차를 보정할 수 있다.In order to solve this problem, the around view monitoring system 100 and its tolerance correction method according to an embodiment of the present invention calculate a conversion matrix between a plurality of cameras installed in a vehicle, and each calculated conversion matrix is a closed loop condition. By performing the tolerance correction when is satisfied, the tolerance can be corrected even in a moving situation of the vehicle or an arbitrary position other than a designated position.

이하에서는 도 2 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)을 설명하도록 한다.Hereinafter, the around view monitoring system 100 according to an embodiment of the present invention will be described with reference to FIGS. 2 to 5 .

도 2는 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)의 블록도이다. 도 3은 미리 설정된 기준 좌표계 상의 보정점을 카메라(111~114)의 좌표계 상의 검출된 보정점의 위치로 투영시키는 과정을 설명하기 위한 도면이다. 도 4는 카메라(111~114)에 의해 촬영된 영상으로부터 탑 뷰 영상을 생성하는 예시도이다. 도 5는 폐루프 조건을 설명하기 위한 도면이다.2 is a block diagram of an around view monitoring system 100 according to an embodiment of the present invention. 3 is a diagram for explaining a process of projecting a correction point on a preset reference coordinate system to a position of a detected correction point on the coordinate system of the cameras 111 to 114. 4 is an exemplary diagram for generating a top view image from images captured by cameras 111 to 114. Referring to FIG. 5 is a diagram for explaining a closed loop condition.

본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)은 영상 촬영부(110), 메모리(120) 및 프로세서(130)를 포함한다.The around view monitoring system 100 according to an embodiment of the present invention includes an image capturing unit 110 , a memory 120 and a processor 130 .

영상 촬영부(110)는 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라(111~114) 중 두 개 이상의 카메라를 포함한다. 즉, 본 발명의 일 실시예는 차량에 최소 두 개 이상의 카메라가 설치되어 있으며, 바람직하게는 차량을 중심으로 전방, 후방, 좌측 및 우측 카메라(111~114)가 각각 설치되어 각각 차량의 전방, 후방, 좌측 및 우측을 촬영한다. The image capturing unit 110 includes two or more cameras among front, rear, left and right cameras 111 to 114 installed around the vehicle. That is, in one embodiment of the present invention, at least two or more cameras are installed in a vehicle, and preferably, front, rear, left and right cameras 111 to 114 are installed around the vehicle, respectively, so that the front of the vehicle, Take pictures of the rear, left and right sides.

구체적으로 전방 카메라(111)는 차량의 본 넷 중심에 설치되고, 좌측 및 우측 카메라(113, 114)는 각각 차량의 양 사이드 미러의 가장 자리 또는 아래 쪽에 위치하도록 설치되며, 후방 카메라(112)는 후방 범퍼의 위쪽 중앙에 설치될 수 있다. 이때, 전방 및 후방 카메라(111, 112)의 높이는 서로 동일하게 설치되는 것이 바람직하며, 좌측 및 우측 카메라(113, 114)의 높이는 동일하게 설치되는 것이 바람직하다.Specifically, the front camera 111 is installed at the center of the vehicle's bone net, the left and right cameras 113 and 114 are installed to be positioned at the edge or bottom of both side mirrors of the vehicle, respectively, and the rear camera 112 is It can be installed in the upper center of the rear bumper. At this time, the heights of the front and rear cameras 111 and 112 are preferably installed the same, and the heights of the left and right cameras 113 and 114 are preferably installed the same.

여기서 각 카메라(111~114)의 설치 위치는 반드시 이에 한정되는 것은 아니며, 차량의 종류 및 디자인에 따라 설치 상 변경이 있을 수 있다.Here, the installation position of each of the cameras 111 to 114 is not necessarily limited thereto, and may be changed depending on the type and design of the vehicle.

이러한, 영상 촬영부(110)의 각 카메라(111~114)는 광각 렌즈, 어안 렌즈 등과 같이 화각이 큰 렌즈로 구비될 수 있다.Each of the cameras 111 to 114 of the image capture unit 110 may be provided with a lens having a large angle of view, such as a wide-angle lens or a fisheye lens.

영상 촬영부(110)는 렌즈를 통해 3차원의 피사체를 2차원의 영상으로 촬영하고, 촬영된 영상을 프로세서(130)에 제공할 수 있다. 이때, 프로세서(130)는 통신모듈(미도시)을 통하여 영상 촬영부(110)에 의해 촬영된 영상을 수신할 수도 있다.The image capture unit 110 may capture a 3D object as a 2D image through a lens and provide the captured image to the processor 130 . At this time, the processor 130 may receive an image captured by the image capturing unit 110 through a communication module (not shown).

이와 같은 통신모듈은 유선 통신모듈 및 무선 통신모듈을 모두 포함할 수 있다. 유선 통신모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신모듈은 WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다. 보다 바람직하게 통신모듈은 CAN(Controller Area Network) 통신을 통하여 데이터를 송수신할 수 있다.Such a communication module may include both a wired communication module and a wireless communication module. The wired communication module may be implemented as a power line communication device, a telephone line communication device, cable home (MoCA), Ethernet, IEEE1294, an integrated wired home network, and an RS-485 control device. In addition, the wireless communication module may be implemented with wireless LAN (WLAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60 GHz WPAN, Binary-CDMA, wireless USB technology, wireless HDMI technology, and the like. More preferably, the communication module may transmit and receive data through CAN (Controller Area Network) communication.

메모리(120)에는 카메라(111~114)의 공차를 보정하기 위한 프로그램이 저장된다. 이때, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. A program for correcting the tolerance of the cameras 111 to 114 is stored in the memory 120 . At this time, the memory 120 collectively refers to a non-volatile storage device and a volatile storage device that continuously maintain stored information even when power is not supplied.

예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, the memory 120 may include a compact flash (CF) card, a secure digital (SD) card, a memory stick, a solid-state drive (SSD), and a micro SD card. NAND flash memory such as cards, magnetic computer storage devices such as hard disk drives (HDD), and optical disc drives such as CD-ROMs and DVD-ROMs. can

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킨다. 프로세서(130)는 프로그램을 실행시킴에 따라, 먼저 영상 촬영부(110)에 포함된 각 카메라(111~114) 별로 촬영된 각 영상으로부터 하나 이상의 보정점을 검출한다. The processor 130 executes the program stored in the memory 120. As the program is executed, the processor 130 first detects one or more correction points from each image captured by each of the cameras 111 to 114 included in the image capturing unit 110 .

이때, 프로세서(130)는 바람직하게는 각 카메라(111~114) 별로 촬영된 각각의 영상으로부터 4개의 보정점을 검출할 수 있으며, 차량의 정차시뿐만 아니라 이동중 또는 임의의 위치 상에서도 보정점을 검출할 수 있다.At this time, the processor 130 may preferably detect four correction points from each image taken by each of the cameras 111 to 114, and detect the correction points not only when the vehicle is stopped but also during movement or at an arbitrary position. can do.

보정점을 검출하고 나면, 프로세서(130)는 도 3에 도시된 바와 같이 미리 설정된 기준 좌표계(O)의 보정점(P0)을 카메라(111~114)의 좌표계(C) 상의 검출된 보정점의 위치(Pc)로 투영시켜, 기준 좌표계에 대응하는 각 카메라별(111~114) 회전 및 위치 정보를 추정한다. After detecting the correction point, the processor 130, as shown in FIG. 3, converts the correction point P0 of the preset reference coordinate system O to the detected correction point on the coordinate system C of the cameras 111 to 114. By projecting to the position Pc, rotation and position information for each camera (111 to 114) corresponding to the reference coordinate system is estimated.

즉, 보정판의 보정점은 미리 설정되어 있는 것이므로, 프로세서(130)는 이러한 보정점의 위치를 검출된 보정점으로 투영시킴으로써 각 카메라(111~114)별 회전 및 위치 정보를 추정할 수 있다. 이때, 카메라(111~114)의 회전 및 위치 정보는 비선형 최적화 방법(nonlinear optimization)에 기초하여 추정할 수 있다. That is, since the correction point of the correction plate is set in advance, the processor 130 can estimate the rotation and position information for each camera 111 to 114 by projecting the location of the correction point to the detected correction point. At this time, rotation and position information of the cameras 111 to 114 may be estimated based on nonlinear optimization.

이때, 프로세서(130)는 두 개 이상의 카메라 중 하나 이상의 카메라가 요잉(yawing), 피칭(pitching) 및 롤링(rolling) 동작 중 하나 이상의 동작이 수행되는 경우에 대응되는 카메라의 회전 정보를 추정할 수 있다.At this time, the processor 130 may estimate the rotation information of the corresponding camera when one or more of the two or more cameras performs one or more of yawing, pitching, and rolling operations. there is.

다시 도 2를 참조하면, 이와 같이 각 카메라(111~114)의 회전 및 위치 정보가 추정되면, 프로세서(130)는 추정된 각 카메라(111~114)의 회전 및 위치 정보에 기초하여, 각 카메라(111~114)에서 촬영된 영상을 차량의 상방에서 지표면을 바라보는 방향, 즉 탑 뷰(top view) 시점의 영상으로 변환하기 위한 변환 행렬을 산출한다.Referring to FIG. 2 again, when the rotation and position information of each camera 111 to 114 is estimated in this way, the processor 130, based on the estimated rotation and position information of each camera 111 to 114, A transformation matrix for converting the images captured at (111 to 114) into a direction looking at the ground surface from above the vehicle, that is, a top view image is calculated.

이때, 영상 촬영부(110)가 차량을 중심으로 4개의 카메라 즉, 전방, 후방, 좌측 및 우측 카메라(111~114)를 포함하고 있는 경우, 프로세서(130)는 4개의 카메라간의 4×4 변환 행렬(Homogeneous Transform)을 변환 행렬을 각각 산출할 수 있다. At this time, when the image capturing unit 110 includes four cameras, that is, front, rear, left, and right cameras 111 to 114 centered on the vehicle, the processor 130 performs a 4×4 conversion between the four cameras. A transformation matrix can be calculated for each matrix (Homogeneous Transform).

이러한 변환 행렬을 산출함으로써, 탑 뷰 영상 좌표계 상에서 각 카메라(111~114)의 위치가 어느 위치에 해당하는지 알 수 있다. By calculating such a transformation matrix, it is possible to know which position the position of each camera 111 to 114 corresponds to on the top-view image coordinate system.

또한, 카메라(111~114) 별 4개의 보정점이 탑 뷰 영상 좌표계 상에서 어느 위치에 대응되는지를 산출할 수 있다. 즉, 도 4에 도시된 전방 카메라(111)의 예시의 경우, 변환 행렬을 이용하여 전방 카메라(111)에 의해 촬영된 영상에서의 4개의 보정점(P1, P2, P3, P4)에 대응하는 탑 뷰 영상 좌표계 상에서의 위치(P1’, P2’, P3’, P4’)를 산출할 수 있다. In addition, it is possible to calculate which positions the four correction points for each of the cameras 111 to 114 correspond to on the top-view image coordinate system. That is, in the case of the example of the front camera 111 shown in FIG. 4, the four correction points P1, P2, P3, P4 in the image taken by the front camera 111 using the transformation matrix correspond to Positions (P1', P2', P3', P4') on the top-view image coordinate system may be calculated.

이에 따라, 본 발명의 일 실시예는 전술한 종래 기술에 따른 공차 보정 방법과 마찬가지로 카메라별 3×3 변환 행렬을 계산하여 탑 뷰 영상을 생성할 수도 있다.Accordingly, in an embodiment of the present invention, a top-view image may be generated by calculating a 3×3 transformation matrix for each camera, similarly to the above-described tolerance correction method according to the prior art.

이렇게 구해진 변환 행렬에 기초하여, 프로세서(130)는 탑 뷰 영상을 생성하기 위한 룩 업 테이블(LUT, Look Up Table)을 생성한다. 즉, 매번 카메라에 의해 촬영된 영상을 변환 행렬을 이용하여 탑 뷰 영상으로 변환하는 것은 많은 자원과 시간이 소요되므로, 미리 카메라의 왜곡 보정 알고리즘과 변환 행렬을 기초로 각 카메라별로 촬영된 영상을 탑 뷰 시점 영상으로 변환하기 위한 룩 업 테이블을 생성하고, 룩 업 테이블을 통해 각각 영상 처리하여 탑 뷰 영상을 생성할 수 있다. 이러한 룩 업 테이블은 왜곡 보정 알고리즘, 아핀(Affine) 변환 알고리즘, 시점 변환 알고리즘 등 다양한 알고리즘을 적용하여 생성될 수 있다.Based on the conversion matrix obtained in this way, the processor 130 generates a look up table (LUT) for generating a top view image. That is, since it takes a lot of resources and time to convert an image captured by a camera into a top-view image using a transformation matrix, the image captured by each camera is topped up in advance based on the distortion correction algorithm and transformation matrix of the camera. A top view image may be generated by generating a lookup table for conversion into a view point image and processing each image through the lookup table. Such a lookup table may be generated by applying various algorithms such as a distortion correction algorithm, an affine transformation algorithm, and a viewpoint transformation algorithm.

한편, 프로세서(130)는 룩 업 테이블을 생성하기 전에 각 카메라간 변환 행렬이 폐루프(Loop Closing) 조건을 만족하는지 여부를 판단할 수 있다.Meanwhile, the processor 130 may determine whether a transformation matrix between cameras satisfies a loop closing condition before generating a lookup table.

도 5를 참조하면, 전방, 후방, 좌측 및 우측 카메라(111~114)가 각각 차량에 설치되어 있는 경우, 프로세서(130)는 식 1과 같은 각 카메라 간의 4×4 변환 행렬(Homogeneous Transform)을 산출할 수 있다. Referring to FIG. 5 , when front, rear, left, and right cameras 111 to 114 are installed in a vehicle, the processor 130 calculates a 4×4 homogeneous transform between each camera as shown in Equation 1. can be calculated

[식 1][Equation 1]

Figure 112016054383633-pat00001
Figure 112016054383633-pat00001

그리고 각 산출된 카메라간 변환 행렬이 폐루프 조건을 만족하는지 여부를 판단할 수 있다. In addition, it may be determined whether the calculated inter-camera transformation matrix satisfies the closed loop condition.

여기에서 폐루프 조건은 식 2의 조건을 만족하는 것일 수 있다. Here, the closed loop condition may satisfy the condition of Equation 2.

[식 2][Equation 2]

Figure 112016054383633-pat00002
Figure 112016054383633-pat00002

이때, I는 단위 행렬, 상기

Figure 112016054383633-pat00003
는 카메라 i(1≤i≤4)에서 카메라 j(1≤j≤4)로의 변환 행렬을 의미한다.In this case, I is an identity matrix,
Figure 112016054383633-pat00003
denotes a transformation matrix from camera i (1≤i≤4) to camera j (1≤j≤4).

즉, 도 5와 같이 프로세서(130)는 전방 카메라(111)를 기준으로 우측 카메라(114)로의 변환 행렬(

Figure 112016054383633-pat00004
), 우측 카메라(114)를 기준으로 후방 카메라(112)로의 변환 행렬(
Figure 112016054383633-pat00005
), 후방 카메라(112)를 기준으로 좌측 카메라(113)로의 변환 행렬(
Figure 112016054383633-pat00006
), 좌측 카메라(113)를 기준으로 전방 카메라(111)로의 변환 행렬(
Figure 112016054383633-pat00007
)의 곱이 단위 행렬을 만족하는지 여부를 판단한다. That is, as shown in FIG. 5, the processor 130 converts the front camera 111 to the right camera 114 into a transformation matrix (
Figure 112016054383633-pat00004
), a transformation matrix from the right camera 114 to the rear camera 112 (
Figure 112016054383633-pat00005
), a transformation matrix from the rear camera 112 to the left camera 113 (
Figure 112016054383633-pat00006
), a transformation matrix from the left camera 113 to the front camera 111 (
Figure 112016054383633-pat00007
) determines whether the product satisfies the identity matrix.

판단 결과 각 변환 행렬의 곱이 단위 행렬을 만족하는 경우, 프로세서(130)는 각 카메라(111~114) 별로 추정된 회전 및 위치 정보가 정확한 것으로 보고, 변환 행렬에 기초하여 룩 업 테이블을 생성할 수 있다.As a result of the determination, when the product of each transformation matrix satisfies the identity matrix, the processor 130 considers the estimated rotation and position information for each camera 111 to 114 to be accurate, and generates a lookup table based on the transformation matrix there is.

이때, 도 5에서의 변환 행렬의 각 방향은 설명의 편의상 특정 방향으로 지정한 것이며, 반대 방향 또는 카메라의 개수에 따라 다양하게 설정될 수 있음은 물론이다.At this time, each direction of the transformation matrix in FIG. 5 is designated as a specific direction for convenience of explanation, and can be set in various ways according to the opposite direction or the number of cameras.

한편, 프로세서(130)는 각 카메라(111~114)간 변환 행렬이 폐루프 조건을 만족하지 않는 경우, 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료할 수 있다.Meanwhile, when the transformation matrix between the cameras 111 to 114 does not satisfy the closed loop condition, the processor 130 may generate notification information corresponding to the warning message and end tolerance correction.

또한, 프로세서(130)는 폐루프 조건을 만족하는 경우라 하더라도 공차 보정을 종료할 수 있다.Also, the processor 130 may end tolerance correction even when the closed loop condition is satisfied.

즉, 프로세서(130)는 산출된 각 카메라(111~114)간 변환 행렬과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우, 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료할 수 있다.That is, the processor 130 may generate notification information corresponding to a warning message and terminate tolerance correction when the difference between the calculated conversion matrix between the cameras 111 to 114 and the preset design reference value is greater than or equal to a threshold value. .

또한, 프로세서(130)는 탑 뷰 영상에 대응하여 예측된 보정점의 좌표값과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우, 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료할 수 있다.In addition, the processor 130 may generate notification information corresponding to a warning message and terminate tolerance correction when the difference between the predicted coordinate value of the correction point corresponding to the top-view image and the preset design reference value is greater than or equal to a threshold value. there is.

상기 폐루프 조건을 만족하는 경우 수행되는 공차 보정 종료 조건은 각각 독립적으로 또는 복합적으로 수행될 수 있다.Tolerance correction end conditions performed when the closed loop condition is satisfied may be performed independently or in combination.

참고로, 본 발명의 실시예에 따른 도 2에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, the components shown in FIG. 2 according to an embodiment of the present invention may be implemented in the form of software or hardware such as a Field Programmable Gate Array (FPGA) or Application Specific Integrated Circuit (ASIC), and perform predetermined roles. can do.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or configured to reproduce one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component includes components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, sub routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within them may be combined into fewer components or further separated into additional components.

이하에서는 도 6을 참조하여, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)에서의 공차 보정 방법에 대하여 설명하도록 한다.Hereinafter, a tolerance correction method in the around view monitoring system 100 according to an embodiment of the present invention will be described with reference to FIG. 6 .

도 6은 본 발명의 일 실시예에 따른 공차 보정 방법의 순서도이다.6 is a flowchart of a tolerance correction method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)에서의 공차 보정 방법은 먼저, 공차 보정 모드가 시작되면(S110), 복수의 카메라(111~114)에 의해 촬영된 각 영상으로부터 하나 이상의 보정점을 검출한다(S120). In the tolerance correction method in the around-view monitoring system 100 according to an embodiment of the present invention, first, when the tolerance correction mode starts (S110), one or more images are obtained from each image captured by the plurality of cameras 111 to 114. A correction point is detected (S120).

이때, 본 발명의 일 실시예는 차량을 중심으로 전방, 후방, 좌측 및 우측의 4개의 카메라(111~114) 중 2개 이상의 카메라가 설치되어 있으면 공차 보정이 가능하다. 최근 차량에는 4개의 카메라가 모두 설치되어 있는바, 본 발명의 일 실시예 역시 4개의 카메라(111~114) 각각으로부터 촬영된 각 영상으로부터 보정점을 검출하는 것이 바람직하며, 각 영상으로부터 4개씩의 보정점을 검출할 수 있다.At this time, in one embodiment of the present invention, tolerance correction is possible when two or more cameras among the four cameras 111 to 114 on the front, rear, left, and right sides of the vehicle are installed. Recently, all four cameras are installed in a vehicle, and an embodiment of the present invention also preferably detects a correction point from each image taken from each of the four cameras 111 to 114, and four Correction points can be detected.

다음으로, 미리 설정된 기준 좌표계 상의 보정점을 카메라(111~114)의 좌표계 상의 검출된 보정점의 위치로 투영시키고, 보정점의 투영 결과에 기초하여 기준 좌표계에 대응하는 각 카메라(111~114)별 회전 및 위치 정보를 추정한다(S130).Next, the correction point on the preset reference coordinate system is projected onto the position of the detected correction point on the coordinate system of the cameras 111 to 114, and each camera 111 to 114 corresponding to the reference coordinate system based on the projection result of the correction point Estimating star rotation and position information (S130).

다음으로, 추정된 각 카메라(111~114)의 회전 및 위치 정보에 기초하여 각 카메라(111~114)간의 변환 행렬을 산출한 뒤(S140), 각 카메라(111~114)간의 변환 행렬이 폐루프 조건을 만족하는지 여부를 판단한다(S150).Next, after calculating the transformation matrix between each camera 111 to 114 based on the estimated rotation and position information of each camera 111 to 114 (S140), the transformation matrix between each camera 111 to 114 is closed. It is determined whether the loop condition is satisfied (S150).

판단 결과 폐루프 조건을 만족하는 경우, 변환 행렬에 기초하여 탑 뷰 영상을 생성하기 위한 룩 업 테이블을 산출한다(S180).As a result of the determination, when the closed loop condition is satisfied, a look-up table for generating a top-view image is calculated based on the transformation matrix (S180).

이와 달리, 폐루프 조건을 만족하지 않는 경우, 어라운드 뷰 모니터링 시스템(100)은 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료할 수 있다(S150, S190).In contrast, when the closed loop condition is not satisfied, the around view monitoring system 100 may generate notification information corresponding to the warning message and end tolerance correction (S150 and S190).

또한, 폐루프 조건을 만족하는 경우라 하더라도, 산출된 각 카메라(111~114)간 변환 행렬과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우(S160), 또는 탑 뷰 영상에 대응하여 예측된 보정점의 좌표값과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우(S170), 어라운드 뷰 모니터링 시스템(100)은 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료할 수 있다(S190).In addition, even if the closed loop condition is satisfied, when the difference between the calculated transformation matrix between the cameras 111 to 114 and the preset design reference value is greater than or equal to a threshold value (S160), or the predicted top view image When the difference between the coordinate value of the correction point and the preset design reference value is greater than or equal to the threshold value (S170), the around view monitoring system 100 may generate notification information corresponding to the warning message and end tolerance correction (S190). .

한편, 상술한 설명에서, 단계 S110 내지 S190은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 2 내지 도 5에서 이미 기술된 내용은 도 6의 공차 보정 방법에도 적용될 수 있다.Meanwhile, in the above description, steps S110 to S190 may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed. In addition, even if other omitted contents, the contents already described in FIGS. 2 to 5 may also be applied to the tolerance correction method of FIG. 6 .

이와 같은 본 발명의 일 실시예 중 어느 하나에 의하면, 차량의 정지 상태뿐만 아니라 이동 상황 및 임의의 위치에서도 공차를 보정할 수 있다.According to any one of the embodiments of the present invention, the tolerance can be corrected not only in a stationary state of the vehicle but also in a moving state and at an arbitrary position.

이에 따라, 공차 보정 시간을 단축시킬 수 있어 작업자의 개입을 최소화함으로써 차량 생산 공정의 효율을 높일 수 있고, 차량 주변의 영상을 보다 정확하게 제공할 수 있다.Accordingly, it is possible to shorten the tolerance correction time, thereby minimizing the operator's intervention, thereby increasing the efficiency of the vehicle production process, and providing more accurate images of the surroundings of the vehicle.

한편, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)에서의 공차 보정 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. Meanwhile, the tolerance correction method in the around view monitoring system 100 according to an embodiment of the present invention is implemented in the form of a computer program stored in a medium executed by a computer or a recording medium including instructions executable by a computer. It can be. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and includes any information delivery media.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 어라운드 뷰 모니터링 시스템
110: 영상 촬영부
111: 전방 카메라 112: 후방 카메라
113: 좌측 카메라 114: 우측 카메라
120: 메모리
130: 프로세서
100: around view monitoring system
110: video recording unit
111: front camera 112: rear camera
113: left camera 114: right camera
120: memory
130: processor

Claims (14)

어라운드 뷰 모니터링 시스템에 있어서,
차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라 중 두 개 이상의 카메라를 포함하는 영상 촬영부,
상기 카메라의 공차를 보정하기 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 영상 촬영부에 포함된 각 카메라별로 촬영된 각 영상으로부터 하나 이상의 보정점을 검출하고, 미리 설정된 기준 좌표계의 보정점을 상기 각 영상의 보정점의 위치로 투영시킨 결과에 기초하여, 기준 좌표계에 대응하는 상기 각 카메라별 회전 및 위치 정보를 추정하고, 상기 추정된 각 카메라의 회전 및 위치 정보에 기초하여 각 카메라간 변환 행렬을 산출한 뒤, 상기 변환 행렬에 기초하여 탑 뷰(top view) 영상을 생성하기 위한 룩 업 테이블을 생성하되,
상기 프로세서는 상기 각 카메라간 변환 행렬이 폐루프 조건을 만족하는 경우, 상기 변환 행렬에 기초하여 상기 룩 업 테이블(LUT, Look Up Table)을 생성하는 것인 어라운드 뷰 모니터링 시스템.
In the around view monitoring system,
An image capture unit including two or more cameras among front, rear, left and right cameras installed around the vehicle;
A memory storing a program for correcting the tolerance of the camera; and
Including a processor that executes the program stored in the memory,
As the program is executed, the processor detects one or more correction points from each image captured by each camera included in the image capture unit, and sets the correction point of a preset reference coordinate system to the location of the correction point of each image. Based on the result projected by , rotation and position information for each camera corresponding to the reference coordinate system is estimated, a transformation matrix between each camera is calculated based on the estimated rotation and position information of each camera, and the transformation Create a look-up table for generating a top view image based on the matrix,
Wherein the processor generates the look up table (LUT, Look Up Table) based on the transformation matrix when the transformation matrix between cameras satisfies a closed loop condition.
제 1 항에 있어서,
상기 프로세서는 차량의 이동 중에 상기 각 카메라별로 촬영된 각 영상으로부터 4개의 보정점을 검출하는 것인 어라운드 뷰 모니터링 시스템.
According to claim 1,
Wherein the processor detects four correction points from each image captured by each camera while the vehicle is moving.
제 1 항에 있어서,
상기 영상 촬영부는 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라를 포함하고,
상기 프로세서는 상기 4개의 카메라간 변환 행렬이 폐루프 조건을 만족하는 경우, 상기 변환 행렬에 기초하여 상기 룩 업 테이블을 생성하는 것인 어라운드 뷰 모니터링 시스템.
According to claim 1,
The image capture unit includes front, rear, left and right cameras installed around the vehicle,
Wherein the processor generates the look-up table based on the transformation matrix when the transformation matrix between the four cameras satisfies a closed loop condition.
제 3 항에 있어서,
상기 폐루프 조건은
Figure 112016054383633-pat00008
을 만족하는 것이되,
상기 I는 단위 행렬, 상기
Figure 112016054383633-pat00009
는 카메라 i(1≤i≤4)에서 카메라 j(1≤j≤4)로의 변환 행렬을 의미하는 것인 어라운드 뷰 모니터링 시스템.
According to claim 3,
The closed loop condition is
Figure 112016054383633-pat00008
is to satisfy
Where I is an identity matrix,
Figure 112016054383633-pat00009
Means a transformation matrix from camera i (1≤i≤4) to camera j (1≤j≤4).
제 1 항에 있어서,
상기 프로세서는 상기 각 카메라간 변환 행렬이 폐루프 조건을 만족하지 않는 경우, 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료하는 것인 어라운드 뷰 모니터링 시스템.
According to claim 1,
Wherein the processor generates notification information corresponding to a warning message and terminates tolerance correction when the transformation matrix between the cameras does not satisfy a closed loop condition.
제 1 항 또는 제 5 항에 있어서,
상기 프로세서는 상기 산출된 각 카메라간 변환 행렬과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우, 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료하는 것인 어라운드 뷰 모니터링 시스템.
According to claim 1 or 5,
Wherein the processor generates notification information corresponding to a warning message and terminates tolerance correction when a difference between the calculated transformation matrix between each camera and a preset design reference value is greater than or equal to a threshold value.
제 1 항 또는 제 5 항에 있어서,
상기 프로세서는 상기 탑 뷰 영상에 대응하여 예측된 보정점의 좌표값과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우, 경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료하는 것인 어라운드 뷰 모니터링 시스템.
According to claim 1 or 5,
Wherein the processor generates notification information corresponding to a warning message and terminates tolerance correction when a difference between a coordinate value of a correction point predicted corresponding to the top-view image and a preset design reference value is equal to or greater than a threshold value. monitoring system.
제 1 항에 있어서,
상기 프로세서는 상기 두 개 이상의 카메라 중 하나 이상의 카메라가 요잉, 피칭 및 롤링 동작 중 하나 이상의 동작이 수행되는 경우에 대응되는 카메라별 회전을 추정하는 것인 어라운드 뷰 모니터링 시스템.
According to claim 1,
Wherein the processor estimates a rotation for each camera corresponding to a case in which one or more of the two or more cameras performs one or more of yawing, pitching, and rolling motions.
어라운드 뷰 모니터링 시스템에서의 공차 보정 방법에 있어서,
차량에 설치된 복수의 카메라에 의해 촬영된 각 영상으로부터 하나 이상의 보정점을 검출하는 단계;
미리 설정된 기준 좌표계 상의 보정점을 상기 카메라의 좌표계 상의 상기 검출된 보정점의 위치로 투영시키는 단계;
상기 보정점의 투영 결과에 기초하여, 상기 기준 좌표계에 대응하는 상기 각 카메라별 회전 및 위치 정보를 추정하는 단계;
상기 추정된 각 카메라의 회전 및 위치 정보에 기초하여 각 카메라간 변환 행렬을 산출하는 단계;
상기 각 카메라간 변환 행렬이 폐루프 조건을 만족하는지 여부를 판단하는 단계 및
상기 폐루프 조건을 만족하는 경우, 상기 변환 행렬에 기초하여 탑 뷰(top view) 영상을 생성하기 위한 룩 업 테이블(LUT, Look Up Table)을 산출하는 단계를 포함하는 것인 공차 보정 방법.
In the tolerance correction method in the around view monitoring system,
Detecting one or more correction points from each image taken by a plurality of cameras installed in the vehicle;
projecting a correction point on a preset reference coordinate system to a position of the detected correction point on the coordinate system of the camera;
estimating rotation and position information for each camera corresponding to the reference coordinate system based on a projection result of the correction point;
Calculating a transformation matrix between each camera based on the estimated rotation and position information of each camera;
Determining whether the transformation matrix between the cameras satisfies a closed loop condition; and
and calculating a look up table (LUT) for generating a top view image based on the transformation matrix when the closed loop condition is satisfied.
제 9 항에 있어서,
상기 각 카메라간 변환 행렬이 폐루프 조건을 만족하지 않는 경우,
경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료하는 단계를 더 포함하는 것인 공차 보정 방법.
According to claim 9,
When the transformation matrix between the cameras does not satisfy the closed loop condition,
and generating notification information corresponding to the warning message and terminating the tolerance correction.
제 9 항 또는 제 10 항에 있어서,
상기 산출된 각 카메라간 변환 행렬과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우,
경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료하는 단계를 더 포함하는 것인 공차 보정 방법.
According to claim 9 or 10,
When the difference between the calculated conversion matrix between each camera and the preset design reference value is greater than or equal to a threshold value,
and generating notification information corresponding to the warning message and terminating the tolerance correction.
제 9 항 또는 제 10 항에 있어서,
상기 탑 뷰 영상에 대응하여 예측된 보정점의 좌표값과 미리 설정된 설계 기준 값과의 차이가 임계치 이상인 경우,
경고 메시지에 대응하는 알림 정보를 생성하고 공차 보정을 종료하는 단계를 더 포함하는 것인 공차 보정 방법.
According to claim 9 or 10,
When the difference between the coordinate value of the correction point predicted corresponding to the top-view image and the preset design reference value is greater than or equal to a threshold value,
and generating notification information corresponding to the warning message and terminating the tolerance correction.
삭제delete 제 12 항에 있어서,
상기 폐루프 조건은
Figure 112022071135296-pat00010
을 만족하는 것이되,
상기 I는 단위 행렬, 상기
Figure 112022071135296-pat00011
는 카메라 i(1≤i≤4)에서 카메라 j(1≤j≤4)로의 변환 행렬을 의미하는 것인 공차 보정 방법.
According to claim 12,
The closed loop condition is
Figure 112022071135296-pat00010
is to satisfy
Where I is an identity matrix,
Figure 112022071135296-pat00011
denotes a transformation matrix from camera i (1≤i≤4) to camera j (1≤j≤4).
KR1020160070211A 2016-06-07 2016-06-07 Around view monitoring system and method for compensating camera tolerance there of KR102478074B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160070211A KR102478074B1 (en) 2016-06-07 2016-06-07 Around view monitoring system and method for compensating camera tolerance there of

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160070211A KR102478074B1 (en) 2016-06-07 2016-06-07 Around view monitoring system and method for compensating camera tolerance there of

Publications (2)

Publication Number Publication Date
KR20170138166A KR20170138166A (en) 2017-12-15
KR102478074B1 true KR102478074B1 (en) 2022-12-15

Family

ID=60954491

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160070211A KR102478074B1 (en) 2016-06-07 2016-06-07 Around view monitoring system and method for compensating camera tolerance there of

Country Status (1)

Country Link
KR (1) KR102478074B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100948886B1 (en) 2009-06-25 2010-03-24 주식회사 이미지넥스트 Tolerance compensating apparatus and method for automatic vehicle-mounted camera

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101933185B1 (en) * 2012-05-23 2018-12-27 현대모비스 주식회사 System for automatic control of around view monitoring camera and methed thereof
KR101987634B1 (en) * 2012-09-10 2019-06-11 현대모비스 주식회사 Method and Apparatus for Compensating Camera Tolerance and Around View Monitoring System Using the Same
KR20150144090A (en) * 2014-06-16 2015-12-24 현대모비스 주식회사 Operating method of around view monitoring system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100948886B1 (en) 2009-06-25 2010-03-24 주식회사 이미지넥스트 Tolerance compensating apparatus and method for automatic vehicle-mounted camera

Also Published As

Publication number Publication date
KR20170138166A (en) 2017-12-15

Similar Documents

Publication Publication Date Title
CN108367714B (en) Filling in areas of peripheral vision obscured by mirrors or other vehicle components
KR102457264B1 (en) Around view monitoring system and method for compensating camera tolerance there of
US8491127B2 (en) Auto-focusing projector and method for automatically focusing the projector
KR102543523B1 (en) System and method for correcting error of camera
US10349023B2 (en) Image processing apparatus and method
US9807359B1 (en) System and method for advanced lens geometry fitting for imaging devices
US20200092524A1 (en) Device, system and method for generating updated camera-projector correspondences from a reduced set of test patterns
KR102198217B1 (en) Look-up table based stitching image generating apparatus and method
US9838604B2 (en) Method and system for stabilizing video frames
KR102008503B1 (en) Intelleigent cooperating server, system and method of analyzing based on cooperation thereof
JP5257618B2 (en) Projector, program, information storage medium, and exposure adjustment method
US20170070650A1 (en) Apparatus for correcting image distortion of lens
TW201617252A (en) Automatic tracking collision avoidance system and method thereof
JP2022003769A (en) Aligning digital images
JP2015037204A5 (en)
US10546391B2 (en) Apparatus and method for generating around view
US10257406B2 (en) Image processing apparatus and computer-readable storage medium
CN106651903A (en) Moving object detection method
KR102478074B1 (en) Around view monitoring system and method for compensating camera tolerance there of
WO2017090097A1 (en) Outside recognition device for vehicle
Drouin et al. Camera-projector matching using an unstructured video stream
WO2019021412A1 (en) Location estimation device, location estimation method, and program recording medium
EP4222704A1 (en) Estimating depth for image and relative camera poses between images
JP6080503B2 (en) Image processing device
US9615070B2 (en) Video signal processing device and projection-type display device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant