KR20170124232A - Around view monitoring system and method for compensating camera tolerance there of - Google Patents

Around view monitoring system and method for compensating camera tolerance there of Download PDF

Info

Publication number
KR20170124232A
KR20170124232A KR1020160053872A KR20160053872A KR20170124232A KR 20170124232 A KR20170124232 A KR 20170124232A KR 1020160053872 A KR1020160053872 A KR 1020160053872A KR 20160053872 A KR20160053872 A KR 20160053872A KR 20170124232 A KR20170124232 A KR 20170124232A
Authority
KR
South Korea
Prior art keywords
vehicle
satisfied
tolerance
sensor
correction condition
Prior art date
Application number
KR1020160053872A
Other languages
Korean (ko)
Other versions
KR102457264B9 (en
KR102457264B1 (en
Inventor
이성수
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020160053872A priority Critical patent/KR102457264B1/en
Publication of KR20170124232A publication Critical patent/KR20170124232A/en
Application granted granted Critical
Publication of KR102457264B1 publication Critical patent/KR102457264B1/en
Publication of KR102457264B9 publication Critical patent/KR102457264B9/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/2257
    • H04N5/23216
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

An around view monitoring system capable of automatically correcting the tolerance of a camera according to the present invention includes an image capturing unit including front, rear, left and right cameras installed around a vehicle, a communication module for transmitting and receiving data to and from a sensor unit, a memory for storing a program for the automatic tolerance correction of the vehicle, and a processor for executing the program. The processor determines whether a tolerance correction condition is satisfied based on a result value sensed through the sensor unit included in the vehicle according to the execution of the program, extracts a common feature point between the respective images captured by the front, rear, left and right cameras if the tolerance correction condition is satisfied, converts each of the images into a top view image by adjusting the extracted feature point in each captured image, and generates an around view image based on the converted top view image. Accordingly, the present invention can minimize the distortion of the around view image.

Description

어라운드 뷰 모니터링 시스템 및 이의 카메라 자동 공차 보정 방법{AROUND VIEW MONITORING SYSTEM AND METHOD FOR COMPENSATING CAMERA TOLERANCE THERE OF}Technical Field [0001] The present invention relates to an AROUND VIEW MONITORING SYSTEM and a CAMERA TOLERANCE THERE OF,

본 발명은 어라운드 뷰 모니터링 시스템 및 이의 카메라 자동 공차 보정 방법에 관한 것이다.The present invention relates to an ambient view monitoring system and its camera automatic tolerance correction method.

차량의 어라운드 뷰 모니터링 시스템(AVMS, Around View Monitoring System)은 차량에 설치된 4개의 카메라(전방, 후방, 좌측, 우측)로부터 영상을 수신하여 차량 주변을 조감도(Bird’s Eye View) 형태로 보여주는 시스템이다.Around View Monitoring System (AVMS) is a system that receives images from four cameras (front, rear, left, right) installed on a vehicle and displays the surroundings of the vehicle in Bird's Eye View form.

이와 같이 다수의 카메라에서 촬영되는 영상을 이용하는 어라운드 뷰 모니터링 시스템은 카메라 조립시 공차를 보정하는 작업이 필수적이다. 이를 위해 차량의 각 제조사들은 어라운드 뷰 모니터링 시스템을 구비하는 차량에 대하여 어라운드 뷰 영상의 정합성을 만족하도록 공차를 보정한 후 차량을 출고한다.In such an environment monitoring system using images captured by a plurality of cameras, it is essential to correct the tolerances in camera assembly. For this purpose, each manufacturer of the vehicle corrects the tolerance to satisfy the consistency of the surround view image with respect to the vehicle equipped with the surround view monitoring system, and then leaves the vehicle.

그러나 차량을 출고한 이후, 차량을 지속적으로 이용함에 따라 운행 도중에 발생하는 차량의 진동, 사이드 미러의 폴딩, 차량 문의 개폐 등의 다양한 환경적 요인으로 인하여 출고시에 보정된 공차는 변경되어 영상의 정합성이 낮아지게 되는 문제가 발생하게 된다. However, due to various environmental factors such as vehicle vibration, folding of the side mirrors, opening and closing of the vehicle door, etc., due to the continuous use of the vehicle after the vehicle is shipped, the corrected tolerance at the time of shipment is changed, A problem occurs in that the temperature is lowered.

이에 따라, 주행 또는 주차 시 운전자는 왜곡된 어라운드 뷰 영상을 이용해야 되는 불편함을 초래하게 된다.Accordingly, the driver must use the distorted surround view image when driving or parking.

이를 해소하기 위해서는 변경된 공차를 보정해야 하나, 현재 공차 보정을 위해서는 공차 보정이 가능한 서비스 센터나 사업소 등을 방문하여 수리해야 하는 번거로움이 존재한다.In order to solve this problem, it is necessary to correct the changed tolerance. However, there is a need to visit a service center or an office where the tolerance can be corrected for repairing the current tolerance.

따라서, 공차가 변경되더라도 이를 보정하여 정합된 어라운드 뷰 영상을 제공할 수 있는 어라운드 뷰 모니터링 시스템이 필요한 실정이다.Therefore, there is a need for an averaged view monitoring system capable of correcting the tolerance even if the tolerance is changed to provide a matched surrounding view image.

이와 관련하여, 한국공개특허공보 제10-2014-0070321호(발명의 명칭: 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량)는 차량에 장착되는 제1 내지 제4 카메라와, 제1 내지 제4 카메라로부터의 각 이미지를 제1 입체 투영면에 투영하여, 어라운드 뷰 이미지를 생성하되, 어라운드 뷰 이미지 중 일부 영역을, 제1 입체 투영면과 다른 제2 입체 투영면에 투영하여, 일부 영역 보정된 어라운드 뷰 이미지를 생성하는 프로세서를 포함함에 따라, 어라운드 뷰 이미지의 왜곡을 저감할 수 있는 기술을 개시하고 있다.In this regard, Korean Patent Laid-Open Publication No. 10-2014-0070321 (entitled " vehicle surround view providing device and vehicle equipped with the same) is provided with first to fourth cameras mounted on a vehicle, Projecting an image of a part of the surround view image onto a second stereographic projection plane different from the first stereographic projection plane to project the entire area corrected image to the first stereographic projection plane, Discloses a technology capable of reducing the distortion of an approach-view image by including a processor to generate the image.

그러나 종래 기술의 경우 주변 장애물이 존재하는 경우나, 경사로 진입, 회전 주행 시 공차 보정 성능이 저하될 수 있는바, 운전자로 하여금 여전히 왜곡된 어라운드 뷰 영상이 제공될 수밖에 없는 문제가 있다.However, in the conventional art, there is a problem that the tolerance correction performance may be degraded in the presence of a peripheral obstacle, in entering a slope, and in a running motion, and thus the driver needs to be provided with a distorted surround view image.

본 발명의 실시예는 차량에 설치된 센서부의 센싱값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단하고, 공차 보정 조건을 만족하는 경우, 차량에 설치된 4개의 카메라로부터 촬영된 영상을 이용하여 공차가 보정된 어라운드 뷰 영상을 생성하는 어라운드 뷰 모니터링 시스템 및 이의 카메라 자동 공차 보정 방법을 제공한다.The embodiment of the present invention determines whether or not the tolerance correction condition is satisfied based on the sensing value of the sensor unit installed in the vehicle, and when the tolerance correction condition is satisfied, And a camera automatic tolerance correction method therefor.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 카메라의 자동 공자 보정이 가능한 어라운드 뷰 모니터링 시스템에 있어서, 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라를 포함하는 영상 촬영부 및 센서부와 데이터를 송수신하는 통신모듈, 상기 카메라의 자동 공차 보정을 위한 프로그램이 저장된 메모리 및 상기 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 차량에 포함된 센서부를 통해 센싱된 결과값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단하고, 상기 공차 보정 조건을 만족하는 경우, 상기 전방, 후방, 좌측 및 우측 카메라에 의해 촬영된 각 영상간에 공통되는 특징점을 추출하며, 상기 촬영된 각 영상에서 상기 추출된 특징점을 조정하여 상기 각 영상을 탑 뷰(Top View) 영상으로 변환하고, 상기 변환된 탑 뷰 영상에 기초하여 어라운드 뷰 영상을 생성한다.As a technical means for achieving the above technical object, there is provided an audiovisual monitoring system capable of automatic confinement correction of a camera according to the first aspect of the present invention, which includes a front, rear, left and right camera A communication module for transmitting and receiving data to and from the image pickup unit and the sensor unit, a memory for storing a program for correcting the automatic tolerance of the camera, and a processor for executing the program. At this time, as the program is executed, the processor determines whether or not the tolerance correction condition is satisfied based on the sensed result value through the sensor unit included in the vehicle, and when the tolerance correction condition is satisfied, Extracting feature points common to each of the images captured by the back, left, and right cameras, converting the extracted images into top view images by adjusting the extracted feature points in the captured images, And generates an overview image based on the transformed top view image.

또한, 본 발명의 제 2 측면에 따른 어라운드 뷰 모니터링 시스템에서의 카메라 자동 공차 보정 방법은 차량에 포함된 센서부를 통해 센싱된 결과값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단하는 단계; 상기 공차 보정 조건을 만족하는 경우, 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라를 포함하는 영상 촬영부에 의해 촬영된 각 영상간에 공통되는 특징점을 추출하는 단계; 상기 촬영된 각 영상에서 상기 추출된 특징점을 조정하여 상기 각 영상을 탑 뷰(Top View) 영상으로 변환하는 단계 및 상기 변환된 탑 뷰 영상에 기초하여 어라운드 뷰 영상을 생성하는 단계를 포함한다.According to a second aspect of the present invention, there is provided a camera automatic tolerance correcting method in an surround view monitoring system, comprising: determining whether a tolerance correcting condition is satisfied based on a sensed result value through a sensor unit included in a vehicle; Extracting feature points that are common among respective images photographed by an image capturing unit including front, rear, left, and right cameras provided around the vehicle when the tolerance correcting condition is satisfied; Converting each of the extracted images into a top view image by adjusting the extracted feature points in each captured image, and generating an overview image based on the transformed top view image.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 주행 등의 환경요인에 따라 차량에 설치된 카메라의 각도가 변경되더라도 자동으로 공차 보정 기능을 제공하여, 어라운드 뷰 영상의 왜곡을 최소화할 수 있다.According to any one of the above-described objects of the present invention, even when the angle of the camera installed on the vehicle is changed according to environmental factors such as driving, the tolerance correction function is automatically provided to minimize the distortion of the surround view image.

특히, 센서부에 의해 센싱된 결과값을 이용하여 공차 보정 조건을 만족하는 경우 어라운드 뷰 영상을 생성함으로써, 어라운드 뷰 영상의 정합성을 보다 향상시킬 수 있다.Particularly, when the tolerance correction condition is satisfied by using the resultant value sensed by the sensor unit, the coherence of the surround view image can be further improved by generating the surround view image.

도 1은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템의 블록도이다.
도 2는 카메라에 의해 촬영된 영상으로부터 추출된 특징점을 도시한 예시도이다.
도 3은 공차 보정을 위한 카메라의 좌표계를 설명하기 위한 도면이다.
도 4 및 도 5는 특징점을 조정하여 탑 뷰 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 어라운드 뷰 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 7 및 도 8은 차선 및 정지선을 검출하는 과정을 설명하기 위한 도면이다.
도 9는 어라운드 뷰 영상의 정합성을 판단하는 과정을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 카메라 자동 공차 보정 방법의 순서도이다.
1 is a block diagram of an overview view monitoring system in accordance with an embodiment of the present invention.
FIG. 2 is an exemplary view showing minutiae extracted from an image photographed by a camera.
3 is a diagram for explaining a coordinate system of a camera for tolerance correction.
4 and 5 are views for explaining a process of generating a top view image by adjusting minutiae points.
FIG. 6 is a view for explaining a process of generating the surround view image.
FIGS. 7 and 8 are diagrams for explaining a process of detecting lanes and stop lines.
9 is a diagram for explaining a process of determining the coherence of the surround view image.
10 is a flowchart of a camera automatic tolerance correction method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Whenever a component is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements, not the exclusion of any other element, unless the context clearly dictates otherwise.

도 1은 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)의 블록도이다.1 is a block diagram of an overview view monitoring system 100 in accordance with an embodiment of the present invention.

본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)은 통신모듈(110), 메모리(120) 및 프로세서(130)를 포함한다.An overview view monitoring system 100 according to an embodiment of the present invention includes a communication module 110, a memory 120, and a processor 130. [

통신모듈(110)은 차량의 영상 촬영부(20) 및 센서부(10)와 데이터를 송수신한다. 이와 같은 통신모듈(110)은 유선 통신모듈 및 무선 통신모듈을 모두 포함할 수 있다. 유선 통신모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신모듈은 WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다.The communication module 110 transmits and receives data to and from the image capturing unit 20 and the sensor unit 10 of the vehicle. The communication module 110 may include both a wired communication module and a wireless communication module. The wired communication module may be implemented by a power line communication device, a telephone line communication device, a cable home (MoCA), an Ethernet, an IEEE1294, an integrated wired home network, and an RS-485 control device. In addition, the wireless communication module can be implemented with a wireless LAN (WLAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60 GHz WPAN, Binary-CDMA, wireless USB technology and wireless HDMI technology.

보다 바람직하게 통신모듈(110)은 CAN(Controller Area Network) 통신을 통하여 데이터를 송수신할 수 있다.More preferably, the communication module 110 can transmit and receive data through CAN (Controller Area Network) communication.

한편, 본 발명의 일 실시예에서의 센서부(10)는 거리 감지 센서(11), 차고 센서(13), 조향각 센서(15) 및 휠 엔코더 센서(17) 중 하나 이상을 포함할 수 있다. 프로세서(130)는 하기에서 설명하는 바와 같이 각 센서들의 센싱값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단할 수 있다.The sensor unit 10 may include at least one of a distance sensor 11, a height sensor 13, a steering angle sensor 15, and a wheel encoder sensor 17 in one embodiment of the present invention. The processor 130 may determine whether the tolerance correction conditions are satisfied based on the sensed values of the respective sensors as described below.

또한, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)은 차량의 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라(20-1~20-4)에 의해 촬영된 영상을 수신할 수 있다. 차량의 전방, 후방, 좌측 및 우측 카메라(20-1~20-4)는 차량에 설치되어 각각 차량의 전방, 후방, 좌측 및 우측을 촬영한다. 이와 같이 촬영된 영상을 정합하여 프로세서(130)는 최종적으로 어라운드 뷰 영상을 생성하게 된다. 이때, 합성되는 과정에서 높은 정합성을 가지기 위하여 공차를 보정하게 된다.In addition, the surrounding view monitoring system 100 according to an embodiment of the present invention can receive images taken by front, rear, left and right cameras 20-1 to 20-4 installed at the center of the vehicle . The front, rear, left and right cameras 20-1 to 20-4 of the vehicle are installed in the vehicle and photograph the front, rear, left, and right sides of the vehicle, respectively. The processor 130 matches the photographed images and finally generates an overview image. At this time, the tolerance is corrected to have high consistency in the process of being synthesized.

메모리(120)에는 영상 촬영부(20)의 자동 공차 보정을 위한 프로그램이 저장된다. 이때, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. In the memory 120, a program for automatic tolerance correction of the image capturing unit 20 is stored. At this time, the memory 120 is collectively referred to as a non-volatile storage device and a volatile storage device which keep the stored information even when power is not supplied.

예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, the memory 120 may be a compact flash (CF) card, a secure digital (SD) card, a memory stick, a solid-state drive (SSD) A magnetic computer storage device such as a NAND flash memory, a hard disk drive (HDD) and the like, and an optical disc drive such as a CD-ROM, a DVD-ROM, etc. .

또한, 메모리(120)에 저장된 프로그램은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다. In addition, the program stored in the memory 120 may be implemented in hardware such as software or an FPGA (Field Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit), and may perform predetermined roles.

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킨다. 프로세서(130)는 프로그램을 실행시킴에 따라, 먼저 차량에 포함된 센서부(10)를 통해 센싱된 결과값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단한다. 이와 같은 공차 보정 조건의 만족 여부는 거리 감지 센서(11), 차고 센서(13), 조향각 센서(15) 및 휠 엔코더 센서(17) 중 하나 이상에 기초하여 판단될 수 있다.The processor 130 executes the program stored in the memory 120. [ As the program 130 is executed, the processor 130 first determines whether the tolerance correction condition is satisfied based on the sensed result through the sensor unit 10 included in the vehicle. Whether or not such a tolerance correction condition is satisfied can be judged based on at least one of the distance sensor 11, the height sensor 13, the steering angle sensor 15 and the wheel encoder sensor 17. [

구체적으로 프로세서(130)는 공차 보정 조건으로, 조향각 센서(15)에 의해 센싱된 결과값에 기초하여 차량이 직진 이동하는지 여부를 판단할 수 있다. 그리고 차량이 직진 이동하는 것으로 판단된 경우, 프로세서(130)는 공차 보정 조건을 만족하는 것으로 판단할 수 있다.Specifically, the processor 130 can determine whether or not the vehicle makes a straight movement based on the resultant value sensed by the steering angle sensor 15 as a tolerance correction condition. If it is determined that the vehicle is moving straight, the processor 130 may determine that the tolerance correction condition is satisfied.

또한, 프로세서(130)는 공차 보정 조건으로, 거리 감지 센서(11)에 의해 센싱된 결과값에 기초하여 차량으로부터 기 설정된 범위 내에 장애물이 존재하는지 여부를 판단할 수 있다. 그리고 장애물이 존재하지 않는 것으로 판단된 경우, 프로세서(130)는 공차 보정 조건을 만족하는 것으로 판단할 수 있다.In addition, the processor 130 can determine whether or not an obstacle exists within a predetermined range from the vehicle based on the resultant value sensed by the distance sensor 11, as a tolerance correction condition. If it is determined that no obstacle exists, the processor 130 may determine that the tolerance correction condition is satisfied.

또한, 프로세서(130)는 공차 보정 조건으로, 차고 센서(13)에 의해 센싱된 결과값에 기초하여 차량이 경사로에 위치하는지 여부를 판단할 수 있다. 그리고 차량이 경사로에 위치하는 것으로 판단된 경우, 프로세서(130)는 공차 보정 조건을 만족하는 것으로 판단할 수 있다.Further, the processor 130 can determine whether or not the vehicle is located on the ramp based on the result value sensed by the height sensor 13, as the tolerance correction condition. If it is determined that the vehicle is located in the ramp, the processor 130 may determine that the tolerance correction condition is satisfied.

또한, 프로세서(130)는 공차 보정 조건으로, 휠 엔코더 센서(17)에 의해 센싱된 결과값에 기초하여 차량의 속도가 기 설정된 속도 이하인지 여부를 판단할 수 있다. 그리고 차량의 속도가 기 설정된 속도 이하인 것으로 판단된 경우, 즉 저속으로 차량이 주행 중인 것으로 판단된 경우, 프로세서(130)는 공차 보정 조건을 만족하는 것으로 판단할 수 있다.Further, the processor 130 can determine whether or not the vehicle speed is equal to or less than a predetermined speed based on the resultant value sensed by the wheel encoder sensor 17, as a tolerance correction condition. If it is determined that the vehicle speed is lower than the predetermined speed, that is, if it is determined that the vehicle is running at a low speed, the processor 130 may determine that the tolerance correction condition is satisfied.

이와 같이, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)은 거리 감지 센서(11), 차고 센서(13), 조향각 센서(15) 및 휠 엔코더 센서(17) 중 하나 이상을 포함하는 센서부(10)의 센싱값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단할 수 있다.As such, the surround view monitoring system 100 according to an embodiment of the present invention includes at least one of the distance sensor 11, the height sensor 13, the steering angle sensor 15, and the wheel encoder sensor 17 It is possible to determine whether or not the tolerance correction condition is satisfied based on the sensing value of the sensor unit 10. [

이때, 본 발명의 일 실시예는 각각의 센서에 의한 단일 센싱값만을 이용하여 공차 보정 조건을 만족하는지 여부를 판단할 수 있으며, 뿐만 아니라 각 센서들의 상호 조합에 의하여 공차 보정 조건을 만족하는지 여부를 판단할 수도 있다. 예를 들어, 본 발명의 일 실시예는 4개의 센서 중 거리 감지 센서(11), 차고 센서(13) 및 조향각 센서(15)의 3가지 센싱값의 조합에 기초하여 공차 보정 조건을 만족하는지 여부를 판단할 수 있다.At this time, according to an embodiment of the present invention, it is possible to determine whether or not the tolerance correction conditions are satisfied using only a single sensing value by each sensor. In addition, whether or not the tolerance correction conditions are satisfied You can judge. For example, one embodiment of the present invention determines whether or not the tolerance correction conditions are satisfied based on the combination of the three sensed values of the distance sensor 11, the height sensor 13 and the steering angle sensor 15 among the four sensors Can be determined.

이와 같은 공차 보정 조건이 만족하는 경우, 프로세서(130)는 차량의 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라(20-1~20-4)에 의해 촬영된 각 영상간에 공통되는 특징점을 추출한다. 이러한 특징점들은 도 2에 도시된 예시와 같이 추출될 수 있다.When such a tolerance correction condition is satisfied, the processor 130 extracts feature points common to the respective images photographed by the front, rear, left and right cameras 20-1 to 20-4 provided at the center of the vehicle . These feature points can be extracted as shown in the example shown in Fig.

도 2는 영상 촬영부(20)에 의해 촬영된 영상으로부터 추출된 특징점을 도시한 예시도이다.FIG. 2 is an exemplary view showing the minutiae extracted from the image photographed by the image photographing unit 20. As shown in FIG.

프로세서(130)는 전방, 후방, 좌측 및 우측 카메라(20-1~20-4)에 의해 촬영된 각각의 영상 간에 공통되는 특징점을 추출할 수 있다. 이러한 특징점들은 각 영상간에 공통되는 꼭지점 또는 엣지 등일 수 있다. The processor 130 can extract feature points common to the respective images photographed by the front, rear, left and right cameras 20-1 to 20-4. These feature points may be vertices or edges common to each image.

이와 같은 특징점들을 추출하기 위하여, 프로세서(130)는 옵티컬 플로우(optical flow)를 이용하거나 또는 특징점들 간의 대응관계를 나타내는 호모그라피(homography)를 계산하여 특징점들을 추출할 수 있다.In order to extract such feature points, the processor 130 may extract an image feature point by using an optical flow or by calculating a homography representing a correspondence relationship between the feature points.

다시 도 1을 참조하면, 각 영상에서 특징점을 추출하고 난 뒤, 프로세서(130)는 촬영된 각 영상에서 추출된 특징점들을 조정(매칭)하여 공차를 보정함으로써 각 영상을 탑 뷰(Top View) 영상으로 변환한다. 이와 관련된 과정을 도 3 내지 도 5를 참조하여 설명하도록 한다.Referring again to FIG. 1, after extracting feature points from each image, the processor 130 adjusts (matches) extracted feature points from the captured images to correct the tolerances, . The related process will be described with reference to FIGS. 3 to 5. FIG.

도 3은 공차 보정을 위한 영상 촬영부(20)의 좌표계를 설명하기 위한 도면이다.3 is a diagram for explaining the coordinate system of the image capturing unit 20 for tolerance correction.

차량에 설치된 전방, 후방, 좌측 및 우측 카메라(20-1~20-4)를 기준으로 영상 촬영부(20)의 초점은 3차원 평면상에서 원점(0, 0, 0)이 된다. 그리고 각 영상 촬영부(20)의 정면 방향은 z축, 수직 방향은 y축, 좌우 횡방향은 x축이 될 수 있다. 이와 같이 영상 촬영부(20)의 좌표계를 설정하게 되면, 촬영된 영상의 각 객체 및 특징점(M)들을 (x, y, z)의 좌표계로 표현할 수 있게 된다. The focal point of the image pickup unit 20 on the basis of the front, rear, left and right cameras 20-1 to 20-4 installed in the vehicle is the origin (0, 0, 0) on the three-dimensional plane. The front direction of each image capturing unit 20 may be a z-axis, a vertical direction may be a y-axis, and a horizontal direction may be an x-axis. When the coordinate system of the image capturing unit 20 is set as described above, each object and minutiae points M of the photographed image can be represented by a coordinate system of (x, y, z).

한편, 좌표계로 변환하기 위하여, 프로세서(130)는 각 영상 촬영부(20)의 초점 거리, 왜곡 계수 등으로 구성된 내부 파라미터와 기타 설정된 외부 파라미터를 이용할 수 있다. 이러한 좌표계는 센티미터 등의 단위로 이루어진 실제 좌표계일 수 있다. 즉, 영상 촬영부(20)에 의해 촬영된 영상은 픽셀 단위가 기준이 되는바, 프로세서(130)는 공차 보정을 위하여 픽셀 단위를 좌표계로 변환할 수 있다.Meanwhile, in order to convert into the coordinate system, the processor 130 can use internal parameters including the focal length and distortion coefficient of each image pickup unit 20, and other external parameters set. Such a coordinate system may be an actual coordinate system consisting of units such as centimeters. That is, since the image taken by the image capturing unit 20 is a pixel unit, the processor 130 can convert a pixel unit into a coordinate system for tolerance correction.

이때, 좌표 변환을 위한 변환비 등 필요한 데이터는 미리 룩 업 테이블(LUT, Look Up Table)에 포함되어 메모리(120)에 저장될 수 있다. 이러한 룩 업 테이블은 차량의 출고 과정에서 미리 세팅되게 되며, 본 발명의 일 실시예가 적용됨에 따라 보정된 공차에 의하여 갱신될 수 있다.At this time, necessary data such as a conversion ratio for coordinate conversion may be stored in the memory 120 in advance in a look-up table (LUT). The look-up table is set in advance at the time of shipment of the vehicle, and can be updated by the corrected tolerance as an embodiment of the present invention is applied.

도 4 및 도 5는 특징점을 조정하여 탑 뷰 영상을 생성하는 과정을 설명하기 위한 도면이다.4 and 5 are views for explaining a process of generating a top view image by adjusting minutiae points.

도 3의 좌표계로 특징점(401, 401’, 403, 403’)들을 나타내면, 프로세서(130)는 각 특징점들(401, 401’, 403, 403’)을 조정하여 공차를 보정함으로써 각 영상을 탑 뷰 영상으로 변환할 수 있다. 이때, 탑 뷰 영상으로 변환하기 위해서는 도 4에서 설명하는 바와 같이 기하학적 조건을 만족해야만 한다.When the feature points 401, 401 ', 403 and 403' are represented by the coordinate system of FIG. 3, the processor 130 adjusts the respective feature points 401, 401 ', 403 and 403' It can be converted into a view image. At this time, in order to convert to the top view image, the geometric condition must be satisfied as shown in FIG.

먼저, 도 4를 참조하면 프로세서(130)는 추출된 특징점들(401, 401’, 403, 403’) 중 임의의 특징점인 제 1 특징점(401)과 제 2 특징점(403)을 선택할 수 있다. 그리고 선택된 제 1 및 제 2 특징점(401, 403)에 대하여, 차량의 이전 위치에 대응하는 제 1 및 제 2 특징점(401, 403)간의 거리인 제 1 거리(d2)와, 차량이 이동한 후 현재 위치에 대응하는 제 1 및 제 2 특징점(401’, 403’)간의 거리인 제 2 거리(d2)를 각각 산출하며, 또한 차량의 이전 위치와 현재 위치를 기준으로 제 1 및 제 2 특징점(401, 401’, 403, 403’)의 제 1 및 제 2 이동거리(d3, d4)를 각각 산출한다.Referring to FIG. 4, the processor 130 may select a first feature point 401 and a second feature point 403, which are arbitrary feature points of the extracted feature points 401, 401 ', 403, 403'. Then, for the selected first and second feature points 401 and 403, a first distance d2 that is a distance between the first and second feature points 401 and 403 corresponding to the previous position of the vehicle, And a second distance d2 that is a distance between the first and second characteristic points 401 'and 403' corresponding to the current position, and also calculates the first and second characteristic points 401, 401 ', 403, 403', respectively.

이와 같이 제 1 거리(d2) 및 제 2 거리(d1)와 제 1 이동거리(d3) 및 제 2 이동거리(d4)를 각각 산출하면, 프로세서(130)는 산출된 제 1 거리(d2) 및 제 2 거리(d1)가 동일하고, 제 1 이동거리(d3) 및 제 2 이동거리(d4)가 동일하도록 각 영상을 조정하여 탑 뷰 영상을 생성할 수 있다.When the first distance d2 and the second distance d1, the first movement distance d3 and the second movement distance d4 are calculated as described above, the processor 130 calculates the first distance d2 and the second distance d2, The top view image can be generated by adjusting each image so that the second distance d1 is the same and the first moving distance d3 and the second moving distance d4 are the same.

이와 더불어, 프로세서(130)는 현재위치에 대응하는 제 1 거리(d2)와 제 2 거리(d1)의 방향벡터가 서로 동일하고, 제 1 이동거리(d3) 및 제 2 이동거리(d4)의 방향벡터가 서로 동일하도록 각 영상을 조정하여 탑 뷰 영상을 생성할 수 있다.In addition, the processor 130 determines whether the first distance d2 and the second distance d1 corresponding to the current position are equal to each other, and the first moving distance d3 and the second moving distance d4 The top view image can be generated by adjusting each image so that the direction vectors are equal to each other.

이에 따라, 프로세서(130)는 전방, 후방, 좌측 및 우측 카메라(20-1~20-4) 중 하나 이상의 카메라가 요잉 또는 피칭되거나 이들의 동작을 조합한 경우를 가정한 가상 카메라에 의해 촬영된 영상이 생성되도록, 해당 영상을 조정하여 탑 뷰 영상을 생성할 수 있다. Accordingly, the processor 130 determines whether or not at least one of the front, rear, left and right cameras 20-1 to 20-4 is photographed by a virtual camera assuming that the camera is yawing or pitching, A top view image can be generated by adjusting the corresponding image so that an image is generated.

이와 같이, 본 발명의 일 실시예는 거리 및 이동거리뿐만 아니라 이에 대응하는 방향벡터까지 동일할 것을 요함으로써, 종래기술에 비하여 보다 정확한 탑 뷰 영상을 생성할 수 있다.As described above, one embodiment of the present invention requires the same distance and moving distance as well as the corresponding direction vector, thereby making it possible to generate a more accurate top view image as compared with the prior art.

영상 촬영부(20)가 피칭 및 요잉되는 경우에 대응되는 영상은 하기 수학식 1 및 2와 같이 가우스-뉴턴(Gauss-Newton) 방법을 이용하여 조정할 수 있다. 하기 수학식 1의 경우 상기 각 산출된 제 1 거리(d2) 및 제 2 거리(d1)이 동일하고, 제 1 및 제 2 이동거리(d3, d4)가 동일해야 하는바, 0에 근사하는 것이 바람직하다.The image corresponding to the case where the image capturing unit 20 is pitching and yawing can be adjusted using the Gauss-Newton method as shown in the following equations (1) and (2). The calculated first distance d2 and the calculated second distance d1 are equal to each other and the first and second moving distances d3 and d4 are equal to each other, desirable.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

여기에서, Mi,현재는 특징점 i의 현재 좌표, Mi,이전는 특징점 i의 이전 좌표, Mj,현재는 특징점 j의 현재 좌표, Mj,이전는 특징점 j의 이전 좌표를 의미한다.Here, M i means the current coordinate of the feature point i, M i, the previous coordinate of the feature point i, M j, the current coordinate of the feature point j, M j, and the previous coordinate point of the feature point j.

또한, 도 5에 도시된 바와 같이, 프로세서(130)는 차량의 이동 정보와 특징점(401, 401’, 403, 403’)의 이동 관계를 이용하여 공차를 보정할 수있다.In addition, as shown in FIG. 5, the processor 130 can correct the tolerance by using the movement information of the vehicle and the movement relationship between the minutiae points 401, 401 ', 403 and 403'.

이를 위해 프로세서(130)는 먼저, 제 1 거리(d2) 및 제 2 거리(d1)에 기초하여 추출된 이동 벡터가 차량의 이동 정보에 기초하여 예측된 이동 방향과 일치되도록 하는 각도를 산출할 수 있다. 그리고 산출된 각도에 기초하여 도 4와 같이, 전방, 후방, 좌측 및 우측 카메라(20-1~20-4) 중 하나 이상의 영상 촬영부(20)가 롤링되는 경우를 가정한 가상 카메라에 의해 촬영된 영상이 생성되도록, 해당 영상을 조정하여 탑 뷰 영상을 생성할 수 있다.To this end, the processor 130 may first calculate an angle such that the extracted motion vector based on the first distance d2 and the second distance d1 is consistent with the predicted movement direction based on the vehicle motion information have. Then, based on the calculated angles, as shown in Fig. 4, the image is photographed by the virtual camera assuming that at least one of the front, rear, left and right cameras 20-1 to 20-4 is rolled. So that a top view image can be generated by adjusting the corresponding image.

즉, 프로세서(130)는 도 4 및 도 5와 같이 영상 촬영부(20)를 요잉, 피칭 및 롤링 동작 중 하나 이상의 동작이 수행되는 경우를 가정하여 촬영된 영상이 되도록, 각 영상을 조정하여 탑 뷰 영상을 생성할 수 있다.4 and 5, the processor 130 adjusts each image to be a photographed image on the assumption that at least one of the operations of yawing, pitching, and rolling is performed, A view image can be generated.

이때, 각 영상으로부터 탑 뷰 영상은 하기 수학식 3 및 4에 기초하여 생성할 수 있다.At this time, a top view image from each image can be generated based on the following equations (3) and (4).

[수학식 3]&Quot; (3) "

Figure pat00003
Figure pat00003

[수학식 4]&Quot; (4) "

Figure pat00004
Figure pat00004

수학식 3에서, K는 카메라 내부 파라미터(intrinsic parameter) 관련 캘리브레이션(calibration) 행렬이며, 각 카메라(20-1~20-4)별로 구분되어 메모리(120) 상에 미리 저장되어 있을 수 있다. 또한, R은 카메라(20-1~20-4)를 가상으로 회전시키기 위한 회전 행렬로써 수학식 4를 의미한다.In Equation (3), K is a calibration matrix related to an intrinsic parameter of the camera, and may be stored in advance in the memory 120 according to each camera 20-1 to 20-4. Also, R denotes a rotation matrix for virtually rotating the cameras 20-1 to 20-4, which means Equation (4).

다시 도 1을 참조하면, 공차가 보정된 탑 뷰 영상이 생성되면, 프로세서(130)는 탑 뷰 영상에 기초하여 어라운드 뷰 영상을 생성할 수 있다. Referring again to FIG. 1, when a top view image having a corrected tolerance is generated, the processor 130 can generate an overview view image based on the top view image.

이때, 프로세서(130)는 탑 뷰 영상에 포함된 차선 또는 정지선을 검출하고, 각각의 탑 뷰 영상에 포함된 차선 또는 정지선의 경계가 정합되도록 각각의 탑 뷰 영상을 보정할 수 있다.At this time, the processor 130 may detect the lane or stop line included in the top view image, and may correct each top view image so that the boundary of the lane or stop line included in each top view image is matched.

이와 같은 과정을 도 6 내지 도 9를 참조하여 설명하도록 한다.This process will be described with reference to FIGS. 6 to 9. FIG.

도 6은 어라운드 뷰 영상을 생성하는 과정을 설명하기 위한 도면이다.FIG. 6 is a view for explaining a process of generating the surround view image.

프로세서(130)는 전방, 후방, 좌측 및 우측 카메라(20-1~20-4)에 의해 촬영된 영상의 공차를 보정하면, 도 6의 (a)에 도시된 바와 같은 전방 탑 뷰 영상(610), 후방 탑 뷰 영상(620), 좌측 탑 뷰 영상(630) 및 우측 탑 뷰 영상(640)을 생성할 수 있다.When the processor 130 corrects the tolerances of the images photographed by the front, rear, left and right cameras 20-1 to 20-4, the front top view image 610 shown in FIG. 6 (a) A rear view top view image 620, a left top view image 630, and a right top view image 640, as shown in FIG.

프로세서(130)는 각 탑 뷰 영상(610~640)을 합성하여 어라운드 뷰 영상을 생성함에 있어, 각 영상 간의 정합성을 높이기 위하여 각각의 탑 뷰 영상(610~640)을 보정할 수 있다. 즉, 프로세서(130)는 도 7 및 도 8과 같이 차선 및 정지선을 검출하고 이들의 경계가 정합되도록 보정하여, 보정된 전방, 후방 좌측 및 우측 탑 뷰 영상(615, 625, 635, 645)에 기초하여 최종적으로 도 6의 (b)에 도시된 바와 같은 어라운드 뷰 영상을 생성할 수 있다.The processor 130 may combine the top view images 610 to 640 to generate the surrounding view image, and may correct the top view images 610 to 640 in order to enhance the matching between the respective images. In other words, the processor 130 detects lane and stop lines and corrects their boundaries to be matched as shown in Figs. 7 and 8, so that the corrected front, rear left and right top view images 615, 625, 635, And finally, the surround view image as shown in FIG. 6 (b) can be generated.

도 7 및 도 8은 차선 및 정지선을 검출하는 과정을 설명하기 위한 도면이다.FIGS. 7 and 8 are diagrams for explaining a process of detecting lanes and stop lines.

먼저, 도 7의 (a)를 참조하면 프로세서(130)는 도 6의 (b)와 같은 어라운드 뷰 영상에 기초하여 주행 차량의 주행 차선을 검출할 수 있다. 이를 위해 프로세서(130)는 어라운드 뷰 영상에서 수직 방향의 차선의 특징점들(710)을 추출할 수 있다. 만약, 횡단보도가 존재하는 경우, 프로세서(130)는 전방 영상에 대응하는 탑 뷰 영상에서 탐색하고자 하는 수평 구간(715)을 선정하고, 선정된 수평 구간을 탐색하여 그래디언트(gradient)가 상대적으로 높은 곳이 검출되면 이를 특징점으로 추출할 수도 있다.First, referring to FIG. 7A, the processor 130 can detect the driving lane of the traveling vehicle based on the surround view image as shown in FIG. 6B. For this purpose, the processor 130 may extract the feature points 710 of the lane in the vertical direction from the surrounding view image. If there is a pedestrian crossing, the processor 130 selects a horizontal section 715 to be searched in the top view image corresponding to the forward image, and searches the selected horizontal section to determine whether the gradient is relatively high If a location is detected, it can be extracted as a feature point.

다음으로 도 7의 (b)를 참조하면, 차선 후보군을 검출하기 위해 프로세서(130)는 추출된 특징점(710)에 기초하여 라인 정렬(Line Fitting) 과정을 수행할 수 있다. 라인 정렬 과정은 탑 뷰 영상에서 추출된 특징점(710)들을 기준으로 360도 범위로 탐색하여 선 성분을 추출하고, 추출된 선 성분의 중심을 기준으로 차선 후보군(720)을 선정한다.Next, referring to FIG. 7B, the processor 130 may perform a line fitting process based on the extracted feature points 710 to detect the lane candidate group. In the line alignment process, a line component is searched in a range of 360 degrees based on the feature points 710 extracted from the top view image, and a lane candidate group 720 is selected based on the center of the extracted line component.

다음으로 도 7의 (c)를 참조하면, 프로세서(130)는 차선 후보군(720) 중에서 차량을 기준으로 좌측 및 우측에 위치하는 다수의 후보점을 지나는 선 성분을 주행 차선(730)으로 인식할 수 있다.7C, the processor 130 recognizes a line component passing through a plurality of candidate points located on the left and right sides of the lane candidate group 720 with respect to the vehicle as a driving lane 730 .

또한, 프로세서(130)는 도 8에 도시된 바와 같이 어라운드 뷰 영상에 기초하여 정지선을 검출할 수 있다.In addition, the processor 130 can detect the stop line based on the surround view image as shown in Fig.

도 8의 (a)를 참조하면, 프로세서(130)는 어라운드 뷰 영상에서 탐색하고자 하는 수직 구간을 선정하고, 어라운드 뷰 영상을 수직 방향(815)으로 탐색하여 그래디언트가 상대적으로 높은 곳을 특징점(810)으로 추출할 수 있다. Referring to FIG. 8A, the processor 130 selects a vertical section to be searched in the surrounding view image, searches the vertical view 815 in the vertical direction 815, ). ≪ / RTI >

다음으로 도 8의 (b)를 참조하면, 프로세서(130)는 정지선 후보군(820)을 검출하기 위하여 추출된 특징점(810)을 기준으로 360도 범위로 탐색하여 선 성분을 추출하고, 추출된 선 성분의 중심을 기준으로 정지선 후보군(820)을 선정할 수 있다.Next, referring to FIG. 8B, the processor 130 searches for a 360-degree range based on the extracted feature point 810 to detect the stop line candidate group 820, extracts a line component, The stop line candidate group 820 can be selected based on the center of the component.

다음으로 도 8의 (c)를 참조하면, 프로세서(130)는 정지선 후보군(820) 중에서 다수의 후보점을 지나는 선 성분을 정지선(830)으로 인식할 수 있다.Next, referring to FIG. 8C, the processor 130 may recognize a line component passing through a plurality of candidate points in the stop line candidate group 820 as a stop line 830.

이와 같이 주행 차선(730) 또는 정지선(830)을 인식함에 따라, 프로세서(130)는 어라운드 뷰 영상의 정합성을 높일 수 있다.By recognizing the driving lane 730 or the stop line 830 as described above, the processor 130 can improve the coherence of the surround view image.

도 9는 어라운드 뷰 영상의 정합성을 판단하는 과정을 설명하기 위한 도면이다.9 is a diagram for explaining a process of determining the coherence of the surround view image.

본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)은 검출된 차선(730) 및 정지선(830)을 이용하여 정합성 조건에 따라 어라운드 뷰 영상의 정합성을 판단할 수 있다.The surrounding view monitoring system 100 according to the embodiment of the present invention can determine the consistency of the surround view image according to the matching condition using the detected lane 730 and the stop line 830. [

먼저 도 9의 (a)를 참조하면, 프로세서(130)는 차량을 기준으로 왼쪽 차선(731)과 오른쪽 차선(733)은 각각 직선이어야 한다는 조건을 이용하여 어라운드 뷰 영상의 정합성을 판단할 수 있다.First, referring to FIG. 9A, the processor 130 can determine the consistency of the surround view image by using a condition that the left lane 731 and the right lane 733 are straight lines with respect to the vehicle .

또한 도 9의 (b)를 참조하면, 프로세서(130)는 전방, 후방, 좌측 및 우측 영역에서 검출된 차선 후보군(720)을 왼쪽 차선(920)과 오른쪽 차선(930)으로 각각 그룹핑하고, 그룹핑된 차선 후보군들이 서로 직선이 되도록 하는 전방, 후방, 좌측 및 우측 영역에 대해 각각 3×3 행렬을 계산하여 영상을 보정함에 따라 최종적으로 정합된 어라운드 뷰 영상을 생성할 수 있다.9B, the processor 130 groups the lane candidate group 720 detected in the front, rear, left, and right regions into the left lane 920 and the right lane 930, respectively, The 3 × 3 matrix is calculated for each of the front, rear, left, and right regions so that the candidate lane candidate lines are linearly aligned with each other to correct the image, thereby finally generating the matched surrounding view image.

참고로, 본 발명의 실시예에 따른 도 1에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.1 may be implemented in hardware such as software or an FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and may perform predetermined roles can do.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to reside on an addressable storage medium and configured to play one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, by way of example, an element may comprise components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, Routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.The components and functions provided within those components may be combined into a smaller number of components or further separated into additional components.

이하에서는 도 10을 참조하여, 본 발명의 일 실시예에 따른 어라운드 뷰 모니터링 시스템(100)에서의 영상 카메라 자동 공차 보정 방법에 대하여 설명하도록 한다.Hereinafter, with reference to FIG. 10, a description will be made of a method of correcting the automatic camera image tolerance in the surrounding view monitoring system 100 according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 영상 카메라 자동 공차 보정 방법의 순서도이다.FIG. 10 is a flowchart of a method of correcting an automatic tolerance of an image camera according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 카메라 자동 공차 보정 방법은 먼저, 차량에 포함된 센서부(10)를 통해 센싱된 결과값을 수신하고(S110), 수신된 결과값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단한다(S120).In the method of correcting an image camera automatic tolerance according to an embodiment of the present invention, a sensed result value is first received through a sensor unit 10 included in a vehicle (S110), and a tolerance correction condition is calculated based on the received result (S120). ≪ / RTI >

이때, 공차 보정 조건을 만족하는지 여부를 판단하는 단계는 4개의 센서 각각을 이용하여 판단하거나 이들의 상호 조합에 의하여 판단할 수 있다.At this time, the step of determining whether or not the tolerance correction condition is satisfied may be determined using each of the four sensors or may be determined by mutual combination thereof.

첫째로, 조향각 센서(15)에 센싱된 결과값에 기초하여 차량이 직진 이동하는지 여부를 판단하고, 차량이 직진 이동하는 것으로 판단된 경우, 공차 보정 조건을 만족하는 것으로 판단할 수 있다.First, it is determined whether or not the vehicle is moved straight on the basis of the resultant value sensed by the steering angle sensor 15. If it is determined that the vehicle is to be moved straight, it can be determined that the tolerance correction condition is satisfied.

둘째로, 거리 감지 센서(11)에 의해 센싱된 결과값에 기초하여 차량으로부터 기 설정된 범위 내에 장애물이 존재하는지 여부를 판단하고, 장애물이 존재하지 않는 것으로 판단된 경우, 공차 보정 조건을 만족하는 것으로 판단할 수 있다.Second, it is determined whether or not an obstacle exists within a predetermined range from the vehicle based on the resultant value sensed by the distance sensor 11. If it is determined that no obstacle is present, it is determined that the tolerance correction condition is satisfied It can be judged.

셋째로, 차고 센서(13)에 의해 센싱된 결과값에 기초하여 차량이 경사로에 위치하는지 여부를 판단하고, 차량이 경사로에 위치하는 것으로 판단된 경우, 공차 보정 조건을 만족하는 것으로 판단할 수 있다.Thirdly, it is judged whether or not the vehicle is located on the ramp based on the resultant value sensed by the height sensor 13. If it is judged that the vehicle is located in the ramp, it can be judged that the tolerance correction condition is satisfied .

마지막으로, 휠 엔코더 센서(17)에 의해 센싱된 결과값에 기초하여 차량의 속도가 기 설정된 속도 이하인지 여부를 판단하고, 차량이 기 설정된 속도 이하인 것으로 판단된 경우, 공차 보정 조건을 만족하는 것으로 판단할 수 있다.Finally, based on the resultant value sensed by the wheel encoder sensor 17, it is judged whether or not the speed of the vehicle is equal to or lower than a predetermined speed. If it is judged that the vehicle speed is equal to or lower than the predetermined speed, It can be judged.

이와 같은 공차 보정 조건을 만족하는 경우, 어라운드 뷰 모니터링 시스템(100)은 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라(20-1~20-4)에 의해 촬영된 각 영상간에 공통되는 특징점을 추출하고(S130), 촬영된 각 영상에서 추출된 특징점을 조정하여 각 영상을 탑 뷰(Top View) 영상으로 변환한다(S140).When the above-mentioned tolerance correction conditions are satisfied, the surrounding view monitoring system 100 detects the characteristic points common to the respective images photographed by the front, rear, left and right cameras 20-1 to 20-4, (S130). Then, the feature points extracted from the captured images are adjusted to convert each image into a top view image (S140).

이와 같이 변환된 탑 뷰 영상에 기초하여 어라운드 뷰 영상을 생성한다(S150).The surround view image is generated based on the transformed top view image (S150).

한편, 상술한 설명에서, 단계 S110 내지 S150은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 9에서 이미 기술된 내용은 도 10의 카메라 자동 공차 보정 방법에도 적용될 수 있다.On the other hand, in the above description, steps S110 to S150 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed. In addition, the contents already described in Figs. 1 to 9 can be applied to the camera automatic tolerance correction method of Fig. 10 even if other contents are omitted.

이와 같은 본 발명의 일 실시예 중 어느 하나에 의하면, 주행 등의 환경요인에 따라 차량에 설치된 카메라의 각도가 변경되더라도 자동으로 공차 보정 기능을 제공하여, 어라운드 뷰 영상의 왜곡을 최소화할 수 있다.According to any one of the embodiments of the present invention, even when the angle of the camera installed on the vehicle is changed according to environmental factors such as driving, the tolerance correction function is automatically provided to minimize the distortion of the surround view image.

특히, 센서부(10)에 의해 센싱된 결과값을 이용하여 공차 보정 조건을 만족하는 경우 어라운드 뷰 영상을 생성함으로써, 어라운드 뷰 영상의 정합성을 보다 향상시킬 수 있다.In particular, when the tolerance correction condition is satisfied by using the resultant value sensed by the sensor unit 10, the coherence of the surround view image can be further improved.

이에 따라, 서비스 센터나 사업소 등을 방문하지 않더라도 주행 중 또는 정차시에 자동으로 공차를 보정해 줌으로써 운전자의 편의성을 극대화시킬 수 있다.Accordingly, even if the driver does not visit a service center or a business establishment, it is possible to automatically correct the tolerance during driving or stopping, thereby maximizing the convenience of the driver.

한편, 본 발명의 일 실시예에 따른 카메라 자동 공차 보정 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. Meanwhile, the camera automatic tolerance correcting method according to an embodiment of the present invention may be realized in the form of a recording medium including a computer program stored in a medium executed by the computer or a command executable by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.While the methods and systems of the present invention have been described in connection with specific embodiments, some or all of those elements or operations may be implemented using a computer system having a general purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

10: 센서부 11: 거리 감지 센서
13: 차고 센서 15: 조향각 센서
17: 휠 엔코더 센서 20: 영상 촬영부
100: 어라운드 뷰 모니터링 시스템 110: 통신모듈
120: 메모리 130: 프로세서
10: Sensor part 11: Distance sensor
13: Height sensor 15: Steering angle sensor
17: Wheel encoder sensor 20:
100: a surrounding view monitoring system 110: a communication module
120: memory 130: processor

Claims (17)

카메라의 자동 공차 보정이 가능한 어라운드 뷰 모니터링 시스템에 있어서,
차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라를 포함하는 영상 촬영부 및 센서부와 데이터를 송수신하는 통신모듈,
상기 카메라의 자동 공차 보정을 위한 프로그램이 저장된 메모리 및
상기 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 차량에 포함된 센서부를 통해 센싱된 결과값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단하고, 상기 공차 보정 조건을 만족하는 경우, 상기 전방, 후방, 좌측 및 우측 카메라에 의해 촬영된 각 영상간에 공통되는 특징점을 추출하며, 상기 촬영된 각 영상에서 상기 추출된 특징점을 조정하여 상기 각 영상을 탑 뷰(Top View) 영상으로 변환하고, 상기 변환된 탑 뷰 영상에 기초하여 어라운드 뷰 영상을 생성하는 것인 어라운드 뷰 모니터링 시스템.
1. An auroral view monitoring system capable of correcting automatic tolerance of a camera,
An image capturing unit including front, rear, left and right cameras installed around the vehicle, a communication module for transmitting and receiving data to and from the sensor unit,
A memory for storing a program for correcting the automatic tolerance of the camera,
And a processor for executing the program,
Wherein the processor determines whether or not the tolerance correction condition is satisfied based on the sensed result value through the sensor unit included in the vehicle as the program is executed and if the tolerance correction condition is satisfied, Extracting feature points common to each of the images photographed by the left and right cameras, converting the respective images into top view images by adjusting the extracted feature points in the captured images, And generating an overview image based on the top view image.
제 1 항에 있어서,
상기 센서부는 거리 감지 센서, 차고 센서, 조향각 센서 및 휠 엔코더 센서 중 하나 이상을 포함하는 것인 어라운드 뷰 모니터링 시스템.
The method according to claim 1,
Wherein the sensor unit comprises at least one of a distance sensor, a height sensor, a steering angle sensor and a wheel encoder sensor.
제 2 항에 있어서,
상기 프로세서는 상기 조향각 센서에 의해 센싱된 결과값에 기초하여 상기 차량이 직진 이동하는지 여부를 판단하고, 상기 차량이 직진 이동하는 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 것인 어라운드 뷰 모니터링 시스템.
3. The method of claim 2,
Wherein the processor determines whether the vehicle travels straight on the basis of a result sensed by the steering angle sensor and, if it is determined that the vehicle is to travel straight, determining that the tolerance correction condition is satisfied View monitoring system.
제 2 항에 있어서,
상기 프로세서는 상기 거리 감지 센서에 의해 센싱된 결과값에 기초하여 상기 차량으로부터 기 설정된 범위 내에 장애물이 존재하는지 여부를 판단하고, 상기 장애물이 존재하지 않는 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 것인 어라운드 뷰 모니터링 시스템.
3. The method of claim 2,
Wherein the processor determines whether or not an obstacle exists within a predetermined range from the vehicle based on a result sensed by the distance sensor, and when it is determined that the obstacle does not exist, Which is determined based on the position of the object.
제 2 항에 있어서,
상기 프로세서는 상기 차고 센서에 의해 센싱된 결과값에 기초하여 상기 차량이 경사로에 위치하는지 여부를 판단하고, 상기 차량이 경사로에 위치하는 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 것인 어라운드 뷰 모니터링 시스템.
3. The method of claim 2,
The processor determines whether or not the vehicle is located on a ramp based on a result sensed by the height sensor, and determines that the vehicle satisfies the tolerance correction condition when it is determined that the vehicle is located in a ramp Inground view monitoring system.
제 2 항에 있어서,
상기 프로세서는 상기 휠 엔코더 센서에 의해 센싱된 결과값에 기초하여 상기 차량의 속도가 기 설정된 속도 이하인지 여부를 판단하고, 상기 기 설정된 속도 이하인 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 것인 어라운드 뷰 모니터링 시스템.
3. The method of claim 2,
Wherein the processor determines whether the speed of the vehicle is equal to or less than a predetermined speed based on a result sensed by the wheel encoder sensor and determines that the tolerance correction condition is satisfied Around view monitoring system.
제 1 항에 있어서,
상기 프로세서는 상기 추출된 특징점들 중 임의의 특징점인 제 1 특징점과 제 2 특징점을 선택하고,
상기 선택된 제 1 및 제 2 특징점에 대하여, 상기 차량의 이전 위치에 대응하는 제 1 및 제 2 특징점 간의 제 1 거리와, 현재 위치에 대응하는 제 1 및 제 2 특징점 간의 제 2 거리를 각각 산출하고, 상기 차량의 이전 위치와 현재 위치를 기준으로 상기 제 1 및 제 2 특징점의 제 1 및 제 2 이동거리를 각각 산출하며,
상기 산출된 제 1 거리 및 제 2 거리가 동일하고, 상기 제 1 및 제 2 이동거리가 동일하도록 상기 각 영상을 조정하여 상기 탑 뷰 영상을 생성하는 것인 어라운드 뷰 모니터링 시스템.
The method according to claim 1,
The processor selects a first feature point and a second feature point, which are arbitrary feature points of the extracted feature points,
For each of the selected first and second feature points, a first distance between the first and second feature points corresponding to the previous position of the vehicle and a second distance between the first and second feature points corresponding to the current position, respectively Calculating first and second moving distances of the first and second characteristic points based on a previous position and a current position of the vehicle, respectively,
Wherein the top view image is generated by adjusting each of the images so that the calculated first distance and the second distance are the same and the first and second moving distances are the same.
제 7 항에 있어서,
상기 프로세서는 상기 산출된 제 1 및 제 2 거리에 각각 대응하는 방향벡터가 서로 동일하고, 상기 산출된 제 1 및 제 2 이동거리에 각각 대응하는 방향벡터가 서로 동일하도록 상기 각 영상을 조정하여 상기 탑 뷰 영상을 생성하는 것인 어라운드 뷰 모니터링 시스템.
8. The method of claim 7,
Wherein the processor adjusts each of the images so that the direction vectors corresponding to the calculated first and second distances are equal to each other and the direction vectors corresponding to the calculated first and second movement distances are equal to each other, A top view image is generated.
제 8 항에 있어서,
상기 프로세서는 상기 전방, 후방, 좌측 및 우측 카메라 중 하나 이상의 카메라가 요잉 및 피칭 동작 중 하나 이상의 동작이 수행되는 경우에 대응되도록 촬영된 영상으로 조정함에 따라 상기 탑 뷰 영상을 생성하는 것인 어라운드 뷰 모니터링 시스템.
9. The method of claim 8,
Wherein the processor is configured to generate the top view image by adjusting one or more cameras of the front, rear, left, and right cameras to be photographed so as to correspond to one or more of the operations of yawing and pitching operations, Monitoring system.
제 7항 내지 제 9 항 중 어느 한 항에 있어서,
상기 프로세서는 상기 제 1 및 제 2 거리에 기초하여 추출된 이동 벡터가, 상기 차량의 이동 정보에 기초하여 예측된 이동 방향과 일치되도록 하는 각도를 산출하고, 상기 산출된 각도에 기초하여 상기 전방, 후방, 좌측 및 우측 카메라 중 하나 이상의 카메라가 롤링 동작이 수행되는 경우에 대응되도록 촬영된 영상으로 조정함에 따라 상기 탑 뷰 영상을 생성하는 것인 어라운드 뷰 모니터링 시스템.
10. The method according to any one of claims 7 to 9,
Wherein the processor calculates an angle at which the motion vector extracted based on the first and second distances coincides with the predicted movement direction based on the movement information of the vehicle, Wherein the top view image is generated by adjusting one or more cameras of the rear, left, and right cameras to be photographed so as to correspond to a case where a rolling operation is performed.
제 1 항에 있어서,
상기 프로세서는 상기 변환된 각각의 탑 뷰 영상에 포함된 차선 또는 정지선을 검출하고, 상기 각각의 탑 뷰 영상에 포함된 차선 또는 정지선의 경계가 정합되도록 상기 각각의 탑 뷰 영상을 보정하는 것인 어라운드 뷰 모니터링 시스템.
The method according to claim 1,
The processor detects a lane or a stop line included in each of the transformed top view images and corrects the respective top view images so that boundaries of lane or stop lines included in the respective top view images are matched. View monitoring system.
어라운드 뷰 모니터링 시스템에서의 카메라 자동 공차 보정 방법에 있어서,
차량에 포함된 센서부를 통해 센싱된 결과값에 기초하여 공차 보정 조건을 만족하는지 여부를 판단하는 단계;
상기 공차 보정 조건을 만족하는 경우, 차량을 중심으로 설치된 전방, 후방, 좌측 및 우측 카메라를 포함하는 영상 촬영부에 의해 촬영된 각 영상간에 공통되는 특징점을 추출하는 단계;
상기 촬영된 각 영상에서 상기 추출된 특징점을 조정하여 상기 각 영상을 탑 뷰(Top View) 영상으로 변환하는 단계 및
상기 변환된 탑 뷰 영상에 기초하여 어라운드 뷰 영상을 생성하는 단계를 포함하는 카메라 자동 공차 보정 방법.
A camera automatic tolerance correction method in an ambient view monitoring system,
Determining whether a tolerance correction condition is satisfied based on a sensed result value through a sensor unit included in the vehicle;
Extracting feature points that are common among respective images photographed by an image capturing unit including front, rear, left, and right cameras provided around the vehicle when the tolerance correcting condition is satisfied;
Adjusting the extracted minutiae in each of the photographed images to convert the respective images into a top view image;
And generating an overview image based on the transformed top view image.
제 12 항에 있어서,
상기 센서부는 거리 감지 센서, 차고 센서, 조향각 센서 및 휠 엔코더 센서 중 하나 이상을 포함하는 것인 카메라 자동 공차 보정 방법.
13. The method of claim 12,
Wherein the sensor unit comprises at least one of a distance sensor, a height sensor, a steering angle sensor and a wheel encoder sensor.
제 12 항에 있어서,
상기 공차 보정 조건을 만족하는지 여부를 판단하는 단계는,
상기 조향각 센서에 센싱된 결과값에 기초하여 상기 차량이 직진 이동하는지 여부를 판단하는 단계 및
상기 차량이 직진 이동하는 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 단계를 포함하는 것인 카메라 자동 공차 보정 방법.
13. The method of claim 12,
Wherein the step of determining whether the tolerance correction condition is satisfied comprises:
Determining whether the vehicle is traveling straight on the basis of a resultant value sensed by the steering angle sensor
And determining that the tolerance correction condition is satisfied when the vehicle is determined to be moved in a straight line.
제 12 항에 있어서,
상기 공차 보정 조건을 만족하는지 여부를 판단하는 단계는,
상기 거리 감지 센서에 의해 센싱된 결과값에 기초하여 상기 차량으로부터 기 설정된 범위 내에 장애물이 존재하는지 여부를 판단하는 단계 및
상기 장애물이 존재하지 않는 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 단계를 포함하는 것인 카메라 자동 공차 보정 방법.
13. The method of claim 12,
Wherein the step of determining whether the tolerance correction condition is satisfied comprises:
Determining whether an obstacle exists within a predetermined range from the vehicle based on a result sensed by the distance sensor;
And determining that the tolerance correction condition is satisfied when it is determined that the obstacle does not exist.
제 12 항에 있어서,
상기 공차 보정 조건을 만족하는지 여부를 판단하는 단계는,
상기 차고 센서에 의해 센싱된 결과값에 기초하여 상기 차량이 경사로에 위치하는지 여부를 판단하는 단계 및
상기 차량이 경사로에 위치하는 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 단계를 포함하는 것인 카메라 자동 공차 보정 방법.
13. The method of claim 12,
Wherein the step of determining whether the tolerance correction condition is satisfied comprises:
Determining whether the vehicle is located on a ramp based on a result sensed by the height sensor; and
And determining that the tolerance correction condition is satisfied when it is determined that the vehicle is located in the ramp.
제 12 항에 있어서,
상기 공차 보정 조건을 만족하는지 여부를 판단하는 단계는,
상기 휠 엔코더 센서에 의해 센싱된 결과값에 기초하여 상기 차량의 속도가 기 설정된 속도 이하인지 여부를 판단하는 단계 및
상기 기 설정된 속도 이하인 것으로 판단된 경우, 상기 공차 보정 조건을 만족하는 것으로 판단하는 단계를 포함하는 것인 카메라 자동 공차 보정 방법.
13. The method of claim 12,
Wherein the step of determining whether the tolerance correction condition is satisfied comprises:
Determining whether the speed of the vehicle is below a predetermined speed based on a result sensed by the wheel encoder sensor;
And determining that the tolerance correction condition is satisfied when it is determined that the predetermined speed is equal to or less than the preset speed.
KR1020160053872A 2016-05-02 2016-05-02 Around view monitoring system and method for compensating camera tolerance there of KR102457264B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160053872A KR102457264B1 (en) 2016-05-02 2016-05-02 Around view monitoring system and method for compensating camera tolerance there of

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160053872A KR102457264B1 (en) 2016-05-02 2016-05-02 Around view monitoring system and method for compensating camera tolerance there of

Publications (3)

Publication Number Publication Date
KR20170124232A true KR20170124232A (en) 2017-11-10
KR102457264B1 KR102457264B1 (en) 2022-10-20
KR102457264B9 KR102457264B9 (en) 2023-05-11

Family

ID=60386833

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160053872A KR102457264B1 (en) 2016-05-02 2016-05-02 Around view monitoring system and method for compensating camera tolerance there of

Country Status (1)

Country Link
KR (1) KR102457264B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190062876A (en) * 2017-11-29 2019-06-07 현대자동차주식회사 Image processing apparatus and image compression method thereof
KR102035586B1 (en) * 2018-05-17 2019-10-23 화남전자 주식회사 Method for Automatic Finding a Triangle from Camera Images and System Therefor
KR20200000953A (en) * 2018-06-26 2020-01-06 주식회사 수올리나 Around view monitoring system and calibration method for around view cameras
CN111681159A (en) * 2019-03-11 2020-09-18 现代摩比斯株式会社 Image processing apparatus and method
KR20210157174A (en) 2020-06-19 2021-12-28 현대모비스 주식회사 Optics device for surround view tolerance calibration and image control method
KR20220052172A (en) 2020-10-20 2022-04-27 현대모비스 주식회사 Surround view monitoring system and providing method of the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033803A (en) * 2012-09-10 2014-03-19 현대모비스 주식회사 Method and apparatus for compensating camera tolerance and around view monitoring system using the same
KR101406230B1 (en) * 2012-12-20 2014-06-12 현대오트론 주식회사 System and method for generating revised Around View Monitor video according to tilt of automotive
WO2016052505A1 (en) * 2014-09-30 2016-04-07 クラリオン株式会社 Camera calibration device and camera calibration system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033803A (en) * 2012-09-10 2014-03-19 현대모비스 주식회사 Method and apparatus for compensating camera tolerance and around view monitoring system using the same
KR101406230B1 (en) * 2012-12-20 2014-06-12 현대오트론 주식회사 System and method for generating revised Around View Monitor video according to tilt of automotive
WO2016052505A1 (en) * 2014-09-30 2016-04-07 クラリオン株式会社 Camera calibration device and camera calibration system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190062876A (en) * 2017-11-29 2019-06-07 현대자동차주식회사 Image processing apparatus and image compression method thereof
KR102035586B1 (en) * 2018-05-17 2019-10-23 화남전자 주식회사 Method for Automatic Finding a Triangle from Camera Images and System Therefor
KR20200000953A (en) * 2018-06-26 2020-01-06 주식회사 수올리나 Around view monitoring system and calibration method for around view cameras
CN111681159A (en) * 2019-03-11 2020-09-18 现代摩比斯株式会社 Image processing apparatus and method
KR20200108647A (en) * 2019-03-11 2020-09-21 현대모비스 주식회사 Apparatus and method for processing image
US11373282B2 (en) 2019-03-11 2022-06-28 Hyundai Mobis Co., Ltd. Image processing apparatus and method
CN111681159B (en) * 2019-03-11 2023-09-29 现代摩比斯株式会社 Image processing apparatus and method
KR20210157174A (en) 2020-06-19 2021-12-28 현대모비스 주식회사 Optics device for surround view tolerance calibration and image control method
KR20220052172A (en) 2020-10-20 2022-04-27 현대모비스 주식회사 Surround view monitoring system and providing method of the same
US11648888B2 (en) 2020-10-20 2023-05-16 Hyundai Mobis Co., Ltd. Surround view monitoring system and providing method of the same

Also Published As

Publication number Publication date
KR102457264B9 (en) 2023-05-11
KR102457264B1 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
KR102457264B1 (en) Around view monitoring system and method for compensating camera tolerance there of
CN106981082B (en) Vehicle-mounted camera calibration method and device and vehicle-mounted equipment
KR102022388B1 (en) Calibration system and method using real-world object information
JP5898475B2 (en) In-vehicle camera system, calibration method thereof, and calibration program thereof
US20180108150A1 (en) Systems and methods for in-field stereocamera calibration
KR102516326B1 (en) Camera extrinsic parameters estimation from image lines
JP5455124B2 (en) Camera posture parameter estimation device
CN109155066B (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle
JP2018534699A (en) System and method for correcting erroneous depth information
JP6273352B2 (en) Object detection apparatus, object detection method, and mobile robot
US9087374B2 (en) Automatic airview correction method
WO2004106856A1 (en) Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system
WO2018179535A1 (en) System and method for controlling motion of vehicle
JP4275378B2 (en) Stereo image processing apparatus and stereo image processing method
KR102543523B1 (en) System and method for correcting error of camera
CN110163963B (en) Mapping device and mapping method based on SLAM
CN104881869A (en) Real time panorama tracing and splicing method for mobile platform
KR102089343B1 (en) Around view monitoring system and calibration method for around view cameras
CN107122770A (en) Many mesh camera systems, intelligent driving system, automobile, method and storage medium
WO2018235300A1 (en) Object detection device, object detection method, and computer-readable recording medium
JP2019070983A (en) Position estimation device of moving body and position estimation method
JP6701057B2 (en) Recognizer, program
CN113869422B (en) Multi-camera target matching method, system, electronic device and readable storage medium
WO2015182771A1 (en) Image capturing device, image processing device, image processing method, and computer program
KR20170114523A (en) Apparatus and method for AVM automatic Tolerance compensation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]