KR20170119508A - Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof - Google Patents

Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof Download PDF

Info

Publication number
KR20170119508A
KR20170119508A KR1020160047621A KR20160047621A KR20170119508A KR 20170119508 A KR20170119508 A KR 20170119508A KR 1020160047621 A KR1020160047621 A KR 1020160047621A KR 20160047621 A KR20160047621 A KR 20160047621A KR 20170119508 A KR20170119508 A KR 20170119508A
Authority
KR
South Korea
Prior art keywords
image
vehicle
visible image
measurement sensors
surround
Prior art date
Application number
KR1020160047621A
Other languages
Korean (ko)
Other versions
KR101816068B1 (en
Inventor
박민철
이동수
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020160047621A priority Critical patent/KR101816068B1/en
Publication of KR20170119508A publication Critical patent/KR20170119508A/en
Application granted granted Critical
Publication of KR101816068B1 publication Critical patent/KR101816068B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Abstract

본 발명은 차량 주변 감지 시스템 및 방법에 관한 것으로서, 본 발명의 일 실시예에 따른 차량 주변 감지 시스템은, 차량의 상부에 탑재되며, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 배치된 복수의 가시영상 측정 센서, 상기 복수의 가시영상 측정 센서들 사이에 배치되는 복수의 열화상 측정 센서, 및 상기 복수의 가시영상 측정 센서와 복수의 열화상 측정 센서에 연결되어, 측정된 가시영상 및 열화상의 영상 융합을 통하여, 차량 둘레의 서라운드 영역에 대한 서라운드 융합영상을 제공하는 제어부를 포함한다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a system and method for detecting a periphery of a vehicle, and a system for detecting a periphery of a vehicle according to an embodiment of the present invention includes a plurality of A plurality of visible image measurement sensors, a plurality of thermal image measurement sensors disposed between the plurality of visible image measurement sensors, and a plurality of visible image measurement sensors and a plurality of thermal image measurement sensors, And a control unit for providing a surround fusion image for the surround region around the vehicle through image fusion.

Description

차량 주변 감지 시스템 및 이를 이용한 차량 주변 감지 방법 {Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof} TECHNICAL FIELD [0001] The present invention relates to a vehicle surroundings detection system and a vehicle surround detection method using the same,

본 발명은 차량 주변 감지 시스템 및 이를 이용한 차량 주변 감지 방법에 관한 것으로서, 보다 구체적으로 가시영상 측정 장치와 열화상 측정 장치를 사용하여 차량의 사각지대 및 주변을 감지하는 차량 주변 감지 시스템 및 감지 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a vehicle surroundings detection system and a vehicle surroundings detection method using the same, and more particularly to a vehicle surroundings detection system and a detection method for detecting a blind spot and surroundings of a vehicle using a visible image measurement device and a thermal image measurement device .

최근 지능형운전자보조시스템(ADAS: Advanced Driver Assistance Systems) 기술의 발달로 차량 주변을 감지하기 위한 다양한 기술이 개발되어 왔다. 특히, 차량 주변 모니터링(AVM: Around View Monitoring) 시스템은 차량 주변에 최소한 4개의 전방, 후방 및 좌/우측면 카메라를 배치하여 어라운드 뷰(around view)를 생성하였다.Recently, various technologies have been developed to detect the surroundings of vehicles by the development of ADAS (Advanced Driver Assistance Systems) technology. In particular, the Around View Monitoring (AVM) system created at least four front, rear and left / right side cameras around the vehicle to create an around view.

특허문헌 1 내지 3의 경우 영상 센서 또는 초음파 측정 센서를 이용하여 가상의 어라운드 뷰 여상을 생성하는 것을 개시하고 있다. 그러나 특허문헌 1 내지 3의 경우, 영상 측정을 위한 카메라를 여러 곳에 설치하여 영상을 획득하며, 차량 주변의 영상을 획득하기 위해 넓은 시야각을 갖는, 즉 초광시야각(Ultra-Wide Field of View)을 갖는 렌즈를 사용한다. In Patent Documents 1 to 3, it is disclosed that a virtual surround view image is generated by using an image sensor or an ultrasonic measurement sensor. However, in the case of Patent Documents 1 to 3, a camera for image measurement is installed in various places to acquire an image, and in order to acquire an image of the surroundings of the vehicle, a wide viewing angle, i.e., an Ultra-Wide Field of View Use a lens.

구체적으로, 주로 어안(fish-eye) 렌즈를 사용한다. 어안 렌즈는 큰 넓은 화각으로 어라운드 뷰를 생성하기 위해 주로 사용되지만 가장 큰 단점은 이미지의 왜곡의 문제가 발생한다는 것이다. 또한, 왜곡을 보정하더라도 초점 거리가 매우 짧으므로 영상이 심하게 왜곡되어 차량 주변의 물체가 노면에 넘어져 있는 것처럼 보이는 문제가 발생한다.Specifically, a fish-eye lens is mainly used. Fisheye lenses are often used to create an aural view with a large wide angle of view, but the biggest drawback is the problem of image distortion. Also, even if the distortion is corrected, the focal length is very short, so that the image is seriously distorted and the object around the vehicle seems to fall on the road surface.

특히, 대형 차량의 경우 어라운드 뷰를 생성하기 위하여, 일반적인 차량과 같이 카메라 배열을 구성할 경우 측정하여야 할 넓은 시야각을 고려하면, 카메라 개수를 늘리거나 초광시야각 렌즈가 반드시 필요하다. 이 경우 위와 같은 왜곡의 문제가 더욱 심각하게 발생할 것이다.Especially, in case of a large vehicle, considering the wide viewing angle to be measured when constructing a camera array like a general vehicle in order to create an around view, it is necessary to increase the number of cameras or to have an ultra-wide viewing angle lens. In this case, the problem of distortion as described above will become more serious.

한편, 특허문헌 3의 경우 초음파 측정 센서를 적용하여 차량 주변의 장애물과의 거리 정보를 획득하였다. 그러나, 초음파 측정 센서의 경우 물체를 탐지하는 거리가 짧고 공간해상도가 낮기 때문에 영상 센서에 비해 다소 저해상도 및 협시야각(Narrow Field of View)을 갖는다. 따라서, 대형 차량 주변에 적용하기 위해서는 다수의 초음파 측정 센서를 배치 및 이들 신호를 처리하여야 하기 때문에 전체 시스템이 복잡해 지는 문제가 발생할 것이다.On the other hand, in the case of Patent Document 3, an ultrasonic measurement sensor is applied to obtain distance information with respect to an obstacle around the vehicle. However, ultrasonic measurement sensor has low resolution and narrow field of view because it has a short distance to detect an object and a low spatial resolution. Therefore, in order to be applied to the vicinity of a large-sized vehicle, a plurality of ultrasonic measurement sensors must be disposed and processed, and thus the entire system becomes complicated.

KR10-2010-0113959 AKR10-2010-0113959A KR10-2012-0060283 AKR10-2012-0060283A KR10-1511610 B1KR10-1511610 B1

본 발명은 상술한 문제점들을 해결하기 위한 것으로, 본 발명의 목적은 다파장 센서의 융합 및 정합 과정을 통하여 대형 차량의 전천후 주·야간 사각지대 및 주변을 감지할 수 있는 차량 주변 감지 시스템 및 감지 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a vehicle surroundings detection system and a detection method capable of detecting all-weather blind and night blind zones and surroundings of a large vehicle through fusion and matching processes of multi- .

또한, 본 발명의 다른 목적은 초음파 측정 센서를 다파장 센서의 영상 정보와 매칭시켜 물체 또는 사용자를 감지할 수 있는 차량 주변 감지 시스템 및 감지 방법을 제공하는 것이다. It is another object of the present invention to provide a vehicle surroundings sensing system and method for detecting an object or a user by matching an ultrasonic measurement sensor with image information of a multi-wavelength sensor.

그리고, 본 발명의 또 다른 목적은 차량의 형상에 제약을 받지 않고 설치가 가능한 융통성이 높은 차량 주변 감지 시스템을 제공하는 것이다.It is another object of the present invention to provide a highly flexible vehicle surroundings detection system that can be installed without being restricted by the shape of a vehicle.

본 발명의 일 실시예에 따른 차량 주변 감지 시스템은, 차량의 상부에 탑재되며, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 배치된 복수의 가시영상 측정 센서; 상기 복수의 가시영상 측정 센서들 사이에 배치되는 복수의 열화상 측정 센서; 및 상기 복수의 가시영상 측정 센서와 복수의 열화상 측정 센서에 연결되어, 측정된 가시영상 및 열화상의 영상 융합을 통하여, 차량 둘레의 영역에 대한 서라운드 융합영상을 제공하는 제어부를 포함한다.A vehicle perimeter detection system according to an embodiment of the present invention includes: a plurality of visible image measurement sensors mounted on an upper portion of a vehicle, the plurality of visible image measurement sensors being arranged at predetermined intervals over an entire area around the vehicle; A plurality of thermal image measurement sensors disposed between the plurality of visible image measurement sensors; And a control unit connected to the plurality of visible image measurement sensors and the plurality of thermal image measurement sensors and providing a surround fusion image for the area around the vehicle through the image fusion of the measured visible image and the deteriorated image.

상기 복수의 가시영상 측정 센서는, 제1 방향, 이에 대향하는 제2 방향, 상기 제1 방향과 제2 방향 사이의 제3 방향 및 제4 방향을 향하여 각각 배치되는 4개의 가시영상 측정 센서이고, 상기 복수의 열화상 측정 센서는 가시영상 측정 센서들 사이에 각각 배치되는 4개의 열화상 측정 센서일 수 있다.Wherein the plurality of visible image measurement sensors are four visible image measurement sensors arranged respectively in a first direction, a second direction opposite to the first direction, and a third direction and a fourth direction between the first direction and the second direction, The plurality of thermal image measurement sensors may be four thermal image measurement sensors each disposed between the visible image measurement sensors.

상기 제어부는, 상기 복수의 가시영상 측정 센서와 복수의 열화상 측정 센서에서 측정된 가시영상 데이터와 열화상 데이터를 수신하여, 상기 가시영상 데이터와 열화상 데이터의 렌즈 왜곡 보정을 수행하고, 상기 렌즈 왜곡 보정 후에 기하학적 정렬 보정을 수행한 제1 보정 데이터와, 상기 렌즈 왜곡 보정 후에, 상기 가시영상 데이터와 함께 광도계 정렬 보정을 수행한 제2 보정 데이터의 영상 정합에 의하여 서라운드 가시영상을 생성할 수 있다.Wherein the control unit receives visible image data and thermal image data measured by the plurality of visible image measurement sensors and a plurality of thermal image measurement sensors to perform lens distortion correction of the visible image data and thermal image data, It is possible to generate a surround visible image by performing image matching of first correction data subjected to geometric alignment correction after distortion correction and second correction data subjected to photometric alignment correction with the visual image data after the lens distortion correction .

상기 기하학적 정렬 보정은, 상기 복수의 열화상 측정 센서들 각각에 대하여, 양측에 인접한 가시영상 측정 센서들 사이의 호모그래피 기반의 위치 추정을 통하여 2개의 제1 호모그래피 행렬들을 구하고, 상기 2개의 제1 호모그래피 행렬들에 기초하여 상기 인접한 가시영상 측정 센서들 사이의 제2 호모그래피 행렬들을 구하여 이들의 다단계 변환 행렬들을 구하고, 상기 다단계 변환 행렬들에 기초한 기하학적 보정 파라미터를 기반으로 상기 제1 보정 데이터를 산출할 수 있다.Wherein the geometric alignment correction is performed by obtaining two first homography matrices for each of the plurality of thermal image measurement sensors through homography-based position estimation between adjacent visual image measurement sensors on both sides, Based on the geometric correction parameters based on the multilevel transformation matrices, second multilevel transformation matrices obtained by obtaining second homography matrices between the neighboring visible image measurement sensors on the basis of one homography matrix, Can be calculated.

상기 광도계 정렬 보정은, 인접하고 있는 가시영상 측정 센서들 사이의 오버랩 영역에서의 가시영상 데이터의 광도계 정렬을 분석하고, 상기 오버랩 영역에서의 밝기와 색상의 차이를 최소화하도록 설정되는 광도계 보정 파라미터를 가시영상 데이터에 적용하여 제2 보정 데이터를 산출할 수 있다.The photometric alignment correction may include analyzing photometric alignment of the visible image data in the overlap region between adjacent visible image measurement sensors and adjusting the photometric calibration parameters set to minimize the difference in brightness and hue in the overlap region, It is possible to calculate the second correction data by applying it to the image data.

상기 영상 정합은, 상기 제1 보정 데이터 및 제2 보정 데이터에 기초하여, 가시영상과 열화상 또는 가시영상들 사이에서 특징 추출 및 매칭을 수행하고, 최종 투영 변환 행렬을 구하여, 가시영상들의 와핑과 블랜딩을 통하여 서라운드 가시영상을 산출할 수 있다.The image matching may be performed by performing feature extraction and matching between the visible image and the thermal image or the visible image based on the first correction data and the second correction data and obtaining a final projection transformation matrix, The surround visible image can be calculated through blending.

상기 영상 융합은, 상기 가시영상 영상 데이터(Iv(x, y))와 열화상 데이터(I'M(x, y))는 웨이블릿 변환(W) 후 계수를 융합 법칙(Φ)에 의하여 융합된 후, 역 웨이블릿 변환(W-1)에 의해 서라운드 융합영상 이미지(IF(x, y)) 로 복원하며, 다음 [식 1]로 표현될 수 있다.In the image fusion, the visible image data Iv (x, y) and the thermal image data I ' M (x, y) are subjected to wavelet transform (W) And reconstructs the surround fusion image I F (x, y) by the inverse wavelet transform (W -1 ), and can be expressed by the following equation (1).

[식 1][Formula 1]

Figure pat00001
Figure pat00001

여기서, CY와 CM은 가시영상 데이터(Iv(x, y))와 열화상 데이터(I'M(x, y))의 웨이블릿 계수이며, CF는 융합 법칙(Φ)이 적용된 후의 계수이고, a와 d는 각각 근사와 상세계수이며, N은 이미지의 y방향의 크기이다. Here, C Y and C M are the wavelet coefficients of the visible image data I v (x, y) and the thermal image data I M (x, y), and C F is the wavelet coefficient after the fusion rule? Where a and d are approximate and detailed coefficients, respectively, and N is the size of the image in the y direction.

상기 차량의 둘레에 기 설정된 간격으로 배치된 복수의 초음파 측정 센서를 더 포함하고, 상기 제어부는 초음파 측정 센서의 추적을 통하여 월드 좌표계 상의 한 점 P(X, Y, Z)을 서라운드 가시영상 평면상의 한 점 Pimg(x, y)으로 변환시켜, 차량 주변의 장애물의 평면상의 위치 정보를 제공할 수 있다. (X, Y, Z) on the world coordinate system through tracking of the ultrasonic measurement sensor, and a plurality of ultrasonic measurement sensors arranged at predetermined intervals around the vehicle, was converted to a point P img (x, y), it is possible to provide a position information on the vehicle in the plane of the surrounding obstacles.

상기 제어부에 연결되어, 서라운드 가시영상 정보, 서라운드 융합영상의 정보, 차량 주변의 장애물의 위치 정보, 서라운드 가시영상 또는 서라운드 융합영상에서 장애물의 이미지 정보 및 장애물에 관한 청각적 정보 중 선택된 하나 이상의 정보를 제공하는 정보 제공부를 더 포함할 수 있다.The control unit is connected to the control unit, and selects at least one selected from the surround visual image information, the surround fusion image information, the position information of the obstacle around the vehicle, the surround visual image or the image information of the obstacle in the surround fusion image, And an information providing unit for providing the information.

상기 정보 제공부는, 평면 디스플레이 및 헤드셋 마운트 디스플레이로 이루어진 군 중에서 선택된 하나 이상으로 구성된 디스플레이 부를 포함할 수 있다.The information providing unit may include at least one display unit selected from the group consisting of a flat panel display and a headset mount display.

일 단이 상기 차량의 지붕 부분에 탈착 가능하게 연결되는 연결부와, 상기 연결부의 타 단에 결합되어 상기 복수의 가시영상 측정 센서와 상기 복수의 열화상 측정 센서가 탑재되는 탑재 플레이트를 더 포함할 수 있다.And a mount plate coupled to the other end of the connection unit and having the plurality of visible image measurement sensors and the plurality of thermal image measurement sensors mounted thereon have.

상기 연결부 또는 상기 연결부와 탑재 플레이트는 자성 프레임으로 구성되어, 상기 차량에 자성으로 결합할 수 있다.The connecting portion or the connecting portion and the mounting plate may be formed of a magnetic frame, and may be magnetically coupled to the vehicle.

본 발명의 다른 실시예에 따른 차량 주변 감지 방법은, 차량의 상부에서, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 측정된 복수의 가시영상 데이터를 제공하는 단계; 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 측정된 복수의 열화상 데이터를 제공하는 단계; 및 상기 측정된 가시영상 및 열화상의 영상 융합을 통하여, 차량 둘레의 서라운드 영역에 대한 서라운드 융합영상을 제공하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for detecting a vehicle periphery, comprising: providing a plurality of visible image data measured at predetermined intervals over an entire area around a vehicle at an upper portion of the vehicle; Providing a plurality of thermal image data measured over a whole area around the vehicle at predetermined intervals; And providing a surround fused image for a surround region around the vehicle through the measured visual fusion and image fusion of the deteriorated image.

본 발명에 따르면 다파장 센서의 융합 및 정합 과정을 통하여 대형 차량의 전천후 사각지대 및 주변을 감지할 수 있는 차량 주변 감지 시스템 및 감지 방법을 제공할 수 있다. According to the present invention, it is possible to provide a vehicle surroundings detection system and a detection method capable of detecting all-weather blind zones and surroundings of a large vehicle through fusion and matching processes of multi-wavelength sensors.

또한, 본 발명에 따르면 초음파 측정 센서를 다파장 센서의 영상 정보와 매칭시켜 물체 또는 사용자를 감지할 수 있는 차량 주변 감지 시스템 및 감지 방법을 제공할 수 있다. In addition, according to the present invention, it is possible to provide a system and method for detecting a periphery of a vehicle that can detect an object or a user by matching an ultrasonic measurement sensor with image information of a multi-wavelength sensor.

그리고, 본 발명에 따르면 차량의 형상에 제약을 받지 않고 설치가 가능한 융통성이 높은 차량 주변 감지 시스템을 제공할 수 있다. According to the present invention, it is possible to provide a highly flexible vehicle surroundings detection system that can be installed without being restricted by the shape of the vehicle.

도 1은 본 발명의 일 실시예에 따라 차량에 장착된 차량 주변 감지 시스템을 나타내는 사시도(a) 및 측면도(b)이다.
도 2는 본 발명의 일 실시예에 따라 차량 주변 감지 시스템에 탑재되는 가시영상 측정 센서와 열화상 측정 센서의 배치를 개략적으로 나타내는 평면도이다.
도 3은 본 발명의 일 실시예에 따른 차량 주변 감지 시스템을 개략적으로 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 차량 주변 감지 시스템의 차량 주변 감지 방법을 나타내는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 차량 주변 감지 시스템의 가시영상 측정 센서의 기하학적 정렬 보정 및 광도계 정렬 보정 방법을 나타내는 순서도이다.
도 6은 본 발명의 일 실시예에 따른 기하학적 정렬 보정의 다단계 정렬 과정을 나타내는 개략도이다.
도 7은 본 발명의 일 실시예에 따른 광도계 정렬 보정을 위한 오버랩 영역을 나타내는 개략도이다.
도 8은 본 발명의 일 실시예에 따른 차량 주변 감지 시스템의 영상 정합 방법을 나타내는 순서도이다.
도 9는 본 발명의 일 실시예에 따른 차량 주변 감지 시스템에서 초음파 측정 센서에 의해 감지된 장애물을 월드 좌표계에서 평면 좌표계로 변환시키는 과정을 나타내는 개략도이다.
1 is a perspective view (a) and a side view (b) showing a vehicle surroundings detection system mounted on a vehicle according to an embodiment of the present invention.
FIG. 2 is a plan view schematically showing the arrangement of a visible image measurement sensor and a thermal image measurement sensor mounted in a vehicle surroundings sensing system according to an embodiment of the present invention.
3 is a block diagram schematically showing a vehicle perimeter detection system according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a method for detecting a vehicle periphery of a vehicle periphery sensing system according to an embodiment of the present invention.
5 is a flowchart illustrating a geometric alignment correction and a photometric alignment correction method of a visible image measurement sensor in a vehicle surroundings sensing system according to an exemplary embodiment of the present invention.
6 is a schematic diagram illustrating a multi-step alignment process of geometric alignment correction according to an embodiment of the present invention.
7 is a schematic diagram illustrating an overlap area for photometric alignment correction according to an embodiment of the present invention.
FIG. 8 is a flowchart illustrating an image matching method of a vehicle surroundings sensing system according to an embodiment of the present invention.
9 is a schematic view illustrating a process of converting an obstacle detected by an ultrasonic measurement sensor into a plane coordinate system in a world coordinate system in a vehicle perimeter sensing system according to an embodiment of the present invention.

본 실시예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하여 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. These embodiments are capable of various modifications and various embodiments, and specific embodiments will be described in detail with reference to the drawings. It is to be understood, however, that it is not intended to limit the scope of the specific embodiments but includes all transformations, equivalents, and alternatives falling within the spirit and scope of the disclosure disclosed. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the embodiments of the present invention,

실시예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the embodiment, 'module' or 'sub' performs at least one function or operation, and may be implemented in hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated into at least one module except for 'module' or 'module' which need to be implemented by specific hardware, and implemented by at least one processor (not shown) .

이하, 실시예를 첨부된 도면들을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding elements are denoted by the same reference numerals, and a duplicate description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 차량 주변 감지 시스템의 사시도(a) 및 측면도(b)이다. 도 2는 본 발명의 일 실시예에 따른 차량 주변 감지 시스템의 센서들의 배치를 나타내는 평면도이다. 1 is a perspective view (a) and a side view (b) of a vehicle surroundings sensing system according to an embodiment of the present invention. 2 is a plan view showing the arrangement of sensors of a vehicle surroundings sensing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 차량 주변 감지 시스템(2)은 차량(1)의 상부에 탑재된다. Referring to FIG. 1, a vehicle perimeter detection system 2 according to an embodiment of the present invention is mounted on an upper portion of a vehicle 1.

본 발명의 일 실시예에 따른 차량 주변 감지 시스템은, 차량(1)의 상부에 탑재되며, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 배치된 복수의 가시영상 측정 센서, 상기 복수의 가시영상 측정 센서들 사이에 배치되는 복수의 열화상 측정 센서, 및 상기 복수의 가시영상 측정 센서와 복수의 열화상 측정 센서에 연결되어, 측정된 가시영상 및 열화상의 영상 융합을 통하여, 차량 둘레의 서라운드 영역에 대한 서라운드 융합영상을 제공하는 제어부를 포함한다. A vehicle perimeter detection system according to an embodiment of the present invention includes a plurality of visible image measurement sensors mounted on an upper portion of a vehicle 1 and arranged over a whole area around a vehicle at predetermined intervals, A plurality of thermal image measurement sensors disposed between the measurement sensors and a plurality of visible image measurement sensors and a plurality of thermal image measurement sensors, And a control unit for providing a surround fusion image with respect to the surround image.

구체적으로, 도 1의 실시예에 따른 차량 주변 감지 시스템의 경우, 차량(1)의 상부에 탑재되며, 차량 주변의 제1 방향(D1), 이에 대향하는 제3 방향(D3), 상기 제1 방향(D1)과 제3 방향(D3) 사이의 제2 방향(D2) 및 제4 방향(D4)을 향하여 각각 배치되는 4개의 가시영상 측정 센서(C1, C2, C3, C4), 상기 가시영상 측정 센서(C1, C2, C3, C4)들 사이에 배치되는 4개의 열화상 측정 센서(T1, T2, T3, T4), 및 4개의 가시영상 측정 센서(C1, C2, C3, C4)와 4개의 열화상 측정 센서(T1, T2, T3, T4)에 연결되어, 측정된 이미지 및 열화상을 융합하여, 차량 주변의 서라운드 융합영상을 제공하는 제어부(30)를 포함할 수 있다. Specifically, in the case of the vehicle perimeter detection system according to the embodiment of FIG. 1, the vehicle 1 is mounted on the vehicle 1 and includes a first direction D 1 around the vehicle, a third direction D 3 opposite thereto, The four visible image measurement sensors C 1 , C 2 , C 3 , and C 4 disposed respectively in the second direction D 2 and the fourth direction D 4 between the first direction D 1 and the third direction D 3 , C 3, C 4), the visible image-measuring sensor (C 1, C 2, C 3, C 4) 4 -column image sensor that is disposed between (T 1, T 2, T 3, T 4), And four thermal image measurement sensors (T 1 , T 2 , T 3 , T 4 ) connected to the four visible image measurement sensors (C 1 , C 2 , C 3 , C 4 ) And a control unit 30 for providing a surround fusion image around the vehicle.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 차량 주변 감지 시스템은 차량 주변의 전체 영역, 즉 "서라운드(surround)"의 이미지 또는 영상을 제공한다. 그에 따라, 차량 주위의 전체 영역에 존재할 수 있는 장애물에 대한 정보를 제공할 수 있다. Referring to FIGS. 1 and 2, a vehicle perimeter detection system according to an embodiment of the present invention provides an image or an image of an entire area around a vehicle, that is, a "surround ". Thereby providing information about the obstacles that may exist in the entire area around the vehicle.

본 발명의 일 실시예에 따르면, 서라운드 영역을 기 설정된 간격으로 4개의 영역으로 구획하고, 각 구획별 가시영상 및 열화상을 측정하고, 각 구획의 가시영상 및 열화상을 융합하여 차량 둘레의 전체 영역, 즉 서라운드 영역의 이미지 및 열화상 정보, 또는 이들의 융합 이미지 정보를 제공할 수 있다.According to an embodiment of the present invention, the surround region is divided into four regions at predetermined intervals, the visible image and the thermal image of each region are measured, and the visible image and the thermal image of each region are fused, Image, and thermal image information of the region, i.e., the surround region, or fused image information thereof.

도 1의 실시예의 경우 4개의 방향, 제1 방향(D1), 제2 방향(D2), 제3 방향(D3) 및 제4 방향(D4)에 따라 4개의 영역으로 구획하여 가시영상 및 열화상을 측정하여 이에 대한 정보를 제공하는 것을 도시하였다. 이 경우, 가시영상 및 열화상 센서의 화각 및 허용 가능한 처리 데이터 용량 등을 고려하여 4개의 방향으로 구획하였으나, 반드시 이에 제한되는 것은 아니며 구체적인 상황에 따라 그 개수를 달리할 수 있다. In the case of the embodiment of FIG. 1, four regions are divided into four regions according to four directions, a first direction D 1 , a second direction D 2 , a third direction D 3 and a fourth direction D 4 , Images and thermal images are measured and information is provided. In this case, the image is divided into four directions in consideration of the view angle of the visible image and the thermal image sensor, and the allowable data capacity, but the present invention is not limited thereto, and the number may be varied depending on the specific situation.

본 명세서에서, 상기 제1 방향(D1)은 차량 주변의 한 방향을 지칭하며, 제3 방향(D3) 은 상기 제1 방향(D1)에 대향하는 방향을 지칭하며, 제2 방향(D2) 및 제4 방향(D4)은 각각 상기 제1 방향(D1)과 제2 방향(D2)의 사이의 방향을 지칭한다. 일 예로, 차량의 전방 영역, 후방 영역 및 좌/우 방향 영역을 지칭할 수 있다.In the present specification, the first direction D 1 refers to one direction around the vehicle, the third direction D 3 refers to the direction opposite to the first direction D 1 , D 2) and the fourth direction (D 4) refers to a direction between the first direction (D 1) and a second direction (D 2), respectively. For example, the front area, the rear area, and the left / right area of the vehicle may be referred to.

본 발명의 일 실시예에 따른 차량 주변 감지 시스템은 그 일 단이 차량의 상부에 연결되는 막대 형태의 연결부(21)와 상기 연결부(21)의 타 단에 연결되는 탑재 플레이트(23)를 포함한다. 일 실시예의 연결부(21)는 차량의 지붕 부분에 탑재하도록 형성될 수 있으며, 보다 구체적으로 상기 연결부(21) 또는 연결부(21)와 탑재 플레이트(23) 모두는 자성 프레임으로 구성되어, 자성을 이용하여 차량 지붕 부분에 고정되도록 형성될 수 있다. The vehicle perimeter detection system according to an embodiment of the present invention includes a rod-shaped connection part 21 connected to the upper part of the vehicle and a mounting plate 23 connected to the other end of the connection part 21 . The connecting portion 21 of the embodiment may be mounted on the roof portion of the vehicle. More specifically, the connecting portion 21 or both the connecting portion 21 and the mounting plate 23 may be formed of a magnetic frame, So as to be fixed to the roof portion of the vehicle.

그에 따라, 다양한 형상 및 크기의 차량에도 지붕의 일부 영역에 고정되어 장착되게 함으로써, 설치가 용이하고, 다양한 차량에 적용될 수 있는 차량 주변 감지 시스템을 제공할 수 있다. Accordingly, it is possible to provide a vehicle surroundings detection system that is easy to install and can be applied to various vehicles by allowing vehicles of various shapes and sizes to be fixedly mounted on a partial area of the roof.

특히, 전차 또는 버스와 같은 대형 차량의 경우 그 주변의 전체 영역이 광범위하기 때문에 전체 서라운드 이미지를 제공하기가 어렵다. 그러나 본원발명은 차량의 지붕 부분에 쉽게 고정할 수 있도록 형성되기 때문에, 대형 차량에도 쉽게 고정되어 차량 주변의 서라운드 이미지를 제공하는 데에 사용될 수 있다. In particular, in the case of a large vehicle such as a train or a bus, it is difficult to provide an entire surround image because the entire area around the vehicle is wide. However, since the present invention is formed so as to be easily fixed to the roof portion of the vehicle, it can be easily fixed to a large-sized vehicle and can be used for providing a surround image around the vehicle.

도 2는 본 발명의 일 실시예에 따른 탑재 플레이트(23)에 탑재되는 가시영상 측정 센서 및 열화상 센서들의 배치를 개략적으로 나타내는 도면이다.2 is a view schematically showing an arrangement of a visible image measurement sensor and a thermal image sensor mounted on a mount plate 23 according to an embodiment of the present invention.

가시영상 측정 센서 및 열화상 센서들은 탑재 플레이트(23) 상에 탑재되어 차량의 탑 뷰(top view)를 측정하도록 형성될 수 있다. 그리고, 탑 뷰(top view)를 4개의 영역으로 구획하여 제1 방향(D1), 제2 방향(D2), 제3 방향(D3) 및 제4 방향(D4)의 탑 뷰를 측정하도록 제1 가시영상 측정 센서(C1), 제2 가시영상 측정 센서(C2), 제3 가시영상 측정 센서(C3) 및 제4 가시영상 측정 센서(C4)가 각각 제1 방향(D1), 제2 방향(D2), 제3 방향(D3) 및 제4 방향(D4)으로 배치될 수 있다. 도 2를 참조하면, 마름모꼴의 배치 구조로 각 방향에 대해 1개의 가시영상 측정 센서가 배치될 수 있다. The visible image measurement sensor and the thermal image sensors may be mounted on the mounting plate 23 and configured to measure the top view of the vehicle. The top view is divided into four regions and the top view in the first direction D 1 , the second direction D 2 , the third direction D 3 and the fourth direction D 4 is divided into four regions The first visible image measurement sensor C 1 , the second visible image measurement sensor C 2 , the third visible image measurement sensor C 3 and the fourth visible image measurement sensor C 4 are arranged in the first direction (D 1 ), the second direction (D 2 ), the third direction (D 3 ), and the fourth direction (D 4 ). Referring to FIG. 2, one visible image measurement sensor may be arranged for each direction with a diamond-shaped arrangement structure.

한편, 인접하는 가시영상 측정 센서(C1, C2, C3, C4)들 사이에 각각 열화상 측정 센서(T1, T2, T3, T4)가 배치될 수 있다. 구체적으로, 제1 가시영상 측정 센서(C1)와 제2 가시영상 측정 센서(C2) 사이에 제1 열화상 측정 센서(T1)가 배치되고, 제2 가시영상 측정 센서(C2)와 제3 가시영상 측정 센서(C3) 사이에 제2 열화상 측정 센서(T2)가 배치되며, 제3 및 제4 가시영상 측정 센서(C3, C4) 사이에 제3 열화상 측정 센서(T3)가 배치되고, 제4 및 제1 가시영상 측정 센서(C4, C1) 사이에 제4 열화상 측정 센서(T4)가 배치될 수 있다. Thermal image measurement sensors T 1 , T 2 , T 3 , and T 4 may be disposed between adjacent visible image measurement sensors C 1 , C 2 , C 3 , and C 4 . Specifically, a first thermal image measurement sensor T 1 is disposed between the first visible image measurement sensor C 1 and the second visible image measurement sensor C 2 , and a second visible image measurement sensor C 2 is disposed between the first visible image measurement sensor C 1 and the second visible image measurement sensor C 2 . A second thermal image measurement sensor T 2 is disposed between the third visible image measurement sensor C 3 and the third visible image measurement sensor C 3 and a second thermal image measurement sensor T 3 is disposed between the third and fourth visible image measurement sensors C 3 and C 4 , sensor (T 3) that can be arranged is, the arrangement of the fourth infrared sensor (T 4) between the fourth and first visible image measuring sensor (C 4, C 1).

즉, 4개의 가시영상 측정 센서와 4개의 열화상 측정 센서는 각각 차량 주변의 서라운드 영역에 대하여 화각(field of view)이 대략 95도 이상으로 배치될 수 있다. 구체적으로, 대략 95도의 화각을 갖는 가시영상 측정 센서와 열화상 측정 센서가 번갈아 가며 배치될 수 있다. 그에 따라, 대략 95도 각도에 걸친 영역에 하나의 가시영상 측정 센서가 할당되어 이미지를 측정하도록 형성될 수 있다. 물론, 가시영상 측정 센서의 할당 영역과 열화상 측정 센서의 할당 영역이 반드시 일치해야 하는 것은 아니며, 추후 영상 정합 및 영상 융합 과정을 통하여 360도의 서라운드 영역으로 통합되어 서라운드 영역의 정보를 제공할 수 있다. That is, each of the four visible image measurement sensors and the four thermal image measurement sensors may be disposed with a field of view of about 95 degrees or more with respect to the surround area around the vehicle. Specifically, a visible image measurement sensor and a thermal image measurement sensor having an angle of view of approximately 95 degrees can be alternately arranged. Accordingly, one visible image measurement sensor can be assigned to an area over an approximately 95 degree angle and be configured to measure the image. Of course, the allocation area of the visible image measurement sensor and the allocation area of the thermal image measurement sensor do not necessarily coincide with each other, but may be integrated into the 360-degree surround area through the image registration and image fusion process to provide information on the surround area .

반드시 이에 제한되는 것은 아니나 일 실시예에 따르면, 상기 가시영상 측정 센서로 CCD 카메라가 사용될 수 있으며, 열화상 측정 센서로 적외선 열화상 카메라가 이에 사용될 수 있다. 4mm의 크기의 렌즈 및 2/3"의 이미지 센서가 사용될 수 있고, 4:3의 종횡비(Aspect ratio)에, 1280 × 960의 해상도에, 95.5°의 수평 화각, 79°의 수직 화각을 갖는 가시영상 측정 센서 및 열화상 측정 센서가 사용될 수 있다.According to an exemplary embodiment, a CCD camera may be used as the visible image measuring sensor, and an infrared ray camera may be used as the infrared image measuring sensor. A lens having a size of 4 mm and a 2/3 "image sensor can be used, and an aspect ratio of 4: 3, a resolution of 1280 × 960, a horizontal viewing angle of 95.5 °, a vertical viewing angle of 79 ° An image measurement sensor and a thermal image measurement sensor may be used.

그에 따라, 48.5m까지의 거리의 장애물을 모니터링 할 수 있으며, 24.2m까지의 장애물을 탐지하도록 형성될 수 있다.Accordingly, obstacles at distances up to 48.5 m can be monitored, and can be configured to detect obstacles up to 24.2 m.

그리고, 도 1의 실시예의 경우 차량 감지 시스템이 전차에 적용된 것이다. 이 3m 높이(y1)의 전차에 적용될 수 있으며, 차량으로부터 1.92m에서 17.1m까지의 장애물을 감지할 수 있다. 2m 높이(y1)의 장애물은 45.2도의 각도 범위 내로 수직 화각(θ)의 범위 내에서 감지할 수 있다. In the embodiment of FIG. 1, a vehicle detection system is applied to a train. Can be applied to trams with a height of 3 m (y 1 ) and can detect obstacles from 1.92 m to 17.1 m from the vehicle. An obstacle of 2 m height (y 1 ) can be detected within a range of 45.2 degrees within the range of the vertical angle of view (θ).

도 3은 본 발명의 일 실시예에 따른 차량 주변 감지 시스템을 개략적으로 나타내는 블록도이다.3 is a block diagram schematically showing a vehicle perimeter detection system according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 차랑 주변 감지 시스템은, 제1 가시영상 측정 센서(C1) 및 제1 열화상 측정 센서(T1)를 제1 멀티 모달(Multi modal) 센서부(11)를 포함할 수 있다. 또한, 상기 제1 멀티 모달 센서부는 제1 초음파 측정 센서(E1)를 더 포함할 수 있다. 그에 따라, 각 방향에 대한 초음파 정보를 통하여 장애물의 존재 여부 또는 장애물과의 거리를 측정할 수 있다. 3, the system for detecting peripherals of the present invention includes a first visible image measuring sensor C 1 and a first thermal image measuring sensor T 1 as a first multi-modal sensor unit 11, . ≪ / RTI > In addition, the first multimodal sensor unit may further include a first ultrasonic measurement sensor E 1 . Accordingly, it is possible to measure the presence or absence of an obstacle or the distance to the obstacle through the ultrasonic information for each direction.

본 발명의 일 실시예에 따르면, 상기 제1 초음파 측정 센서(E1)는 제1 방향(D1)으로 배치될 수 있다. 그리고, 제2 초음파 측정 센서(E2)는 제2 방향(D2)으로 배치될 수 있으며, 제3 초음파 측정 센서(E3)는 제3 방향(D3)으로 배치될 수 있고, 제4 초음파 측정 센서(E4)는 제4 방향(D4)으로 배치되어, 각각 배치 방향에 대한 장애물의 초음파 정보를 제공할 수 있다.According to an embodiment of the present invention, the first ultrasonic measurement sensor E 1 may be disposed in the first direction D 1 . The second ultrasonic measurement sensor E 2 may be disposed in the second direction D 2 and the third ultrasonic measurement sensor E 3 may be disposed in the third direction D 3 , ultrasound sensor (E 4) may provide the ultrasound information of the obstacle relative to the fourth direction (D 4) are disposed in each arrangement direction.

제1 멀티 모달 센서부(11)는 일 예로 제1 방향(D1)에 대한 장애물의 정보를 제공할 수 있으나, 반드시 이에 제한되는 것은 아니며 상술한 바와 같이 제1 방향(D1)의 가시영상 정보, 제1 방향(D1)과 제2 방향(D2) 사이의 열화상 정보 및 제1 방향(D1)의 초음파 정보를 제공하도록 형성될 수 있다. The first multimodal sensor unit 11 may provide the information of the obstacle in the first direction D 1 , but is not limited thereto. For example, the first multimodal sensor unit 11 may display the visible image in the first direction D 1 , Information, thermal image information between the first direction D 1 and the second direction D 2 , and ultrasonic information in the first direction D 1 .

본 발명의 일 실시예에 따르면, 차량 주변의 360도 서라운드 영역에 대하여 대략 90도의 간격으로 각각 대략 95도의 화각을 갖는 센서들을 배치할 수 있으며, 그에 따라 각각 화각이 대략 95도의 화각을 갖고 대략 90도의 간격으로 순서대로 배치된 제1 멀티 모달 센서부(11), 제2 멀티 모달 센서부(13) 및 제3 멀티 모달 센서부(15) 및 제4 멀티 모달 센서부(17)를 포함할 수 있다. 그에 따라, 차량 주변의 360도의 서라운드 영역에 대한 정보를 제공하기 위한 충분한 가시영상 데이터 또는 열화상 데이터를 확보할 수 있으며, 데이터 처리량 및 센서(또는, 카메라)의 개수 등을 최적화 할 수 있다. 그러나, 반드시 이에 제한되는 것은 아니며 설치 환경 및 센서의 사양 등에 따라 달라질 수도 있다. According to an embodiment of the present invention, sensors having an angle of view of approximately 95 degrees can be arranged at an interval of approximately 90 degrees with respect to a 360 degree surround region around the vehicle, whereby each angle of view has an angle of view of approximately 95 degrees, Modal sensor unit 11, the second multimodal sensor unit 13 and the third multimodal sensor unit 15 and the fourth multimodal sensor unit 17 that are arranged in order at intervals have. Thereby, it is possible to secure sufficient visible image data or thermal image data for providing information on the 360-degree surround area around the vehicle, and to optimize the data throughput and the number of sensors (or cameras). However, the present invention is not necessarily limited thereto, and may vary depending on the installation environment, the specifications of the sensor, and the like.

제어부(30)에는 제1 멀티 모달 센서부(11), 제2 멀티 모달 센서부(13), 제3 멀티 모달 센서부(15) 및 제4 멀티 모달 센서부(17)가 연결되어, 가시영상, 열화상 및 초음파 정보가 전달되도록 형성될 수 있다.The first multimodal sensor unit 11, the second multimodal sensor unit 13, the third multimodal sensor unit 15 and the fourth multimodal sensor unit 17 are connected to the control unit 30, , Thermal image, and ultrasound information may be transmitted.

그리고, 상기 제어부(30)에는 정보 제공부(40)가 연결될 수 있다. 상기 정보 제공부(40)는 서라운드 가시영상 정보, 서라운드 융합영상 정보, 차량 주변의 장애물의 위치 정보, 서라운드 가시영상 또는 서라운드 융합영상에서 장애물의 이미지 정보 및 장애물에 관한 청각적 정보 중 선택된 하나 이상의 정보를 제공하도록 형성될 수 있다. In addition, the controller 30 may be connected to the information providing unit 40. The information providing unit 40 may include at least one selected one of a surround visual image information, a surround fusion image information, a position information of an obstacle around the vehicle, a surround visible image or an image information of an obstacle in a surround fusion image, . ≪ / RTI >

상기 제어부(30)에서 가시영상, 열화상 및 초음파 정보를 처리하여 서라운드 가시영상 정보, 서라운드 융합영상 정보 및 초음파에 의한 장애물 위치 정보, 등 중 하나 이상을 정보 제공부(40)로 전달하여, 사용자에게 소리, 디스플레이 영상 등의 형태로 알리도록 형성될 수 있다. The control unit 30 processes the visible image, the thermal image, and the ultrasound information to transmit at least one of the surround visible image information, the surround fusion image information, and the ultrasound-based obstacle position information to the information providing unit 40, To be displayed in the form of a sound, a display image, or the like.

특히, 상기 정보 제공부(40)는 서라운드 가시영상 정보, 서라운드 융합영상 정보, 차량 주변의 장애물의 위치 정보, 및 서라운드 가시영상 또는 서라운드 융합영상에서 장애물의 이미지 정보와 같은 시각적 정보를 디스플레이 형태로 나타내는 디스플레이 부를 포함할 수 있으며, 보다 구체적으로, 평면 디스플레이 및 헤드셋 마운트 디스플레이로 이루어진 군 중에서 선택된 하나 이상으로 구성된 디스플레이 부를 포함할 수 있다.In particular, the information providing unit 40 displays visual information such as surround visual image information, surround fusion image information, position information of an obstacle around the vehicle, and surround image information or image information of an obstacle in a surround fusion image in a display form A display unit, and more specifically, a display unit including at least one selected from the group consisting of a flat panel display and a headset mount display.

도 4는 본 발명의 일 실시예에 따른 차량 주변 감지 시스템의 차량 주변 감지 방법을 나타내는 순서도이다.FIG. 4 is a flowchart illustrating a method for detecting a vehicle periphery of a vehicle periphery sensing system according to an embodiment of the present invention.

본 발명의 일 실시예에 따르면 차량 주변 감지 시스템은 복수의 가시영상 측정 센서에서 서라운드 영역을 구성하는 복수의 구역의 가시영상을 측정하고(S11), 복수의 열화상 측정 센서에서 서라운드 영역을 구성하는 복수의 구역의 열화상을 측정(S13)할 수 있다.According to an embodiment of the present invention, a vehicle surroundings sensing system measures a visible image of a plurality of regions constituting a surround region in a plurality of visible image measurement sensors (S11), and forms a surround region in the plurality of thermal image measurement sensors Thermal images of a plurality of regions can be measured (S13).

그리고, 제어부(30)는 상기 복수의 가시영상 측정센서와 복수의 열화상 측정 센서에서 측정된 가시영상 데이터 및 열화상 데이터를 수신하여, 측정된 가시영상 데이터와 열화상 데이터의 렌즈 왜곡 보정을 수행한다(S20). 상기 렌즈 왜곡 보정은 본 기술분야에서 알려진 방법을 사용할 수 있으며, 가시영상 측정 센서 및 열화상 측정 센서에서 사용되는 렌즈들의 왜곡을 보정하기 위한 것이다.The control unit 30 receives the visible image data and the thermal image data measured by the plurality of visible image measurement sensors and the plurality of thermal image measurement sensors and performs the lens distortion correction of the measured visible image data and the thermal image data (S20). The lens distortion correction may use a method known in the art and is for correcting the distortion of the lenses used in the visible image measurement sensor and the thermal image measurement sensor.

그리고 나서, 렌즈 왜곡 보정 후의 카메라 위치 기반의 기하학적 정렬 보정을 수행하여(S21) 제1 보정 데이터를 산출하고, 렌즈 왜곡 보정 후에 측정된 가시영상 데이터와 함께 광도계의 정렬을 보정하여(S23) 제2 보정 데이터를 산출할 수 있다. Then, the camera position based geometric alignment correction after the lens distortion correction is performed (S21) to calculate the first correction data, and the alignment of the photometer with the visual image data measured after the lens distortion correction is corrected (S23) The correction data can be calculated.

상기 제1 보정 데이터와 제2 보정 데이터는 측정된 복수의 가시영상 및 열화상들을 위치, 왜곡, 밝기, 색상 등을 보정한 데이터로서, 이러한 과정을 통하여 보정된 가시영상 및 열화상들을 사용하여 영상 정합(S30) 및 영상 융합(S50)이 이루어질 수 있다. The first correction data and the second correction data are data obtained by correcting the position, distortion, brightness, color, and the like of a plurality of the visible images and the thermal images measured. Using the corrected visual images and thermal images, Matching (S30) and image fusion (S50) can be performed.

상기 제1 보정 데이터와 제2 보정 데이터들의 영상 정합을 수행하여(S30), 서라운드 가시영상을 산출한다(S40). 영상 정합(Image Synthesis)은 측정된 복수의 가시영상 또는 복수의 열화상에서 각 영상들에 대한 위치 정보에 기초하여 서로 겹쳐지는 영역을 결합하는 과정이다. 본 발명의 일 실시예에 따르면, 대략 95도의 화각을 갖는 가시영상들에서 겹쳐지는 영역을 결합함으로써 360도의 서라운드 영역에 대한 가시영상 정보를 생성(S40)할 수 있다. The first correction data and the second correction data are subjected to image matching (S30), and a surround visible image is calculated (S40). Image Synthesis is a process of combining regions that overlap each other based on position information of a plurality of visible images or a plurality of degradation-phase images. According to an embodiment of the present invention, visible image information for a 360-degree surround region can be generated (S40) by combining overlapping regions in visible images having an image angle of approximately 95 degrees.

영상 정합 과정(S30)에서는 위치, 왜곡, 밝기, 색상 등이 보정된 복수의 가시영상 데이터들은 영상들은 보정된 영상들 사이의 위치 정보를 산출하여 위치 정보에 따라 영상들의 와핑(Warping) 및 블랜딩(Blending)을 수행하여 하나의 서라운드 가시영상으로 정합될 수 있다. 또한, 상기 영상 정합 과정(S30)에서는 보정된 가시영상들과 열화상들의 영상 정합을 통하여, 복수의 가시영상과 복수의 열화상들 사이에 위치 정보를 산출하여, 추후 영상 융합(Image Fusion) 과정(S60)에서 영상 융합을 위한 기초 정보로서 활용할 수 있다. In the image matching process S30, a plurality of visible image data whose position, distortion, brightness, color, etc. are corrected are calculated based on position information between the corrected images, and warping and blending Blending) to match one surround visual image. In the image matching step S30, positional information is calculated between the plurality of visible images and the plurality of thermal images through image matching of the corrected visible images and the thermal images, and the image fusion process (S60) as basic information for image fusion.

다시 말해, 영상 정합을 통해 생성된 서라운드 가시영상은 열화상과 영상 융합(S50)됨으로써, 서라운드 융합영상을 생성하게 된다(S60). 여기선, 보정 과정(S20 내지 S21)을 거친 열화상 데이터와, 영상 정합 과정(S30)에서 도출된 위치 정보에 기초하여 생성된 서라운드 가시영상에 열화상 데이터를 융합하여 가시영상과 열화상이 융합된 360도의 전방위에 대한 서라운드 융합영상을 생성할 수 있다.In other words, the surround visible image generated through the image matching is fused with the thermal image (S50), thereby generating the surround fusion image (S60). Here, the thermal image data that has undergone the correction process (S20 to S21) and the surround visual image generated based on the positional information derived in the image matching process (S30) are fused so that the visible image and the thermal image are fused It is possible to generate a surround fusion image for all directions of 360 degrees.

가시영상만으로 서라운드 영역에 대한 이미지 정보를 제공하는 경우, 날씨가 좋지 않거나 어두워 시야가 나쁜 경우 정확한 주변 정보를 제공할 수 없다. 그러나, 본 발명의 경우 가시영상과 열화상이 융합된 서라운드 융합 영상을 제공함으로써 어둡거나 시야가 좋지 못한 경우에도 주변에 대한 정확한 감지가 가능한 차량 주변 감지 시스템을 제공할 수 있다. When providing the image information for the surround region only with the visible image, accurate ambient information can not be provided when the weather is bad or dark and the visibility is bad. However, in the case of the present invention, it is possible to provide a peripheral system for detecting the surroundings of a vehicle which can accurately detect the surroundings even when dark or poor visibility is provided by providing a surround fusion image in which a visible image and a thermal image are fused.

이하, 도 5 및 도 6을 참조하여 광도계 정렬 보정(S23)과 기하학적 정렬 보정(S21)에 대하여 보다 구체적으로 알아보자. Hereinafter, the photometric alignment correction S23 and the geometric alignment correction S21 will be described in more detail with reference to FIGS. 5 and 6. FIG.

가시영상 측정 센서와 열화상 측정 센서에서 측정된 가시영상 및 열화상 데이터는 렌즈 왜곡 보정(S20) 과정을 거친 뒤 광도계 정렬 보정(S23)과 기하학적 정렬 보정(S21) 과정을 거치게 된다.The visible image and the thermal image data measured by the visible image measurement sensor and the thermal image measurement sensor are subjected to a lens distortion correction process S20 and then a photometric alignment correction process S23 and a geometric alignment correction process S21.

기하학적 정렬 보정(S21)의 경우, 복수의 열화상 측정 센서(T1, T2, T3, T4) 각각에 대하여, 양측에 인접한 가시영상 측정 센서(C1, C2, C3, C4)들과의 사이에 호모그래피 기반의 카메라 위치 추정 (Homography based Camera Pose Estimation)을 통하여 2개의 제1 호모그래피 행렬들(

Figure pat00002
,
Figure pat00003
;
Figure pat00004
,
Figure pat00005
;
Figure pat00006
,
Figure pat00007
;
Figure pat00008
,
Figure pat00009
)을 구하고, 상기 2개의 제1 호모그래피 행렬들에 기초하여 상기 인접한 가시영상 측정 센서들 사이의 제2 호모그래피 행렬들(
Figure pat00010
,
Figure pat00011
,
Figure pat00012
,
Figure pat00013
)에 기초하여 이들의 다단계 변환 행렬을 구할 수 있다(S211).In the case of the geometric alignment correction S21, for each of the plurality of thermal image measurement sensors T 1 , T 2 , T 3 and T 4 , the visible image measurement sensors C 1 , C 2 , C 3 , C 4 ), the two first homography matrices ((1), (2), and (3) are obtained through homography based camera position estimation
Figure pat00002
,
Figure pat00003
;
Figure pat00004
,
Figure pat00005
;
Figure pat00006
,
Figure pat00007
;
Figure pat00008
,
Figure pat00009
) Between the neighboring visible image measurement sensors based on the two first homography matrices and second homography matrices (
Figure pat00010
,
Figure pat00011
,
Figure pat00012
,
Figure pat00013
(S211). ≪ / RTI >

구체적으로, 호모그래피 기반의 카메라 위치 추정의 과정은 가시영상 측정 센서(C1)의 위치와 인접한 열화상 측정 센서(T1)의 위치에서 3차원 공간의 평면을 촬영한 이미지에 대해 호모그래피 행렬 A는 다음 [식 2]와 같이 표현될 수 있다.Specifically, the process of homography-based camera position estimation is performed on the basis of a homography matrix for an image obtained by photographing a plane of a three-dimensional space at a position of the thermal image measurement sensor T 1 adjacent to the position of the visible image measurement sensor C 1 A can be expressed as the following [Equation 2].

[식 2][Formula 2]

m2 = Am1 m 2 = Am 1

가시영상 측정 센서(C1)의 위치에서 인접한 열화상 측정 센서(T1)의 위치로 변환하는 회전 행렬 R과 변환 벡터 t는 아래 [식 3]의 관계에 있고, 주어진 A에 대하여 R, t를 구한다. The rotation matrix R and the transformation vector t, which convert from the position of the visible image measurement sensor C1 to the position of the adjacent thermal image measurement sensor T 1 , are in the relationship of [Equation 3] below and satisfy R and t I ask.

[식 3][Formula 3]

X2 = RX1 + t, n tX1 = dX 2 = RX 1 + t, n t X 1 = d

여기서, n과 d는 가시영상 측정 센서(C1)의 위치 좌표를 기준으로 평면의 노말 벡터(normal vector)(n)와 원점까지의 거리(d)를 나타낸다. 그에 따라, A로부터 R, t를 계산할 때 같이 구할 수 있다.Here, n and d represent the distance d from the normal vector n of the plane to the origin with reference to the positional coordinates of the visible image measurement sensor C 1 . Accordingly, we can obtain R and t from A as well.

다파장 영상 센서, 즉 복수의 가시영상 센서와 복수의 열화상 센서들에 관련된 복수개의 변환 행렬을 구하여, 기하학적 보정 파라미터(Geometric Correction Parameters)를 위한 기하학적 파라미터에 대한 룩업테이블(Geometric LUT)을 구하여 이를 적용함으로써 기하학적 보정(S213)을 수행할 수 있다. A plurality of transformation matrices related to a plurality of visible image sensors and a plurality of thermal image sensors are obtained, and a lookup table (geometric LUT) for geometric parameters for geometric correction parameters is obtained, The geometric correction (S213) can be performed.

이와 같은 정렬 과정을 단계적으로 수행함으로써, 다단계 변환 행렬들을 구할 수 있고, 상기 다단계 변환 행렬들에 기초한 기하학적 보정 파라미터를 기반으로 상기 가시영상과 열화상의 제1 보정 데이터를 생성할 수 있다(S213). By performing the alignment process step by step, the multilevel transformation matrices can be obtained and the first correction data of the visible image and the degradation image can be generated based on the geometric correction parameters based on the multilevel transformation matrices (S213).

이하, 도 5 및 도 7을 참조하여, 광도계 정렬 보정(S23) 과정에 대하여 구체적으로 알아보자. Hereinafter, with reference to FIG. 5 and FIG. 7, the photometric alignment correction (S23) process will be described in detail.

측정된 이미지 사이의 밝기와 색상의 보정이 필요하므로, 광도계 정렬 분석(Photometric Alignment Analysis)(S231)을 수행할 수 있다. 4개의 인접한 가시영상 측정 센서의 오버랩 영역(O( m,n ))의 차이를 최소화하는 파라미터를 참조하여 보정할 수 있다. 여기서 광도계 보정 파라미터(Photometric Correction Parameters)는 일 예로 O( m,n )으로 표현될 수 있고, 여기서 m=1, 2, 3, 4 이고, n = (m+1) modulo 4 이다. 즉, 광도계 파라미터의 룩업테이블(Photometric LUT)을 구하여 이를 적용함으로써 광도계 보정(S233)을 수행할 수 있다. 이는 가시영상과 열화상 모두에 대하여 수행될 수 있으며, 광도계 정렬 보정을 통하여 밝기와 색상이 보정된 제2 보정 데이터를 생성할 수 있다. Since it is necessary to correct the brightness and color between the measured images, a photometric alignment analysis (S231) can be performed. It can be corrected by referring to the parameter that minimizes the difference between the overlap areas O ( m, n ) of four adjacent visible image measurement sensors. Here, the photometric correction parameters can be represented, for example, as O ( m, n ) , where m = 1, 2, 3, 4 and n = (m + 1) modulo 4. That is, a photometric LUT of the photometric parameter can be obtained and applied to perform photometric correction (S233). This can be performed for both the visible image and the thermal image, and the second correction data in which brightness and color are corrected through photometric alignment correction can be generated.

위와 같은 과정을 통하여 렌즈 왜곡, 카메라 정렬, 밝기 및 색상이 보정된 가시영상과 열화상은 영상 정합(S30)을 통하여 360도의 전방위에 대한 서라운드 가시영상을 생성할 수 있다(S40). Through the above process, the visible image and the thermal image in which the lens distortion, the camera alignment, the brightness and the color are corrected can generate a surround visible image for the 360-degree omnidirection through the image matching (S30) (S40).

도 8은 본 발명의 일 실시예에 따른 영상 정합(S30) 과정을 보다 상세하게 나타낸 순서도이다.8 is a flowchart illustrating an image matching process (S30) according to an exemplary embodiment of the present invention in more detail.

도 8을 참조하면, 영상 정합(S30)은 측정된 열화상 및 가시영상 데이터 중에서 오버랩 영역의 데이터를 결합시킴으로써 이뤄질 수 있다. 제1 보정 데이터와 제2 보정 데이터를 포함하는 보정된 영상 데이터(S31)들에 기초하여, 가시영상과 열화상 또는 가시영상들 사이의 오버랩 영역에서의 특징 추출과 매칭을 수행하고(S32), 가시영상과 열화상 또는 가시영상들 사이의 투영 변환 행렬들을 구할 수 있다(S33).Referring to FIG. 8, the image matching (S30) may be performed by combining the data of the overlap region among the measured thermal image and visible image data. The feature extraction and matching in the overlap region between the visible image and the thermal image or the visible image are performed based on the corrected image data S31 including the first correction data and the second correction data (S32) Projection transformation matrices between the visible image and the thermal image or the visible image can be obtained (S33).

그리고 나서, 최종 투영 변환 행렬들에 기초하여 복수의 가시영상들을, 보다 구체적으로 오버랩 영역들에 대해, 와핑과 블랜딩을 수행(S34)하여 전방위에 대한 서라운드 가시영상을 생성할 수 있다(S34).Then, a plurality of visible images based on the final projection transformation matrices, more specifically, overlapping areas are subjected to warping and blending (S34) to generate a surround visual image for all directions (S34).

다시 말해, 하나의 센서로는 전방위 영상을 담을 수 없으므로, 분할된 영역들에 대한 가시영상 또는 열화상을 구하고, 복수의 영상들 사이의 최종 투영 변환 행렬을 구하여 이를 적용함으로써 360도 전방위에 대한 서라운드 영상을 생성할 수 있다. 그에 따라, 보정된 가시영상들의 영상 정합(S30)을 통하여 서라운드 가시영상을 생성할 수 있다.In other words, since a single sensor can not capture an omni-directional image, a visible image or a thermal image for the divided regions is obtained, and a final projection transformation matrix between the plurality of images is obtained. Images can be generated. Accordingly, the surround visible image can be generated through the image matching (S30) of the corrected visible images.

그리고, 영상 정합(S30) 과정에서 투영 변환 행렬들의 경우 각 영상들 사이의, 구체적으로 가시영상들 사이 또는 가시영상과 열화상 사이의, 위치 정보를 포함하고 있고 이 위치 정보에 기초하여 영상 정합 또는 영상 융합이 수행되므로, 상기 영상 정합 과정은 가시영상과 열화상에 대하여도 수행되어, 위치 정보를 획득하는 데에 사용될 수 있다. In the case of the projection transformation matrices in the image matching step (S30), it includes positional information between respective images, specifically between visible images or between a visible image and a thermal image, and based on the positional information, Since the image fusion is performed, the image matching process is also performed on the visible image and the thermal image, and can be used to acquire the position information.

그리고, 서라운드 가시영상 데이터와 열화상 이미지 데이터는 영상 융합(Fusion) 과정을 통하여 서라운드 융합영상을 생성할 수 있다. 즉, 전천후 주야간의 영상을 제공하기 위하여 적외선 열화상 영상을 강조하고, 상황 인지를 위한 외형 정보를 강조한 서라운드 융합영상을 제공할 수 있다. The surround visualized image data and the thermal image data can generate a surround fused image through an image fusion process. That is, it is possible to emphasize an infrared thermal image to provide an image of all-weather day and night, and to provide a surround fusion image emphasizing the appearance information for the situation recognition.

본 발명의 일 실시예에 따르면 영상 융합(Fusion) 과정은 크게 분해 과정, 융합 과정 및 복원 과정 3단계로 진행될 수 있다.According to an embodiment of the present invention, the image fusion process can be roughly divided into three stages: a decomposition process, a fusion process, and a restoration process.

일 실시예에 따르면, Symlets 웨이블릿을 사용하여 가시영상 데이터(Iv(x, y))와 열화상 데이터(I'M(x, y))의 웨이블릿 변환(W)하여 분해 과정을 거치고, 계수를 융합 법칙(Φ)에 의하여 융합 과정을 거치며, 역 웨이블릿 변환(W-1)에 의해 서라운드 융합영상(IF(x, y))로 복원하여 영상 융합이 수행될 수 있고, 이는 다음 [식 1]로 표현될 수 있다. According to one embodiment, wavelet transformation (W) of visible image data I v (x, y) and thermal image data I ' M (x, y) is performed by using Symlets wavelets, to go through the fusion process by the fusion rule (Φ), inverse wavelet transform (W -1) fused to surround the image (I F (x, y) ) to have a fused image can be performed to restore, which by the following [expression 1].

[식 1][Formula 1]

Figure pat00014
Figure pat00014

여기서, CY와 CM은 가시영상 데이터(Iv(x, y))와 열화상 데이터(I'M(x, y))의 웨이블릿 계수이며, CF는 융합 법칙(Φ)이 적용된 후의 계수이고, a와 d는 각각 근사와 상세계수이며, N은 이미지의 y방향의 크기이다. Here, C Y and C M are the wavelet coefficients of the visible image data I v (x, y) and the thermal image data I M (x, y), and C F is the wavelet coefficient after the fusion rule? Where a and d are approximate and detailed coefficients, respectively, and N is the size of the image in the y direction.

영상 융합 단계에서는 근사계수를 최대값으로 이용하고, 상세 계수는 위치에 따른 가중치를 적용할 수 있다. 위치에 다른 가중치를 부여한 융합 단계에서는 적외선 열화상 영상을 강조하고 일반 영상(이미지)의 외형 정보를 강조할 수 있다. 또한, 역변환을 통하여 복원된 영상은 가시 영상의 채도 성분이 더해져 색상 융합 영상으로 출력될 수 있다. In the image fusion step, the approximation coefficient is used as the maximum value, and the detailed coefficient can be weighted according to the position. In the convergence step where different weights are given to the position, the infrared image image can be emphasized and the appearance information of the general image (image) can be emphasized. In addition, the image reconstructed through the inverse transform can be output as a color fusion image by adding the saturation component of the visible image.

상술한 보정 방법, 영상 정합 및 융합 방법은 본 발명의 일 실시예로서 사용될 수 있는 것이다. 물론, 본 기술 분야에서 적용될 수 있는 다양한 보정 방법, 영상 정합 방법 및 융합 방법이 적용될 수도 있다. The above-described correction method, image matching and fusion method can be used as an embodiment of the present invention. Of course, various correction methods, image matching methods, and fusion methods applicable in the art may be applied.

도 9는 본 발명의 일 실시예에 따른 차량 주변 감지 시스템에서 초음파 측정 센서에 의해 감지된 장애물을 월드 좌표계에서 평면 좌표계로 변환시키는 과정을 나타내는 개략도이다. 9 is a schematic view illustrating a process of converting an obstacle detected by an ultrasonic measurement sensor into a plane coordinate system in a world coordinate system in a vehicle perimeter sensing system according to an embodiment of the present invention.

상술한 바와 같이, 초음파 측정 센서(E1, E2, E3, E4)의 경우 탑재 플레이트에 함께 탑재될 수도 있고, 또는 각 방향에 대하여 차량의 측면의 일부분에 설치될 수도 있다.As described above, in the case of the ultrasonic measurement sensors E 1 , E 2 , E 3 , and E 4 , they can be mounted together on the mounting plate, or they can be installed in a part of the side surface of the vehicle in each direction.

그에 따라 도 9의 (a)에 도시된 바와 같이 제1 방향(D1), 제2 방향(D2), 제3 방향(D3) 및 제4 방향(D4)의 차량 측면에 설치될 수 있으며, 각각 해당 방향의 초음파 신호를 감지하도록 형성될 수 있다. 9 (a), it can be mounted on the vehicle side in the first direction D 1 , the second direction D 2 , the third direction D 3 and the fourth direction D 4 And may be configured to sense ultrasonic signals in the respective directions.

그리고, 초음파 측정 센서의 장애물 추적을 통한 월드 좌표계 상의 한점 P(x, y, z)은 이미지 평면(픽셀 좌표계) 상의 한점 Pimg(x, y)으로 변환될 수 있고, 이는 행렬 T라고 하면, 관계식은 [식 4]와 같이 호모지니어스 좌표 변환이 가능하다. One point P (x, y, z) on the world coordinate system through obstacle tracking of the ultrasonic measurement sensor can be converted into a point P img (x, y) on the image plane (pixel coordinate system) The relational expression can be transformed into homogeneous coordinates as shown in [Equation 4].

[식 4][Formula 4]

Figure pat00015
Figure pat00015

Figure pat00016
Figure pat00016

Figure pat00017
Figure pat00017

여기서, T는 4×3 행렬로 위와 같이 표현될 수 있으며, [R|t]는 월드 좌표계(도 9의 (a))를 카메라 좌표계(도 9의 (b))로 바꾸는 강체(rigid) 변환 행렬이고, Tpers(1)는 카메라 좌표계 상의 3D 좌표를 정규 이미지 평면(도 9의 (c))에 투영시키는 투영 행렬이다. K는 카메라 내부(intrinsic) 파라미터 행렬을 나타내고, Tpers(1)은 d = 1, 즉, Zc = 1인 평면으로의 투영변환이다.Here, T can be expressed as a 4 × 3 matrix as described above, and [R | t] is a rigid transformation that transforms the world coordinate system (FIG. 9A) into a camera coordinate system (FIG. 9B) And T pers (1) is a projection matrix for projecting the 3D coordinate on the camera coordinate system to the normal image plane (Fig. 9 (c)). K is the intrinsic parameter matrix and T pers (1) is the projection transformation to a plane with d = 1, i.e. Z c = 1.

이와 같은 과정을 걸쳐, 장애물은 픽셀 좌표계 상의, 즉 서라운드 가시영상 평면상의 한 점으로 변환될 수 있다. 그리고, 해당 장애물의 위치 정보는 디스플레이 부(41)(도 3 참조)를 통하여 사용자에게 전달될 수 있으며, 또는 경보 장치 등을 포함하는 정보 제공부(40)를 통하여 사용자에게 장애물의 정보를 제공하도록 형성될 수 있다. 또한, 제어부(30)는, 상기 차량 주변의 장애물의 평면상의 위치 정보와 함께, 서라운드 융합영상에서 장애물의 이미지 정보를 정보 제공부(40) 또는 디스플레이 부(41)로 전달할 수 있다. Through this process, the obstacle can be converted to a point on the pixel coordinate system, i. E., On the surround visible image plane. The position information of the obstacle may be transmitted to the user through the display unit 41 (see FIG. 3) or may be provided to the user through the information providing unit 40 including the alarm device . The control unit 30 may transmit the image information of the obstacle in the surround fusion image to the information providing unit 40 or the display unit 41 together with the position information on the plane of the obstacle around the vehicle.

한편, 본 발명의 다른 실시예에 따른 차량 주변 감지 방법은, 차량의 상부에서, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 측정된 복수의 이미지 데이터를 제공하는 단계, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 측정된 복수의 열화상 데이터를 제공하는 단계, 및 상기 측정된 이미지 및 열화상의 영상 융합을 통하여, 차량 둘레의 서라운드 영역에 대한 서라운드 융합영상을 제공하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method for detecting a vehicle periphery, comprising the steps of: providing a plurality of image data measured at predetermined intervals over an entire area around a vehicle at an upper portion of the vehicle; Providing a plurality of thermal image data measured over a predetermined interval and providing a surround fused image for a surround region around the vehicle through the image fusion of the measured image and the deteriorated image.

본 발명의 일 실시예에 따른 차량 주변 감지 방법에는 상술한 차량 주변 감지 시스템에서 적용된 방법들이 적용될 수 있다. In the method of detecting the periphery of a vehicle according to an embodiment of the present invention, the methods applied in the above-described perimeter sensing system may be applied.

차량 주변 감지 시스템에서 설명한 바와 같이, 상기 차량 둘레의 전체 영역은 제1 방향(D1), 제2 방향(D2), 제3 방향(D3) 및 제4 방향(D4)의 4개의 방향일 수 있고, 가시영상 데이터와 열화상 데이터는 동일한 방향에 대한 데이터 일 수 있고, 또는 도 1의 실시예에서와 같이 1 방향(D1), 제2 방향(D2), 제3 방향(D3) 및 제4 방향(D4)의 가시영상 데이터와, 제1 방향(D1) 내지 제4 방향(D4)에서 인접한 2개의 방향에 대한 사이의 영역에 대한 열화상 데이터일 수 있다.As described in the vehicle perimeter detection system, the entire area around the vehicle is divided into four regions of a first direction D 1 , a second direction D 2 , a third direction D 3 , and a fourth direction D 4 be the direction, and the visible image data and thermal image data may be the data for the same direction, or also one direction, as in the embodiment of the first (D 1), the second direction (D 2), the third direction ( D 3) and the fourth may be the visible image data in the direction (D 4), the thermal image data for a region between about two direction adjacent in the first direction (D 1) to the fourth direction (D 4) .

이들은 상술한 바와 같이 영상 정합 및 영상 융합 과정을 거쳐 서라운드 융합영상 정보로 정보 제공부를 통하여 시각적 정보 또는 청각적 정보로 제공될 수 있다. These images may be provided as visual or auditory information through the information providing unit as the surround fusion image information through the image matching and image fusion process as described above.

본 발명의 경우 카메라 설치에 차량 자체의 형상이 불가능한 경우에도, 차량의 지붕의 일부분에 적용되게 함으로써 설치가 가능해진다. 따라서, 설계 자유도가 높은 차량 주변 감지 시스템 및 방법을 제공할 수 있다.In the case of the present invention, even if the shape of the vehicle itself can not be formed by installing the camera, it can be installed by being applied to a part of the roof of the vehicle. Accordingly, it is possible to provide a vehicle surroundings detection system and method with high degree of design freedom.

또한, 어안 렌즈를 사용할 경우, 왜곡 보정을 하더라도 거리가 극도로 짧아져 영상이 심하게 왜곡되는 현상이 발생하였고, 원거리 감지가 어려웠으나, 본 발명의 일 실시예에 따르면 일반 렌즈를 적용하고 영상 정합 및 융합 과정을 거쳐 360도 서라운드 가시영상을 구현할 수 있다.In addition, in the case of using a fisheye lens, even if distortion correction is performed, the distance is extremely shortened and the image is seriously distorted, and it is difficult to detect the distance. However, according to the embodiment of the present invention, Through the convergence process, 360 degree surround visibility image can be realized.

그리고, 일반적인 차량 주변 감지 장치의 카메라의 경우 외부 파라미터의 보정에 있어서, 시야 매칭 과정이 복잡하여 대형 차량에 적합하지 않았으나, 본 발명의 일 실시예에 따르면 광도계 정렬 보정, 기하학적 보정, 렌즈 왜곡 보정 등의 비교적 간단한 프로세스를 통하여 대형 차량에도 쉽게 적용될 수 있는 차량 주변 감지 시스템 및 방법을 제공할 수 있다. In the case of a camera of a general peripherals sensing device, the field matching process is complicated in the correction of external parameters, which is not suitable for a large vehicle. However, according to the embodiment of the present invention, the photometric alignment correction, geometric correction, It is possible to provide a vehicle surroundings detection system and method that can be easily applied to a large-sized vehicle through a relatively simple process.

또한, 일반 영상 이미지와 적외선 열화상 영상의 영상 융합을 통하여, 날씨나 주야간의 시간대에 상관없이 차량의 전방위 영역에 대한 사각지대에 대한 감시가 가능한 차량 주변 감지 시스템 및 방법을 제공할 수 있다. Also, it is possible to provide a vehicle surroundings detection system and method capable of monitoring a blind spot with respect to an omnidirectional area of a vehicle regardless of the time of day or night, through image fusion of a general image and an infrared thermal image.

그뿐만 아니라, 레이더(RADAR; Radio Detection and Ranging)에 비하여 비용이 저렴하면서도, 360도 전체 서라운드 영역에 대한 모니터링을 제공할 수 있는 차량 주변 감지 시스템 및 방법을 제공할 수 있다.In addition, it can provide a perimeter sensing system and method that can provide monitoring over a full 360 degree range of surroundings while at a lower cost than radar (Radio Detection and Ranging).

그리고, 초음파 측정 센서를 이용하여 월드 좌표계에서 발생하는 이벤트를 디스플레이를 통하여 함께 모니터할 수 있는 차량 주변 감지 시스템 및 방법을 제공할 수 있다. In addition, it is possible to provide a system and method for detecting the surroundings of a vehicle, which can simultaneously monitor events occurring in the world coordinate system by using an ultrasonic measurement sensor.

또한, 센서들을 차량에 탑재하기 위한 탑재 플레이트 및 연결부의 경우 자석 프레임으로 구성하여, 내구성이 강하면서도 설치가 용이한 차량 주변 감지 시스템 및 방법을 제공할 수 있다. In addition, it is possible to provide a system and method for detecting a periphery of a vehicle which is constructed of a magnet frame in the case of a mounting plate and a connecting portion for mounting sensors on a vehicle, and which is durable and easy to install.

1: 차량
2: 차량 주변 감지 시스템
21: 연결부
23: 탑재 플레이트
30: 제어부
40: 정보 제공부
41: 디스플레이 부
D1: 제1 방향
D2: 제2 방향
D3: 제3 방향
D4: 제4 방향
1: vehicle
2: Peripheral detection system
21: Connection
23: mounting plate
30:
40: Information provision
41:
D 1 : the first direction
D 2 : the second direction
D 3 : Third direction
D 4 : fourth direction

Claims (13)

차량의 상부에 탑재되며, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 배치된 복수의 가시영상 측정 센서;
상기 복수의 가시영상 측정 센서들 사이에 배치되는 복수의 열화상 측정 센서; 및
상기 복수의 가시영상 측정 센서와 복수의 열화상 측정 센서에 연결되어, 측정된 가시영상 및 열화상의 영상 융합을 통하여, 차량 둘레의 영역에 대한 서라운드 융합영상을 제공하는 제어부를 포함하는 것을 특징으로 하는 차량 주변 감지 시스템.
A plurality of visible image measurement sensors mounted on the top of the vehicle and arranged over a whole area around the vehicle at predetermined intervals;
A plurality of thermal image measurement sensors disposed between the plurality of visible image measurement sensors; And
And a control unit connected to the plurality of visible image measurement sensors and the plurality of thermal image measurement sensors and providing a surround fusion image for an area around the vehicle through the visual fusion of the measured visual image and the deteriorated image, Around vehicle detection system.
제 1 항에 있어서,
상기 복수의 가시영상 측정 센서는, 제1 방향, 이에 대향하는 제3 방향, 상기 제1 방향과 제3 방향 사이의 제2 방향 및 제4 방향을 향하여 각각 배치되는 4개의 가시영상 측정 센서이고,
상기 복수의 열화상 측정 센서는 가시영상 측정 센서들 사이에 각각 배치되는 4개의 열화상 측정 센서인 것을 특징으로 하는 차량 주변 감지 시스템.
The method according to claim 1,
Wherein the plurality of visible image measurement sensors are four visible image measurement sensors arranged respectively in a first direction, a third direction opposite to the first direction, and a second direction and a fourth direction between the first direction and the third direction,
Wherein the plurality of thermal image measurement sensors are four thermal image measurement sensors respectively disposed between the visible image measurement sensors.
제 1 항에 있어서, 상기 제어부는,
상기 복수의 가시영상 측정 센서와 복수의 열화상 측정 센서에서 측정된 가시영상 데이터와 열화상 데이터를 수신하여,
상기 가시영상 데이터와 열화상 데이터의 렌즈 왜곡 보정을 수행하고,
상기 렌즈 왜곡 보정 후에 기하학적 정렬 보정을 수행한 제1 보정 데이터와, 상기 렌즈 왜곡 보정 후에, 상기 가시영상 데이터와 함께 광도계 정렬 보정을 수행한 제2 보정 데이터의 영상 정합에 의하여 서라운드 가시영상을 생성하는 것을 특징으로 하는 차량 주변 감지 시스템.
The apparatus of claim 1,
Receiving a plurality of visible image measurement sensors and visible image data and thermal image data measured by the plurality of thermal image measurement sensors,
Performing a lens distortion correction of the visible image data and the thermal image data,
A surround viewing image is generated by image matching of first correction data that has undergone geometric alignment correction after the lens distortion correction and second correction data that has been subjected to photometric alignment correction with the visible image data after the lens distortion correction Wherein the vehicle surroundings detection system comprises:
제 3 항에 있어서,
상기 기하학적 정렬 보정은,
상기 복수의 열화상 측정 센서들 각각에 대하여, 양측에 인접한 가시영상 측정 센서들 사이의 호모그래피 기반의 위치 추정을 통하여 2개의 제1 호모그래피 행렬들을 구하고, 상기 2개의 제1 호모그래피 행렬들에 기초하여 상기 인접한 가시영상 측정 센서들 사이의 제2 호모그래피 행렬들을 구하여 이들의 다단계 변환 행렬들을 구하고, 상기 다단계 변환 행렬들에 기초한 기하학적 보정 파라미터를 기반으로 상기 제1 보정 데이터를 산출하는 것을 특징으로 하는 차량 주변 감지 시스템.
The method of claim 3,
The geometric alignment correction may include:
For each of the plurality of thermal image measurement sensors, two first homography matrices are obtained through homography-based position estimation between the neighboring visible image measurement sensors, and two first homography matrices Calculating a first correction data based on the geometric correction parameters based on the multilevel transformation matrices, obtaining second homography matrices between the neighboring visible image measurement sensors based on the multilevel transformation matrixes, Around the vehicle detection system.
제 3 항에 있어서,
상기 광도계 정렬 보정은,
인접하고 있는 가시영상 측정 센서들 사이의 오버랩 영역에서의 가시영상 데이터의 광도계 정렬을 분석하고,
상기 오버랩 영역에서의 밝기와 색상의 차이를 최소화하도록 설정되는 광도계 보정 파라미터를 가시영상 데이터에 적용하여 제2 보정 데이터를 산출하는 것을 특징으로 하는 차량 주변 감지 시스템.
The method of claim 3,
The photometric alignment correction,
Analyzing photometric alignment of the visible image data in the overlap region between neighboring visible image measurement sensors,
Wherein the second correction data is calculated by applying a photometric correction parameter set to minimize a difference in brightness and hue in the overlap region to visible image data.
제 3 항에 있어서,
상기 영상 정합은,
상기 제1 보정 데이터 및 제2 보정 데이터에 기초하여
가시영상과 열화상 또는 가시영상들 사이에서 특징 추출 및 매칭을 수행하고, 최종 투영 변환 행렬을 구하여, 가시영상들의 와핑과 블랜딩을 통하여 서라운드 가시영상을 산출하는 것을 특징으로 하는 차량 주변 감지 시스템.
The method of claim 3,
Wherein the image registration is performed by:
Based on the first correction data and the second correction data,
A feature extraction and matching is performed between the visible image and the thermal image or the visible image, a final projection transformation matrix is obtained, and a surround visible image is calculated through the warping and blending of the visible images.
제 1 항에 있어서,
상기 영상 융합은,
상기 가시영상 영상 데이터(Iv(x, y))와 열화상 데이터(I'M(x, y))는 웨이블릿 변환(W) 후 계수를 융합 법칙(Φ)에 의하여 융합된 후, 역 웨이블릿 변환(W-1)에 의해 서라운드 융합영상 이미지(IF(x, y)) 로 복원하며, 다음 [식 1]로 표현되는 것을 특징으로 하는 차량 주변 감지 시스템.
[식 1]
Figure pat00018

여기서, CY와 CM은 가시영상 데이터(Iv(x, y))와 열화상 데이터(I'M(x, y))의 웨이블릿 계수이며, CF는 융합 법칙(Φ)이 적용된 후의 계수이고, a와 d는 각각 근사와 상세계수이며, N은 이미지의 y방향의 크기이다.
The method according to claim 1,
In the image fusion,
The coefficients of the visible image data I v (x, y) and the thermal image data I M (x, y) are converged after the wavelet transform W by the convergence law Φ, Is reconstructed into a surround fused image image (I F (x, y)) by a transform (W -1 ), and is expressed by the following equation (1).
[Formula 1]
Figure pat00018

Here, C Y and C M are the wavelet coefficients of the visible image data I v (x, y) and the thermal image data I M (x, y), and C F is the wavelet coefficient after the fusion rule? Where a and d are approximate and detailed coefficients, respectively, and N is the size of the image in the y direction.
제 1 항에 있어서,
상기 차량의 둘레에 기 설정된 간격으로 배치된 복수의 초음파 측정 센서를 더 포함하고,
상기 제어부는 초음파 측정 센서의 추적을 통하여 월드 좌표계 상의 한 점 P(X, Y, Z)을 서라운드 가시영상 평면상의 한 점 Pimg(x, y)으로 변환시켜, 차량 주변의 장애물의 평면상의 위치 정보를 제공하는 것을 특징으로 하는 차량 주변 감지 시스템.
The method according to claim 1,
Further comprising a plurality of ultrasonic measurement sensors disposed at predetermined intervals around the vehicle,
The control unit converts a point P (X, Y, Z) on the world coordinate system to a point P img (x, y) on the surround visible image plane through tracking of the ultrasonic measurement sensor, Wherein the information is provided to the vehicle.
제 1 항 또는 제 8 항에 있어서,
상기 제어부에 연결되어,
서라운드 가시영상 정보, 서라운드 융합영상의 정보, 차량 주변의 장애물의 위치 정보, 서라운드 가시영상 또는 서라운드 융합영상에서 장애물의 이미지 정보 및 장애물에 관한 청각적 정보 중 선택된 하나 이상의 정보를 제공하는 정보 제공부를 더 포함하는 것을 특징으로 하는 차량 주변 감지 시스템.
The method according to claim 1 or 8,
Connected to the control unit,
An information providing unit for providing at least one selected one of the surround visible image information, the surround fusion image information, the position information of the obstacle around the vehicle, the surround visual image, or the image information of the obstacle in the surround fusion image and the auditory information on the obstacle Wherein the vehicle surroundings detection system comprises:
제 9 항에 있어서,
상기 정보 제공부는, 평면 디스플레이 및 헤드셋 마운트 디스플레이로 이루어진 군 중에서 선택된 하나 이상으로 구성된 디스플레이 부를 포함하는 것을 특징으로 하는 것을 특징으로 하는 차량 주변 감지 시스템.
10. The method of claim 9,
Wherein the information providing unit comprises at least one display unit selected from the group consisting of a flat display and a headset mount display.
제 1 항에 있어서,
일 단이 상기 차량의 지붕 부분에 탈착 가능하게 연결되는 연결부와,
상기 연결부의 타 단에 결합되어 상기 복수의 가시영상 측정 센서와 상기 복수의 열화상 측정 센서가 탑재되는 탑재 플레이트를 더 포함하는 차량 주변 감지 시스템.
The method according to claim 1,
A connecting portion having one end detachably connected to the roof portion of the vehicle,
And a mounting plate coupled to the other end of the connection portion, wherein the plurality of visible image measurement sensors and the plurality of thermal image measurement sensors are mounted.
제 11 항에 있어서,
상기 연결부 또는 상기 연결부와 탑재 플레이트는 자성 프레임으로 구성되어, 상기 차량에 자성으로 결합하는 것을 특징으로 하는 차량 주변 감지 시스템.
12. The method of claim 11,
Wherein the connection portion or the connection portion and the mount plate are formed of a magnetic frame and are magnetically coupled to the vehicle.
차량의 상부에서, 차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 측정된 복수의 가시영상 데이터를 제공하는 단계;
차량 둘레의 전체 영역에 걸쳐, 기 설정된 간격으로 측정된 복수의 열화상 데이터를 제공하는 단계; 및
상기 측정된 가시영상 및 열화상의 영상 융합을 통하여, 차량 둘레의 서라운드 영역에 대한 서라운드 융합영상을 제공하는 단계를 포함하는 것을 특징으로 하는 차량 주변 감지 방법.
Providing a plurality of visible image data measured at predetermined intervals over the entire area around the vehicle at an upper portion of the vehicle;
Providing a plurality of thermal image data measured over a whole area around the vehicle at predetermined intervals; And
And providing a surround fused image for a surround area around the vehicle through the image fusion of the measured visible and deteriorated images.
KR1020160047621A 2016-04-19 2016-04-19 Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof KR101816068B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160047621A KR101816068B1 (en) 2016-04-19 2016-04-19 Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160047621A KR101816068B1 (en) 2016-04-19 2016-04-19 Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof

Publications (2)

Publication Number Publication Date
KR20170119508A true KR20170119508A (en) 2017-10-27
KR101816068B1 KR101816068B1 (en) 2018-01-08

Family

ID=60300367

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160047621A KR101816068B1 (en) 2016-04-19 2016-04-19 Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof

Country Status (1)

Country Link
KR (1) KR101816068B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109520564A (en) * 2018-11-05 2019-03-26 福建石子科技有限公司 A kind of monitoring application method of intelligent analytical model
WO2019135544A1 (en) * 2018-01-08 2019-07-11 삼성전자주식회사 Electronic device and method for providing image of surroundings of vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102316196B1 (en) * 2020-11-09 2021-10-22 한화시스템 주식회사 360 degree hybrid situational awareness and remote control system
KR102316199B1 (en) * 2020-11-09 2021-10-22 한화시스템 주식회사 Situation recognition and remote control system in remote driving/monitoring mode

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4720650B2 (en) * 2006-06-30 2011-07-13 アイシン・エィ・ダブリュ株式会社 Road surface projection apparatus and road surface projection method
KR101431378B1 (en) * 2013-04-08 2014-08-19 포항공과대학교 산학협력단 Method for generating omni-directional image and apparatus therefor
KR101470198B1 (en) * 2013-07-29 2014-12-05 현대자동차주식회사 Apparatus and method for combining image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019135544A1 (en) * 2018-01-08 2019-07-11 삼성전자주식회사 Electronic device and method for providing image of surroundings of vehicle
KR20190084463A (en) * 2018-01-08 2019-07-17 삼성전자주식회사 Electronic apparatus and method for providing image regarding surroundings of vehicle
US11245858B2 (en) 2018-01-08 2022-02-08 Samsung Electronics Co., Ltd Electronic device and method for providing image of surroundings of vehicle
CN109520564A (en) * 2018-11-05 2019-03-26 福建石子科技有限公司 A kind of monitoring application method of intelligent analytical model
CN109520564B (en) * 2018-11-05 2020-10-30 福建石子科技有限公司 Monitoring application method of intelligent analysis model

Also Published As

Publication number Publication date
KR101816068B1 (en) 2018-01-08

Similar Documents

Publication Publication Date Title
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
Liu et al. Bird’s-eye view vision system for vehicle surrounding monitoring
JP5739584B2 (en) 3D image synthesizing apparatus and method for visualizing vehicle periphery
EP2437494B1 (en) Device for monitoring area around vehicle
CN105825475B (en) 360 degree of full-view image generation methods based on single camera
WO2017217411A1 (en) Image processing device, image processing method, and recording medium
KR101816068B1 (en) Detection System for Vehicle Surroundings and Detection Method for Vehicle Surroundings Using thereof
US20100194886A1 (en) Camera Calibration Device And Method, And Vehicle
JP5455124B2 (en) Camera posture parameter estimation device
CN108367714B (en) Filling in areas of peripheral vision obscured by mirrors or other vehicle components
CN111559314B (en) Depth and image information fused 3D enhanced panoramic looking-around system and implementation method
KR101339121B1 (en) An apparatus for generating around view image of vehicle using multi look-up table
JP2008271308A (en) Image processor and method, and vehicle
JP2006033570A (en) Image generating device
KR20140090775A (en) Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
WO2018235300A1 (en) Object detection device, object detection method, and computer-readable recording medium
JP5959311B2 (en) Data deriving apparatus and data deriving method
US20160037154A1 (en) Image processing system and method
KR20170001765A (en) Top view creating method for camera installed on vehicle and AVM system
TW201601952A (en) 3D panoramic image system using distance parameter to calibrate correctness of image
KR20090108822A (en) Camera image correction method and apparatus
KR20180127671A (en) Method of automatic calibration of AVM system
WO2019198399A1 (en) Image processing device and method
KR101293263B1 (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same
KR101230909B1 (en) Apparatus and method for processing wide angle image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant