KR20190067578A - Collision warning device and method using heterogeneous cameras having overlapped capture area - Google Patents

Collision warning device and method using heterogeneous cameras having overlapped capture area Download PDF

Info

Publication number
KR20190067578A
KR20190067578A KR1020170167657A KR20170167657A KR20190067578A KR 20190067578 A KR20190067578 A KR 20190067578A KR 1020170167657 A KR1020170167657 A KR 1020170167657A KR 20170167657 A KR20170167657 A KR 20170167657A KR 20190067578 A KR20190067578 A KR 20190067578A
Authority
KR
South Korea
Prior art keywords
image
narrow
angle image
lane
wide
Prior art date
Application number
KR1020170167657A
Other languages
Korean (ko)
Other versions
KR102031635B1 (en
Inventor
이윤희
이문성
김성록
Original Assignee
(주)캠시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)캠시스 filed Critical (주)캠시스
Priority to KR1020170167657A priority Critical patent/KR102031635B1/en
Publication of KR20190067578A publication Critical patent/KR20190067578A/en
Application granted granted Critical
Publication of KR102031635B1 publication Critical patent/KR102031635B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a collision warning apparatus using heterogeneous cameras having an overlapped photographing area and a method thereof. According to the present invention, the collision warning apparatus using the heterogeneous cameras having an overlapped photographing area comprises: a wide-angle camera unit placed in a vehicle to generate a wide-angle image, including one or more wide-angle cameras; a narrow-angle camera unit placed in the vehicle to generate a narrow-angle image, including one or more narrow-angle cameras; and a control unit which is able to detect a lane in one or more of the wide-angle image and narrow-angle image, to calculate a lane curvature value of the detected lane, to, when the lane curvature value is the same as or lower than a pre-designated first threshold value, select the wide-angle image as a default image for generating collision expectation information, and to, when the lane curvature value is higher than the first threshold value, select the narrow-angle image as the default image. The present invention aims to provide a collision warning apparatus using heterogeneous cameras having an overlapped photographing area and the method thereof, which are able to use an optimal image for a driving situation of a vehicle.

Description

오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법{Collision warning device and method using heterogeneous cameras having overlapped capture area}[0001] The present invention relates to a collision warning apparatus and method using a heterogeneous camera having an overlap shooting region,

본 발명은 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법에 관한 것이다. The present invention relates to a collision warning apparatus and method using a heterogeneous camera having an overlap photographing region.

일반적으로, 차량 내부에 탑승한 운전자의 시계는 주로 전방을 향하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당부분 가려지기 때문에 매우 한정된 시계를 가진다. Generally, the driver's watch on the inside of the vehicle is mainly directed to the front, and the left and right side watches and the rear side watches of the driver are largely covered by the vehicle body.

이러한 문제를 해결하기 위하여, 사이드 미러 등의 시계 보조수단이 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있는 추세이다.In order to solve such a problem, a clock assist means such as a side mirror is used, and in recent years, techniques including a camera means for photographing an external image of a vehicle and providing the image to a driver have been applied to vehicles.

그 중에서 차량에 복수의 카메라를 설치하여 차량 주변의 360ㅀ전방향의 영상을 보여주는 어라운드 뷰 모니터링(Around View Monitoring) 시스템(이하, AVM 시스템이라 칭함)이 있다. Among them, there is an Around View Monitoring system (hereinafter referred to as AVM system) in which a plurality of cameras are installed in a vehicle to display 360-degree forward images around the vehicle.

AVM 시스템은 차량 각 위치에 구비된 카메라들에 의해 촬영된 차량 주변의 영상을 조합하여, 운전자가 하늘에서 차량을 바라보는 듯한 탑뷰(Top View) 이미지를 제공함으로써, 차량 주변 장애물을 표시하고 사각지대를 해소할 수 있는 장점이 있다.The AVM system combines the images of the surroundings of the vehicle photographed by the cameras provided at the respective positions of the vehicle to provide a top view image in which the driver looks at the vehicle in the sky to display an obstacle around the vehicle, It is possible to solve the problem.

또한 최근에는 차량 전방의 원거리 도로 상황까지 운전자가 효과적으로 인식할 수 있도록 하기 위해 협각 카메라 시스템도 추가적으로 구비되고 있다.In addition, in recent years, a narrow-angle camera system is additionally provided so that the driver can effectively recognize the far-off road situation ahead of the vehicle.

그러나, 차량에 구비되는 AVM 시스템, 협각 카메라 시스템 등은 각각 개별적인 동작을 수행하기 위하여 구비되는 것일 뿐, 주행 방향에 존재하는 물체를 감지하여 충돌 가능성을 인식하기 위해 상호 보완적으로 기능하지 못하는 한계가 있었다.However, the AVM system, the narrow-angle camera system, and the like provided in the vehicle are provided only for performing individual operations, and are limited in that they do not complement each other in order to recognize the possibility of collision by sensing an object existing in the running direction there was.

한국등록특허 제10-1739394호(이종 화각의 스테레오 카메라를 이용한 객체 거리 추정 장치 및 그 방법)Korean Patent No. 10-1739394 (Object Distance Estimation Apparatus Using a Stereo Camera of Different Viewing Angles and Its Method) 미국등록특허 제8,633,810호(Rear-view multi-functional camera system)U.S. Patent No. 8,633,810 (Rear-view multi-functional camera system) 미국공개특허 제2017/0113611호(Method for stereo map generation with novel optical resolutions)US Patent Application No. 2017/0113611 (Method for Stereo Map Generation with Novel Optical Resolutions)

B-spline-based road model for 3D lane recognition(IEEE conference on intelligent transportation system October 2010)B-spline-based road model for 3D lane recognition (IEEE conference on intelligent transportation system October 2010) 탑뷰(top view) 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘(2010년 11월 전자공학회 논문지 제47권 SP편 제6호)Curve Template Matching Based Lane and Curvature Detection Algorithm Using Top View Image (Proceedings of SPIE Vol. 47, SP Issue 6, November 2010)

본 발명은 운행 중인 차량의 경로 곡률과 차선의 곡률을 고려하여 광각 영상과 협각 영상 중 적절한 영상을 기본 영상으로 선택함으로써, 차량의 주행 상황에 최적인 영상의 활용이 가능한 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법을 제공하기 위한 것이다.In the present invention, by selecting an appropriate one of the wide angle image and the narrow angle image as the basic image in consideration of the curvature of the path and the curvature of the lane of the vehicle in operation, And to provide a collision warning apparatus and method using the same.

본 발명은 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들을 함께 고려함으로써 오버랩 영역에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법을 제공하기 위한 것이다.The present invention can increase the amount of information included in the overlap region by considering images taken by different types of cameras having different ranges of angle of view, And to provide a collision warning apparatus and method using the same.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will become readily apparent from the following description.

본 발명의 일 측면에 따르면, 하나 이상의 광각 카메라를 포함하여 광각 영상을 생성하도록 차량에 구비되는 광각 카메라 유닛; 하나 이상의 협각 카메라를 포함하여 협각 영상을 생성하도록 상기 차량에 구비되는 협각 카메라 유닛; 및 상기 광각 영상과 상기 협각 영상 중 하나 이상에서 레인을 검출하고, 상기 검출된 레인의 레인 곡률값을 산출하며, 상기 레인 곡률값이 미리 지정된 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 컨트롤 유닛을 포함하는 충돌 경고 장치가 제공된다.According to an aspect of the present invention, there is provided a camera system comprising: a wide-angle camera unit provided in a vehicle to generate a wide-angle image including at least one wide-angle camera; A coarse camera unit provided in the vehicle to generate a narrow-angle image including at least one narrow-angle camera; And calculating a lane curvature value of the detected lane if the lane curvature value is equal to or less than a predetermined first threshold value, detecting a lane at at least one of the wide angle image and the narrow angle image, And a control unit for selecting a narrow-angle image as the basic image when the lane curvature value is greater than the first threshold value.

상기 컨트롤 유닛은 미리 지정된 조건에 따라 상기 제1 임계값과 비교할 레인 곡률값을 산출할 하나의 영상을 선택하되, 상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것일 수 있다.Wherein the control unit selects one image for which a lane curvature value to be compared with the first threshold value is to be calculated according to a predetermined condition, wherein the predetermined condition is predetermined in one of a wide-angle image and a narrow-angle image, Angle image and the narrow-angle image, or may be changed to the narrow-angle image only when the curvature value of the lane detected in the wide-angle image is greater than or equal to a predetermined limit value, .

상기 컨트롤 유닛은, 상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하고, 시간적으로 연속하는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출할 수 있다.Wherein the control unit generates a depth map for an overlap photographing area of the wide angle camera and the narrow angle camera using the wide angle image and the narrow angle image and calculates a depth map of the object in the temporally successive depth map The path curvature value corresponding to the movement trajectory of the vehicle can be calculated.

상기 컨트롤 유닛은, 상기 광각 영상 및 상기 협각 영상에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택할 수 있다.Wherein the control unit selects a wide angle image as a basic image for generating collision prediction information when the path curvature value is not greater than a predetermined second threshold value when no lane is detected in the wide angle image and the narrow angle image, And when the lane curvature value is larger than the second threshold value, the narrow-angle image can be selected as the basic image.

하나 이상의 광각 카메라와 하나 이상의 협각 카메라는 각각의 촬영 영역에서 오버랩 촬영 영역이 존재하도록 설치되고, 상기 컨트롤 유닛은 기본 영상의 오버랩 촬영 영역과 기타 촬영 영역에 존재하는 물체에 대해 상기 충돌 예상 정보를 생성하며, 상기 오버랩 촬영 영역은 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 생성한 오버랩 영역 영상을 이용하여 충돌 예상 정보를 생성할 수 있다.Wherein at least one of the wide angle camera and the at least one narrow angle camera is installed such that an overlap photographing area exists in each photographing area and the control unit generates the collision prediction information for an object existing in an overlap photographing area and another photographing area of the basic image And the overlap shooting region may generate collision prediction information using an overlap region image generated by synthesizing an auxiliary image, which is one of a wide angle image and a narrow angle image, which are not selected as a basic image, and the basic image.

상기 오버랩 영역 영상은 심도 맵으로 생성될 수 있다.The overlap region image may be generated as a depth map.

상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되고, 상기 컨트롤 유닛은 상기 충돌 예상 정보가 미리 지정된 제3 임계값 이하인 경우 출력부를 통한 알람이 실시되도록 처리할 수 있다.Wherein the collision prediction information is generated so as to include at least one of a separation distance from the object and a remaining time until the collision with the object, and the control unit controls, when the collision prediction information is equal to or less than a predetermined third threshold, So that the alarm can be processed.

상기 컨트롤 유닛은 광각 영상 및 협각 영상 중 하나 이상에 충돌 가능한 물체가 존재하는지 판단하고, 충돌 가능한 물체가 존재하는 경우에만 상기 레인 곡률값의 산출 및 상기 기본 영상의 선택을 수행할 수도 있다.The control unit may determine whether there is an object capable of colliding with at least one of the wide angle image and the narrow angle image, and may calculate the lane curvature value and select the basic image only when a collision object exists.

상기 광각 카메라는 어라운드 뷰 모니터링 시스템용 카메라일 수 있다.The wide angle camera may be a camera for the surround view monitoring system.

본 발명의 다른 측면에 따르면, 충돌 경고 장치에서 수행되는 충돌 경고 방법에 있어서, (a) 광각 카메라에 의해 생성된 광각 영상과, 협각 카메라에 의해 생성되는 협각 영상 중 협각 영상 중 하나 이상에서 레인을 검출하고, 검출된 레인의 레인 곡률값을 산출하는 단계; (b) 산출된 레인 곡률값을 미리 지정된 제1 임계값과 비교하는 단계; 및 (c) 상기 레인 곡률값이 상기 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 단계를 포함하는 충돌 경고 방법이 제공된다.According to another aspect of the present invention, there is provided a collision warning method performed in a collision warning apparatus, the method comprising: (a) detecting a lane at one or more of a wide angle image generated by a wide angle camera and a narrow angle image generated by a narrow angle camera And calculating a lane curvature value of the detected lane; (b) comparing the calculated lane curvature value with a predetermined first threshold value; And (c) if the lane curvature value is less than or equal to the first threshold value, selecting the wide angle image as a basic image for generating collision prediction information, and if the lane curvature value is larger than the first threshold value, And selecting as the basic image a collision warning method.

상기 단계 (b)는 미리 지정된 조건에 따라 선택된 영상의 레인 곡률값에 대해 수행되되, 상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것일 수 있다.Wherein the step (b) is performed for a lane curvature value of an image selected in accordance with a predetermined condition, wherein the predetermined condition is specified in advance either in a wide angle image or in a narrow angle image, And the narrow-angle image, or may be changed to the narrow-angle image only when the curvature value of the lane detected in the wide-angle image is equal to or larger than a predetermined limit value.

상기 충돌 경고 방법은, 상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하는 단계; 및 시간적으로 연속하여 생성되는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출하는 단계를 더 포함할 수 있다. 다만, 상기 단계 (a)에서 상기 광각 영상 및 상기 협각 영상 모두에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 상기 기본 영상으로 선택되고, 상기 경로 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택되도록 미리 설정될 수 있다.The collision warning method includes: generating a depth map of an overlap photographing area of the wide angle camera and the narrow angle camera using the wide angle image and the narrow angle image; And calculating a path curvature value corresponding to the movement trajectory of the vehicle using the change in depth of the object in the depth map continuously generated in time. If a lane is not detected in both the wide angle image and the narrow angle image in the step (a), the wide angle image is selected as the basic image when the path curvature value is equal to or less than a predetermined second threshold value, If the value is larger than the second threshold value, the narrow-angle image may be preset to be selected as the basic image.

미리 지정된 판단 방법에 따라 광각 영상 및 협각 영상 중 하나 이상에 존재하는 물체가 충돌 가능한 물체인 것으로 판단된 경우에만 상기 단계 (a) 내지 (c)가 실시되도록 할 수 있다.(A) to (c) may be performed only when it is determined that an object existing in at least one of the wide-angle image and the narrow-angle image is a collision-capable object according to a predetermined determination method.

상기 충돌 경고 방법은, 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 상기 기본 영상과 상기 보조 영상의 오버랩 촬영 영역에 대한 오버랩 영역 영상을 생성하는 단계; 및 상기 오버랩 영역 영상과 상기 기본 영상의 기타 촬영 영역에 존재하는 물체에 대한 충돌 예상 정보를 생성하는 단계를 더 포함할 수 있다. 여기서, 상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성될 수 있다. 상기 오버랩 영역 영상은 심도 맵으로 생성될 수 있다.The collision warning method includes generating an overlap region image for an overlapping shooting region of the base image and the auxiliary image by combining the base image and the auxiliary image that is either a wide angle image or a narrow angle image that is not selected as a base image, ; And generating collision prediction information for an overlap region image and an object existing in another shooting region of the base image. Here, the collision prediction information may be generated to include at least one of a separation distance from the object and a remaining time until the object collides with the object. The overlap region image may be generated as a depth map.

상기 충돌 경고 방법은, 상기 충돌 예상 정보를 미리 지정된 제3 임계값과 대비하는 단계; 및 상기 충돌 예상 정보가 상기 제3 임계값 이하인 경우, 출력부를 통한 알람이 실시되도록 처리하는 단계를 더 포함할 수 있다.Wherein the collision warning method comprises: comparing the collision prediction information with a predetermined third threshold; And if the collision prediction information is equal to or less than the third threshold, performing an alarm through the output unit.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 운행 중인 차량의 경로 곡률과 차선의 곡률을 고려하여 광각 영상과 협각 영상 중 적절한 영상을 기본 영상으로 선택함으로써, 차량의 주행 상황에 최적인 영상의 활용이 가능한 효과가 있다.According to the embodiment of the present invention, it is possible to utilize the optimal image for the driving situation of the vehicle by selecting an appropriate image from the wide angle image and the narrow angle image as the basic image in consideration of the curvature of the path and the curvature of the lane have.

또한, 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들을 함께 고려함으로써 오버랩 영역에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 효과도 있다.Also, considering images taken by different types of cameras having different angle of view ranges, the amount of information included in the overlap area can be increased, thereby improving object detection accuracy.

도 1은 본 발명의 일 실시예에 따른 충돌 경고 장치의 블록 구성도.
도 2는 본 발명의 일 실시예에 따른 광각 카메라부와 협각 카메라부의 촬영 영상을 설명하기 위한 도면.
도 3 및 도 4는 본 발명의 일 실시예에 따른 광각 영상과 협각 영상의 합성 방법을 설명하기 위한 도면.
도 5는 본 발명의 일 실시예에 따른 오버랩 영역 영상을 이용한 경로 곡률(Path curvature) 산출 방법을 설명하기 위한 도면.
도 6 및 도 7은 본 발명의 일 실시예에 따른 레인 곡률(Lane curvature) 산출 방법을 설명하기 위한 도면.
도 8은 본 발명의 일 실시예에 따른 다양한 조건에 따른 기본 영상과 보조 영상 결정 기법을 설명하기 위한 도면.
도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도.
1 is a block diagram of a collision warning apparatus according to an embodiment of the present invention;
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]
3 and 4 are views for explaining a method of combining a wide angle image and a narrow angle image according to an embodiment of the present invention.
5 is a view for explaining a path curvature calculating method using an overlap region image according to an embodiment of the present invention.
6 and 7 are diagrams for explaining a lane curvature calculating method according to an embodiment of the present invention.
8 is a view for explaining a basic image and an auxiliary image determination technique according to various conditions according to an embodiment of the present invention.
9 to 11 are flowcharts showing a collision warning method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, terms such as a first threshold value, a second threshold value, and the like which will be described later may be previously designated with threshold values that are substantially different from each other or some of which are the same value, Because there is room, the terms such as the first and the second are to be mentioned for convenience of division.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 일 실시예에 따른 충돌 경고 장치의 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 광각 카메라부와 협각 카메라부의 촬영 영상을 설명하기 위한 도면이다. 도 3 및 도 4는 본 발명의 일 실시예에 따른 광각 영상과 협각 영상의 합성 방법을 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시예에 따른 오버랩 영역 영상을 이용한 경로 곡률(Path curvature) 산출 방법을 설명하기 위한 도면이다. 도 6 및 도 7은 본 발명의 일 실시예에 따른 레인 곡률(Lane curvature) 산출 방법을 설명하기 위한 도면이고, 도 8은 본 발명의 일 실시예에 따른 다양한 조건에 따른 기본 영상과 보조 영상 결정 기법을 설명하기 위한 도면이며, 도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도이다.FIG. 1 is a block diagram of a collision warning apparatus according to an embodiment of the present invention. FIG. 2 is a view for explaining an image captured by a wide-angle camera unit and a coarse-angle camera unit according to an embodiment of the present invention. 3 and 4 are views for explaining a method of composing a wide-angle image and a narrow-angle image according to an embodiment of the present invention. FIG. 5 is a view for explaining a path curvature using an overlap region image according to an embodiment of the present invention. ) Calculation method. 6 and 7 are views for explaining a lane curvature calculating method according to an embodiment of the present invention. FIG. 8 is a view for explaining a method of calculating a lane curvature according to an embodiment of the present invention, FIG. 9 through FIG. 11 are flowcharts illustrating a collision warning method according to an embodiment of the present invention.

도 1을 참조하면, 충돌 경고 장치(100)는 광각 카메라 유닛(110), 협각 카메라 유닛(120), 컨트롤 유닛(130) 및 출력부(140)를 포함할 수 있다.Referring to FIG. 1, the collision warning apparatus 100 may include a wide angle camera unit 110, a narrow angle camera unit 120, a control unit 130, and an output unit 140.

광각 카메라 유닛(110) 및 협각 카메라 유닛(120) 각각은 미리 지정된 조건에서 또는/및 실시간으로 광각 영상 또는 협각 영상을 생성하도록 컨트롤 유닛(130)의 제어부(134)에 의해 제어될 수 있다.Each of the wide angle camera unit 110 and the narrow angle camera unit 120 can be controlled by the control unit 134 of the control unit 130 to generate a wide angle image or a narrow angle image in a predetermined condition and / or in real time.

광각 카메라 유닛(110)에는 하나 이상의 광각 카메라와, 각 광각 카메라의 촬영 동작에 따른 촬영 이미지(즉, 광각 영상)를 생성하는 처리부가 포함될 수 있다. 처리부에 의해 생성된 광각 영상은 컨트롤 유닛(130) 등에서 이용될 수 있도록 저장부(도시되지 않음)에 저장될 수 있다. The wide-angle camera unit 110 may include one or more wide-angle cameras and a processing unit for generating a captured image (i.e., a wide-angle image) according to the photographing operation of each wide-angle camera. The wide-angle image generated by the processing unit can be stored in a storage unit (not shown) so that it can be used in the control unit 130 or the like.

광각 카메라는 예를 들어 AVM 시스템용 카메라로서 차량의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치된 광각 카메라들(211, 213, 215, 217)일 수도 있다.The wide angle camera is, for example, a camera for an AVM system, and is a wide angle camera (211, 213, 215, 217) installed at a plurality of positions (for example, a position designated to photograph the front, rear, left, It is possible.

광각 카메라(211, 213, 215, 217)는 도 2의 (d)에 예시된 바와 같이 차량에 근접한 넓은 범위의 영역을 촬영 영역으로 할 수 있도록 예를 들어 화각이 180도 내외인 광각 렌즈(또는 어안 렌즈)가 이용되는 카메라이다. 광각 카메라에 의해 생성된 광각 영상은 도 2의 (a)와 (b)에 각각 예시되어 있다. The wide angle cameras 211, 213, 215, and 217 may be, for example, a wide angle lens having an angle of view of about 180 degrees or so A fisheye lens) is used. The wide-angle image generated by the wide-angle camera is illustrated in Figs. 2 (a) and 2 (b), respectively.

협각 카메라 유닛(120)에는 하나 이상의 협각 카메라와, 각 협각 카메라의 촬영 동작에 따른 촬영 이미지(즉, 협각 영상)를 생성하는 처리부가 포함될 수 있다. 처리부에 의해 생성된 협각 영상은 컨트롤 유닛(130) 등에서 이용될 수 있도록 저장부(도시되지 않음)에 저장될 수 있다.The coarse camera unit 120 may include one or more coarse angle cameras and a processing unit for generating a captured image (i.e., a coarse angle image) according to the photographing operation of each coarse angle camera. The narrow-angle image generated by the processing unit can be stored in a storage unit (not shown) so that it can be used in the control unit 130 or the like.

협각 카메라(240)는 도 2의 (d)에 예시된 바와 같이 광각 카메라에 비해 상대적으로 차량에서 먼 영역까지 촬영 영역으로 할 수 있도록 예를 들어 30 내지 50도의 화각을 가지는 협각 렌즈가 이용되는 카메라이다. 협각 카메라에 의해 생성된 촬영 이미지는 도 2의 (c)에 예시되어 있다. The narrow angle camera 240 is a camera in which a narrow angle lens having an angle of view of, for example, 30 to 50 degrees is used, as shown in FIG. 2 (d) to be. The photographed image generated by the coarse camera is illustrated in Fig. 2 (c).

도 2의 (d)에는 차량의 전방을 촬영하기 위한 하나의 협각 카메라(240)가 구비된 경우가 예시되었으나, 협각 카메라가 차량의 후방 등 다른 방향을 촬영할 수 있도록 하나 이상 더 구비될 수 있음은 당연하다.Although FIG. 2 (d) illustrates one narrow-angle camera 240 for photographing the front of the vehicle, the narrow-angle camera 240 may be provided with one or more additional cameras, such as the rear of the vehicle, Of course.

컨트롤 유닛(130)은 영상 처리부(132) 및 제어부(134)를 포함할 수 있다.The control unit 130 may include an image processing unit 132 and a control unit 134.

영상 처리부(132)는 광각 영상과 협각 영상에 촬영된 물체가 충돌 가능한 물체가 존재하는지 여부를 판단하고, 충돌 가능한 물체로 판단되면 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출한다.The image processor 132 determines whether or not there is an object capable of colliding with the photographed object in the wide-angle image and the narrow-angle image, and generates a depth map using the wide-angle image and the narrow- , The path curvature value is calculated using the generated depth map.

또한, 영상 처리부(132)는 광각 영상 및/또는 협각 영상을 이용하여 차량 주변의 차선을 인식하고, 차선의 곡률값을 산출하여 기본 영상과 보조 영상을 각각 선정한다. Also, the image processor 132 recognizes lanes around the vehicle using the wide-angle image and / or the narrow-angle image, calculates the curvature value of the lane, and selects the primary image and the secondary image.

또한 영상 처리부(132)는 기본 영상과 보조 영상 간의 오버랩 영역 및 기본 영상의 기타 영역에 존재하는 물체와의 충돌 예상 정보를 생성한다. 충돌 예상 정보는 후술되는 바와 같이, 물체와의 이격 거리, 충돌까지의 잔여 시간 등 중 하나 이상을 포함할 수 있다.Also, the image processor 132 generates collision prediction information between an overlap region between the basic image and the auxiliary image, and an object existing in another region of the basic image. The collision prediction information may include at least one of a distance to an object, a remaining time to collision, etc., as will be described later.

이하, 영상 처리부(132)의 동작을 구체적으로 설명한다.Hereinafter, the operation of the image processing unit 132 will be described in detail.

우선, 영상 처리부(132)는 광각 카메라에 의해 생성된 광각 영상과 협각 카메라에 의해 생성된 협각 영상에 촬영된 물체를 인식하고 인식된 물체와 충돌 가능성이 있는지 여부를 판단한다. First, the image processing unit 132 recognizes an object photographed by the wide-angle image generated by the wide-angle camera and the narrow-angle image generated by the narrow-angle camera, and determines whether there is a possibility of collision with the recognized object.

예를 들어, 영상 처리부(132)는 촬영된 물체가 실시간 생성되는 광각 영상 또는/및 협각 영상을 참조할 때 크기가 증가되는 변화를 가지는 물체인지, 해당 물체가 충돌 경고 장치(100)가 구비된 자기 차량과 동일한 레인(예를 들어, 차선, 주차 구획선 등) 내에 존재하는지 등을 고려하여 해당 물체가 충돌 가능한 물체인지 여부를 판단하도록 미리 설정될 수 있다. For example, the image processing unit 132 determines whether the captured object is an object having a change in size that increases when referring to a wide-angle image and / or a narrow-angle image generated in real time, Whether the object is a collision object or not, whether or not the object exists in the same lane as the own vehicle (for example, lane, parking lot, etc.).

여기서, 광각 영상 및/또는 협각 영상에서 에지 검출 등의 영상 처리 기법에 의해 레인이 검출될 수 있으며, 이는 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다. 다만, 광각 영상의 경우 정확한 차선 검출 및 물체 검출이 가능하도록 하기 위해 탑뷰 이미지로 변환하는 처리 등이 실시될 수도 있다.Herein, lanes can be detected by an image processing technique such as edge detection in a wide-angle image and / or a narrow-angle image, and these will be obvious to those skilled in the art, and a description thereof will be omitted. However, in the case of a wide-angle image, processing for conversion to a top view image may be performed in order to enable accurate lane detection and object detection.

예를 들어, 영상 처리부(132)는 광각 영상 또는/및 협각 영상에 존재하는 물체가 자기 차량을 향하는 방향으로 지속적으로 그 크기가 증가하도록 변화된다면 충돌 가능성이 있는 것으로 판단할 수 있다. 그러나, 해당 물체의 크기가 점차 감소하거나, 그 크기가 증가하지만 차량을 비켜가는 방향으로 그 크기가 증가하는 경우라면 충돌 가능성이 없는 것으로 판단할 수 있을 것이다.For example, the image processor 132 may determine that there is a possibility of collision if an object existing in the wide-angle image and / or the narrow-angle image is changed so as to be continuously increased in the direction toward the subject vehicle. However, if the size of the object gradually decreases or the size thereof increases, but the size of the object increases in the direction of moving the vehicle, it can be judged that there is no possibility of collision.

충돌 가능한 물체로 판단되면, 영상 처리부(132)는 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출할 수 있다.If it is determined that the object is a collision object, the image processing unit 132 may generate a depth map using the wide angle image and the narrow angle image, and calculate the path curvature value using the generated depth map.

도 3의 (a)와 (b)에 각각 예시된 바와 같이, 광각 영상(310)은 상대적으로 짧은 범위 내의 물체를 검출하기에 용이하도록 생성되고, 협각 영상(320)은 상대적으로 먼 거리의 물체를 검출하기에 용이하도록 생성된다. 이때, 광각 영상(310)과 협각 영상(320) 간에는 오버랩 촬영 영역(260)이 존재하도록 광각 카메라와 협각 카메라가 각각 차량에 설치된다(도 2 (d) 참조).As illustrated in FIGS. 3A and 3B, the wide-angle image 310 is generated so as to facilitate detection of an object within a relatively short range, and the narrow-angle image 320 is generated from an object at a relatively long distance As shown in FIG. At this time, a wide-angle camera and a narrow-angle camera are installed in the vehicle such that the overlap photographing region 260 exists between the wide-angle image 310 and the narrow-angle image 320 (see FIG.

영상 처리부(132)는 광각 카메라와 협각 카메라를 스테레오 비젼으로 활용하여 스테레오 매핑 방식으로 심도 맵(depth map)을 생성한다. 즉, 영상 처리부(132)는 광각 카메라와 협각 카메라 각각에서 생성된 광각 영상(310)과 협각 영상(320)을 이용하여 영상 내의 각 물체의 깊이에 대한 정보를 획득할 수 있는 심도 맵(depth map)(330)을 생성한다(도 4 참조). The image processing unit 132 generates a depth map using a stereo mapping method using the wide angle camera and the narrow angle camera as a stereo vision. That is, the image processing unit 132 uses a wide-angle image 310 and a narrow-angle image 320 generated by the wide-angle camera and the narrow-angle camera to generate a depth map ) 330 (see Fig. 4).

광각 영상(310)과 협각 영상(320)의 형상이 상이하기 때문에, 심도 맵(330)을 생성하기 위해 룩업 테이블(LUT) 등을 이용한 픽셀 매핑 방식 등으로 광각 영상(310)을 협각 영상(320)과 동일 또는 유사한 형식(예를 들어 평면 이미지 형식)으로 변환하는 처리가 선행될 수도 있음은 당연하다. 심도 맵(330)을 생성하는 구체적인 방법 등은 미국등록특허 제8,633,810호, 미국공개특허 제2017/0113611호 등에 상세히 설명되어 있으므로 이에 대한 설명은 생략한다.Since the shapes of the wide-angle image 310 and the narrow-angle image 320 are different from each other, the wide-angle image 310 may be transformed into the narrow-angle image 320 by using a pixel mapping method using a lookup table (LUT) ) In the same or similar format (for example, a flat image format). A detailed method of generating the depth map 330 is described in detail in U.S. Patent No. 8,633,810, U.S. Patent Application Publication No. 2017/0113611, and so on.

이외에도 광각 영상(310)과 협각 영상(320)의 픽셀을 매핑하여 합성 처리하는 방식은 다양하며, 일 예로 하기 수학식 1 내지 3을 이용하여 심도 맵(330)의 생성 등을 위한 합성 처리가 이루어질 수도 있다.In addition, there are a variety of methods for mapping the pixels of the wide-angle image 310 and the narrow-angle image 320 and performing synthesis processing. For example, a synthesis process for generating the depth map 330 is performed using the following Equations 1 to 3 It is possible.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

참고로, 수학식 1은 광각 카메라의 H 행렬(즉, H1)을 산출하여 실 세계의 평면 바닥과 광각 카메라의 관계를 구하기 위한 것이고, 수학식 2는 협각 카메라의 H 행렬(즉, H2)을 산출하여 실 세계의 평면 바닥과 협각 카메라의 관계를 구하기 위한 것이다. The equation ( 1 ) is for calculating the H matrix (i.e., H 1 ) of the wide angle camera to obtain the relationship between the plane floor of the real world and the wide angle camera. Equation ( 2) ) To calculate the relationship between the plane floor of the real world and the narrow-angle camera.

여기서, x, y는 촬영 영상에서의 픽셀 좌표이고, x', y'는 차량에서 이격된 거리, 위치 등에 대한 실세계 좌표(측정 좌표)를 나타내며, w는 미리 지정된 가중치이다. 따라서, 수학식 1 및 2에 의해 미지의 행렬인 H1, H2가 각각 산출될 수 있다.Here, x and y are pixel coordinates in the photographed image, x 'and y' represent real world coordinates (measured coordinates) for distances, positions, etc., separated from the vehicle, and w is a predetermined weight. H 1 and H 2 , which are unknown matrices, can be calculated by Equations 1 and 2, respectively.

또한 산출된 H1과 H2가 동일한 대상(즉, 평면 바닥)을 기준하여 산출된 것으로서, 광각 카메라에 의한 광각 영상과 협각 카메라에 의한 협각 영상은 하기 수학식 3과 같은 관계를 가지게 된다. In addition, as calculated by reference to the calculated H 1 and H 2, the same subject (i. E., Flat bottom), the wide-angle image and the narrow-angle image due to the narrow-angle camera according to the wide-angle camera is to have the relationship of Equation (3).

Figure pat00003
Figure pat00003

따라서, 협각 영상의 임의의 픽셀 위치(PNarrow)는 수학식 3에 의해 광각 영상의 한 픽셀 위치(PWide)로 투영될 수 있고, 영상 처리부(132)는 이러한 관계를 이용하여 광각 영상과 협각 영상의 오버랩 영역(260)의 합성 처리한 오버랩 영역 영상을 생성할 수 있다. 마찬가지로, 광각 영상의 한 픽셀 위치가 협각 영상의 한 픽셀 위치로 투영될 수도 있음은 당연하다. 이때, 광각 영상이 미리 지정된 룩업 테이블(LUT)을 이용하여 통상의 렌즈로 촬영된 영상의 형태로 보정되는 처리가 선행된 후 협각 영상의 각 픽셀에 매핑 처리될 수도 있을 것이다.Accordingly, an arbitrary pixel position (P Narrow ) of the narrow- angle image can be projected to one pixel position (P Wide ) of the wide-angle image according to Equation (3), and the image processing unit It is possible to generate an overlap region image obtained by combining the overlap region 260 of the image. Likewise, it is natural that one pixel position of the wide-angle image may be projected to one pixel position of the narrow-angle image. At this time, the process of correcting the wide-angle image into the shape of the image photographed by the normal lens using the predetermined look-up table (LUT) may be preceded and then mapped to each pixel of the narrow-angle image.

영상 처리부(132)는 생성한 심도 맵(330)을 이용하여 차량의 운행에 따른 경로 곡률값을 산출한다. The image processing unit 132 calculates the path curvature value according to the driving of the vehicle using the generated depth map 330. [

도 5에 예시된 바와 같이, 차량의 운행은 전진 직진, 전진 우회전, 전진 좌회전, 후진 직진, 후진 우회전 및 후진 우회전 등의 방향으로 이루어질 수 있다. As illustrated in Fig. 5, the vehicle can be driven in the directions of forward straight ahead, forward right turn, forward left turn, backward forward, reverse right turn, and reverse right turn.

각 경우에서 차량의 운행에 따른 경로 곡률값을 산출하기 위해 영상 처리부(132)가 이용하는 심도 맵(330)은 전진 또는 후진에 상응하도록 생성된 합성 영상이다. 즉, 심도 맵(330)은 차량이 전진 방향의 운행인 경우 차량 전방이 촬영된 광각 영상과 협각 영상의 심도 맵이고, 차량이 후진 방향의 운행인 경우 차량 후방이 촬영된 광각 영상과 협각 영상의 심도 맵이다. In each case, the depth map 330 used by the image processing unit 132 to calculate the path curvature value according to the driving of the vehicle is a composite image generated to correspond to the forward or backward movement. That is, the depth map 330 is a depth map of the wide angle image and the narrow angle image taken in the front of the vehicle when the vehicle is running in the forward direction. When the vehicle is running in the backward direction, Depth map.

이때, 차량이 전진인지 후진인지에 관한 정보는 예를 들어 컨트롤 유닛(130)이 차량의 제어 시스템(예를 들어 ECU), GPS 시스템, 지자기 센서 등 중 하나 이상으로부터 제공받아 인식할 수 있고, 영상 처리부(132)는 적절한 영상을 이용하여 심도 맵(330)을 생성할 수 있을 것이다. At this time, the information on whether the vehicle is moving forward or backward can be recognized, for example, by the control unit 130 being provided from at least one of a vehicle control system (for example, an ECU), a GPS system, a geomagnetic sensor, The processing unit 132 may generate the depth map 330 using the appropriate image.

차량이 임의의 방향으로 이동되는 동안 광각 영상(310)과 협각 영상(320)이 실시간 생성되며 영상 처리부(132)는 이들을 이용하여 심도 맵(330)을 실시간 생성한다. 영상 처리부(132)는 실시간 생성되는 심도 맵(330) 내의 물체의 심도값 변화(즉, 상대 거리의 변화)를 이용하여 차량의 운행에 따른 경로 곡률값을 산출할 수 있다. The wide angle image 310 and the narrow angle image 320 are generated in real time while the vehicle is moving in an arbitrary direction, and the image processing unit 132 generates the depth map 330 in real time using them. The image processing unit 132 may calculate the path curvature value according to the driving of the vehicle by using the depth value change (i.e., the change of the relative distance) of the object in the depth map 330 generated in real time.

예를 들어, 도 5의 ⓓ와 같은 심도 맵(330)이 생성된 상태에서 차량이 ⓐ 방향으로 움직이면, 영상 처리부(132)는 전방의 물체 ①, ②, ③에 대해서는 오차 범위 내에서 차이가 없거나 공통적으로 접근하는 방향임을 인식하는 심도의 변화를 인식할 것이다. For example, if the vehicle moves in the direction A in the state in which the depth map 330 shown in FIG. 5 is generated, the image processing unit 132 determines whether there is a difference within the error range with respect to the objects 1, 2, Will recognize changes in depth that recognize a common approach.

그러나, 차량이 ⓑ 방향으로 움직이면, 영상 처리부(132)는 전방의 물체 ①의 심도가 가장 크게 깊어지고(즉, 상대적으로 가장 멀어지는), ③의 심도가 가장 얕아지는(즉, 상대적으로 가장 가까워지는) 방향으로 각 물체에 심도 변화가 발생됨을 인식할 수 있다.However, if the vehicle moves in the b &thetas;, the image processing unit 132 determines that the depth of the object 1 ' in the front most deepens (i. E. ) Direction of each object.

즉, 영상 처리부(132)는 연속적으로 생성되는 심도 맵(330)에서 각 물체의 심도 변화와 각 물체의 이동 표시되는 위치 변화를 이용하여 차량이 어떤 움직임 및 궤적으로 이동하는지를 인식할 수 있고, 이를 통해 차량 자체의 움직임 방향의 흐름을 나타내는 경로 곡률값을 산출할 수 있다. 연속되는 움직임의 크기별로 경로 곡률값을 산출하기 위한 산출 기준은 미리 지정될 수 있다. In other words, the image processing unit 132 can recognize the movement and the trajectory of the vehicle using the depth map of the continuously generated depth map 330 and the positional change of each object, It is possible to calculate the curvature value of the path representing the flow of the movement direction of the vehicle itself. The calculation criterion for calculating the path curvature value for each successive motion size can be specified in advance.

여기서 경로 곡률값은 차량의 회전 움직임량이 큰지 작은지를 나타내는 값이며, 경로 곡률값이 작을수록 차량이 급격하게 회전하는 움직임을 가지는 것을 나타낸다. Here, the path curvature value is a value indicating whether the rotational motion amount of the vehicle is large or small, and the smaller the path curvature value, the more the vehicle has a sudden turning motion.

아울러, 심도 맵(330)에서 각 물체의 심도 변화와 위치 변화를 이용하여 차량의 움직임에 따른 경로 곡률값을 산출함에 있어, 심도 맵(330)에 포함된 특정 물체 스스로의 이동으로 인한 큰 변화량이 포함되어 경로 곡률값이 왜곡되어 산출됨을 방지하기 위해, 심도 맵(330)에 포함된 각 물체의 변화량이 주변 물체에 비해 미리 지정된 기준값 이상으로 크게 변화되는 물체의 변화량은 제외하고 경로 곡률값을 산출하도록 미리 지정될 수도 있다.In calculating the path curvature value according to the movement of the vehicle using the depth change and the position change of each object in the depth map 330, a large change amount due to the movement of the specific object included in the depth map 330 The path curvature value is calculated except for the amount of change of the object in which the amount of change of each object included in the depth map 330 largely changes to a value larger than a predetermined reference value in comparison with the surrounding object in order to prevent the path curvature value from being distorted. .

다음으로, 영상 처리부(132)는 광각 영상(310) 또는/및 협각 영상(320)에서 검출되는 레인의 곡률값을 산출한다. 여기서, 레인은 차량의 움직임을 유도하기 위해 바닥면에 도시된 일체의 표시 정보를 포함하며, 예를 들어 차량이 주행하는 도로의 차선(도 6의 (a) 참조), 주차장의 주차 구획선(도 6의 (b) 참조) 등일 수도 있다. Next, the image processing unit 132 calculates a curvature value of the lane detected in the wide angle image 310 and / or the narrow angle image 320. [ Here, the lane includes all the display information shown on the floor surface to induce the movement of the vehicle. For example, the lane includes a lane (see Fig. 6A) of the road on which the vehicle travels, a parking lot partition line 6 (b)).

영상 처리부(132)는 도 7의 (a)에 예시된 바와 같이, 협각 영상(320)에서 레인을 검출하고, 검출된 레인의 곡률값을 산출할 수 있다. 차선의 곡률값은 예를 들어 일반적으로 사용되는 하나의 B-스프라인(spline) 곡선에 의한 클로소이드 모델(clothoid model)을 가로 방향으로 확장하고, 두 개의 B-스프라인 곡선으로 도로의 높이 프로파일을 모델링하는 등의 3D 모델을 이용하여 산출될 수 있다. The image processing unit 132 can detect the lane in the narrow-angle image 320 and calculate the curvature value of the detected lane, as illustrated in Fig. 7A. The curvature value of the lane can be obtained by, for example, extending a clothoid model by a commonly used B-spline curve in the lateral direction, and by using two B-spline curves, And can be calculated using a 3D model such as modeling a profile.

평면 도로를 가정한 클로소이드 모델은 하기 수학식 4로 표현될 수 있다. A clothoid model assuming a planar road can be expressed by the following equation (4).

Figure pat00004
Figure pat00004

참고로, 수학식 4에서 X(L)은 길이 L에서 차선의 중심점의 위치, xoffset는 자기 차량(ego vehicle)의 차선과의 거리, Δψ는 요 앵글(yaw angle), c0는 차선의 곡률, c1은 곡률 변화량(클로소이드 파라미터)을 의미하며, 여기서 차선의 폭은 미리 지정된다. 클로소이드 모델을 이용하여 인식된 차선의 곡률값(c0)을 산출하는 방법 등에 대해서는 관련 논문(B-spline-based road model for 3D lane recognition, IEEE conference on intelligent transportation system October 2010)에 이미 상세히 기재되어 있으므로 이에 대한 설명은 생략한다.For reference, the position of the center of the lane in the X (L) is the length L in Equation 4, x offset is the distance to the lane of the subject vehicle (ego vehicle), Δψ is a yaw angle (yaw angle), c 0 is the next best Curvature, and c 1 denotes a curvature change amount (closode parameter), wherein the width of the lane is predetermined. The method of calculating the curvature value (c 0 ) of the recognized lane using the clause model is described in detail in the related paper (B-spline-based road model for 3D lane recognition, IEEE conference on intelligent transportation system October 2010) A description thereof will be omitted.

또한, 영상 처리부(132)는 도 7의 (b)에 예시된 바와 같이 광각 영상(310)을 탑뷰 이미지로 변환한 후 탑뷰 이미지를 대상으로 레인을 검출하고 검출된 레인의 곡률값을 산출할 수도 있다. 탑뷰 이미지에서 인식되는 레인이 직선 차선인지 곡선 차선인지 여부를 판별하고, 곡선 차선인 경우 곡선 템플릿의 정합 과정 등을 통해 곡률을 검출하는 기법은 관련 논문(탑뷰 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘 - 2010년 11월 전자공학회 논문지 제47권 SP편 제6호) 등에 상세히 설명되었으므로 이에 대한 설명은 생략한다.7B, the image processing unit 132 may convert the wide-angle image 310 into a top-view image, detect a lane based on the top-view image, and calculate a curvature value of the detected lane have. In the case of the curved lane, the method of detecting the curvature through the matching process of the curve template is a method of detecting the curved line based on the related paper (the curve-template matching based lane and the curvature Detection Algorithm - November 2010, vol. 47, pp. SP, No. 6), and the description thereof will be omitted.

영상 처리부(132)는 전술한 바와 같이 레인의 곡률값을 광각 영상(310)과 협각 영상(320) 모두를 대상으로 산출할 수도 있으나, 차량의 이동 속도 등 미리 지정된 조건에 따라 레인의 곡률값을 산출하기 위한 대상을 광각 영상(310)과 협각 영상(320) 중 어느 하나로 선택하도록 미리 지정될 수도 있다.The image processing unit 132 may calculate the curvature value of the lane based on both the wide angle image 310 and the narrow angle image 320 as described above. However, the image processing unit 132 may calculate the curvature value of the lane It may be designated in advance to select an object to be calculated as either the wide-angle image 310 or the narrow-angle image 320. [

예를 들어 고속도로 주행 등과 같이 미리 지정된 속도 이상으로 차량이 주행하는 경우에는 협각 영상(320)을 대상으로 레인의 곡률값을 산출하고, 주차장에서 이동 등과 같이 미리 지정된 속도 이하로 차량이 주행하는 경우에는 광각 영상(310)을 대상으로 레인의 곡률값을 산출하도록 미리 지정될 수도 있다. 차량의 이동 속도는 예를 들어 컨트롤 유닛(130)이 차량의 제어 시스템(예를 들어 ECU), GPS 시스템 등으로부터 관련 정보를 제공받아 인식할 수 있을 것이다. For example, when the vehicle travels at a predetermined speed such as a highway traveling, the curvature value of the lane is calculated with respect to the narrow-angle image 320. When the vehicle travels at a predetermined speed or less such as moving in the parking lot It may be specified in advance to calculate the curvature value of the lane on the wide-angle image 310. [ The moving speed of the vehicle may be recognized, for example, by the control unit 130 receiving relevant information from a vehicle control system (e.g., an ECU), a GPS system, or the like.

또 다른 예로서, 광각 영상(310)과 협각 영상(320) 모두를 대상으로 하여 레인의 곡률값을 각각 산출한 후, 광각 영상(310)에서 산출한 레인의 곡률값이 미리 지정된 한계값 이상인 경우에는 협각 영상(320)에서 산출한 레인의 곡률값으로 결정하되, 광각 영상(310)에서 산출한 레인의 곡률값이 미리 지정된 한계값 이하인 경우에는 광각 영상(310)에서 산출한 레인의 곡률값으로 결정하는 방법이 적용되도록 미리 지정될 수도 있다. As another example, after calculating the curvature values of the lanes with respect to both the wide-angle image 310 and the narrow-angle image 320, if the curvature value of the lane calculated by the wide-angle image 310 is equal to or larger than a predetermined limit value When the curvature value of the lane calculated in the wide angle image 310 is less than a predetermined limit value, the curvature value of the lane calculated in the wide angle image 310 is determined as the curvature value of the lane calculated in the wide angle image 310 May be specified in advance to be applied.

이후, 영상 처리부(132)는 산출된 경로 곡률값 및/또는 레인 곡률값을 참조하여 광각 영상(310)과 협각 영상(320) 중 어느 하나를 차량 진행 방향에 위치한 물체와의 충돌 예상 정보를 생성하기 위한 기본 영상으로 선택하고, 기본 영상과 보조 영상을 이용하여 해당 물체에 대한 충돌 예상 정보를 생성한다. Thereafter, the image processor 132 generates collision prediction information with respect to an object positioned in the vehicle traveling direction by using either the wide-angle image 310 or the narrow-angle image 320 with reference to the calculated path curvature value and / or the lane curvature value And generates collision prediction information for the object using the primary image and the secondary image.

구체적으로, 영상 처리부(132)는 차량의 움직임 또는 주변 레인의 곡률을 참조하여 기본 영상을 선택할 때 미리 지정된 임계값보다 곡률이 작다면(즉, 휨 정도가 크다면) 광각 영상과 협각 영상 중 광각 영상을 기본 영상으로 선택한다(도 8의 (a) 및 (c) 참조). 이때, 레인 곡률값은 미리 지정된 제1 임계값과 대비되고, 경로 곡률값은 미리 지정된 제2 임계값과 대비되도록 미리 지정될 수 있다. 여기서, 제1 임계값과 제2 임계값은 같은 값 또는 상이한 값으로 각각 지정될 수 있을 것이다. In detail, when the basic image is selected by referring to the motion of the vehicle or the curvature of the peripheral lane, the image processor 132 determines whether the curvature is smaller than a predetermined threshold value (i.e., (See Figs. 8 (a) and 8 (c)). At this time, the lane curvature value is compared with a predetermined first threshold value, and the path curvature value can be specified in advance so as to be compared with a predetermined second threshold value. Here, the first threshold value and the second threshold value may be designated as the same value or different values, respectively.

이는, 곡률이 작은 경우에는 급격한 각도의 차량 회전이 필요한 상황이므로 차량 주변의 정보가 보다 중요할 수 있고, 따라서 차량 주변을 중심으로 촬영된 광각 영상을 중심으로 후술될 주행 방향상의 물체와의 충돌 예상 정보를 생성하는 것이 효과적이기 때문이다. This is because, when the curvature is small, the vehicle rotation is required at a sudden angle, so the information around the vehicle may be more important. Therefore, the collision with an object in the running direction, which will be described later, This is because it is effective to generate information.

그러나, 이와 달리 만일 해당 임계값보다 곡률이 크다면(즉, 휨 정도가 작다면) 영상 처리부(132)는 광각 영상과 협각 영상 중 협각 영상을 기본 영상으로 선택한다(도 8의 (b) 및 (d) 참조).However, if the curvature is larger than the threshold value (i.e., the degree of bending is small), the image processing unit 132 selects a narrow-angle image among the wide-angle image and the narrow-angle image as a basic image (see Fig.

이는, 곡률이 큰 경우에는 직선 주행 또는 완만한 각도의 차량 회전이 필요한 상황이므로 차량 주변보다는 먼 거리의 정보가 보다 중시되기 때문에, 차량에서 멀리 떨어진 위치까지 촬영된 협각 영상을 중심으로 후술될 주행 방향상의 물체와의 충돌 예상 정보를 생성할 수 있도록 하기 위한 것이다. This is because, in the case of a large curvature, it is necessary to straight-line the vehicle or turn the vehicle at a gentle angle, so that the information of far distance is more important than the surroundings of the vehicle. Therefore, So that the collision prediction information can be generated.

다만, 기본 영상을 선택하기 위한 정보로서 경로 곡률값보다 레인 곡률값을 우선하여 적용하도록 미리 지정될 수 있다. 이는, 차량의 이동 방향을 유도하기 위해 표시된 레인을 따라 차량이 이동함이 일반적이기 때문이다.However, it may be specified in advance to apply the lane curvature value to the path curvature value as information for selecting the basic image. This is because it is common for a vehicle to move along a displayed lane in order to derive the moving direction of the vehicle.

따라서 영상 처리부(132)는 광각 영상(310) 및/또는 협각 영상(320)을 이용하여 레인이 검출되었고 레인 곡률값이 산출되었다면 레인 곡률값을 미리 지정된 임계값과 대비하여 기본 영상을 선택한다. 그러나, 레인이 표시되지 않은 공터 등에서 차량이 운행하는 경우에는 레인이 인식되지 않기 때문에 경로 곡률값을 상응하는 임계값과 대비하여 기본 영상을 선택하게 될 것이다. Accordingly, when the lane is detected using the wide angle image 310 and / or the narrow angle image 320 and the lane curvature value is calculated, the image processing unit 132 selects the basic image by comparing the lane curvature value with a predetermined threshold value. However, since the lane is not recognized when the vehicle is traveling on an empty road where the lane is not displayed, the path curvature value will be selected in comparison with the corresponding threshold value.

영상 처리부(132)는 광각 영상(310)과 협각 영상(320) 중 어느 하나로 선택한 기본 영상을 오버랩 영역 영상과 기타 영역 영상으로 구분하고, 오버랩 영역 영상과 기타 영역 영상에서 각각 물체를 검출하여 검출된 물체에 대한 충돌 예상 정보를 생성한다. The image processor 132 divides the basic image selected by the wide-angle image 310 and the narrow-angle image 320 into an overlap region image and another region image, detects an object in the overlap region image and the other region image, Creates collision prediction information for an object.

오버랩 영역 영상은 도 2의 (d)에 표시된 오버랩 촬영 영역(260)에 상응하는 영상이고, 기타 영역 영상은 기본 영상 중 오버랩 영역 영상을 제외한 촬영 영역(즉, 기타 영역)에 대한 영상이다. 즉, 기타 영역은 예를 들어, 기본 영상이 광각 영상인 경우 도 2의 (d)의 ①과 ②에 해당되는 촬영 영역이고, 기본 영상이 협각 영상인 경우 도 2의 (d)의 ③에 해당되는 촬영 영역이다. The overlap region image is an image corresponding to the overlap photographing region 260 shown in (d) of FIG. 2, and the other region image is an image for the photographing region (i.e., other region) excluding the overlap region image. In other words, for example, if the basic image is a wide-angle image, it corresponds to the shooting area corresponding to (1) and (2) of FIG. 2 (d) .

영상 처리부(132)는 오버랩 촬영 영역(260)에 상응하도록 생성되는 오버랩 영역 영상을 앞서 설명한 바와 같이 심도 맵(330)의 형태로 생성할 수 있다. The image processing unit 132 may generate an overlap region image corresponding to the overlap shooting region 260 in the form of the depth map 330 as described above.

영상 처리부(132)는 오버랩 영역 영상에서 물체의 검출을 시도하고, 검출된 물체와의 공간상 이격 거리를 산출한다. 물체와의 이격 거리는 실시간 생성되는 광각 영상과 협각 영상을 이용하여 생성되는 오버랩 영역 영상을 이용하여 실시간 변동되어 검출될 수도 있다.The image processing unit 132 attempts to detect an object in the overlap area image, and calculates a spatial separation distance from the detected object. The separation distance from the object may be detected in real time by using an overlap region image generated using a wide angle image and a narrow angle image generated in real time.

또한 영상 처리부(132)는 오버랩 영역에 존재하는 충돌 가능성 있는 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간도 산출할 수 있다. Also, the image processor 132 may calculate the remaining time required to collide with the object using the size change amount of the collision object existing in the overlap area and / or the distance change amount with respect to the object.

이와 같이, 영상 처리부(132)는 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들(즉, 광각 영상과 협각 영상)을 함께 이용하여 오버랩 영역 영상을 생성함으로써, 오버랩 영역 영상에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 장점이 있다.As described above, the image processor 132 generates the overlap region images using the images (i.e., the wide-angle image and the narrow-angle image) shot by the different types of cameras having different angles of view angles, The amount of information can be increased, and the accuracy of object detection can be improved.

또한 영상 처리부(132)는 기본 영상에서 오버랩 촬영 영역(260) 이외의 기타 영역에 대해서도 물체의 검출을 시도한다. 기타 영역에 상응하는 기타 영역 영상이 기본 영상을 광각 영상으로 선택하였는지 협각 영상으로 선택하였는지에 따라 상이해짐은 앞서 설명한 바와 같다. The image processing unit 132 also tries to detect an object in other areas than the overlap shooting area 260 in the basic image. The other regions corresponding to the other regions differ as described above depending on whether the basic image is selected as the wide-angle image or the narrow-angle image.

만일 기타 영역에 상응하는 기타 영역 영상에서 충돌 가능한 물체가 검출되면, 전술한 바와 같이 해당 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간 등을 산출할 수 있다. If a collision object is detected in the other region image corresponding to the other region, the remaining time required until collision with the object is calculated using the size change amount of the object and / or the change amount of the distance to the object as described above Can be calculated.

제어부(134)는 영상 처리부(132)에 의해 생성된 충돌 예상 정보(즉, 잔여 시간 및/또는 이격 거리)가 미리 지정된 제3 임계값보다 작은 경우에는 사용자에게 알람 처리를 실시되도록 제어할 수 있다The control unit 134 can control the user to perform the alarm process when the collision prediction information generated by the image processing unit 132 (i.e., the remaining time and / or the separation distance) is smaller than a predetermined third threshold value

여기서, 알람 처리는 시각적 또는/및 청각적 방식으로 실시될 수 있으며, 예를 들어 디스플레이 장치, 스피커 장치 등인 출력부(140)를 통해 처리될 수 있다.Here, the alarm processing can be performed in a visual or / and audible manner and can be processed through an output unit 140, for example a display device, a speaker device, and the like.

도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도이다.9 to 11 are flowcharts illustrating a collision warning method according to an embodiment of the present invention.

도 9 내지 도 11을 참조하면, 단계 910에서 충돌 경고 장치(100)의 컨트롤 유닛(130)은 차량에 구비된 광각 카메라 및 협각 카메라에 의해 각각 생성된 광각 영상과 협각 영상을 제공받는다.9 to 11, in step 910, the control unit 130 of the collision warning apparatus 100 is provided with the wide angle image and the narrow angle image respectively generated by the wide angle camera and the narrow angle camera provided in the vehicle.

단계 915에서 컨트롤 유닛(130)은 제공된 광각 영상 및/또는 협각 영상 내에 물체가 검출되는지 여부를 판단한다. 영상에서 차량이나 신호등 등의 물체를 검출하는 방법은 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다.In step 915, the control unit 130 determines whether an object is detected in the provided wide-angle image and / or the narrow-angle image. A method of detecting an object such as a vehicle or a traffic light from an image is obvious to those skilled in the art, and a description thereof will be omitted.

만일 광각 영상 및/또는 협각 영상에서 물체가 검출되었다면, 단계 920에서 컨트롤 유닛(130)은 해당 물체가 자기 차량과 충돌 가능한 물체인지 여부를 판단한다. 예를 들어 자기 차량이 주행하는 차선과 동일한 차선에 위치한 물체이고 해당 물체가 실시간 생성되는 광각 영상이나 협각 영상에서 크기가 증가하는 방향의 변화를 가지는 경우 충돌 가능한 것으로 판단될 수 있을 것이다. If an object is detected in the wide-angle image and / or the narrow-angle image, the control unit 130 determines in step 920 whether the object is a collision object with the subject vehicle. For example, it can be determined that a collision is possible if the object is located in the same lane as the lane on which the vehicle is traveling, and the object has a change in the direction of increasing the size of the wide-angle image or the narrow-angle image generated in real time.

만일 검출된 물체가 충돌 가능한 물체인 것으로 판단되면, 단계 930에서 컨트롤 유닛(130)은 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출한다. If it is determined that the detected object is a collision object, the control unit 130 generates a depth map using the wide-angle image and the narrow-angle image in step 930, and calculates a path curvature value .

여기서, 심도 맵은 광각 카메라와 협각 카메라를 스테레오 비젼으로 활용하고 스테레오 매핑 방식을 이용하여 생성한 것으로 영상 내의 각 물체의 깊이에 대한 정보를 획득할 수 있는 특징이 있다.Here, the depth map is created by using a wide-angle camera and a narrow-angle camera as a stereo vision and using a stereo mapping method, and has a feature of acquiring information on the depth of each object in the image.

따라서 자기 차량이 임의의 방향으로 이동되면 심도 맵에 포함된 물체 각각의 심도값이 변화되고, 해당 물체들 각각의 상대적인 변화량의 차이 등을 이용하여 자기 차량이 어느 방향으로 또한 어떤 궤도로 움직이고 있는지에 상응하는 경로 곡률값이 산출될 수 있다.Accordingly, when the subject vehicle is moved in an arbitrary direction, the depth values of the objects included in the depth map are changed, and the direction of the subject vehicle in which direction and the orbit is being moved A corresponding path curvature value can be calculated.

단계 935에서, 컨트롤 유닛(130)은 광각 영상(310) 또는/및 협각 영상(320)에서 레인이 검출되는지 여부를 판단한다. 레인은 예를 들어 차량이 주행하는 도로의 차선, 주차장의 주차 구획선 등일 수 있다.In step 935, the control unit 130 determines whether a lane is detected in the wide-angle image 310 and / or the narrow-angle image 320. The lane may be, for example, a lane on the road on which the vehicle is traveling, a parking lot line in the parking lot, and the like.

만일 레인이 검출되었다면, 단계 940에서 컨트롤 유닛(130)은 검출된 레인의 곡률값을 산출한다. 레인의 곡률이 예를 들어 클로소이드 모델을 이용하거나 곡선 템플릿의 정합 과정 등을 통해 산출될 수 있음은 앞서 설명한 바와 같다. If a lane has been detected, then in step 940 the control unit 130 calculates the curvature value of the detected lane. The curvature of the lane can be calculated, for example, using a clause model or a matching process of a curve template, as described above.

단계 945에서, 컨트롤 유닛(130)은 산출된 레인 곡률값이 미리 지정된 제1 임계값 이하인지 여부를 판단한다. 여기서 레인 곡률값은 예를 들어 차선의 휨 정도를 나타내는 값으로서, 곡률값이 작을수록 급격하게 차선이 휘는 것을 의미한다. In step 945, the control unit 130 determines whether the calculated lane curvature value is equal to or less than a predetermined first threshold value. Here, the lane curvature value is a value indicating the degree of bending of the lane, for example, and the smaller the curvature value, the more rapidly the lane is bent.

레인 곡률값이 제1 임계값 이하인 경우, 단계 950에서 컨트롤 유닛(130)은 입력되는 광각 영상과 협각 영상 중 광각 영상을 기본 영상으로 선택하고, 광각 영상을 기준으로 하여 광각 영상과 협각 영상의 오버랩 촬영 영역(260)에 대한 오버랩 영역 영상을 생성한다. 여기서, 오버랩 영역 영상이 심도 맵(depth map)으로 생성될 수 있음은 앞서 설명한 바와 같다.If the lane curvature value is equal to or less than the first threshold value, the control unit 130 selects the wide angle image and the wide angle image among the input wide angle image and the narrow angle image as a basic image in step 950, An overlap region image for the photographing region 260 is generated. Here, the overlap region image can be generated as a depth map as described above.

컨트롤 유닛(130)은 생성된 오버랩 영역 영상에서 물체를 검출을 시도하고, 해당 물체에 상응하는 충돌 예상 정보를 생성한다. The control unit 130 attempts to detect an object in the generated overlap region image and generates collision prediction information corresponding to the object.

충돌 예상 정보는 예를 들어 물체와의 거리, 물체와 충돌까지의 잔여 시간 등을 포함할 수 있다. 즉, 컨트롤 유닛(130)은 오버랩 영역 영상에서 검출된 물체와의 공간상 이격 거리를 산출한다. 산출된 이격 거리는 해당 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간을 산출하기 위한 정보로 활용될 수 있다. The collision prediction information may include, for example, a distance to an object, a time remaining until collision with the object, and the like. That is, the control unit 130 calculates the spatial separation distance from the object detected in the overlap area image. The calculated separation distance can be utilized as information for calculating the remaining time required for the collision with the object using the size change amount of the object and / or the change amount of the separation distance from the object.

또한 컨트롤 유닛(130)은 단계 955에서 기본 영상인 광각 영상에서 오버랩 촬영 영역 이외의 기타 영역(도 2의 ①과 ② 참조)에서 물체의 검출을 추가적으로 시도한다. 만일 기타 영역 영상에서 충돌 가능한 물체가 검출되면, 컨트롤 유닛(130)은 전술한 바와 같이 해당 물체에 상응하는 충돌 예상 정보를 생성한다. In step 955, the control unit 130 additionally tries to detect an object in other areas (see 1 and 2 in Fig. 2) than the overlap shooting area in the wide angle image, which is the basic image. If a collision object is detected in the other region image, the control unit 130 generates collision prediction information corresponding to the object as described above.

그러나 만일 단계 945에 의해 레인 곡률값이 제1 임계값 이상인 것으로 판단되면, 단계 960에서 컨트롤 유닛(130)은 입력되는 광각 영상과 협각 영상 중 협각 영상을 기본 영상으로 선택하고, 협각 영상을 기준으로 하여 광각 영상과 협각 영상의 오버랩 촬영 영역(260)에 대한 오버랩 영역 영상을 생성한다. However, if it is determined in step 945 that the lane curvature value is equal to or greater than the first threshold value, in step 960, the control unit 130 selects the narrow-angle image and the narrow-angle image as the basic image, Thereby generating an overlap region image for the overlap photographing region 260 of the wide angle image and the narrow angle image.

또한 컨트롤 유닛(130)은 생성된 오버랩 영역 영상에서 물체를 검출을 시도하고, 검출된 물체에 대한 충돌 예상 정보를 생성한다. The control unit 130 also attempts to detect an object in the generated overlap region image and generates collision prediction information for the detected object.

이어서, 단계 965에서, 컨트롤 유닛(130)은 기본 영상인 협각 영상에서 오버랩 영역 이외의 기타 영역(도 2의 ③ 참조)에서 물체의 검출을 추가적으로 시도하고, 물체가 검출되면, 컨트롤 유닛(130)은 전술한 바와 같이 해당 물체에 상응하는 충돌 예상 정보를 생성한다.Subsequently, in step 965, the control unit 130 additionally tries to detect an object in another area (see 3 in Fig. 2) other than the overlap area in the narrow-angle image, which is the basic image, Collision prediction information corresponding to the object as described above.

전술한 바와 같이, 광각 영상 및/또는 협각 영상에서 레인이 검출되면, 단계 940 내지 단계 965에서 설명한 바와 같이 레인 곡률값을 산출하고, 레인 곡률값과 미리 지정된 제1 임계값과 대비하여 기본 영상 및 보조 영상을 선택하며, 이들을 이용하여 검출된 물체에 대한 충돌 예상 정보를 생성할 수 있다. As described above, when a lane is detected in the wide-angle image and / or the narrow-angle image, the lane curvature value is calculated as described in steps 940 to 965, and the lane curvature value is compared with the predetermined first threshold value, And the collision prediction information for the detected object can be generated by using them.

그러나 단계 935의 판단에서 레인이 검출되지 않으면, 단계 980에서 컨트롤 유닛(130)은 산출된 경로 곡률값이 미리 지정된 제2 임계값 이하인지 여부를 판단한다. However, if the lane is not detected in step 935, the control unit 130 determines in step 980 whether or not the calculated path curvature value is equal to or less than a predetermined second threshold value.

만일 경로 곡률값이 제2 임계값 이하라면, 컨트롤 유닛(130)은 전술한 단계 950 및 955를 수행하여 충돌 예상 정보를 생성한다. If the path curvature value is less than or equal to the second threshold value, the control unit 130 performs steps 950 and 955 described above to generate collision prediction information.

그러나 만일 경로 곡률값이 제2 임계값보다 크다면면, 컨트롤 유닛(130)은 전술한 단계 960 및 965를 수행하여 충돌 예상 정보를 생성한다. However, if the path curvature value is greater than the second threshold, the control unit 130 performs steps 960 and 965 described above to generate collision prediction information.

단계 970에서, 컨트롤 유닛(130)은 단계 950 내지 단계 965에서 산출된 충돌 가능한 물체에 대한 충돌 예상 정보(예를 들어 이격 거리 및/또는 충돌까지 소요되는 잔여 시간)이 미리 지정된 제3 임계값 이하인지 여부를 판단한다. 제3 임계값이 거리값 또는/및 시간값 등으로 미리 지정될 것임은 당연하다.In step 970, the control unit 130 determines whether the collision prediction information (e.g., the separation distance and / or the remaining time to collision) for the collision object calculated in steps 950 to 965 is less than a predetermined third threshold value . It will be appreciated that the third threshold value will be specified in advance, such as a distance value and / or a time value.

만일 충돌 예상 정보가 제3 임계값 이하인 경우라면, 컨트롤 유닛(130)은 운전자를 환기시키기 위해 출력부(140)를 통해 시각적 또는/및 청각적 방법으로 알람이 실시되도록 처리한다(단계 975). If the collision prediction information is less than or equal to the third threshold value, the control unit 130 processes the alarm through the output unit 140 to ventilate the driver in a visual and / or audible manner (step 975).

상술한 충돌 경고 방법은 디지털 처리 장치에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. It is a matter of course that the above-mentioned collision warning method may be performed by an automated procedure in a time-series sequence by a built-in or installed program in the digital processing apparatus. The codes and code segments that make up the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium readable by the digital processing apparatus, and is read and executed by the digital processing apparatus to implement the method.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the present invention can be changed.

100 : 충돌 경고 장치 110 : 광각 카메라 유닛
120 : 협각 카메라 유닛 130 : 컨트롤 유닛
132 : 영상 처리부 134 : 제어부
140 : 출력부 211, 213, 215, 217 : 광각 카메라
240 : 협각 카메라 260 : 오버랩 촬영 영역
310 : 광각 영상 320 : 협각 영상
330 : 심도 맵
100: crash warning device 110: wide angle camera unit
120: coarse camera unit 130: control unit
132: image processor 134:
140: output unit 211, 213, 215, 217: wide angle camera
240: coarse camera 260: overlap photographing area
310: wide angle image 320: narrow angle image
330: depth map

Claims (17)

하나 이상의 광각 카메라를 포함하여 광각 영상을 생성하도록 차량에 구비되는 광각 카메라 유닛;
하나 이상의 협각 카메라를 포함하여 협각 영상을 생성하도록 상기 차량에 구비되는 협각 카메라 유닛; 및
상기 광각 영상과 상기 협각 영상 중 하나 이상에서 레인을 검출하고, 상기 검출된 레인의 레인 곡률값을 산출하며, 상기 레인 곡률값이 미리 지정된 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 컨트롤 유닛을 포함하는 충돌 경고 장치.
A wide angle camera unit provided in the vehicle to generate a wide angle image including at least one wide angle camera;
A coarse camera unit provided in the vehicle to generate a narrow-angle image including at least one narrow-angle camera; And
The method comprising: detecting a lane at one or more of the wide angle image and the narrow angle image, calculating a lane curvature value of the detected lane, and when the lane curvature value is equal to or less than a predetermined first threshold value, And a control unit for selecting a narrow-angle image as the basic image when the lane curvature value is greater than the first threshold value.
제1항에 있어서,
상기 컨트롤 유닛은 미리 지정된 조건에 따라 상기 제1 임계값과 비교할 레인 곡률값을 산출할 하나의 영상을 선택하되,
상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것을 특징으로 하는, 충돌 경고 장치.
The method according to claim 1,
Wherein the control unit selects one image to calculate a lane curvature value to be compared with the first threshold value according to a predetermined condition,
The predetermined condition may be specified either in a wide angle image or in a narrow angle image, or may be specified as one of the wide angle image and the narrow angle image corresponding to the traveling speed of the vehicle, or may be specified as the wide angle image, And changes to the narrow-angle image only when the curvature value of the lane is equal to or larger than a predetermined limit value.
제1항에 있어서,
상기 컨트롤 유닛은,
상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하고, 시간적으로 연속하는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출하는 것을 특징으로 하는 충돌 경고 장치.
The method according to claim 1,
The control unit includes:
Angle camera and the coarse-angle camera using the wide-angle image and the narrow-angle image, and generating a depth map for the overlap photographing region of the wide-angle camera and the narrow- And calculates a path curvature value corresponding to the movement locus.
제3항에 있어서,
상기 컨트롤 유닛은,
상기 광각 영상 및 상기 협각 영상에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 것을 특징으로 하는 충돌 경고 장치.
The method of claim 3,
The control unit includes:
When the lane is not detected in the wide angle image and the narrow angle image, if the path curvature value is equal to or less than a predetermined second threshold value, the wide angle image is selected as a basic image for generating collision prediction information, And selects a narrow-angle image as the basic image if the second threshold is greater than the second threshold.
제4항에 있어서,
하나 이상의 광각 카메라와 하나 이상의 협각 카메라는 각각의 촬영 영역에서 오버랩 촬영 영역이 존재하도록 설치되고,
상기 컨트롤 유닛은 기본 영상의 오버랩 촬영 영역과 기타 촬영 영역에 존재하는 물체에 대해 상기 충돌 예상 정보를 생성하며,
상기 오버랩 촬영 영역은 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 생성한 오버랩 영역 영상을 이용하여 충돌 예상 정보를 생성하는 것을 특징으로 하는 충돌 경고 장치.
5. The method of claim 4,
Wherein at least one wide angle camera and at least one narrow angle camera are installed such that an overlap shooting area exists in each shooting area,
Wherein the control unit generates the collision prediction information for an object existing in an overlap shooting area of the basic image and in another shooting area,
Wherein the collision prediction unit generates the collision prediction information using the overlap region image generated by synthesizing the basic image and the auxiliary image which is one of the wide angle image and the narrow angle image that are not selected as the basic image, .
제5항에 있어서,
상기 오버랩 영역 영상은 심도 맵으로 생성되는 것을 특징으로 하는 충돌 경고 장치.
6. The method of claim 5,
Wherein the overlap region image is generated as a depth map.
제5항에 있어서,
상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되고,
상기 컨트롤 유닛은 상기 충돌 예상 정보가 미리 지정된 제3 임계값 이하인 경우 출력부를 통한 알람이 실시되도록 처리하는 것을 특징으로 하는 충돌 경고 장치.
6. The method of claim 5,
Wherein the collision prediction information is generated so as to include at least one of a separation distance from the object and a remaining time until the object collides with the object,
Wherein the control unit causes the alarm to be issued through the output unit when the collision prediction information is equal to or less than a predetermined third threshold value.
제1항에 있어서,
상기 컨트롤 유닛은 광각 영상 및 협각 영상 중 하나 이상에 충돌 가능한 물체가 존재하는지 판단하고, 충돌 가능한 물체가 존재하는 경우에만 상기 레인 곡률값의 산출 및 상기 기본 영상의 선택을 수행하는 것을 특징으로 하는 충돌 경고 장치.
The method according to claim 1,
Wherein the control unit determines whether there is an object capable of colliding with at least one of the wide angle image and the narrow angle image and performs calculation of the lane curvature value and selection of the basic image only when there is a collision object. Warning device.
제1항에 있어서,
상기 광각 카메라는 어라운드 뷰 모니터링 시스템용 카메라인 것을 특징으로 하는 충돌 경고 장치.
The method according to claim 1,
Wherein the wide angle camera is a camera for an ambient view monitoring system.
충돌 경고 장치에서 수행되는 충돌 경고 방법에 있어서,
(a) 광각 카메라에 의해 생성된 광각 영상과, 협각 카메라에 의해 생성되는 협각 영상 중 협각 영상 중 하나 이상에서 레인을 검출하고, 검출된 레인의 레인 곡률값을 산출하는 단계;
(b) 산출된 레인 곡률값을 미리 지정된 제1 임계값과 비교하는 단계; 및
(c) 상기 레인 곡률값이 상기 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 단계를 포함하는 충돌 경고 방법.
A collision warning method performed by a collision warning device,
(a) detecting a lane at one or more of a wide angle image generated by the wide angle camera and a narrow angle image among the narrow angle image generated by the narrow angle camera, and calculating a lane curvature value of the detected lane;
(b) comparing the calculated lane curvature value with a predetermined first threshold value; And
(c) if the lane curvature value is equal to or less than the first threshold value, the wide angle image is selected as a basic image for generating the collision prediction information, and when the lane curvature value is larger than the first threshold value, And selecting as the primary image.
제10항에 있어서,
상기 단계 (b)는 미리 지정된 조건에 따라 선택된 영상의 레인 곡률값에 대해 수행되되,
상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것을 특징으로 하는, 충돌 경고 방법.
11. The method of claim 10,
Wherein the step (b) is performed on a lane curvature value of an image selected according to a predetermined condition,
The predetermined condition may be specified either in a wide angle image or in a narrow angle image, or may be specified as one of the wide angle image and the narrow angle image corresponding to the traveling speed of the vehicle, or may be specified as the wide angle image, And changes to the narrow-angle image only when the curvature value of the lane is equal to or greater than a predetermined limit value.
제10항에 있어서,
상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하는 단계; 및
시간적으로 연속하여 생성되는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출하는 단계를 더 포함하되,
상기 단계 (a)에서 상기 광각 영상 및 상기 협각 영상 모두에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 상기 기본 영상으로 선택되고, 상기 경로 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택되는 것을 특징으로 하는 충돌 경고 방법.
11. The method of claim 10,
Generating a depth map for an overlap shooting region of the wide angle camera and the narrow angle camera using the wide angle image and the narrow angle image; And
Further comprising the step of calculating a path curvature value corresponding to the movement trajectory of the vehicle by using the depth change of the object in the depth map continuously generated in time,
If a lane is not detected in both the wide angle image and the narrow angle image in step (a), the wide angle image is selected as the basic image when the path curvature value is equal to or less than a predetermined second threshold value, And if the second threshold value is greater than the second threshold value, the narrow-angle image is selected as the basic image.
제10항에 있어서,
미리 지정된 판단 방법에 따라 광각 영상 및 협각 영상 중 하나 이상에 존재하는 물체가 충돌 가능한 물체인 것으로 판단된 경우에만 상기 단계 (a) 내지 (c)가 실시되는 것을 특징으로 하는 충돌 경고 방법.
11. The method of claim 10,
Wherein the steps (a) to (c) are performed only when it is determined that an object existing in at least one of the wide-angle image and the narrow-angle image is a collision-capable object according to a predetermined determination method.
제12항에 있어서,
기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 상기 기본 영상과 상기 보조 영상의 오버랩 촬영 영역에 대한 오버랩 영역 영상을 생성하는 단계; 및
상기 오버랩 영역 영상과 상기 기본 영상의 기타 촬영 영역에 존재하는 물체에 대한 충돌 예상 정보를 생성하는 단계를 더 포함하되,
상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되는 것을 특징으로 하는 충돌 경고 방법.
13. The method of claim 12,
Generating an overlap region image of the overlapping image region of the basic image and the auxiliary image by synthesizing the basic image and the auxiliary image which is one of the wide angle image and the narrow angle image not selected as the basic image; And
Further comprising the step of generating collision prediction information for the overlap region image and an object existing in another imaging region of the basic image,
Wherein the collision prediction information is generated to include at least one of a separation distance from the object and a remaining time until the object collides with the object.
제14항에 있어서,
상기 충돌 예상 정보를 미리 지정된 제3 임계값과 대비하는 단계; 및
상기 충돌 예상 정보가 상기 제3 임계값 이하인 경우, 출력부를 통한 알람이 실시되도록 처리하는 단계를 더 포함하는 충돌 경고 방법.
15. The method of claim 14,
Comparing the collision prediction information with a predetermined third threshold value; And
And if the collision prediction information is equal to or less than the third threshold value, processing to cause an alarm through the output unit to be performed.
제14항에 있어서,
상기 오버랩 영역 영상은 심도 맵(depth map)으로 생성되는 것을 특징으로 하는 충돌 경고 방법.
15. The method of claim 14,
Wherein the overlap region image is generated as a depth map.
제10항 내지 제16항 중 어느 한 항에 기재된 충돌 경고 방법을 실행시키는 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium for executing the collision warning method according to any one of claims 10 to 16.
KR1020170167657A 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area KR102031635B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170167657A KR102031635B1 (en) 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170167657A KR102031635B1 (en) 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area

Publications (2)

Publication Number Publication Date
KR20190067578A true KR20190067578A (en) 2019-06-17
KR102031635B1 KR102031635B1 (en) 2019-10-14

Family

ID=67064925

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170167657A KR102031635B1 (en) 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area

Country Status (1)

Country Link
KR (1) KR102031635B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258878A (en) * 2019-07-22 2021-01-22 纬创资通股份有限公司 Driving early warning system, driving early warning method and electronic device using method
WO2021033812A1 (en) * 2019-08-22 2021-02-25 (주)캠시스 Heterogeneous stereo camera system and camera calibration method
CN113489945A (en) * 2020-12-18 2021-10-08 深圳市卫飞科技有限公司 Target positioning method, device and system and computer readable storage medium
WO2022102995A1 (en) * 2020-11-16 2022-05-19 삼성전자주식회사 Electronic apparatus and controlling method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160051321A (en) * 2014-11-03 2016-05-11 현대자동차주식회사 Active side view system of vehicle
JP5962771B2 (en) * 2012-12-12 2016-08-03 日産自動車株式会社 Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
KR101739394B1 (en) 2016-12-30 2017-05-26 재단법인대구경북과학기술원 Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof
KR101767237B1 (en) * 2016-04-27 2017-08-10 (주)한양정보통신 Apparatus and method for detecting object
KR20170111504A (en) * 2016-03-28 2017-10-12 자동차부품연구원 Method and Apparatus for Assessing an Image Match of an Around View Image for an Around View Monitor System
JP2017211734A (en) * 2016-05-24 2017-11-30 ヤンマー株式会社 Autonomous travel route generation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5962771B2 (en) * 2012-12-12 2016-08-03 日産自動車株式会社 Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
KR20160051321A (en) * 2014-11-03 2016-05-11 현대자동차주식회사 Active side view system of vehicle
KR20170111504A (en) * 2016-03-28 2017-10-12 자동차부품연구원 Method and Apparatus for Assessing an Image Match of an Around View Image for an Around View Monitor System
KR101767237B1 (en) * 2016-04-27 2017-08-10 (주)한양정보통신 Apparatus and method for detecting object
JP2017211734A (en) * 2016-05-24 2017-11-30 ヤンマー株式会社 Autonomous travel route generation system
KR101739394B1 (en) 2016-12-30 2017-05-26 재단법인대구경북과학기술원 Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
B-spline-based road model for 3D lane recognition(IEEE conference on intelligent transportation system October 2010)
미국공개특허 제2017/0113611호(Method for stereo map generation with novel optical resolutions)
미국등록특허 제8,633,810호(Rear-view multi-functional camera system)
탑뷰(top view) 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘(2010년 11월 전자공학회 논문지 제47권 SP편 제6호)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258878A (en) * 2019-07-22 2021-01-22 纬创资通股份有限公司 Driving early warning system, driving early warning method and electronic device using method
WO2021033812A1 (en) * 2019-08-22 2021-02-25 (주)캠시스 Heterogeneous stereo camera system and camera calibration method
WO2022102995A1 (en) * 2020-11-16 2022-05-19 삼성전자주식회사 Electronic apparatus and controlling method thereof
CN113489945A (en) * 2020-12-18 2021-10-08 深圳市卫飞科技有限公司 Target positioning method, device and system and computer readable storage medium

Also Published As

Publication number Publication date
KR102031635B1 (en) 2019-10-14

Similar Documents

Publication Publication Date Title
US10093247B2 (en) Enhanced front curb viewing system
US9886636B2 (en) Enhanced top-down view generation in a front curb viewing system
US9151626B1 (en) Vehicle position estimation system
US9834143B2 (en) Enhanced perspective view generation in a front curb viewing system
US9863775B2 (en) Vehicle localization system
EP1961613B1 (en) Driving support method and driving support device
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP3494434B2 (en) Parking assistance device
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
US20020154217A1 (en) Apparatus and method of recognizing vehicle travelling behind
JP4796676B2 (en) Vehicle upper viewpoint image display device
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP2004056763A (en) Monitoring apparatus, monitoring method, and program for monitor
JP2002359838A (en) Device for supporting driving
JP6471522B2 (en) Camera parameter adjustment device
JP6032034B2 (en) Object detection device
US11562576B2 (en) Dynamic adjustment of augmented reality image
KR20180020274A (en) Panel conversion
KR20180021822A (en) Rear Cross Traffic - QuickLux
CN109895697B (en) Driving auxiliary prompting system and method
JP2021013072A (en) Image processing device and image processing method
CN112334947A (en) Method for representing surroundings based on sensor and memory, display device and vehicle having display device
EP3163533A1 (en) Adaptive view projection for a vehicle camera system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant