KR102031635B1 - Collision warning device and method using heterogeneous cameras having overlapped capture area - Google Patents

Collision warning device and method using heterogeneous cameras having overlapped capture area

Info

Publication number
KR102031635B1
KR102031635B1 KR1020170167657A KR20170167657A KR102031635B1 KR 102031635 B1 KR102031635 B1 KR 102031635B1 KR 1020170167657 A KR1020170167657 A KR 1020170167657A KR 20170167657 A KR20170167657 A KR 20170167657A KR 102031635 B1 KR102031635 B1 KR 102031635B1
Authority
KR
South Korea
Prior art keywords
image
angle
wide
narrow
angle image
Prior art date
Application number
KR1020170167657A
Other languages
Korean (ko)
Other versions
KR20190067578A (en
Inventor
이윤희
이문성
김성록
Original Assignee
(주)캠시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)캠시스 filed Critical (주)캠시스
Priority to KR1020170167657A priority Critical patent/KR102031635B1/en
Publication of KR20190067578A publication Critical patent/KR20190067578A/en
Application granted granted Critical
Publication of KR102031635B1 publication Critical patent/KR102031635B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법이 개시된다. 충돌 경고 장치는, 하나 이상의 광각 카메라를 포함하여 광각 영상을 생성하도록 차량에 구비되는 광각 카메라 유닛; 하나 이상의 협각 카메라를 포함하여 협각 영상을 생성하도록 상기 차량에 구비되는 협각 카메라 유닛; 및 상기 광각 영상과 상기 협각 영상 중 하나 이상에서 레인을 검출하고, 상기 검출된 레인의 레인 곡률값을 산출하며, 상기 레인 곡률값이 미리 지정된 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 컨트롤 유닛을 포함한다.Disclosed are a collision warning apparatus and method using a heterogeneous camera having an overlapping photographing area. The collision warning device includes a wide angle camera unit provided in a vehicle to generate a wide angle image including one or more wide angle cameras; A narrow angle camera unit provided in the vehicle to generate a narrow angle image including one or more narrow angle cameras; And detecting a lane from at least one of the wide-angle image and the narrow-angle image, calculating a lane curvature value of the detected lane, and when the lane curvature value is less than or equal to a predetermined first threshold, And a control unit that selects a base image for generation and selects a narrow angle image as the base image when the lane curvature value is greater than the first threshold value.

Description

오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법{Collision warning device and method using heterogeneous cameras having overlapped capture area}Collision warning device and method using heterogeneous cameras having overlapped capture area}

본 발명은 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법에 관한 것이다. The present invention relates to a collision warning device and method using a heterogeneous camera having an overlapping photographing area.

일반적으로, 차량 내부에 탑승한 운전자의 시계는 주로 전방을 향하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당부분 가려지기 때문에 매우 한정된 시계를 가진다. In general, a driver's clock inside a vehicle is mainly forward, and the driver's left and right and rear clocks are largely obscured by the vehicle body and thus have very limited visibility.

이러한 문제를 해결하기 위하여, 사이드 미러 등의 시계 보조수단이 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있는 추세이다.In order to solve this problem, a clock aid means such as a side mirror is used, and recently, a technique including a camera means for photographing an external image of a vehicle and providing the driver to a vehicle is being applied to a vehicle.

그 중에서 차량에 복수의 카메라를 설치하여 차량 주변의 360ㅀ전방향의 영상을 보여주는 어라운드 뷰 모니터링(Around View Monitoring) 시스템(이하, AVM 시스템이라 칭함)이 있다. Among them, an around view monitoring system (hereinafter, referred to as an AVM system) that installs a plurality of cameras in a vehicle and displays a 360-degree omnidirectional image around the vehicle.

AVM 시스템은 차량 각 위치에 구비된 카메라들에 의해 촬영된 차량 주변의 영상을 조합하여, 운전자가 하늘에서 차량을 바라보는 듯한 탑뷰(Top View) 이미지를 제공함으로써, 차량 주변 장애물을 표시하고 사각지대를 해소할 수 있는 장점이 있다.The AVM system combines images around the vehicle taken by cameras at each location to provide a top view image of the driver looking at the vehicle from the sky, displaying obstacles around the vehicle and blind spots. There is an advantage that can be solved.

또한 최근에는 차량 전방의 원거리 도로 상황까지 운전자가 효과적으로 인식할 수 있도록 하기 위해 협각 카메라 시스템도 추가적으로 구비되고 있다.In addition, recently, a narrow angle camera system has been additionally provided so that the driver can effectively recognize the road situation in front of the vehicle.

그러나, 차량에 구비되는 AVM 시스템, 협각 카메라 시스템 등은 각각 개별적인 동작을 수행하기 위하여 구비되는 것일 뿐, 주행 방향에 존재하는 물체를 감지하여 충돌 가능성을 인식하기 위해 상호 보완적으로 기능하지 못하는 한계가 있었다.However, the AVM system and the narrow angle camera system, which are provided in the vehicle, are provided only to perform individual operations, respectively, and have limitations in that they cannot function complementarily to detect an object present in the driving direction and recognize a collision possibility. there was.

한국등록특허 제10-1739394호(이종 화각의 스테레오 카메라를 이용한 객체 거리 추정 장치 및 그 방법)Korean Patent No. 10-1739394 (Object distance estimation device and method using a stereo camera of different angle of view) 미국등록특허 제8,633,810호(Rear-view multi-functional camera system)US Patent No. 8,633,810 (Rear-view multi-functional camera system) 미국공개특허 제2017/0113611호(Method for stereo map generation with novel optical resolutions)US Patent Publication No. 2017/0113611 (Method for stereo map generation with novel optical resolutions)

B-spline-based road model for 3D lane recognition(IEEE conference on intelligent transportation system October 2010)B-spline-based road model for 3D lane recognition (IEEE conference on intelligent transportation system October 2010) 탑뷰(top view) 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘(2010년 11월 전자공학회 논문지 제47권 SP편 제6호)Lane and Curvature Detection Algorithm Based on Curve Template Matching Using Top View Image (Nov. 2010, Journal of the Institute of Electronics Engineers of Korea, Vol. 47, SP No. 6)

본 발명은 운행 중인 차량의 경로 곡률과 차선의 곡률을 고려하여 광각 영상과 협각 영상 중 적절한 영상을 기본 영상으로 선택함으로써, 차량의 주행 상황에 최적인 영상의 활용이 가능한 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법을 제공하기 위한 것이다.According to the present invention, a heterogeneous camera having an overlapping photographing area capable of utilizing an image optimal for driving conditions of a vehicle by selecting an appropriate image from a wide-angle image and a narrow-angle image in consideration of a path curvature and a curvature of a lane in operation. It is to provide a collision warning device and method using.

본 발명은 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들을 함께 고려함으로써 오버랩 영역에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법을 제공하기 위한 것이다.The present invention can increase the amount of information included in the overlap area by considering images captured by heterogeneous cameras having different view angle ranges together, thereby allowing heterogeneous cameras having an overlap shooting area to improve object detection accuracy. It is to provide a collision warning device and method using.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will be readily understood through the following description.

본 발명의 일 측면에 따르면, 하나 이상의 광각 카메라를 포함하여 광각 영상을 생성하도록 차량에 구비되는 광각 카메라 유닛; 하나 이상의 협각 카메라를 포함하여 협각 영상을 생성하도록 상기 차량에 구비되는 협각 카메라 유닛; 및 상기 광각 영상과 상기 협각 영상 중 하나 이상에서 레인을 검출하고, 상기 검출된 레인의 레인 곡률값을 산출하며, 상기 레인 곡률값이 미리 지정된 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 컨트롤 유닛을 포함하는 충돌 경고 장치가 제공된다.According to an aspect of the present invention, a wide-angle camera unit provided in a vehicle to generate a wide-angle image including one or more wide-angle camera; A narrow angle camera unit provided in the vehicle to generate a narrow angle image including one or more narrow angle cameras; And detecting a lane from at least one of the wide-angle image and the narrow-angle image, calculating a lane curvature value of the detected lane, and when the lane curvature value is less than or equal to a predetermined first threshold, A collision warning device is provided that includes a control unit that selects a base image for generation and selects a narrow angle image as the base image when the lane curvature value is greater than the first threshold value.

상기 컨트롤 유닛은 미리 지정된 조건에 따라 상기 제1 임계값과 비교할 레인 곡률값을 산출할 하나의 영상을 선택하되, 상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것일 수 있다.The control unit selects one image for calculating a lane curvature value to be compared with the first threshold value according to a predetermined condition, wherein the predetermined condition is previously designated as one of a wide angle image and a narrow angle image, or the vehicle moves. One of the wide-angle image and the narrow-angle image may correspond to the speed, or the wide-angle image may be designated as the wide-angle image, and may be changed to the narrow-angle image only when the curvature value of the lane detected in the wide-angle image is greater than or equal to a predetermined threshold value. .

상기 컨트롤 유닛은, 상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하고, 시간적으로 연속하는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출할 수 있다.The control unit may generate a depth map of an overlapping photographing area of the wide angle camera and the narrow angle camera by using the wide angle image and the narrow angle image, and may change a depth change of an object in a depth map continuously temporally. The path curvature value corresponding to the movement trajectory of the vehicle may be calculated.

상기 컨트롤 유닛은, 상기 광각 영상 및 상기 협각 영상에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택할 수 있다.If the lane is not detected in the wide-angle image and the narrow-angle image, the control unit selects the wide-angle image as a base image for generating collision prediction information when the path curvature value is equal to or less than a second predetermined threshold value. When the lane curvature value is larger than the second threshold value, the narrow angle image may be selected as the base image.

하나 이상의 광각 카메라와 하나 이상의 협각 카메라는 각각의 촬영 영역에서 오버랩 촬영 영역이 존재하도록 설치되고, 상기 컨트롤 유닛은 기본 영상의 오버랩 촬영 영역과 기타 촬영 영역에 존재하는 물체에 대해 상기 충돌 예상 정보를 생성하며, 상기 오버랩 촬영 영역은 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 생성한 오버랩 영역 영상을 이용하여 충돌 예상 정보를 생성할 수 있다.One or more wide-angle cameras and one or more narrow-angle cameras are installed such that an overlapping shooting area exists in each shooting area, and the control unit generates the collision prediction information for objects existing in the overlapping shooting area and other shooting areas of the base image. The overlapping photographing area may generate collision prediction information using an overlapping area image generated by combining the auxiliary image, which is one of the wide-angle image and the narrow angle image, which is not selected as the base image, and the base image.

상기 오버랩 영역 영상은 심도 맵으로 생성될 수 있다.The overlap region image may be generated as a depth map.

상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되고, 상기 컨트롤 유닛은 상기 충돌 예상 정보가 미리 지정된 제3 임계값 이하인 경우 출력부를 통한 알람이 실시되도록 처리할 수 있다.The collision prediction information is generated to include at least one of a separation distance from the object and the remaining time until the collision with the object, the control unit through the output unit if the collision prediction information is less than a third predetermined threshold value; The alarm can be processed to be triggered.

상기 컨트롤 유닛은 광각 영상 및 협각 영상 중 하나 이상에 충돌 가능한 물체가 존재하는지 판단하고, 충돌 가능한 물체가 존재하는 경우에만 상기 레인 곡률값의 산출 및 상기 기본 영상의 선택을 수행할 수도 있다.The control unit may determine whether there is a collidable object in at least one of the wide-angle image and the narrow-angle image, and calculate the lane curvature value and select the base image only when there is a collidable object.

상기 광각 카메라는 어라운드 뷰 모니터링 시스템용 카메라일 수 있다.The wide angle camera may be a camera for an around view monitoring system.

본 발명의 다른 측면에 따르면, 충돌 경고 장치에서 수행되는 충돌 경고 방법에 있어서, (a) 광각 카메라에 의해 생성된 광각 영상과, 협각 카메라에 의해 생성되는 협각 영상 중 협각 영상 중 하나 이상에서 레인을 검출하고, 검출된 레인의 레인 곡률값을 산출하는 단계; (b) 산출된 레인 곡률값을 미리 지정된 제1 임계값과 비교하는 단계; 및 (c) 상기 레인 곡률값이 상기 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 단계를 포함하는 충돌 경고 방법이 제공된다.According to another aspect of the present invention, in the collision warning method performed in the collision warning device, (a) a lane in at least one of the wide angle image generated by the wide angle camera and the narrow angle image of the narrow angle image generated by the narrow angle camera. Detecting and calculating lane curvature values of the detected lanes; (b) comparing the calculated lane curvature value with a first predetermined threshold value; And (c) selecting the wide-angle image as a base image for generating collision prediction information when the lane curvature value is less than or equal to the first threshold value, and when the lane curvature value is larger than the first threshold value, narrow-angle image is selected. There is provided a collision warning method comprising the step of selecting as the base image.

상기 단계 (b)는 미리 지정된 조건에 따라 선택된 영상의 레인 곡률값에 대해 수행되되, 상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것일 수 있다.The step (b) is performed on the lane curvature value of the selected image according to a predetermined condition, wherein the predetermined condition is previously designated as one of a wide angle image and a narrow angle image, or the wide angle image to correspond to the moving speed of the vehicle. And the narrow angle image, or the wide angle image may be changed to the narrow angle image only when the curvature value of the lane detected in the wide angle image is greater than or equal to a predetermined threshold value.

상기 충돌 경고 방법은, 상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하는 단계; 및 시간적으로 연속하여 생성되는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출하는 단계를 더 포함할 수 있다. 다만, 상기 단계 (a)에서 상기 광각 영상 및 상기 협각 영상 모두에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 상기 기본 영상으로 선택되고, 상기 경로 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택되도록 미리 설정될 수 있다.The collision warning method may further include generating a depth map of an overlapping photographing area between the wide angle camera and the narrow angle camera using the wide angle image and the narrow angle image; And calculating a path curvature value corresponding to a moving trajectory of the vehicle using a change in depth of an object in a depth map continuously generated in time. However, if the lane is not detected in both the wide-angle image and the narrow-angle image in the step (a), when the path curvature value is less than or equal to a second predetermined threshold, the wide-angle image is selected as the base image, and the path curvature. If the value is larger than the second threshold value, the narrow angle image may be preset to be selected as the base image.

미리 지정된 판단 방법에 따라 광각 영상 및 협각 영상 중 하나 이상에 존재하는 물체가 충돌 가능한 물체인 것으로 판단된 경우에만 상기 단계 (a) 내지 (c)가 실시되도록 할 수 있다.According to a predetermined determination method, steps (a) to (c) may be performed only when it is determined that an object present in at least one of the wide-angle image and the narrow-angle image is a collidable object.

상기 충돌 경고 방법은, 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 상기 기본 영상과 상기 보조 영상의 오버랩 촬영 영역에 대한 오버랩 영역 영상을 생성하는 단계; 및 상기 오버랩 영역 영상과 상기 기본 영상의 기타 촬영 영역에 존재하는 물체에 대한 충돌 예상 정보를 생성하는 단계를 더 포함할 수 있다. 여기서, 상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성될 수 있다. 상기 오버랩 영역 영상은 심도 맵으로 생성될 수 있다.The collision warning method may include: generating an overlap region image of an overlapping photographing area between the base image and the auxiliary image by synthesizing the auxiliary image, which is one of the wide-angle image and the narrow angle image, which is not selected as the base image, and the base image; ; And generating collision prediction information about an object present in the overlap region image and the other photographing region of the base image. Here, the collision prediction information may be generated to include at least one of a separation distance from the object and a remaining time until the collision with the object. The overlap region image may be generated as a depth map.

상기 충돌 경고 방법은, 상기 충돌 예상 정보를 미리 지정된 제3 임계값과 대비하는 단계; 및 상기 충돌 예상 정보가 상기 제3 임계값 이하인 경우, 출력부를 통한 알람이 실시되도록 처리하는 단계를 더 포함할 수 있다.The collision warning method may include: comparing the collision prediction information with a third predetermined threshold value; And processing the alarm through an output unit when the collision prediction information is equal to or less than the third threshold value.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 운행 중인 차량의 경로 곡률과 차선의 곡률을 고려하여 광각 영상과 협각 영상 중 적절한 영상을 기본 영상으로 선택함으로써, 차량의 주행 상황에 최적인 영상의 활용이 가능한 효과가 있다.According to an embodiment of the present invention, by selecting an appropriate image from a wide angle image and a narrow angle image as a basic image in consideration of the path curvature of the vehicle and the curvature of the lane, it is possible to utilize an image that is optimal for driving conditions of the vehicle. have.

또한, 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들을 함께 고려함으로써 오버랩 영역에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 효과도 있다.In addition, by considering the images captured by the heterogeneous cameras having different viewing angles together, the amount of information included in the overlap area can be increased, thereby improving the object detection accuracy.

도 1은 본 발명의 일 실시예에 따른 충돌 경고 장치의 블록 구성도.
도 2는 본 발명의 일 실시예에 따른 광각 카메라부와 협각 카메라부의 촬영 영상을 설명하기 위한 도면.
도 3 및 도 4는 본 발명의 일 실시예에 따른 광각 영상과 협각 영상의 합성 방법을 설명하기 위한 도면.
도 5는 본 발명의 일 실시예에 따른 오버랩 영역 영상을 이용한 경로 곡률(Path curvature) 산출 방법을 설명하기 위한 도면.
도 6 및 도 7은 본 발명의 일 실시예에 따른 레인 곡률(Lane curvature) 산출 방법을 설명하기 위한 도면.
도 8은 본 발명의 일 실시예에 따른 다양한 조건에 따른 기본 영상과 보조 영상 결정 기법을 설명하기 위한 도면.
도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도.
1 is a block diagram of a collision warning device according to an embodiment of the present invention.
2 is a view for explaining a captured image of the wide-angle camera unit and the narrow-angle camera unit according to an embodiment of the present invention.
3 and 4 are views for explaining a synthesis method of a wide-angle image and a narrow-angle image according to an embodiment of the present invention.
5 is a view for explaining a path curvature calculation method using an overlap region image according to an embodiment of the present invention.
6 and 7 are views for explaining a lane curvature calculation method according to an embodiment of the present invention.
8 is a diagram for describing a primary image and an auxiliary image determination technique according to various conditions according to an embodiment of the present invention.
9 to 11 are flowcharts showing a collision warning method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, terms such as a first threshold value, a second threshold value, and the like, which will be described later, may be pre-specified as threshold values that are substantially different or partially the same value, but may be confused when expressed with the same word. For the sake of convenience, the terms "first" and "second" will be written together for convenience of classification.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. As used herein, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.In addition, the components of the embodiments described with reference to the drawings are not limited to the corresponding embodiments, and may be implemented to be included in other embodiments within the scope of the technical spirit of the present invention. Even if the description is omitted, it is obvious that a plurality of embodiments may be reimplemented into one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same components regardless of reference numerals will be given the same or related reference numerals and redundant description thereof will be omitted. In the following description of the present invention, if it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 충돌 경고 장치의 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 광각 카메라부와 협각 카메라부의 촬영 영상을 설명하기 위한 도면이다. 도 3 및 도 4는 본 발명의 일 실시예에 따른 광각 영상과 협각 영상의 합성 방법을 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시예에 따른 오버랩 영역 영상을 이용한 경로 곡률(Path curvature) 산출 방법을 설명하기 위한 도면이다. 도 6 및 도 7은 본 발명의 일 실시예에 따른 레인 곡률(Lane curvature) 산출 방법을 설명하기 위한 도면이고, 도 8은 본 발명의 일 실시예에 따른 다양한 조건에 따른 기본 영상과 보조 영상 결정 기법을 설명하기 위한 도면이며, 도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도이다.1 is a block diagram of a collision warning device according to an embodiment of the present invention, Figure 2 is a view for explaining the captured image of the wide-angle camera unit and the narrow-angle camera unit according to an embodiment of the present invention. 3 and 4 are views for explaining a synthesis method of a wide-angle image and a narrow image according to an embodiment of the present invention, Figure 5 is a path curvature using an overlap region image according to an embodiment of the present invention ) Is a view for explaining the calculation method. 6 and 7 illustrate a method of calculating a lane curvature according to an embodiment of the present invention, and FIG. 8 illustrates determination of a primary image and an auxiliary image according to various conditions according to an embodiment of the present invention. 9 to 11 are flowcharts illustrating a collision warning method according to an embodiment of the present invention.

도 1을 참조하면, 충돌 경고 장치(100)는 광각 카메라 유닛(110), 협각 카메라 유닛(120), 컨트롤 유닛(130) 및 출력부(140)를 포함할 수 있다.Referring to FIG. 1, the collision warning device 100 may include a wide angle camera unit 110, a narrow angle camera unit 120, a control unit 130, and an output unit 140.

광각 카메라 유닛(110) 및 협각 카메라 유닛(120) 각각은 미리 지정된 조건에서 또는/및 실시간으로 광각 영상 또는 협각 영상을 생성하도록 컨트롤 유닛(130)의 제어부(134)에 의해 제어될 수 있다.Each of the wide-angle camera unit 110 and the narrow-angle camera unit 120 may be controlled by the controller 134 of the control unit 130 to generate the wide-angle image or the narrow-angle image in a predetermined condition and / or in real time.

광각 카메라 유닛(110)에는 하나 이상의 광각 카메라와, 각 광각 카메라의 촬영 동작에 따른 촬영 이미지(즉, 광각 영상)를 생성하는 처리부가 포함될 수 있다. 처리부에 의해 생성된 광각 영상은 컨트롤 유닛(130) 등에서 이용될 수 있도록 저장부(도시되지 않음)에 저장될 수 있다. The wide-angle camera unit 110 may include one or more wide-angle cameras, and a processor configured to generate a captured image (ie, a wide-angle image) according to a shooting operation of each wide-angle camera. The wide-angle image generated by the processor may be stored in a storage unit (not shown) for use in the control unit 130 or the like.

광각 카메라는 예를 들어 AVM 시스템용 카메라로서 차량의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치된 광각 카메라들(211, 213, 215, 217)일 수도 있다.The wide-angle cameras are, for example, cameras for AVM systems, which are wide-angle cameras 211, 213, 215, and 217 respectively installed in a plurality of places of the vehicle (eg, positions designated to photograph front, rear, left, and right sides, respectively). It may be.

광각 카메라(211, 213, 215, 217)는 도 2의 (d)에 예시된 바와 같이 차량에 근접한 넓은 범위의 영역을 촬영 영역으로 할 수 있도록 예를 들어 화각이 180도 내외인 광각 렌즈(또는 어안 렌즈)가 이용되는 카메라이다. 광각 카메라에 의해 생성된 광각 영상은 도 2의 (a)와 (b)에 각각 예시되어 있다. The wide-angle cameras 211, 213, 215, and 217 are, for example, wide-angle lenses having an angle of view of about 180 degrees (or about 180 degrees) so that a wide range of areas close to the vehicle can be taken as illustrated in FIG. Fisheye lens) is used. Wide-angle images generated by the wide-angle camera are illustrated in FIGS. 2A and 2B, respectively.

협각 카메라 유닛(120)에는 하나 이상의 협각 카메라와, 각 협각 카메라의 촬영 동작에 따른 촬영 이미지(즉, 협각 영상)를 생성하는 처리부가 포함될 수 있다. 처리부에 의해 생성된 협각 영상은 컨트롤 유닛(130) 등에서 이용될 수 있도록 저장부(도시되지 않음)에 저장될 수 있다.The narrow angle camera unit 120 may include one or more narrow angle cameras and a processor configured to generate a captured image (ie, a narrow angle image) according to a photographing operation of each narrow angle camera. The narrow angle image generated by the processor may be stored in a storage unit (not shown) for use in the control unit 130 or the like.

협각 카메라(240)는 도 2의 (d)에 예시된 바와 같이 광각 카메라에 비해 상대적으로 차량에서 먼 영역까지 촬영 영역으로 할 수 있도록 예를 들어 30 내지 50도의 화각을 가지는 협각 렌즈가 이용되는 카메라이다. 협각 카메라에 의해 생성된 촬영 이미지는 도 2의 (c)에 예시되어 있다. The narrow angle camera 240 is, for example, a camera in which a narrow angle lens having an angle of view of 30 to 50 degrees is used, so that the photographing area can be an area far from the vehicle as compared to the wide angle camera as illustrated in (d) of FIG. 2. to be. The captured image generated by the narrow angle camera is illustrated in Fig. 2C.

도 2의 (d)에는 차량의 전방을 촬영하기 위한 하나의 협각 카메라(240)가 구비된 경우가 예시되었으나, 협각 카메라가 차량의 후방 등 다른 방향을 촬영할 수 있도록 하나 이상 더 구비될 수 있음은 당연하다.In FIG. 2 (d), the case where one narrow angle camera 240 for photographing the front of the vehicle is provided is illustrated, but one or more narrow angle cameras may be further provided to photograph another direction such as the rear of the vehicle. Of course.

컨트롤 유닛(130)은 영상 처리부(132) 및 제어부(134)를 포함할 수 있다.The control unit 130 may include an image processor 132 and a controller 134.

영상 처리부(132)는 광각 영상과 협각 영상에 촬영된 물체가 충돌 가능한 물체가 존재하는지 여부를 판단하고, 충돌 가능한 물체로 판단되면 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출한다.The image processor 132 determines whether there is an object colliding with the object photographed in the wide-angle image and the narrow-angle image. When the image processor 132 determines that the collidable object exists, the image processor 132 generates a depth map using the wide-angle image and the narrow-angle image. The path curvature value is calculated using the generated depth map.

또한, 영상 처리부(132)는 광각 영상 및/또는 협각 영상을 이용하여 차량 주변의 차선을 인식하고, 차선의 곡률값을 산출하여 기본 영상과 보조 영상을 각각 선정한다. In addition, the image processor 132 recognizes lanes around the vehicle by using the wide-angle image and / or the narrow-angle image, calculates curvature values of the lanes, and selects the primary image and the auxiliary image, respectively.

또한 영상 처리부(132)는 기본 영상과 보조 영상 간의 오버랩 영역 및 기본 영상의 기타 영역에 존재하는 물체와의 충돌 예상 정보를 생성한다. 충돌 예상 정보는 후술되는 바와 같이, 물체와의 이격 거리, 충돌까지의 잔여 시간 등 중 하나 이상을 포함할 수 있다.In addition, the image processor 132 generates collision prediction information with an object existing in an overlap region between the primary image and the secondary image and other regions of the primary image. The collision prediction information may include one or more of a distance from the object, a remaining time until the collision, and the like, as described below.

이하, 영상 처리부(132)의 동작을 구체적으로 설명한다.Hereinafter, the operation of the image processor 132 will be described in detail.

우선, 영상 처리부(132)는 광각 카메라에 의해 생성된 광각 영상과 협각 카메라에 의해 생성된 협각 영상에 촬영된 물체를 인식하고 인식된 물체와 충돌 가능성이 있는지 여부를 판단한다. First, the image processor 132 recognizes an object photographed in the wide angle image generated by the wide angle camera and the narrow angle image generated by the narrow angle camera, and determines whether there is a possibility of collision with the recognized object.

예를 들어, 영상 처리부(132)는 촬영된 물체가 실시간 생성되는 광각 영상 또는/및 협각 영상을 참조할 때 크기가 증가되는 변화를 가지는 물체인지, 해당 물체가 충돌 경고 장치(100)가 구비된 자기 차량과 동일한 레인(예를 들어, 차선, 주차 구획선 등) 내에 존재하는지 등을 고려하여 해당 물체가 충돌 가능한 물체인지 여부를 판단하도록 미리 설정될 수 있다. For example, the image processor 132 is an object having a change that increases in size when the photographed object refers to a wide angle image and / or a narrow angle image generated in real time, and the object is provided with the collision warning device 100. It may be set in advance to determine whether the object is a colliding object in consideration of whether it exists in the same lane (for example, a lane, a parking partition line, etc.) as the own vehicle.

여기서, 광각 영상 및/또는 협각 영상에서 에지 검출 등의 영상 처리 기법에 의해 레인이 검출될 수 있으며, 이는 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다. 다만, 광각 영상의 경우 정확한 차선 검출 및 물체 검출이 가능하도록 하기 위해 탑뷰 이미지로 변환하는 처리 등이 실시될 수도 있다.Here, the lane may be detected by an image processing technique such as edge detection in the wide-angle image and / or the narrow-angle image, which is obvious to those skilled in the art, and thus description thereof will be omitted. However, in the case of the wide-angle image, a process of converting the image into the top view image may be performed to enable accurate lane detection and object detection.

예를 들어, 영상 처리부(132)는 광각 영상 또는/및 협각 영상에 존재하는 물체가 자기 차량을 향하는 방향으로 지속적으로 그 크기가 증가하도록 변화된다면 충돌 가능성이 있는 것으로 판단할 수 있다. 그러나, 해당 물체의 크기가 점차 감소하거나, 그 크기가 증가하지만 차량을 비켜가는 방향으로 그 크기가 증가하는 경우라면 충돌 가능성이 없는 것으로 판단할 수 있을 것이다.For example, the image processor 132 may determine that there is a possibility of collision if an object existing in the wide-angle image and / or the narrow-angle image is changed so that its size continuously increases in the direction toward the vehicle. However, if the size of the object is gradually reduced or the size increases but the size increases in the direction away from the vehicle, it may be determined that there is no possibility of collision.

충돌 가능한 물체로 판단되면, 영상 처리부(132)는 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출할 수 있다.If it is determined that the object is collidable, the image processor 132 may generate a depth map using the wide-angle image and the narrow-angle image, and calculate a path curvature value using the generated depth map.

도 3의 (a)와 (b)에 각각 예시된 바와 같이, 광각 영상(310)은 상대적으로 짧은 범위 내의 물체를 검출하기에 용이하도록 생성되고, 협각 영상(320)은 상대적으로 먼 거리의 물체를 검출하기에 용이하도록 생성된다. 이때, 광각 영상(310)과 협각 영상(320) 간에는 오버랩 촬영 영역(260)이 존재하도록 광각 카메라와 협각 카메라가 각각 차량에 설치된다(도 2 (d) 참조).As illustrated in FIGS. 3A and 3B, the wide-angle image 310 is generated to easily detect an object within a relatively short range, and the narrow-angle image 320 is a relatively long distance object. It is created to be easy to detect. In this case, the wide-angle camera and the narrow-angle camera are respectively installed in the vehicle such that the overlap photographing area 260 exists between the wide-angle image 310 and the narrow-angle image 320 (see FIG. 2 (d)).

영상 처리부(132)는 광각 카메라와 협각 카메라를 스테레오 비젼으로 활용하여 스테레오 매핑 방식으로 심도 맵(depth map)을 생성한다. 즉, 영상 처리부(132)는 광각 카메라와 협각 카메라 각각에서 생성된 광각 영상(310)과 협각 영상(320)을 이용하여 영상 내의 각 물체의 깊이에 대한 정보를 획득할 수 있는 심도 맵(depth map)(330)을 생성한다(도 4 참조). The image processor 132 generates a depth map by using a wide angle camera and a narrow angle camera as a stereo vision using a stereo mapping method. That is, the image processor 132 may use a wide angle image 310 and a narrow angle image 320 generated by each of the wide angle camera and the narrow angle camera to obtain information about a depth of each object in the image. 330 is generated (see FIG. 4).

광각 영상(310)과 협각 영상(320)의 형상이 상이하기 때문에, 심도 맵(330)을 생성하기 위해 룩업 테이블(LUT) 등을 이용한 픽셀 매핑 방식 등으로 광각 영상(310)을 협각 영상(320)과 동일 또는 유사한 형식(예를 들어 평면 이미지 형식)으로 변환하는 처리가 선행될 수도 있음은 당연하다. 심도 맵(330)을 생성하는 구체적인 방법 등은 미국등록특허 제8,633,810호, 미국공개특허 제2017/0113611호 등에 상세히 설명되어 있으므로 이에 대한 설명은 생략한다.Since the shapes of the wide-angle image 310 and the narrow-angle image 320 are different from each other, the wide-angle image 310 is narrowed to the narrow-angle image 320 by a pixel mapping method using a look-up table (LUT) or the like to generate the depth map 330. Of course, the conversion to the same or similar format (for example, planar image format) may be preceded. A detailed method of generating the depth map 330 is described in detail in US Patent No. 8,633,810, US Publication No. 2017/0113611, and so on, the description thereof will be omitted.

이외에도 광각 영상(310)과 협각 영상(320)의 픽셀을 매핑하여 합성 처리하는 방식은 다양하며, 일 예로 하기 수학식 1 내지 3을 이용하여 심도 맵(330)의 생성 등을 위한 합성 처리가 이루어질 수도 있다.In addition, there are various methods of mapping and synthesizing pixels of the wide-angle image 310 and the narrow-angle image 320. For example, a synthesis process for generating the depth map 330 may be performed using Equations 1 to 3 below. It may be.

참고로, 수학식 1은 광각 카메라의 H 행렬(즉, H1)을 산출하여 실 세계의 평면 바닥과 광각 카메라의 관계를 구하기 위한 것이고, 수학식 2는 협각 카메라의 H 행렬(즉, H2)을 산출하여 실 세계의 평면 바닥과 협각 카메라의 관계를 구하기 위한 것이다. For reference, Equation 1 is to calculate the H matrix of the wide angle camera (ie, H 1 ) to obtain the relationship between the flat floor of the real world and the wide angle camera, and Equation 2 is the H matrix of the narrow angle camera (ie, H 2). ) To calculate the relationship between the flat floor of the real world and the narrow angle camera.

여기서, x, y는 촬영 영상에서의 픽셀 좌표이고, x', y'는 차량에서 이격된 거리, 위치 등에 대한 실세계 좌표(측정 좌표)를 나타내며, w는 미리 지정된 가중치이다. 따라서, 수학식 1 및 2에 의해 미지의 행렬인 H1, H2가 각각 산출될 수 있다.Here, x and y are pixel coordinates in the captured image, x 'and y' represent real world coordinates (measurement coordinates) for distances, positions, etc. spaced from the vehicle, and w is a predetermined weight. Accordingly, unknown matrices H 1 and H 2 may be calculated by Equations 1 and 2, respectively.

또한 산출된 H1과 H2가 동일한 대상(즉, 평면 바닥)을 기준하여 산출된 것으로서, 광각 카메라에 의한 광각 영상과 협각 카메라에 의한 협각 영상은 하기 수학식 3과 같은 관계를 가지게 된다. In addition, the calculated H 1 and H 2 are calculated based on the same object (that is, the flat bottom), and the wide angle image by the wide angle camera and the narrow angle image by the narrow angle camera have a relationship as in Equation 3 below.

따라서, 협각 영상의 임의의 픽셀 위치(PNarrow)는 수학식 3에 의해 광각 영상의 한 픽셀 위치(PWide)로 투영될 수 있고, 영상 처리부(132)는 이러한 관계를 이용하여 광각 영상과 협각 영상의 오버랩 영역(260)의 합성 처리한 오버랩 영역 영상을 생성할 수 있다. 마찬가지로, 광각 영상의 한 픽셀 위치가 협각 영상의 한 픽셀 위치로 투영될 수도 있음은 당연하다. 이때, 광각 영상이 미리 지정된 룩업 테이블(LUT)을 이용하여 통상의 렌즈로 촬영된 영상의 형태로 보정되는 처리가 선행된 후 협각 영상의 각 픽셀에 매핑 처리될 수도 있을 것이다.Accordingly, an arbitrary pixel position P Narrow of the narrow angle image may be projected to one pixel position P Wide of the wide angle image by Equation 3, and the image processor 132 uses this relationship to narrow the wide angle image and the narrow angle. An overlap region image obtained by synthesizing the overlap region 260 of the image may be generated. Similarly, it is obvious that one pixel position of the wide angle image may be projected to one pixel position of the narrow angle image. In this case, the wide-angle image may be mapped to each pixel of the narrow-angle image after a process of correcting a wide-angle image in the form of an image captured by a conventional lens using a predetermined lookup table (LUT) is preceded.

영상 처리부(132)는 생성한 심도 맵(330)을 이용하여 차량의 운행에 따른 경로 곡률값을 산출한다. The image processor 132 calculates a path curvature value according to the driving of the vehicle using the generated depth map 330.

도 5에 예시된 바와 같이, 차량의 운행은 전진 직진, 전진 우회전, 전진 좌회전, 후진 직진, 후진 우회전 및 후진 우회전 등의 방향으로 이루어질 수 있다. As illustrated in FIG. 5, the driving of the vehicle may be performed in the direction of forward straight, forward right turn, forward left turn, backward straight, backward right turn and backward right turn.

각 경우에서 차량의 운행에 따른 경로 곡률값을 산출하기 위해 영상 처리부(132)가 이용하는 심도 맵(330)은 전진 또는 후진에 상응하도록 생성된 합성 영상이다. 즉, 심도 맵(330)은 차량이 전진 방향의 운행인 경우 차량 전방이 촬영된 광각 영상과 협각 영상의 심도 맵이고, 차량이 후진 방향의 운행인 경우 차량 후방이 촬영된 광각 영상과 협각 영상의 심도 맵이다. In each case, the depth map 330 used by the image processor 132 to calculate a path curvature value according to the driving of the vehicle is a composite image generated to correspond to the forward or backward direction. That is, the depth map 330 is a depth map of the wide-angle image and the narrow-angle image in which the front of the vehicle is photographed when the vehicle is driving in the forward direction, and the wide-angle image and the narrow-angle image of the rear of the vehicle is photographed when the vehicle is driving in the reverse direction. Depth map.

이때, 차량이 전진인지 후진인지에 관한 정보는 예를 들어 컨트롤 유닛(130)이 차량의 제어 시스템(예를 들어 ECU), GPS 시스템, 지자기 센서 등 중 하나 이상으로부터 제공받아 인식할 수 있고, 영상 처리부(132)는 적절한 영상을 이용하여 심도 맵(330)을 생성할 수 있을 것이다. In this case, the information about whether the vehicle is moving forward or backward may be recognized by the control unit 130, for example, provided from one or more of a vehicle control system (eg ECU), a GPS system, a geomagnetic sensor, and the like. The processor 132 may generate the depth map 330 using an appropriate image.

차량이 임의의 방향으로 이동되는 동안 광각 영상(310)과 협각 영상(320)이 실시간 생성되며 영상 처리부(132)는 이들을 이용하여 심도 맵(330)을 실시간 생성한다. 영상 처리부(132)는 실시간 생성되는 심도 맵(330) 내의 물체의 심도값 변화(즉, 상대 거리의 변화)를 이용하여 차량의 운행에 따른 경로 곡률값을 산출할 수 있다. The wide-angle image 310 and the narrow-angle image 320 are generated in real time while the vehicle is moving in an arbitrary direction, and the image processor 132 generates the depth map 330 in real time. The image processor 132 may calculate a path curvature value according to the driving of the vehicle by using a depth value change (ie, a change in relative distance) of an object in the depth map 330 generated in real time.

예를 들어, 도 5의 ⓓ와 같은 심도 맵(330)이 생성된 상태에서 차량이 ⓐ 방향으로 움직이면, 영상 처리부(132)는 전방의 물체 ①, ②, ③에 대해서는 오차 범위 내에서 차이가 없거나 공통적으로 접근하는 방향임을 인식하는 심도의 변화를 인식할 것이다. For example, when the vehicle moves in the direction ⓐ while the depth map 330 such as ⓓ of FIG. 5 is generated, the image processor 132 has no difference within the error range for the objects ①, ②, and ③ in front of it. You will notice a change in depth that recognizes a common approach.

그러나, 차량이 ⓑ 방향으로 움직이면, 영상 처리부(132)는 전방의 물체 ①의 심도가 가장 크게 깊어지고(즉, 상대적으로 가장 멀어지는), ③의 심도가 가장 얕아지는(즉, 상대적으로 가장 가까워지는) 방향으로 각 물체에 심도 변화가 발생됨을 인식할 수 있다.However, when the vehicle moves in the ⓑ direction, the image processing unit 132 becomes the deepest (ie, relatively farthest) of the object ① in front of it, and the shallowest (ie, relatively closest) to ③. It can be recognized that the depth change occurs in each object in the direction of).

즉, 영상 처리부(132)는 연속적으로 생성되는 심도 맵(330)에서 각 물체의 심도 변화와 각 물체의 이동 표시되는 위치 변화를 이용하여 차량이 어떤 움직임 및 궤적으로 이동하는지를 인식할 수 있고, 이를 통해 차량 자체의 움직임 방향의 흐름을 나타내는 경로 곡률값을 산출할 수 있다. 연속되는 움직임의 크기별로 경로 곡률값을 산출하기 위한 산출 기준은 미리 지정될 수 있다. That is, the image processor 132 may recognize the movement and the trajectory of the vehicle by using the depth change of each object and the position change indicated by the movement of each object in the continuously generated depth map 330. Through this, a path curvature value indicating a flow in the direction of movement of the vehicle itself may be calculated. The calculation criterion for calculating the path curvature value for each magnitude of the continuous motion may be specified in advance.

여기서 경로 곡률값은 차량의 회전 움직임량이 큰지 작은지를 나타내는 값이며, 경로 곡률값이 작을수록 차량이 급격하게 회전하는 움직임을 가지는 것을 나타낸다. Here, the path curvature value is a value indicating whether the amount of rotational movement of the vehicle is large or small, and the smaller the path curvature value, the faster the vehicle rotates.

아울러, 심도 맵(330)에서 각 물체의 심도 변화와 위치 변화를 이용하여 차량의 움직임에 따른 경로 곡률값을 산출함에 있어, 심도 맵(330)에 포함된 특정 물체 스스로의 이동으로 인한 큰 변화량이 포함되어 경로 곡률값이 왜곡되어 산출됨을 방지하기 위해, 심도 맵(330)에 포함된 각 물체의 변화량이 주변 물체에 비해 미리 지정된 기준값 이상으로 크게 변화되는 물체의 변화량은 제외하고 경로 곡률값을 산출하도록 미리 지정될 수도 있다.In addition, in calculating the path curvature value according to the movement of the vehicle by using the depth change and the position change of each object in the depth map 330, a large amount of change due to the movement of a specific object itself included in the depth map 330. To prevent the path curvature value from being distorted and calculated, the path curvature value is calculated except for a change amount of an object in which the change amount of each object included in the depth map 330 is significantly changed by more than a predetermined reference value compared to the surrounding object. May be specified in advance.

다음으로, 영상 처리부(132)는 광각 영상(310) 또는/및 협각 영상(320)에서 검출되는 레인의 곡률값을 산출한다. 여기서, 레인은 차량의 움직임을 유도하기 위해 바닥면에 도시된 일체의 표시 정보를 포함하며, 예를 들어 차량이 주행하는 도로의 차선(도 6의 (a) 참조), 주차장의 주차 구획선(도 6의 (b) 참조) 등일 수도 있다. Next, the image processor 132 calculates a curvature value of the lane detected in the wide angle image 310 and / or the narrow angle image 320. Here, the lane includes all the display information shown on the floor to induce the movement of the vehicle, for example, the lane of the road on which the vehicle travels (see Fig. 6 (a)), the parking partition line of the parking lot (Fig. 6 (b)).

영상 처리부(132)는 도 7의 (a)에 예시된 바와 같이, 협각 영상(320)에서 레인을 검출하고, 검출된 레인의 곡률값을 산출할 수 있다. 차선의 곡률값은 예를 들어 일반적으로 사용되는 하나의 B-스프라인(spline) 곡선에 의한 클로소이드 모델(clothoid model)을 가로 방향으로 확장하고, 두 개의 B-스프라인 곡선으로 도로의 높이 프로파일을 모델링하는 등의 3D 모델을 이용하여 산출될 수 있다. As illustrated in FIG. 7A, the image processor 132 may detect lanes from the narrow angle image 320 and calculate a curvature value of the detected lanes. The curvature value of the lane extends horizontally, for example, the clothoid model by one commonly used B-spline curve, and the height of the road by two B-spline curves. It can be calculated using a 3D model, such as modeling the profile.

평면 도로를 가정한 클로소이드 모델은 하기 수학식 4로 표현될 수 있다. The clothoid model assuming a flat road may be expressed by Equation 4 below.

참고로, 수학식 4에서 X(L)은 길이 L에서 차선의 중심점의 위치, xoffset는 자기 차량(ego vehicle)의 차선과의 거리, Δψ는 요 앵글(yaw angle), c0는 차선의 곡률, c1은 곡률 변화량(클로소이드 파라미터)을 의미하며, 여기서 차선의 폭은 미리 지정된다. 클로소이드 모델을 이용하여 인식된 차선의 곡률값(c0)을 산출하는 방법 등에 대해서는 관련 논문(B-spline-based road model for 3D lane recognition, IEEE conference on intelligent transportation system October 2010)에 이미 상세히 기재되어 있으므로 이에 대한 설명은 생략한다.For reference, in Equation 4, X (L) is the position of the center point of the lane at length L, x offset is the distance from the lane of the ego vehicle, Δψ is the yaw angle, and c 0 is the distance of the lane. The curvature, c 1 means the curvature change amount (closoidal parameter), where the lane width is predetermined. The B-spline-based road model for 3D lane recognition, IEEE conference on intelligent transportation system October 2010 has already been described in detail for calculating the curvature value (c 0 ) of a recognized lane using a clothoid model. Since it is described, a description thereof will be omitted.

또한, 영상 처리부(132)는 도 7의 (b)에 예시된 바와 같이 광각 영상(310)을 탑뷰 이미지로 변환한 후 탑뷰 이미지를 대상으로 레인을 검출하고 검출된 레인의 곡률값을 산출할 수도 있다. 탑뷰 이미지에서 인식되는 레인이 직선 차선인지 곡선 차선인지 여부를 판별하고, 곡선 차선인 경우 곡선 템플릿의 정합 과정 등을 통해 곡률을 검출하는 기법은 관련 논문(탑뷰 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘 - 2010년 11월 전자공학회 논문지 제47권 SP편 제6호) 등에 상세히 설명되었으므로 이에 대한 설명은 생략한다.In addition, the image processor 132 may convert the wide-angle image 310 into a top view image and then detect lanes for the top view image and calculate curvature values of the detected lanes as illustrated in (b) of FIG. 7. have. Determination of whether a lane recognized in the top view image is a straight lane or a curved lane, and in the case of a curved lane, a method of detecting curvature through a matching process of a curve template is related to a lane and curvature based on matching a curve template using a top view image. Detection Algorithm-November, 2010 The Journal of the Institute of Electronics Engineers of Korea Vol.

영상 처리부(132)는 전술한 바와 같이 레인의 곡률값을 광각 영상(310)과 협각 영상(320) 모두를 대상으로 산출할 수도 있으나, 차량의 이동 속도 등 미리 지정된 조건에 따라 레인의 곡률값을 산출하기 위한 대상을 광각 영상(310)과 협각 영상(320) 중 어느 하나로 선택하도록 미리 지정될 수도 있다.As described above, the image processing unit 132 may calculate the curvature value of the lane for both the wide-angle image 310 and the narrow angle image 320, but calculates the curvature value of the lane according to a predetermined condition such as a moving speed of the vehicle. The object to be calculated may be previously designated to select one of the wide angle image 310 and the narrow angle image 320.

예를 들어 고속도로 주행 등과 같이 미리 지정된 속도 이상으로 차량이 주행하는 경우에는 협각 영상(320)을 대상으로 레인의 곡률값을 산출하고, 주차장에서 이동 등과 같이 미리 지정된 속도 이하로 차량이 주행하는 경우에는 광각 영상(310)을 대상으로 레인의 곡률값을 산출하도록 미리 지정될 수도 있다. 차량의 이동 속도는 예를 들어 컨트롤 유닛(130)이 차량의 제어 시스템(예를 들어 ECU), GPS 시스템 등으로부터 관련 정보를 제공받아 인식할 수 있을 것이다. For example, when the vehicle is traveling at a predetermined speed or more such as driving on a highway, the curvature value of the lane is calculated for the narrow angle image 320, and when the vehicle is driving at or below a predetermined speed such as moving in a parking lot. The curvature value of the lane may be calculated in advance for the wide-angle image 310. For example, the movement speed of the vehicle may be recognized by the control unit 130 provided with relevant information from the vehicle's control system (eg, ECU), a GPS system, or the like.

또 다른 예로서, 광각 영상(310)과 협각 영상(320) 모두를 대상으로 하여 레인의 곡률값을 각각 산출한 후, 광각 영상(310)에서 산출한 레인의 곡률값이 미리 지정된 한계값 이상인 경우에는 협각 영상(320)에서 산출한 레인의 곡률값으로 결정하되, 광각 영상(310)에서 산출한 레인의 곡률값이 미리 지정된 한계값 이하인 경우에는 광각 영상(310)에서 산출한 레인의 곡률값으로 결정하는 방법이 적용되도록 미리 지정될 수도 있다. As another example, when the curvature values of the lanes are calculated for both the wide-angle image 310 and the narrow-angle image 320, and the curvature values of the lanes calculated by the wide-angle image 310 are greater than or equal to a predetermined threshold value. Is determined by the curvature value of the lane calculated by the narrow angle image 320, and when the curvature value of the lane calculated by the wide-angle image 310 is less than or equal to a predetermined threshold, the curvature value of the lane calculated by the wide-angle image 310 is determined. The method of decision may be pre-specified to be applied.

이후, 영상 처리부(132)는 산출된 경로 곡률값 및/또는 레인 곡률값을 참조하여 광각 영상(310)과 협각 영상(320) 중 어느 하나를 차량 진행 방향에 위치한 물체와의 충돌 예상 정보를 생성하기 위한 기본 영상으로 선택하고, 기본 영상과 보조 영상을 이용하여 해당 물체에 대한 충돌 예상 정보를 생성한다. Thereafter, the image processor 132 generates collision prediction information between the wide angle image 310 and the narrow angle image 320 with an object located in the vehicle traveling direction with reference to the calculated path curvature value and / or lane curvature value. Selected as the primary image to generate the collision prediction information for the object using the primary image and the secondary image.

구체적으로, 영상 처리부(132)는 차량의 움직임 또는 주변 레인의 곡률을 참조하여 기본 영상을 선택할 때 미리 지정된 임계값보다 곡률이 작다면(즉, 휨 정도가 크다면) 광각 영상과 협각 영상 중 광각 영상을 기본 영상으로 선택한다(도 8의 (a) 및 (c) 참조). 이때, 레인 곡률값은 미리 지정된 제1 임계값과 대비되고, 경로 곡률값은 미리 지정된 제2 임계값과 대비되도록 미리 지정될 수 있다. 여기서, 제1 임계값과 제2 임계값은 같은 값 또는 상이한 값으로 각각 지정될 수 있을 것이다. In detail, the image processor 132 selects the base image by referring to the movement of the vehicle or the curvature of the surrounding lanes, and if the curvature is smaller than a predetermined threshold value (that is, the degree of warpage is large), the wide angle image and the narrow angle image are wide angle. An image is selected as the base image (see FIGS. 8A and 8C). In this case, the lane curvature value may be preset in comparison with the first predetermined threshold value, and the path curvature value may be compared with the second predetermined threshold value. Here, the first threshold value and the second threshold value may be designated as the same value or different values, respectively.

이는, 곡률이 작은 경우에는 급격한 각도의 차량 회전이 필요한 상황이므로 차량 주변의 정보가 보다 중요할 수 있고, 따라서 차량 주변을 중심으로 촬영된 광각 영상을 중심으로 후술될 주행 방향상의 물체와의 충돌 예상 정보를 생성하는 것이 효과적이기 때문이다. In this case, when the curvature is small, a sharp angle of rotation of the vehicle is required, so information around the vehicle may be more important, and thus collision prediction with an object in a driving direction, which will be described later, based on a wide-angle image photographed around the vehicle. This is because generating information is effective.

그러나, 이와 달리 만일 해당 임계값보다 곡률이 크다면(즉, 휨 정도가 작다면) 영상 처리부(132)는 광각 영상과 협각 영상 중 협각 영상을 기본 영상으로 선택한다(도 8의 (b) 및 (d) 참조).On the contrary, if the curvature is larger than the corresponding threshold (that is, the degree of warpage is small), the image processor 132 selects the narrow angle image as the basic image among the wide angle image and the narrow angle image (FIG. 8B and 8B). (d)).

이는, 곡률이 큰 경우에는 직선 주행 또는 완만한 각도의 차량 회전이 필요한 상황이므로 차량 주변보다는 먼 거리의 정보가 보다 중시되기 때문에, 차량에서 멀리 떨어진 위치까지 촬영된 협각 영상을 중심으로 후술될 주행 방향상의 물체와의 충돌 예상 정보를 생성할 수 있도록 하기 위한 것이다. This is because when the curvature is large, it is necessary to run a straight line or a smooth rotation of the vehicle. Therefore, since information of a far distance is more important than surrounding a vehicle, a driving direction to be described later based on a narrow angle image captured to a position far from the vehicle This is for generating collision prediction information with an object on the image.

다만, 기본 영상을 선택하기 위한 정보로서 경로 곡률값보다 레인 곡률값을 우선하여 적용하도록 미리 지정될 수 있다. 이는, 차량의 이동 방향을 유도하기 위해 표시된 레인을 따라 차량이 이동함이 일반적이기 때문이다.However, as the information for selecting the base image, the lane curvature value may be assigned in advance to the path curvature value. This is because the vehicle generally moves along the lane marked to guide the direction of movement of the vehicle.

따라서 영상 처리부(132)는 광각 영상(310) 및/또는 협각 영상(320)을 이용하여 레인이 검출되었고 레인 곡률값이 산출되었다면 레인 곡률값을 미리 지정된 임계값과 대비하여 기본 영상을 선택한다. 그러나, 레인이 표시되지 않은 공터 등에서 차량이 운행하는 경우에는 레인이 인식되지 않기 때문에 경로 곡률값을 상응하는 임계값과 대비하여 기본 영상을 선택하게 될 것이다. Accordingly, when the lane is detected using the wide-angle image 310 and / or the narrow-angle image 320 and the lane curvature value is calculated, the image processor 132 selects the base image by comparing the lane curvature value with a predetermined threshold value. However, when the vehicle is driven in an empty lot or the like where the lane is not displayed, since the lane is not recognized, the base image will be selected by comparing the path curvature value with a corresponding threshold value.

영상 처리부(132)는 광각 영상(310)과 협각 영상(320) 중 어느 하나로 선택한 기본 영상을 오버랩 영역 영상과 기타 영역 영상으로 구분하고, 오버랩 영역 영상과 기타 영역 영상에서 각각 물체를 검출하여 검출된 물체에 대한 충돌 예상 정보를 생성한다. The image processor 132 divides the basic image selected from the wide angle image 310 and the narrow angle image 320 into an overlap region image and other region images, and detects an object from the overlap region image and the other region images, respectively. Generate collision prediction information for an object.

오버랩 영역 영상은 도 2의 (d)에 표시된 오버랩 촬영 영역(260)에 상응하는 영상이고, 기타 영역 영상은 기본 영상 중 오버랩 영역 영상을 제외한 촬영 영역(즉, 기타 영역)에 대한 영상이다. 즉, 기타 영역은 예를 들어, 기본 영상이 광각 영상인 경우 도 2의 (d)의 ①과 ②에 해당되는 촬영 영역이고, 기본 영상이 협각 영상인 경우 도 2의 (d)의 ③에 해당되는 촬영 영역이다. The overlap region image is an image corresponding to the overlap photographing region 260 shown in FIG. 2D, and the other region image is an image of a photographing region (ie, other regions) except for the overlap region image among the basic images. That is, the other area corresponds to, for example, a photographing area corresponding to ① and ② of FIG. 2 (d) when the base image is a wide-angle image, and corresponds to ③ of FIG. 2 (d) when the base image is a narrow angle image. Shooting area.

영상 처리부(132)는 오버랩 촬영 영역(260)에 상응하도록 생성되는 오버랩 영역 영상을 앞서 설명한 바와 같이 심도 맵(330)의 형태로 생성할 수 있다. The image processor 132 may generate the overlap region image generated to correspond to the overlap photographing region 260 in the form of the depth map 330 as described above.

영상 처리부(132)는 오버랩 영역 영상에서 물체의 검출을 시도하고, 검출된 물체와의 공간상 이격 거리를 산출한다. 물체와의 이격 거리는 실시간 생성되는 광각 영상과 협각 영상을 이용하여 생성되는 오버랩 영역 영상을 이용하여 실시간 변동되어 검출될 수도 있다.The image processor 132 attempts to detect an object in the overlap area image and calculates a spatial separation distance from the detected object. The distance from the object may be detected by changing in real time using an overlap region image generated using a wide-angle image and a narrow-angle image generated in real time.

또한 영상 처리부(132)는 오버랩 영역에 존재하는 충돌 가능성 있는 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간도 산출할 수 있다. Also, the image processor 132 may calculate the remaining time until the collision with the object by using the change in the size of the probable object and / or the change in the separation distance from the object in the overlap area.

이와 같이, 영상 처리부(132)는 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들(즉, 광각 영상과 협각 영상)을 함께 이용하여 오버랩 영역 영상을 생성함으로써, 오버랩 영역 영상에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 장점이 있다.As such, the image processor 132 generates an overlap region image by using images (that is, a wide angle image and a narrow angle image) respectively captured by heterogeneous cameras having different view angle ranges, thereby being included in the overlap region image. The amount of information can be increased, thereby improving the object detection accuracy.

또한 영상 처리부(132)는 기본 영상에서 오버랩 촬영 영역(260) 이외의 기타 영역에 대해서도 물체의 검출을 시도한다. 기타 영역에 상응하는 기타 영역 영상이 기본 영상을 광각 영상으로 선택하였는지 협각 영상으로 선택하였는지에 따라 상이해짐은 앞서 설명한 바와 같다. Also, the image processor 132 attempts to detect an object in a region other than the overlapping region 260 in the basic image. As described above, the other region image corresponding to the other region is different depending on whether the base image is selected as the wide-angle image or the narrow-angle image.

만일 기타 영역에 상응하는 기타 영역 영상에서 충돌 가능한 물체가 검출되면, 전술한 바와 같이 해당 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간 등을 산출할 수 있다. If a collidable object is detected in the image of the other region corresponding to the other region, the remaining time until the collision with the object is determined by using the size change of the object and / or the change in the separation distance from the object as described above. Can be calculated.

제어부(134)는 영상 처리부(132)에 의해 생성된 충돌 예상 정보(즉, 잔여 시간 및/또는 이격 거리)가 미리 지정된 제3 임계값보다 작은 경우에는 사용자에게 알람 처리를 실시되도록 제어할 수 있다The controller 134 may control the user to perform alarm processing when the collision prediction information (that is, the remaining time and / or the separation distance) generated by the image processor 132 is smaller than a predetermined third threshold value.

여기서, 알람 처리는 시각적 또는/및 청각적 방식으로 실시될 수 있으며, 예를 들어 디스플레이 장치, 스피커 장치 등인 출력부(140)를 통해 처리될 수 있다.In this case, the alarm processing may be performed in a visual or / and audible manner, and may be processed through the output unit 140 that is, for example, a display device or a speaker device.

도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도이다.9 to 11 are flowcharts illustrating a collision warning method according to an embodiment of the present invention.

도 9 내지 도 11을 참조하면, 단계 910에서 충돌 경고 장치(100)의 컨트롤 유닛(130)은 차량에 구비된 광각 카메라 및 협각 카메라에 의해 각각 생성된 광각 영상과 협각 영상을 제공받는다.9 to 11, in step 910, the control unit 130 of the collision warning device 100 is provided with a wide-angle image and a narrow-angle image respectively generated by the wide-angle camera and the narrow-angle camera provided in the vehicle.

단계 915에서 컨트롤 유닛(130)은 제공된 광각 영상 및/또는 협각 영상 내에 물체가 검출되는지 여부를 판단한다. 영상에서 차량이나 신호등 등의 물체를 검출하는 방법은 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다.In operation 915, the control unit 130 determines whether an object is detected in the provided wide-angle image and / or the narrow-angle image. Since a method of detecting an object such as a vehicle or a traffic light in an image is obvious to those skilled in the art, a description thereof will be omitted.

만일 광각 영상 및/또는 협각 영상에서 물체가 검출되었다면, 단계 920에서 컨트롤 유닛(130)은 해당 물체가 자기 차량과 충돌 가능한 물체인지 여부를 판단한다. 예를 들어 자기 차량이 주행하는 차선과 동일한 차선에 위치한 물체이고 해당 물체가 실시간 생성되는 광각 영상이나 협각 영상에서 크기가 증가하는 방향의 변화를 가지는 경우 충돌 가능한 것으로 판단될 수 있을 것이다. If an object is detected in the wide angle image and / or the narrow angle image, the control unit 130 determines whether the object is capable of colliding with the vehicle in operation 920. For example, if the object is located in the same lane as the lane in which the vehicle is driven and the object has a change in the direction in which the size increases in the wide-angle image or the narrow-angle image generated in real time, it may be determined that collision is possible.

만일 검출된 물체가 충돌 가능한 물체인 것으로 판단되면, 단계 930에서 컨트롤 유닛(130)은 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출한다. If it is determined that the detected object is a collidable object, in step 930, the control unit 130 generates a depth map using the wide-angle image and the narrow-angle image, and uses the generated depth map to determine a path curvature value. To calculate.

여기서, 심도 맵은 광각 카메라와 협각 카메라를 스테레오 비젼으로 활용하고 스테레오 매핑 방식을 이용하여 생성한 것으로 영상 내의 각 물체의 깊이에 대한 정보를 획득할 수 있는 특징이 있다.Here, the depth map is generated by using a wide angle camera and a narrow angle camera as a stereo vision and using a stereo mapping method, and has a feature of acquiring information about the depth of each object in the image.

따라서 자기 차량이 임의의 방향으로 이동되면 심도 맵에 포함된 물체 각각의 심도값이 변화되고, 해당 물체들 각각의 상대적인 변화량의 차이 등을 이용하여 자기 차량이 어느 방향으로 또한 어떤 궤도로 움직이고 있는지에 상응하는 경로 곡률값이 산출될 수 있다.Therefore, when the vehicle is moved in any direction, the depth value of each object included in the depth map is changed, and in which direction and in which track the vehicle is moving by using the difference in the relative change amount of each of the objects. Corresponding path curvature values can be calculated.

단계 935에서, 컨트롤 유닛(130)은 광각 영상(310) 또는/및 협각 영상(320)에서 레인이 검출되는지 여부를 판단한다. 레인은 예를 들어 차량이 주행하는 도로의 차선, 주차장의 주차 구획선 등일 수 있다.In operation 935, the control unit 130 determines whether a lane is detected in the wide angle image 310 and / or the narrow angle image 320. The lane may be, for example, a lane of a road on which a vehicle travels, a parking partition line of a parking lot, and the like.

만일 레인이 검출되었다면, 단계 940에서 컨트롤 유닛(130)은 검출된 레인의 곡률값을 산출한다. 레인의 곡률이 예를 들어 클로소이드 모델을 이용하거나 곡선 템플릿의 정합 과정 등을 통해 산출될 수 있음은 앞서 설명한 바와 같다. If a lane is detected, the control unit 130 calculates a curvature value of the detected lane at step 940. As described above, the curvature of the lane may be calculated using, for example, a clothoid model or a matching process of the curve template.

단계 945에서, 컨트롤 유닛(130)은 산출된 레인 곡률값이 미리 지정된 제1 임계값 이하인지 여부를 판단한다. 여기서 레인 곡률값은 예를 들어 차선의 휨 정도를 나타내는 값으로서, 곡률값이 작을수록 급격하게 차선이 휘는 것을 의미한다. In operation 945, the control unit 130 determines whether the calculated lane curvature value is equal to or less than a first predetermined threshold value. Here, the lane curvature value is, for example, a value indicating the degree of curvature of the lane, and as the curvature value is smaller, the lane curvature is rapidly curved.

레인 곡률값이 제1 임계값 이하인 경우, 단계 950에서 컨트롤 유닛(130)은 입력되는 광각 영상과 협각 영상 중 광각 영상을 기본 영상으로 선택하고, 광각 영상을 기준으로 하여 광각 영상과 협각 영상의 오버랩 촬영 영역(260)에 대한 오버랩 영역 영상을 생성한다. 여기서, 오버랩 영역 영상이 심도 맵(depth map)으로 생성될 수 있음은 앞서 설명한 바와 같다.If the lane curvature value is less than or equal to the first threshold value, in step 950, the control unit 130 selects the wide-angle image as the base image from the wide-angle image and the narrow-angle image to be input, and overlaps the wide-angle image and the narrow-angle image on the basis of the wide-angle image. An overlap region image of the photographing region 260 is generated. Here, as described above, the overlap region image may be generated as a depth map.

컨트롤 유닛(130)은 생성된 오버랩 영역 영상에서 물체를 검출을 시도하고, 해당 물체에 상응하는 충돌 예상 정보를 생성한다. The control unit 130 attempts to detect an object from the generated overlap area image, and generates collision prediction information corresponding to the object.

충돌 예상 정보는 예를 들어 물체와의 거리, 물체와 충돌까지의 잔여 시간 등을 포함할 수 있다. 즉, 컨트롤 유닛(130)은 오버랩 영역 영상에서 검출된 물체와의 공간상 이격 거리를 산출한다. 산출된 이격 거리는 해당 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간을 산출하기 위한 정보로 활용될 수 있다. The collision prediction information may include, for example, the distance to the object, the remaining time until the collision with the object, and the like. That is, the control unit 130 calculates a spatial separation distance from the object detected in the overlap region image. The calculated separation distance may be used as information for calculating the remaining time required to collide with the object by using the size change amount of the object and / or the distance distance change with the object.

또한 컨트롤 유닛(130)은 단계 955에서 기본 영상인 광각 영상에서 오버랩 촬영 영역 이외의 기타 영역(도 2의 ①과 ② 참조)에서 물체의 검출을 추가적으로 시도한다. 만일 기타 영역 영상에서 충돌 가능한 물체가 검출되면, 컨트롤 유닛(130)은 전술한 바와 같이 해당 물체에 상응하는 충돌 예상 정보를 생성한다. In addition, the control unit 130 additionally attempts to detect an object in a region other than the overlap image capturing region (see 1 and 2 of FIG. 2) in the wide-angle image which is the basic image in step 955. If a collidable object is detected in the other region image, the control unit 130 generates collision prediction information corresponding to the object as described above.

그러나 만일 단계 945에 의해 레인 곡률값이 제1 임계값 이상인 것으로 판단되면, 단계 960에서 컨트롤 유닛(130)은 입력되는 광각 영상과 협각 영상 중 협각 영상을 기본 영상으로 선택하고, 협각 영상을 기준으로 하여 광각 영상과 협각 영상의 오버랩 촬영 영역(260)에 대한 오버랩 영역 영상을 생성한다. However, if it is determined in step 945 that the lane curvature value is greater than or equal to the first threshold value, in step 960, the control unit 130 selects the narrow angle image among the wide angle image and the narrow angle image input as a base image, and based on the narrow angle image. As a result, an overlap region image of the overlapping region 260 of the wide angle image and the narrow angle image is generated.

또한 컨트롤 유닛(130)은 생성된 오버랩 영역 영상에서 물체를 검출을 시도하고, 검출된 물체에 대한 충돌 예상 정보를 생성한다. In addition, the control unit 130 attempts to detect an object in the generated overlap area image, and generates collision prediction information on the detected object.

이어서, 단계 965에서, 컨트롤 유닛(130)은 기본 영상인 협각 영상에서 오버랩 영역 이외의 기타 영역(도 2의 ③ 참조)에서 물체의 검출을 추가적으로 시도하고, 물체가 검출되면, 컨트롤 유닛(130)은 전술한 바와 같이 해당 물체에 상응하는 충돌 예상 정보를 생성한다.Subsequently, in step 965, the control unit 130 further attempts to detect an object in an area other than the overlap area (see 3 in FIG. 2) in the narrow angle image, which is the basic image, and when the object is detected, the control unit 130. As described above, the collision prediction information corresponding to the object is generated.

전술한 바와 같이, 광각 영상 및/또는 협각 영상에서 레인이 검출되면, 단계 940 내지 단계 965에서 설명한 바와 같이 레인 곡률값을 산출하고, 레인 곡률값과 미리 지정된 제1 임계값과 대비하여 기본 영상 및 보조 영상을 선택하며, 이들을 이용하여 검출된 물체에 대한 충돌 예상 정보를 생성할 수 있다. As described above, when a lane is detected in the wide-angle image and / or the narrow-angle image, the lane curvature value is calculated as described in steps 940 to 965, and the base image and the lane curvature are compared with the lane curvature value and the first predetermined threshold value. An auxiliary image may be selected and collision prediction information about the detected object may be generated using the auxiliary image.

그러나 단계 935의 판단에서 레인이 검출되지 않으면, 단계 980에서 컨트롤 유닛(130)은 산출된 경로 곡률값이 미리 지정된 제2 임계값 이하인지 여부를 판단한다. However, if the lane is not detected in the determination of step 935, in step 980, the control unit 130 determines whether the calculated path curvature value is equal to or less than a second predetermined threshold value.

만일 경로 곡률값이 제2 임계값 이하라면, 컨트롤 유닛(130)은 전술한 단계 950 및 955를 수행하여 충돌 예상 정보를 생성한다. If the path curvature value is less than or equal to the second threshold value, the control unit 130 performs the aforementioned steps 950 and 955 to generate collision prediction information.

그러나 만일 경로 곡률값이 제2 임계값보다 크다면면, 컨트롤 유닛(130)은 전술한 단계 960 및 965를 수행하여 충돌 예상 정보를 생성한다. However, if the path curvature value is greater than the second threshold value, the control unit 130 performs the above-described steps 960 and 965 to generate collision prediction information.

단계 970에서, 컨트롤 유닛(130)은 단계 950 내지 단계 965에서 산출된 충돌 가능한 물체에 대한 충돌 예상 정보(예를 들어 이격 거리 및/또는 충돌까지 소요되는 잔여 시간)이 미리 지정된 제3 임계값 이하인지 여부를 판단한다. 제3 임계값이 거리값 또는/및 시간값 등으로 미리 지정될 것임은 당연하다.In step 970, the control unit 130 determines that the collision prediction information (e.g., the separation distance and / or remaining time until the collision) for the collidable object calculated in steps 950 to 965 is equal to or less than a predetermined third threshold value. Determine whether or not. Naturally, the third threshold value will be previously designated as a distance value and / or a time value.

만일 충돌 예상 정보가 제3 임계값 이하인 경우라면, 컨트롤 유닛(130)은 운전자를 환기시키기 위해 출력부(140)를 통해 시각적 또는/및 청각적 방법으로 알람이 실시되도록 처리한다(단계 975). If the collision prediction information is less than or equal to the third threshold, the control unit 130 processes the alarm to be triggered in a visual or audible manner via the output 140 to alert the driver (step 975).

상술한 충돌 경고 방법은 디지털 처리 장치에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. Of course, the above-described collision warning method may be performed by an automated procedure in a time series order by a program embedded in or installed in the digital processing apparatus. Codes and code segments constituting the program can be easily inferred by a computer programmer in the art. The program is also stored in a computer readable media that can be read by a digital processing device, and read and executed by the digital processing device to implement the method.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments of the present invention, those of ordinary skill in the art will be variously modified and modified within the scope of the present invention without departing from the spirit and scope of the invention described in the claims below It will be appreciated that it can be changed.

100 : 충돌 경고 장치 110 : 광각 카메라 유닛
120 : 협각 카메라 유닛 130 : 컨트롤 유닛
132 : 영상 처리부 134 : 제어부
140 : 출력부 211, 213, 215, 217 : 광각 카메라
240 : 협각 카메라 260 : 오버랩 촬영 영역
310 : 광각 영상 320 : 협각 영상
330 : 심도 맵
100: collision warning device 110: wide-angle camera unit
120: narrow angle camera unit 130: control unit
132: image processing unit 134: control unit
140: outputs 211, 213, 215, 217: wide angle camera
240: narrow angle camera 260: overlap shooting area
310: wide angle image 320: narrow angle image
330: depth map

Claims (17)

하나 이상의 광각 카메라를 포함하여 광각 영상을 생성하도록 차량에 구비되는 광각 카메라 유닛;
하나 이상의 협각 카메라를 포함하여 협각 영상을 생성하도록 상기 차량에 구비되는 협각 카메라 유닛; 및
미리 지정된 기준에 따라 상기 광각 영상과 상기 협각 영상 중 어느 하나를 충돌 예상 정보를 생성하기 위한 기본 영상으로 선택하는 컨트롤 유닛을 포함하되,
상기 컨트롤 유닛은,
상기 광각 영상과 상기 협각 영상 중 하나 이상에서 레인이 검출되면, 상기 검출된 레인의 레인 곡률값을 산출하며, 상기 레인 곡률값이 미리 지정된 제1 임계값 이하인 경우에는 광각 영상을 상기 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하며,
상기 광각 영상 및 상기 협각 영상에서 레인이 검출되지 않으면, 산출한 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 상기 기본 영상으로 선택하고, 상기 경로 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하되,
상기 경로 곡률값을 산출하기 위해 상기 컨트롤 유닛은 상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하고, 시간적으로 연속하는 심도 맵 내에 존재하는 하나 이상의 물체의 상대적인 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 상기 경로 곡률값을 산출하는 것을 특징으로 하는 충돌 경고 장치.
A wide-angle camera unit provided in the vehicle to generate a wide-angle image including one or more wide-angle cameras;
A narrow angle camera unit provided in the vehicle to generate a narrow angle image including one or more narrow angle cameras; And
And a control unit for selecting any one of the wide-angle image and the narrow-angle image as a base image for generating collision prediction information according to a predetermined criterion.
The control unit,
If a lane is detected in at least one of the wide-angle image and the narrow-angle image, a lane curvature value of the detected lane is calculated, and when the lane curvature value is less than or equal to a predetermined first threshold value, the wide-angle image is selected as the base image. If the lane curvature value is greater than the first threshold value, the narrow angle image is selected as the basic image.
If no lanes are detected in the wide-angle image and the narrow-angle image, when the calculated path curvature value is equal to or less than a second predetermined threshold value, the wide-angle image is selected as the base image, and the path curvature value is greater than the second threshold value. If large, select the narrow angle image as the base image,
To calculate the path curvature value, the control unit generates a depth map of an overlapping photographing area of the wide-angle camera and the narrow-angle camera using the wide-angle image and the narrow-angle image, and continuously depths that are temporally continuous. And calculating the path curvature value corresponding to the movement trajectory of the vehicle by using the relative depth change of one or more objects existing in the map.
제1항에 있어서,
상기 컨트롤 유닛은 미리 지정된 조건에 따라 상기 제1 임계값과 비교할 레인 곡률값을 산출할 하나의 영상을 선택하되,
상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것을 특징으로 하는, 충돌 경고 장치.
The method of claim 1,
The control unit selects one image to calculate a lane curvature value to be compared with the first threshold value according to a predetermined condition,
The predetermined condition is one of a wide-angle image and a narrow-angle image, or one of the wide-angle image and the narrow-angle image so as to correspond to the moving speed of the vehicle, or the wide-angle image, and detected from the wide-angle image. And the narrow angle image is changed only when a curvature value of a lane is greater than or equal to a predetermined threshold value.
제1항에 있어서,
상기 컨트롤 유닛은,
상기 심도 맵에 포함된 물체들 중 주변 물체에 비해 미리 지정된 기준값 이상으로 심도가 변화하는 물체의 심도 변화량은 제외하고 상기 경로 곡률값을 산출하는 것을 특징으로 하는 충돌 경고 장치.
The method of claim 1,
The control unit,
And the path curvature value of the object included in the depth map is calculated except for an amount of change in depth of an object whose depth is changed by more than a predetermined reference value compared to a surrounding object.
삭제delete 제1항에 있어서,
하나 이상의 광각 카메라와 하나 이상의 협각 카메라는 각각의 촬영 영역에서 오버랩 촬영 영역이 존재하도록 설치되고,
상기 컨트롤 유닛은 기본 영상의 오버랩 촬영 영역과 기타 촬영 영역에 존재하는 물체에 대해 상기 충돌 예상 정보를 생성하되,
상기 오버랩 촬영 영역에 대해서는, 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 생성한 오버랩 영역 영상을 이용하여 충돌 예상 정보를 생성하는 것을 특징으로 하는 충돌 경고 장치.
The method of claim 1,
One or more wide angle cameras and one or more narrow angle cameras are installed such that an overlapping shooting area exists in each shooting area,
The control unit generates the collision prediction information for an object existing in the overlap shooting region and the other shooting region of the base image,
In the overlapping region, collision prediction information is generated by using an overlapping region image generated by combining an auxiliary image, which is one of a wide-angle image and a narrow-angle image, which are not selected as a base image, and the base image. Warning device.
제5항에 있어서,
충돌 예상 정보를 생성하기 위한 상기 오버랩 영역 영상은 심도 맵으로 생성되는 것을 특징으로 하는 충돌 경고 장치.
The method of claim 5,
And the overlap area image for generating collision prediction information is generated as a depth map.
제5항에 있어서,
상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되고,
상기 컨트롤 유닛은 상기 충돌 예상 정보가 미리 지정된 제3 임계값 이하인 경우 출력부를 통한 알람이 실시되도록 처리하는 것을 특징으로 하는 충돌 경고 장치.
The method of claim 5,
The collision prediction information is generated to include at least one of a separation distance from the object and a remaining time until the collision with the object,
And the control unit is configured to process an alarm through an output unit when the collision prediction information is equal to or less than a third predetermined threshold value.
제1항에 있어서,
상기 컨트롤 유닛은 광각 영상 및 협각 영상 중 하나 이상에 충돌 가능한 물체가 존재하는지 판단하고, 충돌 가능한 물체가 존재하는 경우에만 상기 기본 영상의 선택을 수행하는 것을 특징으로 하는 충돌 경고 장치.
The method of claim 1,
And the control unit determines whether there is a collidable object in at least one of the wide-angle image and the narrow-angle image, and performs selection of the basic image only when there is a collidable object.
제1항에 있어서,
상기 광각 카메라는 어라운드 뷰 모니터링 시스템용 카메라인 것을 특징으로 하는 충돌 경고 장치.
The method of claim 1,
And said wide angle camera is a camera for an around view monitoring system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020170167657A 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area KR102031635B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170167657A KR102031635B1 (en) 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170167657A KR102031635B1 (en) 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area

Publications (2)

Publication Number Publication Date
KR20190067578A KR20190067578A (en) 2019-06-17
KR102031635B1 true KR102031635B1 (en) 2019-10-14

Family

ID=67064925

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170167657A KR102031635B1 (en) 2017-12-07 2017-12-07 Collision warning device and method using heterogeneous cameras having overlapped capture area

Country Status (1)

Country Link
KR (1) KR102031635B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI705016B (en) * 2019-07-22 2020-09-21 緯創資通股份有限公司 Driving alarm system, driving alarm method and electronic device using the same
WO2021033812A1 (en) * 2019-08-22 2021-02-25 (주)캠시스 Heterogeneous stereo camera system and camera calibration method
KR20220066559A (en) * 2020-11-16 2022-05-24 삼성전자주식회사 Electronic apparatus and controlling method thereof
CN113489945A (en) * 2020-12-18 2021-10-08 深圳市卫飞科技有限公司 Target positioning method, device and system and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5962771B2 (en) * 2012-12-12 2016-08-03 日産自動車株式会社 Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
KR101739394B1 (en) * 2016-12-30 2017-05-26 재단법인대구경북과학기술원 Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof
KR101767237B1 (en) * 2016-04-27 2017-08-10 (주)한양정보통신 Apparatus and method for detecting object
JP2017211734A (en) * 2016-05-24 2017-11-30 ヤンマー株式会社 Autonomous travel route generation system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160051321A (en) * 2014-11-03 2016-05-11 현대자동차주식회사 Active side view system of vehicle
KR102441209B1 (en) * 2016-03-28 2022-09-07 한국자동차연구원 Method and Apparatus for Assessing an Image Match of an Around View Image for an Around View Monitor System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5962771B2 (en) * 2012-12-12 2016-08-03 日産自動車株式会社 Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
KR101767237B1 (en) * 2016-04-27 2017-08-10 (주)한양정보통신 Apparatus and method for detecting object
JP2017211734A (en) * 2016-05-24 2017-11-30 ヤンマー株式会社 Autonomous travel route generation system
KR101739394B1 (en) * 2016-12-30 2017-05-26 재단법인대구경북과학기술원 Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof

Also Published As

Publication number Publication date
KR20190067578A (en) 2019-06-17

Similar Documents

Publication Publication Date Title
US10551485B1 (en) Fitting points to a surface
KR102493878B1 (en) controlling host vehicle based on detected spacing between stationary vehicles
US10093247B2 (en) Enhanced front curb viewing system
US9886636B2 (en) Enhanced top-down view generation in a front curb viewing system
US9834143B2 (en) Enhanced perspective view generation in a front curb viewing system
EP1961613B1 (en) Driving support method and driving support device
US9151626B1 (en) Vehicle position estimation system
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP5057936B2 (en) Bird's-eye image generation apparatus and method
JP5421072B2 (en) Approaching object detection system
TWI401175B (en) Dual vision front vehicle safety warning device and method thereof
US9659497B2 (en) Lane departure warning system and lane departure warning method
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
JP6379779B2 (en) Vehicle display device
JP4796676B2 (en) Vehicle upper viewpoint image display device
JP2012527681A (en) Lane departure detection method and apparatus using vehicle periphery image
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
JP2007249841A (en) Image recognition device
JP6032034B2 (en) Object detection device
JP2009053818A (en) Image processor and method thereof
CN109895697B (en) Driving auxiliary prompting system and method
CN112334947A (en) Method for representing surroundings based on sensor and memory, display device and vehicle having display device
KR101470230B1 (en) Parking area tracking apparatus and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant