KR20190067578A - Collision warning device and method using heterogeneous cameras having overlapped capture area - Google Patents
Collision warning device and method using heterogeneous cameras having overlapped capture area Download PDFInfo
- Publication number
- KR20190067578A KR20190067578A KR1020170167657A KR20170167657A KR20190067578A KR 20190067578 A KR20190067578 A KR 20190067578A KR 1020170167657 A KR1020170167657 A KR 1020170167657A KR 20170167657 A KR20170167657 A KR 20170167657A KR 20190067578 A KR20190067578 A KR 20190067578A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- narrow
- angle image
- lane
- wide
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000012545 processing Methods 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 19
- 238000000926 separation method Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 238000003384 imaging method Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법에 관한 것이다. The present invention relates to a collision warning apparatus and method using a heterogeneous camera having an overlap photographing region.
일반적으로, 차량 내부에 탑승한 운전자의 시계는 주로 전방을 향하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당부분 가려지기 때문에 매우 한정된 시계를 가진다. Generally, the driver's watch on the inside of the vehicle is mainly directed to the front, and the left and right side watches and the rear side watches of the driver are largely covered by the vehicle body.
이러한 문제를 해결하기 위하여, 사이드 미러 등의 시계 보조수단이 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있는 추세이다.In order to solve such a problem, a clock assist means such as a side mirror is used, and in recent years, techniques including a camera means for photographing an external image of a vehicle and providing the image to a driver have been applied to vehicles.
그 중에서 차량에 복수의 카메라를 설치하여 차량 주변의 360ㅀ전방향의 영상을 보여주는 어라운드 뷰 모니터링(Around View Monitoring) 시스템(이하, AVM 시스템이라 칭함)이 있다. Among them, there is an Around View Monitoring system (hereinafter referred to as AVM system) in which a plurality of cameras are installed in a vehicle to display 360-degree forward images around the vehicle.
AVM 시스템은 차량 각 위치에 구비된 카메라들에 의해 촬영된 차량 주변의 영상을 조합하여, 운전자가 하늘에서 차량을 바라보는 듯한 탑뷰(Top View) 이미지를 제공함으로써, 차량 주변 장애물을 표시하고 사각지대를 해소할 수 있는 장점이 있다.The AVM system combines the images of the surroundings of the vehicle photographed by the cameras provided at the respective positions of the vehicle to provide a top view image in which the driver looks at the vehicle in the sky to display an obstacle around the vehicle, It is possible to solve the problem.
또한 최근에는 차량 전방의 원거리 도로 상황까지 운전자가 효과적으로 인식할 수 있도록 하기 위해 협각 카메라 시스템도 추가적으로 구비되고 있다.In addition, in recent years, a narrow-angle camera system is additionally provided so that the driver can effectively recognize the far-off road situation ahead of the vehicle.
그러나, 차량에 구비되는 AVM 시스템, 협각 카메라 시스템 등은 각각 개별적인 동작을 수행하기 위하여 구비되는 것일 뿐, 주행 방향에 존재하는 물체를 감지하여 충돌 가능성을 인식하기 위해 상호 보완적으로 기능하지 못하는 한계가 있었다.However, the AVM system, the narrow-angle camera system, and the like provided in the vehicle are provided only for performing individual operations, and are limited in that they do not complement each other in order to recognize the possibility of collision by sensing an object existing in the running direction there was.
본 발명은 운행 중인 차량의 경로 곡률과 차선의 곡률을 고려하여 광각 영상과 협각 영상 중 적절한 영상을 기본 영상으로 선택함으로써, 차량의 주행 상황에 최적인 영상의 활용이 가능한 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법을 제공하기 위한 것이다.In the present invention, by selecting an appropriate one of the wide angle image and the narrow angle image as the basic image in consideration of the curvature of the path and the curvature of the lane of the vehicle in operation, And to provide a collision warning apparatus and method using the same.
본 발명은 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들을 함께 고려함으로써 오버랩 영역에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법을 제공하기 위한 것이다.The present invention can increase the amount of information included in the overlap region by considering images taken by different types of cameras having different ranges of angle of view, And to provide a collision warning apparatus and method using the same.
본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will become readily apparent from the following description.
본 발명의 일 측면에 따르면, 하나 이상의 광각 카메라를 포함하여 광각 영상을 생성하도록 차량에 구비되는 광각 카메라 유닛; 하나 이상의 협각 카메라를 포함하여 협각 영상을 생성하도록 상기 차량에 구비되는 협각 카메라 유닛; 및 상기 광각 영상과 상기 협각 영상 중 하나 이상에서 레인을 검출하고, 상기 검출된 레인의 레인 곡률값을 산출하며, 상기 레인 곡률값이 미리 지정된 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 컨트롤 유닛을 포함하는 충돌 경고 장치가 제공된다.According to an aspect of the present invention, there is provided a camera system comprising: a wide-angle camera unit provided in a vehicle to generate a wide-angle image including at least one wide-angle camera; A coarse camera unit provided in the vehicle to generate a narrow-angle image including at least one narrow-angle camera; And calculating a lane curvature value of the detected lane if the lane curvature value is equal to or less than a predetermined first threshold value, detecting a lane at at least one of the wide angle image and the narrow angle image, And a control unit for selecting a narrow-angle image as the basic image when the lane curvature value is greater than the first threshold value.
상기 컨트롤 유닛은 미리 지정된 조건에 따라 상기 제1 임계값과 비교할 레인 곡률값을 산출할 하나의 영상을 선택하되, 상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것일 수 있다.Wherein the control unit selects one image for which a lane curvature value to be compared with the first threshold value is to be calculated according to a predetermined condition, wherein the predetermined condition is predetermined in one of a wide-angle image and a narrow-angle image, Angle image and the narrow-angle image, or may be changed to the narrow-angle image only when the curvature value of the lane detected in the wide-angle image is greater than or equal to a predetermined limit value, .
상기 컨트롤 유닛은, 상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하고, 시간적으로 연속하는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출할 수 있다.Wherein the control unit generates a depth map for an overlap photographing area of the wide angle camera and the narrow angle camera using the wide angle image and the narrow angle image and calculates a depth map of the object in the temporally successive depth map The path curvature value corresponding to the movement trajectory of the vehicle can be calculated.
상기 컨트롤 유닛은, 상기 광각 영상 및 상기 협각 영상에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택할 수 있다.Wherein the control unit selects a wide angle image as a basic image for generating collision prediction information when the path curvature value is not greater than a predetermined second threshold value when no lane is detected in the wide angle image and the narrow angle image, And when the lane curvature value is larger than the second threshold value, the narrow-angle image can be selected as the basic image.
하나 이상의 광각 카메라와 하나 이상의 협각 카메라는 각각의 촬영 영역에서 오버랩 촬영 영역이 존재하도록 설치되고, 상기 컨트롤 유닛은 기본 영상의 오버랩 촬영 영역과 기타 촬영 영역에 존재하는 물체에 대해 상기 충돌 예상 정보를 생성하며, 상기 오버랩 촬영 영역은 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 생성한 오버랩 영역 영상을 이용하여 충돌 예상 정보를 생성할 수 있다.Wherein at least one of the wide angle camera and the at least one narrow angle camera is installed such that an overlap photographing area exists in each photographing area and the control unit generates the collision prediction information for an object existing in an overlap photographing area and another photographing area of the basic image And the overlap shooting region may generate collision prediction information using an overlap region image generated by synthesizing an auxiliary image, which is one of a wide angle image and a narrow angle image, which are not selected as a basic image, and the basic image.
상기 오버랩 영역 영상은 심도 맵으로 생성될 수 있다.The overlap region image may be generated as a depth map.
상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되고, 상기 컨트롤 유닛은 상기 충돌 예상 정보가 미리 지정된 제3 임계값 이하인 경우 출력부를 통한 알람이 실시되도록 처리할 수 있다.Wherein the collision prediction information is generated so as to include at least one of a separation distance from the object and a remaining time until the collision with the object, and the control unit controls, when the collision prediction information is equal to or less than a predetermined third threshold, So that the alarm can be processed.
상기 컨트롤 유닛은 광각 영상 및 협각 영상 중 하나 이상에 충돌 가능한 물체가 존재하는지 판단하고, 충돌 가능한 물체가 존재하는 경우에만 상기 레인 곡률값의 산출 및 상기 기본 영상의 선택을 수행할 수도 있다.The control unit may determine whether there is an object capable of colliding with at least one of the wide angle image and the narrow angle image, and may calculate the lane curvature value and select the basic image only when a collision object exists.
상기 광각 카메라는 어라운드 뷰 모니터링 시스템용 카메라일 수 있다.The wide angle camera may be a camera for the surround view monitoring system.
본 발명의 다른 측면에 따르면, 충돌 경고 장치에서 수행되는 충돌 경고 방법에 있어서, (a) 광각 카메라에 의해 생성된 광각 영상과, 협각 카메라에 의해 생성되는 협각 영상 중 협각 영상 중 하나 이상에서 레인을 검출하고, 검출된 레인의 레인 곡률값을 산출하는 단계; (b) 산출된 레인 곡률값을 미리 지정된 제1 임계값과 비교하는 단계; 및 (c) 상기 레인 곡률값이 상기 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 단계를 포함하는 충돌 경고 방법이 제공된다.According to another aspect of the present invention, there is provided a collision warning method performed in a collision warning apparatus, the method comprising: (a) detecting a lane at one or more of a wide angle image generated by a wide angle camera and a narrow angle image generated by a narrow angle camera And calculating a lane curvature value of the detected lane; (b) comparing the calculated lane curvature value with a predetermined first threshold value; And (c) if the lane curvature value is less than or equal to the first threshold value, selecting the wide angle image as a basic image for generating collision prediction information, and if the lane curvature value is larger than the first threshold value, And selecting as the basic image a collision warning method.
상기 단계 (b)는 미리 지정된 조건에 따라 선택된 영상의 레인 곡률값에 대해 수행되되, 상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것일 수 있다.Wherein the step (b) is performed for a lane curvature value of an image selected in accordance with a predetermined condition, wherein the predetermined condition is specified in advance either in a wide angle image or in a narrow angle image, And the narrow-angle image, or may be changed to the narrow-angle image only when the curvature value of the lane detected in the wide-angle image is equal to or larger than a predetermined limit value.
상기 충돌 경고 방법은, 상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하는 단계; 및 시간적으로 연속하여 생성되는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출하는 단계를 더 포함할 수 있다. 다만, 상기 단계 (a)에서 상기 광각 영상 및 상기 협각 영상 모두에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 상기 기본 영상으로 선택되고, 상기 경로 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택되도록 미리 설정될 수 있다.The collision warning method includes: generating a depth map of an overlap photographing area of the wide angle camera and the narrow angle camera using the wide angle image and the narrow angle image; And calculating a path curvature value corresponding to the movement trajectory of the vehicle using the change in depth of the object in the depth map continuously generated in time. If a lane is not detected in both the wide angle image and the narrow angle image in the step (a), the wide angle image is selected as the basic image when the path curvature value is equal to or less than a predetermined second threshold value, If the value is larger than the second threshold value, the narrow-angle image may be preset to be selected as the basic image.
미리 지정된 판단 방법에 따라 광각 영상 및 협각 영상 중 하나 이상에 존재하는 물체가 충돌 가능한 물체인 것으로 판단된 경우에만 상기 단계 (a) 내지 (c)가 실시되도록 할 수 있다.(A) to (c) may be performed only when it is determined that an object existing in at least one of the wide-angle image and the narrow-angle image is a collision-capable object according to a predetermined determination method.
상기 충돌 경고 방법은, 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 상기 기본 영상과 상기 보조 영상의 오버랩 촬영 영역에 대한 오버랩 영역 영상을 생성하는 단계; 및 상기 오버랩 영역 영상과 상기 기본 영상의 기타 촬영 영역에 존재하는 물체에 대한 충돌 예상 정보를 생성하는 단계를 더 포함할 수 있다. 여기서, 상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성될 수 있다. 상기 오버랩 영역 영상은 심도 맵으로 생성될 수 있다.The collision warning method includes generating an overlap region image for an overlapping shooting region of the base image and the auxiliary image by combining the base image and the auxiliary image that is either a wide angle image or a narrow angle image that is not selected as a base image, ; And generating collision prediction information for an overlap region image and an object existing in another shooting region of the base image. Here, the collision prediction information may be generated to include at least one of a separation distance from the object and a remaining time until the object collides with the object. The overlap region image may be generated as a depth map.
상기 충돌 경고 방법은, 상기 충돌 예상 정보를 미리 지정된 제3 임계값과 대비하는 단계; 및 상기 충돌 예상 정보가 상기 제3 임계값 이하인 경우, 출력부를 통한 알람이 실시되도록 처리하는 단계를 더 포함할 수 있다.Wherein the collision warning method comprises: comparing the collision prediction information with a predetermined third threshold; And if the collision prediction information is equal to or less than the third threshold, performing an alarm through the output unit.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예에 따르면, 운행 중인 차량의 경로 곡률과 차선의 곡률을 고려하여 광각 영상과 협각 영상 중 적절한 영상을 기본 영상으로 선택함으로써, 차량의 주행 상황에 최적인 영상의 활용이 가능한 효과가 있다.According to the embodiment of the present invention, it is possible to utilize the optimal image for the driving situation of the vehicle by selecting an appropriate image from the wide angle image and the narrow angle image as the basic image in consideration of the curvature of the path and the curvature of the lane have.
또한, 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들을 함께 고려함으로써 오버랩 영역에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 효과도 있다.Also, considering images taken by different types of cameras having different angle of view ranges, the amount of information included in the overlap area can be increased, thereby improving object detection accuracy.
도 1은 본 발명의 일 실시예에 따른 충돌 경고 장치의 블록 구성도.
도 2는 본 발명의 일 실시예에 따른 광각 카메라부와 협각 카메라부의 촬영 영상을 설명하기 위한 도면.
도 3 및 도 4는 본 발명의 일 실시예에 따른 광각 영상과 협각 영상의 합성 방법을 설명하기 위한 도면.
도 5는 본 발명의 일 실시예에 따른 오버랩 영역 영상을 이용한 경로 곡률(Path curvature) 산출 방법을 설명하기 위한 도면.
도 6 및 도 7은 본 발명의 일 실시예에 따른 레인 곡률(Lane curvature) 산출 방법을 설명하기 위한 도면.
도 8은 본 발명의 일 실시예에 따른 다양한 조건에 따른 기본 영상과 보조 영상 결정 기법을 설명하기 위한 도면.
도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도.1 is a block diagram of a collision warning apparatus according to an embodiment of the present invention;
BACKGROUND OF THE
3 and 4 are views for explaining a method of combining a wide angle image and a narrow angle image according to an embodiment of the present invention.
5 is a view for explaining a path curvature calculating method using an overlap region image according to an embodiment of the present invention.
6 and 7 are diagrams for explaining a lane curvature calculating method according to an embodiment of the present invention.
8 is a view for explaining a basic image and an auxiliary image determination technique according to various conditions according to an embodiment of the present invention.
9 to 11 are flowcharts showing a collision warning method according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, terms such as a first threshold value, a second threshold value, and the like which will be described later may be previously designated with threshold values that are substantially different from each other or some of which are the same value, Because there is room, the terms such as the first and the second are to be mentioned for convenience of division.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
도 1은 본 발명의 일 실시예에 따른 충돌 경고 장치의 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 광각 카메라부와 협각 카메라부의 촬영 영상을 설명하기 위한 도면이다. 도 3 및 도 4는 본 발명의 일 실시예에 따른 광각 영상과 협각 영상의 합성 방법을 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시예에 따른 오버랩 영역 영상을 이용한 경로 곡률(Path curvature) 산출 방법을 설명하기 위한 도면이다. 도 6 및 도 7은 본 발명의 일 실시예에 따른 레인 곡률(Lane curvature) 산출 방법을 설명하기 위한 도면이고, 도 8은 본 발명의 일 실시예에 따른 다양한 조건에 따른 기본 영상과 보조 영상 결정 기법을 설명하기 위한 도면이며, 도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도이다.FIG. 1 is a block diagram of a collision warning apparatus according to an embodiment of the present invention. FIG. 2 is a view for explaining an image captured by a wide-angle camera unit and a coarse-angle camera unit according to an embodiment of the present invention. 3 and 4 are views for explaining a method of composing a wide-angle image and a narrow-angle image according to an embodiment of the present invention. FIG. 5 is a view for explaining a path curvature using an overlap region image according to an embodiment of the present invention. ) Calculation method. 6 and 7 are views for explaining a lane curvature calculating method according to an embodiment of the present invention. FIG. 8 is a view for explaining a method of calculating a lane curvature according to an embodiment of the present invention, FIG. 9 through FIG. 11 are flowcharts illustrating a collision warning method according to an embodiment of the present invention.
도 1을 참조하면, 충돌 경고 장치(100)는 광각 카메라 유닛(110), 협각 카메라 유닛(120), 컨트롤 유닛(130) 및 출력부(140)를 포함할 수 있다.Referring to FIG. 1, the
광각 카메라 유닛(110) 및 협각 카메라 유닛(120) 각각은 미리 지정된 조건에서 또는/및 실시간으로 광각 영상 또는 협각 영상을 생성하도록 컨트롤 유닛(130)의 제어부(134)에 의해 제어될 수 있다.Each of the wide
광각 카메라 유닛(110)에는 하나 이상의 광각 카메라와, 각 광각 카메라의 촬영 동작에 따른 촬영 이미지(즉, 광각 영상)를 생성하는 처리부가 포함될 수 있다. 처리부에 의해 생성된 광각 영상은 컨트롤 유닛(130) 등에서 이용될 수 있도록 저장부(도시되지 않음)에 저장될 수 있다. The wide-
광각 카메라는 예를 들어 AVM 시스템용 카메라로서 차량의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치된 광각 카메라들(211, 213, 215, 217)일 수도 있다.The wide angle camera is, for example, a camera for an AVM system, and is a wide angle camera (211, 213, 215, 217) installed at a plurality of positions (for example, a position designated to photograph the front, rear, left, It is possible.
광각 카메라(211, 213, 215, 217)는 도 2의 (d)에 예시된 바와 같이 차량에 근접한 넓은 범위의 영역을 촬영 영역으로 할 수 있도록 예를 들어 화각이 180도 내외인 광각 렌즈(또는 어안 렌즈)가 이용되는 카메라이다. 광각 카메라에 의해 생성된 광각 영상은 도 2의 (a)와 (b)에 각각 예시되어 있다. The
협각 카메라 유닛(120)에는 하나 이상의 협각 카메라와, 각 협각 카메라의 촬영 동작에 따른 촬영 이미지(즉, 협각 영상)를 생성하는 처리부가 포함될 수 있다. 처리부에 의해 생성된 협각 영상은 컨트롤 유닛(130) 등에서 이용될 수 있도록 저장부(도시되지 않음)에 저장될 수 있다.The
협각 카메라(240)는 도 2의 (d)에 예시된 바와 같이 광각 카메라에 비해 상대적으로 차량에서 먼 영역까지 촬영 영역으로 할 수 있도록 예를 들어 30 내지 50도의 화각을 가지는 협각 렌즈가 이용되는 카메라이다. 협각 카메라에 의해 생성된 촬영 이미지는 도 2의 (c)에 예시되어 있다. The
도 2의 (d)에는 차량의 전방을 촬영하기 위한 하나의 협각 카메라(240)가 구비된 경우가 예시되었으나, 협각 카메라가 차량의 후방 등 다른 방향을 촬영할 수 있도록 하나 이상 더 구비될 수 있음은 당연하다.Although FIG. 2 (d) illustrates one narrow-
컨트롤 유닛(130)은 영상 처리부(132) 및 제어부(134)를 포함할 수 있다.The
영상 처리부(132)는 광각 영상과 협각 영상에 촬영된 물체가 충돌 가능한 물체가 존재하는지 여부를 판단하고, 충돌 가능한 물체로 판단되면 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출한다.The
또한, 영상 처리부(132)는 광각 영상 및/또는 협각 영상을 이용하여 차량 주변의 차선을 인식하고, 차선의 곡률값을 산출하여 기본 영상과 보조 영상을 각각 선정한다. Also, the
또한 영상 처리부(132)는 기본 영상과 보조 영상 간의 오버랩 영역 및 기본 영상의 기타 영역에 존재하는 물체와의 충돌 예상 정보를 생성한다. 충돌 예상 정보는 후술되는 바와 같이, 물체와의 이격 거리, 충돌까지의 잔여 시간 등 중 하나 이상을 포함할 수 있다.Also, the
이하, 영상 처리부(132)의 동작을 구체적으로 설명한다.Hereinafter, the operation of the
우선, 영상 처리부(132)는 광각 카메라에 의해 생성된 광각 영상과 협각 카메라에 의해 생성된 협각 영상에 촬영된 물체를 인식하고 인식된 물체와 충돌 가능성이 있는지 여부를 판단한다. First, the
예를 들어, 영상 처리부(132)는 촬영된 물체가 실시간 생성되는 광각 영상 또는/및 협각 영상을 참조할 때 크기가 증가되는 변화를 가지는 물체인지, 해당 물체가 충돌 경고 장치(100)가 구비된 자기 차량과 동일한 레인(예를 들어, 차선, 주차 구획선 등) 내에 존재하는지 등을 고려하여 해당 물체가 충돌 가능한 물체인지 여부를 판단하도록 미리 설정될 수 있다. For example, the
여기서, 광각 영상 및/또는 협각 영상에서 에지 검출 등의 영상 처리 기법에 의해 레인이 검출될 수 있으며, 이는 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다. 다만, 광각 영상의 경우 정확한 차선 검출 및 물체 검출이 가능하도록 하기 위해 탑뷰 이미지로 변환하는 처리 등이 실시될 수도 있다.Herein, lanes can be detected by an image processing technique such as edge detection in a wide-angle image and / or a narrow-angle image, and these will be obvious to those skilled in the art, and a description thereof will be omitted. However, in the case of a wide-angle image, processing for conversion to a top view image may be performed in order to enable accurate lane detection and object detection.
예를 들어, 영상 처리부(132)는 광각 영상 또는/및 협각 영상에 존재하는 물체가 자기 차량을 향하는 방향으로 지속적으로 그 크기가 증가하도록 변화된다면 충돌 가능성이 있는 것으로 판단할 수 있다. 그러나, 해당 물체의 크기가 점차 감소하거나, 그 크기가 증가하지만 차량을 비켜가는 방향으로 그 크기가 증가하는 경우라면 충돌 가능성이 없는 것으로 판단할 수 있을 것이다.For example, the
충돌 가능한 물체로 판단되면, 영상 처리부(132)는 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출할 수 있다.If it is determined that the object is a collision object, the
도 3의 (a)와 (b)에 각각 예시된 바와 같이, 광각 영상(310)은 상대적으로 짧은 범위 내의 물체를 검출하기에 용이하도록 생성되고, 협각 영상(320)은 상대적으로 먼 거리의 물체를 검출하기에 용이하도록 생성된다. 이때, 광각 영상(310)과 협각 영상(320) 간에는 오버랩 촬영 영역(260)이 존재하도록 광각 카메라와 협각 카메라가 각각 차량에 설치된다(도 2 (d) 참조).As illustrated in FIGS. 3A and 3B, the wide-
영상 처리부(132)는 광각 카메라와 협각 카메라를 스테레오 비젼으로 활용하여 스테레오 매핑 방식으로 심도 맵(depth map)을 생성한다. 즉, 영상 처리부(132)는 광각 카메라와 협각 카메라 각각에서 생성된 광각 영상(310)과 협각 영상(320)을 이용하여 영상 내의 각 물체의 깊이에 대한 정보를 획득할 수 있는 심도 맵(depth map)(330)을 생성한다(도 4 참조). The
광각 영상(310)과 협각 영상(320)의 형상이 상이하기 때문에, 심도 맵(330)을 생성하기 위해 룩업 테이블(LUT) 등을 이용한 픽셀 매핑 방식 등으로 광각 영상(310)을 협각 영상(320)과 동일 또는 유사한 형식(예를 들어 평면 이미지 형식)으로 변환하는 처리가 선행될 수도 있음은 당연하다. 심도 맵(330)을 생성하는 구체적인 방법 등은 미국등록특허 제8,633,810호, 미국공개특허 제2017/0113611호 등에 상세히 설명되어 있으므로 이에 대한 설명은 생략한다.Since the shapes of the wide-
이외에도 광각 영상(310)과 협각 영상(320)의 픽셀을 매핑하여 합성 처리하는 방식은 다양하며, 일 예로 하기 수학식 1 내지 3을 이용하여 심도 맵(330)의 생성 등을 위한 합성 처리가 이루어질 수도 있다.In addition, there are a variety of methods for mapping the pixels of the wide-
참고로, 수학식 1은 광각 카메라의 H 행렬(즉, H1)을 산출하여 실 세계의 평면 바닥과 광각 카메라의 관계를 구하기 위한 것이고, 수학식 2는 협각 카메라의 H 행렬(즉, H2)을 산출하여 실 세계의 평면 바닥과 협각 카메라의 관계를 구하기 위한 것이다. The equation ( 1 ) is for calculating the H matrix (i.e., H 1 ) of the wide angle camera to obtain the relationship between the plane floor of the real world and the wide angle camera. Equation ( 2) ) To calculate the relationship between the plane floor of the real world and the narrow-angle camera.
여기서, x, y는 촬영 영상에서의 픽셀 좌표이고, x', y'는 차량에서 이격된 거리, 위치 등에 대한 실세계 좌표(측정 좌표)를 나타내며, w는 미리 지정된 가중치이다. 따라서, 수학식 1 및 2에 의해 미지의 행렬인 H1, H2가 각각 산출될 수 있다.Here, x and y are pixel coordinates in the photographed image, x 'and y' represent real world coordinates (measured coordinates) for distances, positions, etc., separated from the vehicle, and w is a predetermined weight. H 1 and H 2 , which are unknown matrices, can be calculated by
또한 산출된 H1과 H2가 동일한 대상(즉, 평면 바닥)을 기준하여 산출된 것으로서, 광각 카메라에 의한 광각 영상과 협각 카메라에 의한 협각 영상은 하기 수학식 3과 같은 관계를 가지게 된다. In addition, as calculated by reference to the calculated H 1 and H 2, the same subject (i. E., Flat bottom), the wide-angle image and the narrow-angle image due to the narrow-angle camera according to the wide-angle camera is to have the relationship of Equation (3).
따라서, 협각 영상의 임의의 픽셀 위치(PNarrow)는 수학식 3에 의해 광각 영상의 한 픽셀 위치(PWide)로 투영될 수 있고, 영상 처리부(132)는 이러한 관계를 이용하여 광각 영상과 협각 영상의 오버랩 영역(260)의 합성 처리한 오버랩 영역 영상을 생성할 수 있다. 마찬가지로, 광각 영상의 한 픽셀 위치가 협각 영상의 한 픽셀 위치로 투영될 수도 있음은 당연하다. 이때, 광각 영상이 미리 지정된 룩업 테이블(LUT)을 이용하여 통상의 렌즈로 촬영된 영상의 형태로 보정되는 처리가 선행된 후 협각 영상의 각 픽셀에 매핑 처리될 수도 있을 것이다.Accordingly, an arbitrary pixel position (P Narrow ) of the narrow- angle image can be projected to one pixel position (P Wide ) of the wide-angle image according to Equation (3), and the image processing unit It is possible to generate an overlap region image obtained by combining the
영상 처리부(132)는 생성한 심도 맵(330)을 이용하여 차량의 운행에 따른 경로 곡률값을 산출한다. The
도 5에 예시된 바와 같이, 차량의 운행은 전진 직진, 전진 우회전, 전진 좌회전, 후진 직진, 후진 우회전 및 후진 우회전 등의 방향으로 이루어질 수 있다. As illustrated in Fig. 5, the vehicle can be driven in the directions of forward straight ahead, forward right turn, forward left turn, backward forward, reverse right turn, and reverse right turn.
각 경우에서 차량의 운행에 따른 경로 곡률값을 산출하기 위해 영상 처리부(132)가 이용하는 심도 맵(330)은 전진 또는 후진에 상응하도록 생성된 합성 영상이다. 즉, 심도 맵(330)은 차량이 전진 방향의 운행인 경우 차량 전방이 촬영된 광각 영상과 협각 영상의 심도 맵이고, 차량이 후진 방향의 운행인 경우 차량 후방이 촬영된 광각 영상과 협각 영상의 심도 맵이다. In each case, the
이때, 차량이 전진인지 후진인지에 관한 정보는 예를 들어 컨트롤 유닛(130)이 차량의 제어 시스템(예를 들어 ECU), GPS 시스템, 지자기 센서 등 중 하나 이상으로부터 제공받아 인식할 수 있고, 영상 처리부(132)는 적절한 영상을 이용하여 심도 맵(330)을 생성할 수 있을 것이다. At this time, the information on whether the vehicle is moving forward or backward can be recognized, for example, by the
차량이 임의의 방향으로 이동되는 동안 광각 영상(310)과 협각 영상(320)이 실시간 생성되며 영상 처리부(132)는 이들을 이용하여 심도 맵(330)을 실시간 생성한다. 영상 처리부(132)는 실시간 생성되는 심도 맵(330) 내의 물체의 심도값 변화(즉, 상대 거리의 변화)를 이용하여 차량의 운행에 따른 경로 곡률값을 산출할 수 있다. The
예를 들어, 도 5의 ⓓ와 같은 심도 맵(330)이 생성된 상태에서 차량이 ⓐ 방향으로 움직이면, 영상 처리부(132)는 전방의 물체 ①, ②, ③에 대해서는 오차 범위 내에서 차이가 없거나 공통적으로 접근하는 방향임을 인식하는 심도의 변화를 인식할 것이다. For example, if the vehicle moves in the direction A in the state in which the
그러나, 차량이 ⓑ 방향으로 움직이면, 영상 처리부(132)는 전방의 물체 ①의 심도가 가장 크게 깊어지고(즉, 상대적으로 가장 멀어지는), ③의 심도가 가장 얕아지는(즉, 상대적으로 가장 가까워지는) 방향으로 각 물체에 심도 변화가 발생됨을 인식할 수 있다.However, if the vehicle moves in the b &thetas;, the
즉, 영상 처리부(132)는 연속적으로 생성되는 심도 맵(330)에서 각 물체의 심도 변화와 각 물체의 이동 표시되는 위치 변화를 이용하여 차량이 어떤 움직임 및 궤적으로 이동하는지를 인식할 수 있고, 이를 통해 차량 자체의 움직임 방향의 흐름을 나타내는 경로 곡률값을 산출할 수 있다. 연속되는 움직임의 크기별로 경로 곡률값을 산출하기 위한 산출 기준은 미리 지정될 수 있다. In other words, the
여기서 경로 곡률값은 차량의 회전 움직임량이 큰지 작은지를 나타내는 값이며, 경로 곡률값이 작을수록 차량이 급격하게 회전하는 움직임을 가지는 것을 나타낸다. Here, the path curvature value is a value indicating whether the rotational motion amount of the vehicle is large or small, and the smaller the path curvature value, the more the vehicle has a sudden turning motion.
아울러, 심도 맵(330)에서 각 물체의 심도 변화와 위치 변화를 이용하여 차량의 움직임에 따른 경로 곡률값을 산출함에 있어, 심도 맵(330)에 포함된 특정 물체 스스로의 이동으로 인한 큰 변화량이 포함되어 경로 곡률값이 왜곡되어 산출됨을 방지하기 위해, 심도 맵(330)에 포함된 각 물체의 변화량이 주변 물체에 비해 미리 지정된 기준값 이상으로 크게 변화되는 물체의 변화량은 제외하고 경로 곡률값을 산출하도록 미리 지정될 수도 있다.In calculating the path curvature value according to the movement of the vehicle using the depth change and the position change of each object in the
다음으로, 영상 처리부(132)는 광각 영상(310) 또는/및 협각 영상(320)에서 검출되는 레인의 곡률값을 산출한다. 여기서, 레인은 차량의 움직임을 유도하기 위해 바닥면에 도시된 일체의 표시 정보를 포함하며, 예를 들어 차량이 주행하는 도로의 차선(도 6의 (a) 참조), 주차장의 주차 구획선(도 6의 (b) 참조) 등일 수도 있다. Next, the
영상 처리부(132)는 도 7의 (a)에 예시된 바와 같이, 협각 영상(320)에서 레인을 검출하고, 검출된 레인의 곡률값을 산출할 수 있다. 차선의 곡률값은 예를 들어 일반적으로 사용되는 하나의 B-스프라인(spline) 곡선에 의한 클로소이드 모델(clothoid model)을 가로 방향으로 확장하고, 두 개의 B-스프라인 곡선으로 도로의 높이 프로파일을 모델링하는 등의 3D 모델을 이용하여 산출될 수 있다. The
평면 도로를 가정한 클로소이드 모델은 하기 수학식 4로 표현될 수 있다. A clothoid model assuming a planar road can be expressed by the following equation (4).
참고로, 수학식 4에서 X(L)은 길이 L에서 차선의 중심점의 위치, xoffset는 자기 차량(ego vehicle)의 차선과의 거리, Δψ는 요 앵글(yaw angle), c0는 차선의 곡률, c1은 곡률 변화량(클로소이드 파라미터)을 의미하며, 여기서 차선의 폭은 미리 지정된다. 클로소이드 모델을 이용하여 인식된 차선의 곡률값(c0)을 산출하는 방법 등에 대해서는 관련 논문(B-spline-based road model for 3D lane recognition, IEEE conference on intelligent transportation system October 2010)에 이미 상세히 기재되어 있으므로 이에 대한 설명은 생략한다.For reference, the position of the center of the lane in the X (L) is the length L in Equation 4, x offset is the distance to the lane of the subject vehicle (ego vehicle), Δψ is a yaw angle (yaw angle), c 0 is the next best Curvature, and c 1 denotes a curvature change amount (closode parameter), wherein the width of the lane is predetermined. The method of calculating the curvature value (c 0 ) of the recognized lane using the clause model is described in detail in the related paper (B-spline-based road model for 3D lane recognition, IEEE conference on intelligent transportation system October 2010) A description thereof will be omitted.
또한, 영상 처리부(132)는 도 7의 (b)에 예시된 바와 같이 광각 영상(310)을 탑뷰 이미지로 변환한 후 탑뷰 이미지를 대상으로 레인을 검출하고 검출된 레인의 곡률값을 산출할 수도 있다. 탑뷰 이미지에서 인식되는 레인이 직선 차선인지 곡선 차선인지 여부를 판별하고, 곡선 차선인 경우 곡선 템플릿의 정합 과정 등을 통해 곡률을 검출하는 기법은 관련 논문(탑뷰 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘 - 2010년 11월 전자공학회 논문지 제47권 SP편 제6호) 등에 상세히 설명되었으므로 이에 대한 설명은 생략한다.7B, the
영상 처리부(132)는 전술한 바와 같이 레인의 곡률값을 광각 영상(310)과 협각 영상(320) 모두를 대상으로 산출할 수도 있으나, 차량의 이동 속도 등 미리 지정된 조건에 따라 레인의 곡률값을 산출하기 위한 대상을 광각 영상(310)과 협각 영상(320) 중 어느 하나로 선택하도록 미리 지정될 수도 있다.The
예를 들어 고속도로 주행 등과 같이 미리 지정된 속도 이상으로 차량이 주행하는 경우에는 협각 영상(320)을 대상으로 레인의 곡률값을 산출하고, 주차장에서 이동 등과 같이 미리 지정된 속도 이하로 차량이 주행하는 경우에는 광각 영상(310)을 대상으로 레인의 곡률값을 산출하도록 미리 지정될 수도 있다. 차량의 이동 속도는 예를 들어 컨트롤 유닛(130)이 차량의 제어 시스템(예를 들어 ECU), GPS 시스템 등으로부터 관련 정보를 제공받아 인식할 수 있을 것이다. For example, when the vehicle travels at a predetermined speed such as a highway traveling, the curvature value of the lane is calculated with respect to the narrow-
또 다른 예로서, 광각 영상(310)과 협각 영상(320) 모두를 대상으로 하여 레인의 곡률값을 각각 산출한 후, 광각 영상(310)에서 산출한 레인의 곡률값이 미리 지정된 한계값 이상인 경우에는 협각 영상(320)에서 산출한 레인의 곡률값으로 결정하되, 광각 영상(310)에서 산출한 레인의 곡률값이 미리 지정된 한계값 이하인 경우에는 광각 영상(310)에서 산출한 레인의 곡률값으로 결정하는 방법이 적용되도록 미리 지정될 수도 있다. As another example, after calculating the curvature values of the lanes with respect to both the wide-
이후, 영상 처리부(132)는 산출된 경로 곡률값 및/또는 레인 곡률값을 참조하여 광각 영상(310)과 협각 영상(320) 중 어느 하나를 차량 진행 방향에 위치한 물체와의 충돌 예상 정보를 생성하기 위한 기본 영상으로 선택하고, 기본 영상과 보조 영상을 이용하여 해당 물체에 대한 충돌 예상 정보를 생성한다. Thereafter, the
구체적으로, 영상 처리부(132)는 차량의 움직임 또는 주변 레인의 곡률을 참조하여 기본 영상을 선택할 때 미리 지정된 임계값보다 곡률이 작다면(즉, 휨 정도가 크다면) 광각 영상과 협각 영상 중 광각 영상을 기본 영상으로 선택한다(도 8의 (a) 및 (c) 참조). 이때, 레인 곡률값은 미리 지정된 제1 임계값과 대비되고, 경로 곡률값은 미리 지정된 제2 임계값과 대비되도록 미리 지정될 수 있다. 여기서, 제1 임계값과 제2 임계값은 같은 값 또는 상이한 값으로 각각 지정될 수 있을 것이다. In detail, when the basic image is selected by referring to the motion of the vehicle or the curvature of the peripheral lane, the
이는, 곡률이 작은 경우에는 급격한 각도의 차량 회전이 필요한 상황이므로 차량 주변의 정보가 보다 중요할 수 있고, 따라서 차량 주변을 중심으로 촬영된 광각 영상을 중심으로 후술될 주행 방향상의 물체와의 충돌 예상 정보를 생성하는 것이 효과적이기 때문이다. This is because, when the curvature is small, the vehicle rotation is required at a sudden angle, so the information around the vehicle may be more important. Therefore, the collision with an object in the running direction, which will be described later, This is because it is effective to generate information.
그러나, 이와 달리 만일 해당 임계값보다 곡률이 크다면(즉, 휨 정도가 작다면) 영상 처리부(132)는 광각 영상과 협각 영상 중 협각 영상을 기본 영상으로 선택한다(도 8의 (b) 및 (d) 참조).However, if the curvature is larger than the threshold value (i.e., the degree of bending is small), the
이는, 곡률이 큰 경우에는 직선 주행 또는 완만한 각도의 차량 회전이 필요한 상황이므로 차량 주변보다는 먼 거리의 정보가 보다 중시되기 때문에, 차량에서 멀리 떨어진 위치까지 촬영된 협각 영상을 중심으로 후술될 주행 방향상의 물체와의 충돌 예상 정보를 생성할 수 있도록 하기 위한 것이다. This is because, in the case of a large curvature, it is necessary to straight-line the vehicle or turn the vehicle at a gentle angle, so that the information of far distance is more important than the surroundings of the vehicle. Therefore, So that the collision prediction information can be generated.
다만, 기본 영상을 선택하기 위한 정보로서 경로 곡률값보다 레인 곡률값을 우선하여 적용하도록 미리 지정될 수 있다. 이는, 차량의 이동 방향을 유도하기 위해 표시된 레인을 따라 차량이 이동함이 일반적이기 때문이다.However, it may be specified in advance to apply the lane curvature value to the path curvature value as information for selecting the basic image. This is because it is common for a vehicle to move along a displayed lane in order to derive the moving direction of the vehicle.
따라서 영상 처리부(132)는 광각 영상(310) 및/또는 협각 영상(320)을 이용하여 레인이 검출되었고 레인 곡률값이 산출되었다면 레인 곡률값을 미리 지정된 임계값과 대비하여 기본 영상을 선택한다. 그러나, 레인이 표시되지 않은 공터 등에서 차량이 운행하는 경우에는 레인이 인식되지 않기 때문에 경로 곡률값을 상응하는 임계값과 대비하여 기본 영상을 선택하게 될 것이다. Accordingly, when the lane is detected using the
영상 처리부(132)는 광각 영상(310)과 협각 영상(320) 중 어느 하나로 선택한 기본 영상을 오버랩 영역 영상과 기타 영역 영상으로 구분하고, 오버랩 영역 영상과 기타 영역 영상에서 각각 물체를 검출하여 검출된 물체에 대한 충돌 예상 정보를 생성한다. The
오버랩 영역 영상은 도 2의 (d)에 표시된 오버랩 촬영 영역(260)에 상응하는 영상이고, 기타 영역 영상은 기본 영상 중 오버랩 영역 영상을 제외한 촬영 영역(즉, 기타 영역)에 대한 영상이다. 즉, 기타 영역은 예를 들어, 기본 영상이 광각 영상인 경우 도 2의 (d)의 ①과 ②에 해당되는 촬영 영역이고, 기본 영상이 협각 영상인 경우 도 2의 (d)의 ③에 해당되는 촬영 영역이다. The overlap region image is an image corresponding to the
영상 처리부(132)는 오버랩 촬영 영역(260)에 상응하도록 생성되는 오버랩 영역 영상을 앞서 설명한 바와 같이 심도 맵(330)의 형태로 생성할 수 있다. The
영상 처리부(132)는 오버랩 영역 영상에서 물체의 검출을 시도하고, 검출된 물체와의 공간상 이격 거리를 산출한다. 물체와의 이격 거리는 실시간 생성되는 광각 영상과 협각 영상을 이용하여 생성되는 오버랩 영역 영상을 이용하여 실시간 변동되어 검출될 수도 있다.The
또한 영상 처리부(132)는 오버랩 영역에 존재하는 충돌 가능성 있는 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간도 산출할 수 있다. Also, the
이와 같이, 영상 처리부(132)는 서로 다른 화각 범위를 가지는 이종의 카메라에서 각각 촬영된 영상들(즉, 광각 영상과 협각 영상)을 함께 이용하여 오버랩 영역 영상을 생성함으로써, 오버랩 영역 영상에 포함되는 정보량을 증가시킬 수 있고, 이를 통해 객체 검출 정확도를 향상시킬 수 있는 장점이 있다.As described above, the
또한 영상 처리부(132)는 기본 영상에서 오버랩 촬영 영역(260) 이외의 기타 영역에 대해서도 물체의 검출을 시도한다. 기타 영역에 상응하는 기타 영역 영상이 기본 영상을 광각 영상으로 선택하였는지 협각 영상으로 선택하였는지에 따라 상이해짐은 앞서 설명한 바와 같다. The
만일 기타 영역에 상응하는 기타 영역 영상에서 충돌 가능한 물체가 검출되면, 전술한 바와 같이 해당 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간 등을 산출할 수 있다. If a collision object is detected in the other region image corresponding to the other region, the remaining time required until collision with the object is calculated using the size change amount of the object and / or the change amount of the distance to the object as described above Can be calculated.
제어부(134)는 영상 처리부(132)에 의해 생성된 충돌 예상 정보(즉, 잔여 시간 및/또는 이격 거리)가 미리 지정된 제3 임계값보다 작은 경우에는 사용자에게 알람 처리를 실시되도록 제어할 수 있다The
여기서, 알람 처리는 시각적 또는/및 청각적 방식으로 실시될 수 있으며, 예를 들어 디스플레이 장치, 스피커 장치 등인 출력부(140)를 통해 처리될 수 있다.Here, the alarm processing can be performed in a visual or / and audible manner and can be processed through an
도 9 내지 도 11은 본 발명의 일 실시예에 따른 충돌 경고 방법을 나타낸 순서도이다.9 to 11 are flowcharts illustrating a collision warning method according to an embodiment of the present invention.
도 9 내지 도 11을 참조하면, 단계 910에서 충돌 경고 장치(100)의 컨트롤 유닛(130)은 차량에 구비된 광각 카메라 및 협각 카메라에 의해 각각 생성된 광각 영상과 협각 영상을 제공받는다.9 to 11, in
단계 915에서 컨트롤 유닛(130)은 제공된 광각 영상 및/또는 협각 영상 내에 물체가 검출되는지 여부를 판단한다. 영상에서 차량이나 신호등 등의 물체를 검출하는 방법은 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다.In
만일 광각 영상 및/또는 협각 영상에서 물체가 검출되었다면, 단계 920에서 컨트롤 유닛(130)은 해당 물체가 자기 차량과 충돌 가능한 물체인지 여부를 판단한다. 예를 들어 자기 차량이 주행하는 차선과 동일한 차선에 위치한 물체이고 해당 물체가 실시간 생성되는 광각 영상이나 협각 영상에서 크기가 증가하는 방향의 변화를 가지는 경우 충돌 가능한 것으로 판단될 수 있을 것이다. If an object is detected in the wide-angle image and / or the narrow-angle image, the
만일 검출된 물체가 충돌 가능한 물체인 것으로 판단되면, 단계 930에서 컨트롤 유닛(130)은 광각 영상과 협각 영상을 이용하여 심도 맵(depth map)을 생성하고, 생성한 심도 맵을 이용하여 경로 곡률값을 산출한다. If it is determined that the detected object is a collision object, the
여기서, 심도 맵은 광각 카메라와 협각 카메라를 스테레오 비젼으로 활용하고 스테레오 매핑 방식을 이용하여 생성한 것으로 영상 내의 각 물체의 깊이에 대한 정보를 획득할 수 있는 특징이 있다.Here, the depth map is created by using a wide-angle camera and a narrow-angle camera as a stereo vision and using a stereo mapping method, and has a feature of acquiring information on the depth of each object in the image.
따라서 자기 차량이 임의의 방향으로 이동되면 심도 맵에 포함된 물체 각각의 심도값이 변화되고, 해당 물체들 각각의 상대적인 변화량의 차이 등을 이용하여 자기 차량이 어느 방향으로 또한 어떤 궤도로 움직이고 있는지에 상응하는 경로 곡률값이 산출될 수 있다.Accordingly, when the subject vehicle is moved in an arbitrary direction, the depth values of the objects included in the depth map are changed, and the direction of the subject vehicle in which direction and the orbit is being moved A corresponding path curvature value can be calculated.
단계 935에서, 컨트롤 유닛(130)은 광각 영상(310) 또는/및 협각 영상(320)에서 레인이 검출되는지 여부를 판단한다. 레인은 예를 들어 차량이 주행하는 도로의 차선, 주차장의 주차 구획선 등일 수 있다.In
만일 레인이 검출되었다면, 단계 940에서 컨트롤 유닛(130)은 검출된 레인의 곡률값을 산출한다. 레인의 곡률이 예를 들어 클로소이드 모델을 이용하거나 곡선 템플릿의 정합 과정 등을 통해 산출될 수 있음은 앞서 설명한 바와 같다. If a lane has been detected, then in
단계 945에서, 컨트롤 유닛(130)은 산출된 레인 곡률값이 미리 지정된 제1 임계값 이하인지 여부를 판단한다. 여기서 레인 곡률값은 예를 들어 차선의 휨 정도를 나타내는 값으로서, 곡률값이 작을수록 급격하게 차선이 휘는 것을 의미한다. In
레인 곡률값이 제1 임계값 이하인 경우, 단계 950에서 컨트롤 유닛(130)은 입력되는 광각 영상과 협각 영상 중 광각 영상을 기본 영상으로 선택하고, 광각 영상을 기준으로 하여 광각 영상과 협각 영상의 오버랩 촬영 영역(260)에 대한 오버랩 영역 영상을 생성한다. 여기서, 오버랩 영역 영상이 심도 맵(depth map)으로 생성될 수 있음은 앞서 설명한 바와 같다.If the lane curvature value is equal to or less than the first threshold value, the
컨트롤 유닛(130)은 생성된 오버랩 영역 영상에서 물체를 검출을 시도하고, 해당 물체에 상응하는 충돌 예상 정보를 생성한다. The
충돌 예상 정보는 예를 들어 물체와의 거리, 물체와 충돌까지의 잔여 시간 등을 포함할 수 있다. 즉, 컨트롤 유닛(130)은 오버랩 영역 영상에서 검출된 물체와의 공간상 이격 거리를 산출한다. 산출된 이격 거리는 해당 물체의 크기 변화량 및/또는 물체와의 이격 거리 변화량을 이용하여 해당 물체와의 충돌까지 소요되는 잔여 시간을 산출하기 위한 정보로 활용될 수 있다. The collision prediction information may include, for example, a distance to an object, a time remaining until collision with the object, and the like. That is, the
또한 컨트롤 유닛(130)은 단계 955에서 기본 영상인 광각 영상에서 오버랩 촬영 영역 이외의 기타 영역(도 2의 ①과 ② 참조)에서 물체의 검출을 추가적으로 시도한다. 만일 기타 영역 영상에서 충돌 가능한 물체가 검출되면, 컨트롤 유닛(130)은 전술한 바와 같이 해당 물체에 상응하는 충돌 예상 정보를 생성한다. In
그러나 만일 단계 945에 의해 레인 곡률값이 제1 임계값 이상인 것으로 판단되면, 단계 960에서 컨트롤 유닛(130)은 입력되는 광각 영상과 협각 영상 중 협각 영상을 기본 영상으로 선택하고, 협각 영상을 기준으로 하여 광각 영상과 협각 영상의 오버랩 촬영 영역(260)에 대한 오버랩 영역 영상을 생성한다. However, if it is determined in
또한 컨트롤 유닛(130)은 생성된 오버랩 영역 영상에서 물체를 검출을 시도하고, 검출된 물체에 대한 충돌 예상 정보를 생성한다. The
이어서, 단계 965에서, 컨트롤 유닛(130)은 기본 영상인 협각 영상에서 오버랩 영역 이외의 기타 영역(도 2의 ③ 참조)에서 물체의 검출을 추가적으로 시도하고, 물체가 검출되면, 컨트롤 유닛(130)은 전술한 바와 같이 해당 물체에 상응하는 충돌 예상 정보를 생성한다.Subsequently, in
전술한 바와 같이, 광각 영상 및/또는 협각 영상에서 레인이 검출되면, 단계 940 내지 단계 965에서 설명한 바와 같이 레인 곡률값을 산출하고, 레인 곡률값과 미리 지정된 제1 임계값과 대비하여 기본 영상 및 보조 영상을 선택하며, 이들을 이용하여 검출된 물체에 대한 충돌 예상 정보를 생성할 수 있다. As described above, when a lane is detected in the wide-angle image and / or the narrow-angle image, the lane curvature value is calculated as described in
그러나 단계 935의 판단에서 레인이 검출되지 않으면, 단계 980에서 컨트롤 유닛(130)은 산출된 경로 곡률값이 미리 지정된 제2 임계값 이하인지 여부를 판단한다. However, if the lane is not detected in
만일 경로 곡률값이 제2 임계값 이하라면, 컨트롤 유닛(130)은 전술한 단계 950 및 955를 수행하여 충돌 예상 정보를 생성한다. If the path curvature value is less than or equal to the second threshold value, the
그러나 만일 경로 곡률값이 제2 임계값보다 크다면면, 컨트롤 유닛(130)은 전술한 단계 960 및 965를 수행하여 충돌 예상 정보를 생성한다. However, if the path curvature value is greater than the second threshold, the
단계 970에서, 컨트롤 유닛(130)은 단계 950 내지 단계 965에서 산출된 충돌 가능한 물체에 대한 충돌 예상 정보(예를 들어 이격 거리 및/또는 충돌까지 소요되는 잔여 시간)이 미리 지정된 제3 임계값 이하인지 여부를 판단한다. 제3 임계값이 거리값 또는/및 시간값 등으로 미리 지정될 것임은 당연하다.In
만일 충돌 예상 정보가 제3 임계값 이하인 경우라면, 컨트롤 유닛(130)은 운전자를 환기시키기 위해 출력부(140)를 통해 시각적 또는/및 청각적 방법으로 알람이 실시되도록 처리한다(단계 975). If the collision prediction information is less than or equal to the third threshold value, the
상술한 충돌 경고 방법은 디지털 처리 장치에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. It is a matter of course that the above-mentioned collision warning method may be performed by an automated procedure in a time-series sequence by a built-in or installed program in the digital processing apparatus. The codes and code segments that make up the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium readable by the digital processing apparatus, and is read and executed by the digital processing apparatus to implement the method.
상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the present invention can be changed.
100 : 충돌 경고 장치
110 : 광각 카메라 유닛
120 : 협각 카메라 유닛
130 : 컨트롤 유닛
132 : 영상 처리부
134 : 제어부
140 : 출력부
211, 213, 215, 217 : 광각 카메라
240 : 협각 카메라
260 : 오버랩 촬영 영역
310 : 광각 영상
320 : 협각 영상
330 : 심도 맵100: crash warning device 110: wide angle camera unit
120: coarse camera unit 130: control unit
132: image processor 134:
140:
240: coarse camera 260: overlap photographing area
310: wide angle image 320: narrow angle image
330: depth map
Claims (17)
하나 이상의 협각 카메라를 포함하여 협각 영상을 생성하도록 상기 차량에 구비되는 협각 카메라 유닛; 및
상기 광각 영상과 상기 협각 영상 중 하나 이상에서 레인을 검출하고, 상기 검출된 레인의 레인 곡률값을 산출하며, 상기 레인 곡률값이 미리 지정된 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 컨트롤 유닛을 포함하는 충돌 경고 장치.
A wide angle camera unit provided in the vehicle to generate a wide angle image including at least one wide angle camera;
A coarse camera unit provided in the vehicle to generate a narrow-angle image including at least one narrow-angle camera; And
The method comprising: detecting a lane at one or more of the wide angle image and the narrow angle image, calculating a lane curvature value of the detected lane, and when the lane curvature value is equal to or less than a predetermined first threshold value, And a control unit for selecting a narrow-angle image as the basic image when the lane curvature value is greater than the first threshold value.
상기 컨트롤 유닛은 미리 지정된 조건에 따라 상기 제1 임계값과 비교할 레인 곡률값을 산출할 하나의 영상을 선택하되,
상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것을 특징으로 하는, 충돌 경고 장치.
The method according to claim 1,
Wherein the control unit selects one image to calculate a lane curvature value to be compared with the first threshold value according to a predetermined condition,
The predetermined condition may be specified either in a wide angle image or in a narrow angle image, or may be specified as one of the wide angle image and the narrow angle image corresponding to the traveling speed of the vehicle, or may be specified as the wide angle image, And changes to the narrow-angle image only when the curvature value of the lane is equal to or larger than a predetermined limit value.
상기 컨트롤 유닛은,
상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하고, 시간적으로 연속하는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출하는 것을 특징으로 하는 충돌 경고 장치.
The method according to claim 1,
The control unit includes:
Angle camera and the coarse-angle camera using the wide-angle image and the narrow-angle image, and generating a depth map for the overlap photographing region of the wide-angle camera and the narrow- And calculates a path curvature value corresponding to the movement locus.
상기 컨트롤 유닛은,
상기 광각 영상 및 상기 협각 영상에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 것을 특징으로 하는 충돌 경고 장치.
The method of claim 3,
The control unit includes:
When the lane is not detected in the wide angle image and the narrow angle image, if the path curvature value is equal to or less than a predetermined second threshold value, the wide angle image is selected as a basic image for generating collision prediction information, And selects a narrow-angle image as the basic image if the second threshold is greater than the second threshold.
하나 이상의 광각 카메라와 하나 이상의 협각 카메라는 각각의 촬영 영역에서 오버랩 촬영 영역이 존재하도록 설치되고,
상기 컨트롤 유닛은 기본 영상의 오버랩 촬영 영역과 기타 촬영 영역에 존재하는 물체에 대해 상기 충돌 예상 정보를 생성하며,
상기 오버랩 촬영 영역은 기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 생성한 오버랩 영역 영상을 이용하여 충돌 예상 정보를 생성하는 것을 특징으로 하는 충돌 경고 장치.
5. The method of claim 4,
Wherein at least one wide angle camera and at least one narrow angle camera are installed such that an overlap shooting area exists in each shooting area,
Wherein the control unit generates the collision prediction information for an object existing in an overlap shooting area of the basic image and in another shooting area,
Wherein the collision prediction unit generates the collision prediction information using the overlap region image generated by synthesizing the basic image and the auxiliary image which is one of the wide angle image and the narrow angle image that are not selected as the basic image, .
상기 오버랩 영역 영상은 심도 맵으로 생성되는 것을 특징으로 하는 충돌 경고 장치.
6. The method of claim 5,
Wherein the overlap region image is generated as a depth map.
상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되고,
상기 컨트롤 유닛은 상기 충돌 예상 정보가 미리 지정된 제3 임계값 이하인 경우 출력부를 통한 알람이 실시되도록 처리하는 것을 특징으로 하는 충돌 경고 장치.
6. The method of claim 5,
Wherein the collision prediction information is generated so as to include at least one of a separation distance from the object and a remaining time until the object collides with the object,
Wherein the control unit causes the alarm to be issued through the output unit when the collision prediction information is equal to or less than a predetermined third threshold value.
상기 컨트롤 유닛은 광각 영상 및 협각 영상 중 하나 이상에 충돌 가능한 물체가 존재하는지 판단하고, 충돌 가능한 물체가 존재하는 경우에만 상기 레인 곡률값의 산출 및 상기 기본 영상의 선택을 수행하는 것을 특징으로 하는 충돌 경고 장치.
The method according to claim 1,
Wherein the control unit determines whether there is an object capable of colliding with at least one of the wide angle image and the narrow angle image and performs calculation of the lane curvature value and selection of the basic image only when there is a collision object. Warning device.
상기 광각 카메라는 어라운드 뷰 모니터링 시스템용 카메라인 것을 특징으로 하는 충돌 경고 장치.
The method according to claim 1,
Wherein the wide angle camera is a camera for an ambient view monitoring system.
(a) 광각 카메라에 의해 생성된 광각 영상과, 협각 카메라에 의해 생성되는 협각 영상 중 협각 영상 중 하나 이상에서 레인을 검출하고, 검출된 레인의 레인 곡률값을 산출하는 단계;
(b) 산출된 레인 곡률값을 미리 지정된 제1 임계값과 비교하는 단계; 및
(c) 상기 레인 곡률값이 상기 제1 임계값 이하인 경우에는 광각 영상을 충돌 예상 정보의 생성을 위한 기본 영상으로 선택하고, 상기 레인 곡률값이 상기 제1 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택하는 단계를 포함하는 충돌 경고 방법.
A collision warning method performed by a collision warning device,
(a) detecting a lane at one or more of a wide angle image generated by the wide angle camera and a narrow angle image among the narrow angle image generated by the narrow angle camera, and calculating a lane curvature value of the detected lane;
(b) comparing the calculated lane curvature value with a predetermined first threshold value; And
(c) if the lane curvature value is equal to or less than the first threshold value, the wide angle image is selected as a basic image for generating the collision prediction information, and when the lane curvature value is larger than the first threshold value, And selecting as the primary image.
상기 단계 (b)는 미리 지정된 조건에 따라 선택된 영상의 레인 곡률값에 대해 수행되되,
상기 미리 지정된 조건은 광각 영상과 협각 영상 중 어느 하나로 미리 지정되거나, 상기 차량의 이동 속도에 상응하도록 상기 광각 영상과 상기 협각 영상 중 어느 하나로 지정되거나, 상기 광각 영상으로 지정되되 상기 광각 영상에서 검출된 레인의 곡률값이 미리 지정된 한계값 이상인 경우에만 상기 협각 영상으로 변경되는 것을 특징으로 하는, 충돌 경고 방법.
11. The method of claim 10,
Wherein the step (b) is performed on a lane curvature value of an image selected according to a predetermined condition,
The predetermined condition may be specified either in a wide angle image or in a narrow angle image, or may be specified as one of the wide angle image and the narrow angle image corresponding to the traveling speed of the vehicle, or may be specified as the wide angle image, And changes to the narrow-angle image only when the curvature value of the lane is equal to or greater than a predetermined limit value.
상기 광각 영상 및 상기 협각 영상을 이용하여 상기 광각 카메라와 상기 협각 카메라의 오버랩 촬영 영역에 대한 심도 맵(depth map)을 생성하는 단계; 및
시간적으로 연속하여 생성되는 심도 맵 내의 물체의 심도 변화를 이용하여 상기 차량의 이동 궤적에 상응하는 경로 곡률값을 산출하는 단계를 더 포함하되,
상기 단계 (a)에서 상기 광각 영상 및 상기 협각 영상 모두에서 레인이 검출되지 않으면, 상기 경로 곡률값이 미리 지정된 제2 임계값 이하인 경우에는 광각 영상을 상기 기본 영상으로 선택되고, 상기 경로 곡률값이 상기 제2 임계값보다 큰 경우에는 협각 영상을 상기 기본 영상으로 선택되는 것을 특징으로 하는 충돌 경고 방법.
11. The method of claim 10,
Generating a depth map for an overlap shooting region of the wide angle camera and the narrow angle camera using the wide angle image and the narrow angle image; And
Further comprising the step of calculating a path curvature value corresponding to the movement trajectory of the vehicle by using the depth change of the object in the depth map continuously generated in time,
If a lane is not detected in both the wide angle image and the narrow angle image in step (a), the wide angle image is selected as the basic image when the path curvature value is equal to or less than a predetermined second threshold value, And if the second threshold value is greater than the second threshold value, the narrow-angle image is selected as the basic image.
미리 지정된 판단 방법에 따라 광각 영상 및 협각 영상 중 하나 이상에 존재하는 물체가 충돌 가능한 물체인 것으로 판단된 경우에만 상기 단계 (a) 내지 (c)가 실시되는 것을 특징으로 하는 충돌 경고 방법.
11. The method of claim 10,
Wherein the steps (a) to (c) are performed only when it is determined that an object existing in at least one of the wide-angle image and the narrow-angle image is a collision-capable object according to a predetermined determination method.
기본 영상으로 선택되지 않은 광각 영상과 협각 영상 중 어느 하나인 보조 영상과 상기 기본 영상을 합성하여 상기 기본 영상과 상기 보조 영상의 오버랩 촬영 영역에 대한 오버랩 영역 영상을 생성하는 단계; 및
상기 오버랩 영역 영상과 상기 기본 영상의 기타 촬영 영역에 존재하는 물체에 대한 충돌 예상 정보를 생성하는 단계를 더 포함하되,
상기 충돌 예상 정보는 상기 물체와의 이격 거리 및 상기 물체와 충돌하기까지의 잔여 시간 중 하나 이상을 포함하도록 생성되는 것을 특징으로 하는 충돌 경고 방법.
13. The method of claim 12,
Generating an overlap region image of the overlapping image region of the basic image and the auxiliary image by synthesizing the basic image and the auxiliary image which is one of the wide angle image and the narrow angle image not selected as the basic image; And
Further comprising the step of generating collision prediction information for the overlap region image and an object existing in another imaging region of the basic image,
Wherein the collision prediction information is generated to include at least one of a separation distance from the object and a remaining time until the object collides with the object.
상기 충돌 예상 정보를 미리 지정된 제3 임계값과 대비하는 단계; 및
상기 충돌 예상 정보가 상기 제3 임계값 이하인 경우, 출력부를 통한 알람이 실시되도록 처리하는 단계를 더 포함하는 충돌 경고 방법.
15. The method of claim 14,
Comparing the collision prediction information with a predetermined third threshold value; And
And if the collision prediction information is equal to or less than the third threshold value, processing to cause an alarm through the output unit to be performed.
상기 오버랩 영역 영상은 심도 맵(depth map)으로 생성되는 것을 특징으로 하는 충돌 경고 방법.
15. The method of claim 14,
Wherein the overlap region image is generated as a depth map.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170167657A KR102031635B1 (en) | 2017-12-07 | 2017-12-07 | Collision warning device and method using heterogeneous cameras having overlapped capture area |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170167657A KR102031635B1 (en) | 2017-12-07 | 2017-12-07 | Collision warning device and method using heterogeneous cameras having overlapped capture area |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190067578A true KR20190067578A (en) | 2019-06-17 |
KR102031635B1 KR102031635B1 (en) | 2019-10-14 |
Family
ID=67064925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170167657A KR102031635B1 (en) | 2017-12-07 | 2017-12-07 | Collision warning device and method using heterogeneous cameras having overlapped capture area |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102031635B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258878A (en) * | 2019-07-22 | 2021-01-22 | 纬创资通股份有限公司 | Driving early warning system, driving early warning method and electronic device using method |
WO2021033812A1 (en) * | 2019-08-22 | 2021-02-25 | (주)캠시스 | Heterogeneous stereo camera system and camera calibration method |
CN113489945A (en) * | 2020-12-18 | 2021-10-08 | 深圳市卫飞科技有限公司 | Target positioning method, device and system and computer readable storage medium |
WO2022102995A1 (en) * | 2020-11-16 | 2022-05-19 | 삼성전자주식회사 | Electronic apparatus and controlling method thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160051321A (en) * | 2014-11-03 | 2016-05-11 | 현대자동차주식회사 | Active side view system of vehicle |
JP5962771B2 (en) * | 2012-12-12 | 2016-08-03 | 日産自動車株式会社 | Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method |
KR101739394B1 (en) | 2016-12-30 | 2017-05-26 | 재단법인대구경북과학기술원 | Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof |
KR101767237B1 (en) * | 2016-04-27 | 2017-08-10 | (주)한양정보통신 | Apparatus and method for detecting object |
KR20170111504A (en) * | 2016-03-28 | 2017-10-12 | 자동차부품연구원 | Method and Apparatus for Assessing an Image Match of an Around View Image for an Around View Monitor System |
JP2017211734A (en) * | 2016-05-24 | 2017-11-30 | ヤンマー株式会社 | Autonomous travel route generation system |
-
2017
- 2017-12-07 KR KR1020170167657A patent/KR102031635B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5962771B2 (en) * | 2012-12-12 | 2016-08-03 | 日産自動車株式会社 | Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method |
KR20160051321A (en) * | 2014-11-03 | 2016-05-11 | 현대자동차주식회사 | Active side view system of vehicle |
KR20170111504A (en) * | 2016-03-28 | 2017-10-12 | 자동차부품연구원 | Method and Apparatus for Assessing an Image Match of an Around View Image for an Around View Monitor System |
KR101767237B1 (en) * | 2016-04-27 | 2017-08-10 | (주)한양정보통신 | Apparatus and method for detecting object |
JP2017211734A (en) * | 2016-05-24 | 2017-11-30 | ヤンマー株式会社 | Autonomous travel route generation system |
KR101739394B1 (en) | 2016-12-30 | 2017-05-26 | 재단법인대구경북과학기술원 | Apparatus for estimating distance to object using stereo camera with heterogeneous angle of view and method thereof |
Non-Patent Citations (4)
Title |
---|
B-spline-based road model for 3D lane recognition(IEEE conference on intelligent transportation system October 2010) |
미국공개특허 제2017/0113611호(Method for stereo map generation with novel optical resolutions) |
미국등록특허 제8,633,810호(Rear-view multi-functional camera system) |
탑뷰(top view) 영상을 이용한 곡선 템플릿 정합 기반 차선 및 곡률 검출 알고리즘(2010년 11월 전자공학회 논문지 제47권 SP편 제6호) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258878A (en) * | 2019-07-22 | 2021-01-22 | 纬创资通股份有限公司 | Driving early warning system, driving early warning method and electronic device using method |
WO2021033812A1 (en) * | 2019-08-22 | 2021-02-25 | (주)캠시스 | Heterogeneous stereo camera system and camera calibration method |
WO2022102995A1 (en) * | 2020-11-16 | 2022-05-19 | 삼성전자주식회사 | Electronic apparatus and controlling method thereof |
CN113489945A (en) * | 2020-12-18 | 2021-10-08 | 深圳市卫飞科技有限公司 | Target positioning method, device and system and computer readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR102031635B1 (en) | 2019-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10093247B2 (en) | Enhanced front curb viewing system | |
US9886636B2 (en) | Enhanced top-down view generation in a front curb viewing system | |
US9151626B1 (en) | Vehicle position estimation system | |
US9834143B2 (en) | Enhanced perspective view generation in a front curb viewing system | |
US9863775B2 (en) | Vehicle localization system | |
EP1961613B1 (en) | Driving support method and driving support device | |
JP6091586B1 (en) | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM | |
JP4676373B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
JP3494434B2 (en) | Parking assistance device | |
US20150042799A1 (en) | Object highlighting and sensing in vehicle image display systems | |
US20150109444A1 (en) | Vision-based object sensing and highlighting in vehicle image display systems | |
US20020154217A1 (en) | Apparatus and method of recognizing vehicle travelling behind | |
JP4796676B2 (en) | Vehicle upper viewpoint image display device | |
KR102031635B1 (en) | Collision warning device and method using heterogeneous cameras having overlapped capture area | |
JP2004056763A (en) | Monitoring apparatus, monitoring method, and program for monitor | |
JP2002359838A (en) | Device for supporting driving | |
JP6471522B2 (en) | Camera parameter adjustment device | |
JP6032034B2 (en) | Object detection device | |
US11562576B2 (en) | Dynamic adjustment of augmented reality image | |
KR20180020274A (en) | Panel conversion | |
KR20180021822A (en) | Rear Cross Traffic - QuickLux | |
CN109895697B (en) | Driving auxiliary prompting system and method | |
JP2021013072A (en) | Image processing device and image processing method | |
CN112334947A (en) | Method for representing surroundings based on sensor and memory, display device and vehicle having display device | |
EP3163533A1 (en) | Adaptive view projection for a vehicle camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |