KR101531313B1 - Apparatus and method for object detection of vehicle floor - Google Patents

Apparatus and method for object detection of vehicle floor Download PDF

Info

Publication number
KR101531313B1
KR101531313B1 KR1020130165416A KR20130165416A KR101531313B1 KR 101531313 B1 KR101531313 B1 KR 101531313B1 KR 1020130165416 A KR1020130165416 A KR 1020130165416A KR 20130165416 A KR20130165416 A KR 20130165416A KR 101531313 B1 KR101531313 B1 KR 101531313B1
Authority
KR
South Korea
Prior art keywords
image
depth
vehicle
detected object
angle
Prior art date
Application number
KR1020130165416A
Other languages
Korean (ko)
Inventor
김윤상
김승열
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020130165416A priority Critical patent/KR101531313B1/en
Application granted granted Critical
Publication of KR101531313B1 publication Critical patent/KR101531313B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed is an apparatus to detect a lower part of a vehicle comprising: a depth sensor to generate a depth image with respect to the lower part of a vehicle; a rotation module to rotate the depth sensor in a horizontal direction; and a control module to generate a first depth image corresponding to a vehicle lower part photographing image in absence of an object, and to detect an object by subtracting the first depth image from a second depth image corresponding to the vehicle lower part photographing image at an arbitrary view.

Description

차량 하부의 물체 탐지장치 및 방법{APPARATUS AND METHOD FOR OBJECT DETECTION OF VEHICLE FLOOR}[0001] APPARATUS AND METHOD FOR OBJECT DETECTION OF VEHICLE FLOOR [0002]

본 명세서는 차량 하부의 물체를 탐지하기 위한 방법 및 장치에 관한 것으로서, 더욱 상세하게는 차량 하부를 촬영한 영상을 분석하여 물체를 검출하고, 검출된 물체의 위험성 여부를 판별하기 위한 방법 및 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for detecting an object under a vehicle, and more particularly to a method and apparatus for detecting an object by analyzing an image of a lower part of the vehicle, .

근래에 어린이 등이 차량 하부에 깔려 상해를 입는 사고가 증가하고 있다. 이러한 사고는 대개 어린이 등이 사각지대에 있었음에도 운전자가 차량 주위를 충분한 살펴보지 않고 운행을 시작할 때 발생한다. 즉, 이러한 사고의 주원인은 운전자 부주의이다. 상기와 같은 사고를 예방하기 위하여 최근 차량들은 운전자에게 장애물 경고를 하기 위한 사각지대 탐지용 전방, 후방 측면 센서를 장착하는 추세이다. 그러나, 이러한 장치들은 차량 하부의 물체는 탐지하지 못하는 경우가 많다. 따라서 차량 하부의 위험 물체를 탐지하고, 운전자에게 차량 하부의 상태를 알려줄 수 있는 방법이 요청된다.In recent years, accidents involving injuries caused by children being laid under the vehicle are increasing. These accidents usually occur when the driver starts driving without looking around the vehicle, even if the child is in a blind spot. That is, the main cause of such accidents is driver carelessness. In order to prevent such accidents, recent vehicles are equipped with front and rear side sensors for detecting a dead zone to warn the driver of an obstacle. However, such devices often fail to detect objects under the vehicle. Therefore, a method of detecting a dangerous object under the vehicle and informing the driver of the state of the under vehicle is requested.

본 명세서는 차량 하부의 물체를 탐지하기 위한 방법 및 장치를 제공하는 데에 그 목적이 있다. 보다 구체적으로는 차량 하부를 촬영한 영상을 분석하여 물체를 검출하고, 검출된 물체의 위험성 여부를 판별하여 운전자에게 경보를 제공하는 방법 및 장치를 제공하는 것에 목적이 있다.It is an object of the present invention to provide a method and an apparatus for detecting an object under a vehicle. More particularly, it is an object of the present invention to provide a method and an apparatus for detecting an object by analyzing an image of a lower portion of a vehicle and discriminating whether or not the detected object is dangerous to provide an alarm to the driver.

본 명세서의 일 실시예에 따라 차량하부 탐지장치가 제공된다. 상기 장치는 차량 하부에 대한 깊이 영상을 생성하는 깊이 센서; 상기 깊이 센서를 수평 방향으로 회전시키는 회전 모듈; 물체가 없는 상태에서의 차량 하부 촬영 영상에 대응되는 제1 깊이 영상을 생성하고, 임의의 시각에서의 차량 하부 촬영 영상에 대응되는 제2 깊이 영상과 상기 제1 깊이 영상을 차분(subtraction)하여 물체를 검출하는 제어 모듈을 포함할 수 있다.According to one embodiment of the present invention, a vehicle lower detecting apparatus is provided. The apparatus comprising: a depth sensor for generating a depth image of a lower portion of the vehicle; A rotation module for horizontally rotating the depth sensor; A first depth image corresponding to a vehicle under-shooting image in a state in which there is no object is generated and a second depth image corresponding to a vehicle under-shooting image at an arbitrary time is subtracted from the first depth image, And a control module for detecting the control signal.

본 명세서의 다른 실시예에 따라 차량하부 탐지장치가 차량하부의 물체를 탐지하는 방법이 제공된다. 상기 방법은 깊이 센서를 수평 방향으로 회전시켜 물체가 없는 상태에서의 차량 하부 촬영 영상에 대응되는 제1 깊이 영상을 생성하는 단계; 상기 깊이 센서를 수평 방향으로 회전시켜 임의의 시각에서의 차량 하부 촬영 영상에 대응되는 제2 깊이 영상을 생성하는 단계; 상기 제2 깊이 영상과 상기 제1 깊이 영상을 차분(subtraction)하여 물체를 검출하는 단계;를 포함할 수 있다.In accordance with another embodiment of the present disclosure, a method is provided for a vehicle under-detection device to detect an object under a vehicle. The method includes rotating a depth sensor in a horizontal direction to generate a first depth image corresponding to an under-vehicle image in an object-free state; Rotating the depth sensor in a horizontal direction to generate a second depth image corresponding to an under-vehicle image at an arbitrary time; And subtracting the second depth image and the first depth image to detect an object.

본 명세서의 실시예들은 차량 하부의 상태를 정확히 분석함으로써, 사용자가 차량 하부의 상황을 알 수 있도록 도울 수 있다. 특히, 차량 하부에 장애물 유무 및 위험 여부를 자동 탐지하여 운전자의 알림으로써, 사고 발생의 위험을 줄일 수 있다.Embodiments of the present disclosure can help the user to know the situation of the under vehicle by accurately analyzing the condition of the under vehicle. In particular, the risk of an accident can be reduced by automatically detecting the existence of obstacles and dangerousness in the lower part of the vehicle and informing the driver.

도 1은 본 명세서의 실시예에 따른 차량하부 탐지장치의 동작을 개략적으로 나타낸 도면이다.
도 2는 본 명세서의 일 실시예에 따른 차분 방법을 나타낸 영상이다.
도 3은 본 명세서의 실시예에 따른 차량하부 탐지장치의 필터링 동작을 개략적으로 나타낸 도면이다.
도 4는 본 명세서의 일 실시예에 따른 필터링 영역을 나타낸 도면이다.
도 5는 본 명세서의 일 실시예에 따른 방향각 측정 방법을 나타낸 도면이다.
도 6은 본 명세서의 실시예에 따른 차량하부 탐지장치의 블록도이다.
도 7은 본 명세서의 실시예에 따른 차량하부 탐지방법을 나타낸 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram schematically illustrating the operation of a vehicle lower detecting apparatus according to an embodiment of the present invention; FIG.
2 is an image showing a difference method according to an embodiment of the present invention.
3 is a schematic view illustrating a filtering operation of the vehicle lower detecting apparatus according to the embodiment of the present invention.
4 is a diagram illustrating a filtering area according to an embodiment of the present invention.
5 is a view illustrating a direction angle measuring method according to an embodiment of the present invention.
6 is a block diagram of a vehicle lower detecting apparatus according to an embodiment of the present invention.
7 is a flowchart illustrating a method of detecting a vehicle lower portion according to an embodiment of the present invention.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used herein are used only to describe specific embodiments and are not intended to limit the invention. It is also to be understood that the technical terms used herein are to be interpreted in a sense generally understood by a person skilled in the art to which the present invention belongs, Should not be construed to mean, or be interpreted in an excessively reduced sense. Further, when a technical term used herein is an erroneous technical term that does not accurately express the spirit of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art are replaced. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings. The spirit of the present invention should be construed as extending to all modifications, equivalents, and alternatives in addition to the appended drawings.

도 1은 본 명세서의 실시예에 따른 차량하부 탐지장치를 나타낸 개념도이다.1 is a conceptual diagram showing a vehicle lower detecting apparatus according to an embodiment of the present invention.

차량 하부의 위험 물체 탐지는 차량 하부 영역의 모든 물체를 인식하는 것을 의미하며, 종래의 물체 탐지 시스템 대부분은 RGB 카메라를 이용한 시각 기반 시스템이었다. 그러나, 자주 변화하는 환경에서 RGB 카메라 이용한 물체 탐지는 조도(illumination) 변화 때문에 종종 오류가 발생한다. 때문에 최근에는 조도 간섭을 받지 않는 적외선 기반의 깊이 센서(depth sensor)를 이용한 물체 탐지에 대한 연구가 증가하고 있다. 깊이 센서는 단일 카메라 이미지에서 깊이 정보를 추출하여 특정 물체의 거리 정보를 획득하고, 추출한 정보를 그레이(grey) 이미지로 조합한다. 하지만 단일 카메라와 결합된 깊이 센서는 시야(FOV, Field of View)의 한계 때문에 차량 하부의 전체 영역을 관찰하기에는 불충분한 경우가 많다.The detection of dangerous objects in the lower part of the vehicle means recognition of all objects in the area under the vehicle, and most of the conventional object detection systems were vision-based systems using RGB cameras. However, in frequently changing environments, object detection using RGB cameras often fails because of illumination changes. Recently, research on object detection using an infrared-based depth sensor which is not subjected to illumination interference has been increasing. The depth sensor extracts depth information from a single camera image to obtain distance information of a specific object, and combines the extracted information into a gray image. However, a depth sensor combined with a single camera is often insufficient to observe the entire area of the vehicle's bottom due to the limit of field of view (FOV).

이에 다수의 카메라를 결합하거나, 특수한 종류의 렌즈(예: 어안 렌즈) 및 거울(예: 비구면 거울, aspherical mirror)을 사용하는 방법들이 넓은 FOV 관찰을 위해 제안되었다. 이러한 방법들은 고정된 시점에서 넓은 영역을 관찰할 수 있는 장점이 있지만, 추가적인 이미지 왜곡을 다루기 위해 이미지 보상이 필요하며, 불규칙한 해상도에 의해 관찰의 신뢰성이 낮아진다. 넓은 FOV 관찰을 위해 PTZ (Pan-Tilt-Zoom) 카메라를 이용하는 방법도 적용될 수 있다. PTZ 카메라는 회전 부품을 적용한 단일 카메라를 이용한 단방향 관찰뿐만 아니라 균일한 해상도를 제공받을 수 있는 장점이 있다. 다만 PTZ 기반 관찰 시스템은 고정된 영역의 관찰이 주 목적이므로, 상기 시스템이 사용하는 배경 이미지 기반 차분(subtraction) 방법도 움직이는 차량의 특성에 맞게 변경되어야 한다.Methods for combining multiple cameras or using special types of lenses (eg fisheye lenses) and mirrors (eg, aspherical mirrors) have been proposed for wide FOV observations. Although these methods have the advantage of observing a large area at a fixed point, image compensation is required to deal with additional image distortion, and irregular resolution lowers the reliability of observation. A method using a PTZ (Pan-Tilt-Zoom) camera can be applied for wide FOV observation. The PTZ camera is advantageous not only in unidirectional observation using a single camera using rotating parts but also in uniform resolution. However, since the PTZ-based observation system is mainly aimed at observing the fixed area, the background image-based subtraction method used by the system must be changed to match the characteristics of the moving vehicle.

따라서 본 명세서에서는 움직이는 차량 하부 영역에 배경 차분(background subtraction) 방법을 적용하기 위해서, 지속적으로 변하는 배경을 다루는 기법을 제안한다. 또한 본 명세서에서는 깊이 센서(depth sensor), 회전 모듈(rotation module) 등을 사용하는, 가변 환경에 강인한, 차량하부 탐지장치를 제안한다. 깊이 센서는 다양한 환경에서 물체 탐지를 위한 깊이 맵(depth map)을 획득하는데 사용된다. 본 명세서의 차량하부 탐지장치는 회전 모듈(예:스테퍼 모터, stepper motor)을 사용하여 차량 하부의 모든 방향 배경 이미지를 획득하고, 실시간 입력 영상에 대한 배경 차분 방법(background subtraction method)을 사용하여 물체를 탐지한다. 또한 지속적으로 변화하는 배경을 처리하기 위해 외부 물체 필터링 알고리즘(external obstacle filtering algorithm)을 사용할 수 있다.Therefore, in this specification, we propose a technique to deal with a continuously changing background in order to apply the background subtraction method to a moving vehicle subarea. Also, in the present specification, a sub-vehicle detection device using a depth sensor, a rotation module and the like, which is resistant to a variable environment, is proposed. The depth sensor is used to acquire a depth map for object detection in various environments. The vehicle lower detection apparatus of the present invention uses a rotation module (e.g., a stepper motor) to acquire background images in all directions under the vehicle, and uses a background subtraction method for the real- Lt; / RTI > You can also use an external obstacle filtering algorithm to handle a continuously changing background.

본 명세서의 실시예에 따른 차량하부 탐지장치는 깊이 센서, 회전 모듈, 제어 모듈을 포함하여 구성될 수 있다.The vehicle lower detecting apparatus according to an embodiment of the present invention may include a depth sensor, a rotation module, and a control module.

도 1을 참조하여 상기 차량하부 탐지장치의 동작을 설명하면, 먼저 상기 차량하부 탐지장치는 깊이 센서로부터 획득된 깊이 맵(depth map)을 이용하여 (물체가 포함되지 않은) 전방향(full direction) 배경 영상을 생성한다. First, the operation of the vehicle lower detecting apparatus will be described with reference to FIG. 1. First, the vehicle lower detecting apparatus detects a full direction (without an object) using a depth map obtained from a depth sensor, And generates a background image.

이때 깊이 센서는 차량 하부 관찰의 특성상 수평 회전 동작만 할 수도 있다. 즉, 차량 하부 영역은 상대적으로 상하 높이가 크지 않으므로, 회전 모듈은 좌우 회전 동작만 하여 깊이 센서가 360˚ 방향의 깊이 영상을 획득하도록 동작할 수 있다. 이때 45˚ 촬영 각도로 8개의 깊이 맵(서브 맵)을 획득하고, 8개를 조합하여 하나의 배경 영상으로 만들 수 있다.At this time, the depth sensor may only perform a horizontal rotation operation due to the characteristics of the lower portion of the vehicle. That is, since the lower portion of the vehicle is not relatively large in vertical height, the rotation module can operate to obtain a depth image in the 360-degree direction only by turning clockwise. At this time, eight depth maps (submaps) may be acquired at a 45 degree photographing angle, and eight images may be combined into one background image.

다음으로 상기 차량하부 탐지장치는 실시간으로 획득된 현재의 깊이 이미지(depth image)를 기 생성한 배경 이미지와 비교하고, 차분 방법을 사용하여 물체를 검출한다.Next, the vehicle lower detection apparatus compares a current depth image obtained in real time with a previously created background image, and detects an object using a difference method.

상기 차량하부 탐지장치는 배경 차분 방법(background subtraction method)을 기반으로 물체 추출을 수행할 수 있다. 상기 배경 차분 방법은 정상 촬영(steady shooting) 조건에서 효과적이며, 명료한 배경 이미지를 획득할 수 있다. 깊이 센서는, 대상물에 주사된 적외선의 구조 변화로부터 깊이 정보를 계산하여 추출하는 구조 광 방식(structured-light method)이 적용되기 때문에, 대상물의 표면이 균일하지 않거나, 대상물 표면이 적외선을 반사하는 경우에 불규칙한 홀(irregular holes)이 나타날 수도 있다. 이러한 문제를 해결하기 위해 상기 차량하부 탐지장치에는 모폴로지(형태) 연산(morphological operation)이 적용될 수 있다. 또한 isolated noise를 제거하고 인접 픽셀들을 병합하기 위해 Erode operation 및/또는 Dilate operation이 적용될 수도 있다. 더 나아가 탐지 물체를 제외한 모든 픽셀을 제거하기 위해 labeling operation이 적용될 수도 있다.The vehicle lower detection apparatus can perform object extraction based on a background subtraction method. The background difference method is effective in a steady shooting condition and can obtain a clear background image. Since the depth sensor is a structured-light method that calculates and extracts depth information from the structural change of the infrared ray scanned on the object, the surface of the object is not uniform or the surface of the object reflects infrared rays Irregular holes may appear in the holes. In order to solve this problem, a morphological operation may be applied to the vehicle lower detecting apparatus. Erode operation and / or Dilate operation may also be applied to remove the isolated noise and merge adjacent pixels. Further, a labeling operation may be applied to remove all pixels except for the object to be detected.

도 2는 본 명세서의 일 실시예에 따른 차분 방법을 나타낸 영상이다. 도 2의 (a)는 탐지 대상 물체가 없는 원본 배경 이미지이고, 도 2의 (b)는 물체를 포함하는 이미지이다. 물체를 포함하는 이미지에서 배경을 차분(subtraction)하면 도 2의 (c)와 같은 결과가 얻어진다. 여기에 모폴로지 연산(morphological operation) 및/또는 labeling operation을 적용하면, 도 2의 (d)와 같이 깨끗한 이미지를 추출할 수 있다.2 is an image showing a difference method according to an embodiment of the present invention. 2 (a) is an original background image without an object to be detected, and Fig. 2 (b) is an image including an object. If the background is subtracted from the image including the object, the result as shown in FIG. 2 (c) is obtained. If a morphological operation and / or a labeling operation is applied to this, a clean image can be extracted as shown in FIG. 2 (d).

종래의 영상 차분 기반의 물체 탐지에서, 배경 영상은 이전에 생성된 영상과 항상 동일해야 한다. 그러나 이동하는 차량 주변의 배경은 계속 변화한다. 차량주변 사고는 주로 도시지역에서 발생하고 차량은 보통 평지에 주차된다고 보았을 때, 깊이 영상은 텍스쳐(texture)에 독립적이기 때문에 배경에서 변하는 부분은 다른 차량, 소정 높이의 장애물, 보행자 등이다. 본 명세서의 실시예에서는 이러한 의도하지 않은 요인(element)들을 없애기 위해, 깊이 값이 특정 값보다 큰 요인들은 제거(필터링)함으로써 탐지 성공률을 높인다.In conventional image difference-based object detection, the background image must always be the same as the previously generated image. But the background around the moving vehicle keeps changing. When a vehicle-related accident occurs mainly in an urban area, and the vehicle is usually parked on a flat ground, the depth image is independent of the texture, so the changing part in the background is another vehicle, obstacle at a predetermined height, pedestrian, and the like. In the embodiment of the present invention, in order to eliminate these unintended elements, the detection success rate is raised by removing (filtering) factors having a depth value larger than a specific value.

본 명세서에서 제안하는 실시예에서는, 이동하는 차량 주위의 계속 변하는 배경에 기인한 차분 방법 적용상의 난점을 해결하기 위해, 필터링 영역을 정의하고 상기 필터링 영역 외부의 물체는 제거하는 알고리즘이 적용될 수 있다. 도 3을 참조하여 설명하면, 일단 물체(장애물)가 탐지되면, 차량하부 탐지장치는 해당 물체의 중심점을 계산하고, 그 방향을 결정한다. 이후 차량하부 탐지장치는 탐지 물체와의 거리를 기준 거리와 비교하여 그 물체가 위험한지 여부를 판단한다. (기준 거리 내의 물체만 위험한 것으로 판정) 각 탐지방향에 대한 기준 거리는 필터링 영역과 함께 미리 정의될 수 있다. 이때 상기 필터링 영역은 타원 방정식으로 기술되는 타원형 영역일 수 있다. 도 4의 (b)를 보면 필터링 영역은 5,000mm의 장축 및 2,800mm의 단축을 가진 타원으로 정의된다. 필터링 영역을 사각형으로 정의하면 각 방향의 거리를 수학적 관계로 다루기 어렵고, 원으로 정의하면 영역 넓이가 너무 커지는 문제가 있기 때문에, 본 실시예에서는 필터링 영역을 타원형으로 정의하였다.In the embodiment proposed here, an algorithm may be applied to define a filtering area and to remove objects outside the filtering area, in order to solve difficulties in application of the difference method due to the ever-changing background around the moving vehicle. Referring to FIG. 3, once an object (obstacle) is detected, the vehicle lower detecting apparatus calculates a center point of the object and determines the direction. Subsequently, the vehicle lower detecting device compares the distance to the detected object with the reference distance to determine whether the object is dangerous. (Only objects within the reference distance are judged to be dangerous.) The reference distance for each detection direction can be predefined together with the filtering area. The filtering region may be an elliptical region described by an elliptic equation. 4 (b), the filtering region is defined as an ellipse having a major axis of 5,000 mm and a minor axis of 2,800 mm. If the filtering region is defined as a rectangle, it is difficult to treat the distances in each direction as a mathematical relation. If the filtering region is defined as a circle, the region width becomes too large. Therefore, in this embodiment, the filtering region is defined as an ellipse.

차량하부 탐지장치는 탐지된 물체의 방향을 결정하기 위하여, 먼저 탐지된 물체의 중심점(center point)을 계산한다. 상기 중심점은 탐지된 물체가 영상에서 차지하는 픽셀(pixel) 수의 평균으로 계산될 수 있으며, 이 과정에 하기 수학식이 사용될 수 있다.The vehicle lower detection device first calculates the center point of the detected object to determine the direction of the detected object. The center point may be calculated as an average of the number of pixels occupied by the detected object in the image, and the following equation may be used in this process.

Figure 112013119664252-pat00001

Figure 112013119664252-pat00001

Figure 112013119664252-pat00002

Figure 112013119664252-pat00002

Figure 112013119664252-pat00003
Figure 112013119664252-pat00003

여기서 x’, y’은 중심점의 x축, y축 좌표이고, A는 탐지된 물체의 총 픽셀 수이고, B[i,j]는 탐지된 물체의 픽셀 좌표이다.Where x 'and y' are the x and y coordinates of the center point, A is the total number of pixels of the detected object, and B [i, j] is the pixel coordinates of the detected object.

다음 단계로, 차량하부 탐지장치는, 탐지된 물체의 방향을 깊이 센서의 위치와 연관지어 결정한다. 예컨대, 도 5의 (b)와 같이, 탐지 물체가 촬영된 영상에서 물체의 중심점과 영상의 중심점 사이의 수평 거리를 계산하고, 도 5의 (a)와 같이, 계산된 거리값과 이미 알고 있는 깊이 센서의 수평 시야각을 이용한 비례식을 적용하여, 탐지된 물체의 방향각(θ)를 계산한다. 도 5의 (b)에서는 물체의 중심점과 영상의 중심선과의 수평거리는 75 픽셀이고, 영상의 폭은 320 픽셀이며 시야각이 57˚ 이므로, 75 픽셀은 비례식으로 환산하면 13˚가 된다. 한편 도 5의 (a)에서는 해당 영상이 촬영되었을 때의 센서 방향이 기준선에서 A도이고, 탐지된 물체(OA)가 영상 중심선 좌측 x도에 있다면, 최종적인 방향각(θ)는 A-(28-x)˚ 이다.In the next step, the vehicle lower detecting device determines the direction of the detected object by correlating with the position of the depth sensor. For example, as shown in FIG. 5 (b), the horizontal distance between the center point of the object and the center point of the image is calculated in the captured image, and the calculated distance value and the known distance Calculate the direction angle (θ) of the detected object by applying the proportional formula using the horizontal viewing angle of the depth sensor. In FIG. 5 (b), the horizontal distance between the center point of the object and the center line of the image is 75 pixels, the width of the image is 320 pixels, and the viewing angle is 57 degrees. 5A, the sensor direction when the image is captured is A on the reference line, and if the detected object OA is on the left side of the image center line x, the final direction angle? 28-x).

탐지 물체의 위치(방향)이 계산되면, 탐지 물체까지의 거리가 계산될 수 있다. 우선, 깊이 센서로부터 탐지 물체까지의 방향선과 필터링 영역의 경계선의 교점(S)까지의 거리가 타원 방정식을 사용하여 계산될 수 있다. 이 과정에서 사용되는 수학식은 하기와 같다.When the position (direction) of the detected object is calculated, the distance to the detected object can be calculated. First, the distance between the directional line from the depth sensor to the object to be detected and the intersection S of the boundary line of the filtering area can be calculated using the elliptic equation. The mathematical formulas used in this process are as follows.

Figure 112013119664252-pat00004
Figure 112013119664252-pat00004

Figure 112013119664252-pat00005
Figure 112013119664252-pat00005

여기서 y는 깊이 센서로부터 탐지 물체까지의 방향선과 필터링 영역의 경계선의 교점(S)까지의 거리이고, m은 상기 S의 장축 방향 거리이고, n은 상기 S의 단축 방향 거리이고, a는 필터링 영역을 구성하는 타원의 장축이고, b는 필터링 영역을 구성하는 타원의 단축이고, θ는 탐지물체의 방향각이다.Where y is the distance from the depth sensor to the object to be detected and the intersection S of the boundary of the filtering region, m is the long axis distance of S, n is the short axis distance of S, B is the short axis of the ellipse constituting the filtering region, and? Is the direction angle of the detected object.

상기와 같이 구해진 y보다 탐지 물체의 중심점까지의 거리(깊이 값)이 크다면, 해당 탐지 물체는 필터링 영역 바깥에 있는 것으로 판단되어 제거(filtering out)될 수 있다.If the distance (depth value) to the center point of the detected object is larger than the y obtained as described above, the detected object is determined to be outside the filtering area and can be filtered out.

이상에서 설명한 차량 하부물체 탐지 장치 및 방법은 낮/밤, 이동/정지상황에서 모두 효과적인 물체 검출을 수행할 수 있다.The above-described apparatus and method for detecting a vehicle lower object can perform effective object detection in both day / night and moving / stop situations.

도 6은 본 명세서의 일 실시예에 따른 차량하부 탐지장치를 나타낸 블록도이다.FIG. 6 is a block diagram illustrating a vehicle lower detection apparatus according to an embodiment of the present invention.

상기 차량하부 탐지장치(100)는 깊이 센서(101), 회전 모듈(102), 제어 모듈(103)를 포함하여 구성될 수 있다. 또한 상기 차량하부 탐지장치(100)는 메모리, 디스플레이 모듈, 사용자 인터페이스 등 다양한 요소의 하드웨어를 더 구비할 수 있다.The vehicle lower detection apparatus 100 may include a depth sensor 101, a rotation module 102, and a control module 103. Further, the vehicle lower detecting apparatus 100 may further include various elements of hardware such as a memory, a display module, and a user interface.

상기 차량하부 탐지장치(100)는 도 1 내지 도 5를 통하여 설명한 차량하부 탐지방법을 수행한다. 즉, 상기 차량하부 탐지장치(100)는 회전 모듈(예:스테퍼 모터, stepper motor)을 사용하여 차량 하부의 모든 방향 배경 이미지를 획득하고, 실시간 입력 영상에 대한 배경 차분 방법(background subtraction method)을 사용하여 물체를 탐지한다. 또한 지속적으로 변화하는 배경을 처리하기 위해 외부 물체 필터링 알고리즘(external obstacle filtering algorithm)을 사용할 수 있다.The vehicle lower detecting apparatus 100 performs the vehicle lower detecting method described with reference to FIGS. That is, the vehicle lower detection apparatus 100 acquires a background image in all directions under the vehicle using a rotation module (e.g., a stepper motor) and generates a background subtraction method for a real-time input image Use to detect objects. You can also use an external obstacle filtering algorithm to handle a continuously changing background.

상기 깊이 센서(101)은 차량 하부에 대한 깊이 영상을 생성하며, 상기 회전 모듈(102)은 상기 깊이 센서를 수평 방향으로 회전시킨다.The depth sensor 101 generates a depth image of the lower portion of the vehicle, and the rotation module 102 rotates the depth sensor in a horizontal direction.

상기 제어 모듈(103)은 물체가 없는 상태에서의 차량 하부 촬영 영상에 대응되는 제1 깊이 영상(예: 깊이 맵, depth map) 및 임의의 시각에서의 차량 하부 촬영 영상에 대응되는 제2 깊이 영상(예: 깊이 맵, depth map)을 획득한다. 이때 상기 제1 깊이 영상 및 상기 제2 깊이 영상은 상기 깊이 센서의 시야각에 상응하여 정의된 다수 개의 방향에서 촬영된 깊이 영상을 조합하여 구성될 수 있다. 예컨대, 상기 깊이 센서의 시야각이 57˚라면, 45˚ 간격으로 8개의 깊이 맵(서브 맵)을 획득하고, 8개를 조합하여 하나의 배경 영상으로 만들 수 있다. The control module 103 controls the first depth image (e.g., depth map) and the second depth image (depth map) corresponding to the under vehicle image at an arbitrary time, (Eg depth map, depth map). The first depth image and the second depth image may be formed by combining depth images captured in a plurality of directions defined according to the viewing angle of the depth sensor. For example, if the viewing angle of the depth sensor is 57 degrees, eight depth maps (submaps) may be obtained at intervals of 45 degrees, and eight depth maps may be combined into a single background image.

상기 제어 모듈(103)은 상기 제1 깊이 영상과 제2 깊이 영상을 차분(subtraction)하여 물체를 검출한다. 이때 상기 제어 모듈(103)은 상기 처리를 위해, 모폴로지 연산(morphological operation)을 적용할 수 있다. 또한 isolated noise를 제거하고 인접 픽셀들을 병합하기 위해 Erode operation 및/또는 Dilate operation을 적용할 수도 있다. 더 나아가 탐지 물체를 제외한 모든 픽셀을 제거하기 위해 labeling operation을 적용할 수도 있다.The control module 103 subtracts the first depth image and the second depth image to detect an object. At this time, the control module 103 may apply a morphological operation for the process. Erode operation and / or Dilate operation may also be applied to remove isolated noise and merge adjacent pixels. Further, a labeling operation may be applied to remove all pixels except the object to be detected.

상기 제어 모듈(103)은 이동하는 차량 주위의 계속 변하는 배경에 기인한 차분 방법 적용상의 난점을 해결하기 위해, 필터링 영역을 정의하고 상기 필터링 영역 외부의 물체는 제거하는 알고리즘을 수행할 수 있다.The control module 103 may perform an algorithm to define a filtering area and to remove objects outside the filtering area to resolve difficulties in application of the difference method due to the ever-changing background around the moving vehicle.

일 예로, 상기 제어 모듈(103)은 상기 검출된 물체의 중심점 및 방향각을 계산하고, 상기 계산된 중심점 및 방향각을 기초로 상기 검출된 물체가 기준 거리 이내에 위치하는지 여부를 판단하고, 상기 중심점이 기준 거리 외부에 위치하는 경우, 상기 검출된 물체가 위험 물체가 아닌 것으로 판정할 수 있다.For example, the control module 103 may calculate the center point and the direction angle of the detected object, determine whether the detected object is located within the reference distance based on the calculated center point and the direction angle, It can be determined that the detected object is not a dangerous object.

여기서 상기 중심점은 상기 검출된 물체가 상기 제2 영상에서 차지하는 픽셀(pixel) 수에 근거하여 계산될 수 있다. 또한 상기 방향각은 상기 중심점과 상기 제2 영상의 중심선 간의 수평거리를 제2 영상의 수평 시야각과의 비례관계에 따라 각도로 환산하고, 상기 환산된 각도를 상기 제2 영상의 촬영 각도에서 가감하여 게산될 수 있다.The center point may be calculated based on the number of pixels occupied by the detected object in the second image. Wherein the angle of incidence is obtained by converting the horizontal distance between the center point and the centerline of the second image into an angle in proportion to the horizontal viewing angle of the second image and by adding or subtracting the converted angle from the angle of view of the second image Can be calculated.

한편, 상기 기준 거리는 타원 형태로 정의될 수 있으며, 이 경우 상기 제어 모듈(103)은 상기 기준 거리를 하기 수학식에 따라 계산할 수 있다.Meanwhile, the reference distance may be defined as an elliptical shape. In this case, the control module 103 may calculate the reference distance according to the following equation.

Figure 112013119664252-pat00006
Figure 112013119664252-pat00006

여기서 상기 y는 기준 거리이고, 상기 θ는 상기 검출된 물체의 방향각이고, 상기 a는 상기 타원의 장축 길이이고, 상기 b는 상기 타원의 단축 길이이다.Here, y is a reference distance,? Is a directional angle of the detected object, a is a major axis length of the ellipse, and b is a minor axis length of the ellipse.

상기 제어 모듈(103)은 상기와 같이 구해진 기준거리(y)보다 탐지 물체까지의 거리 값이 크다면, 해당 탐지 물체는 필터링 영역 바깥에 있는 것으로 판단되어 제거(filtering out)할 수 있으며, 반대로 탐지 물체가 기준 거리 이내에 있는 것으로 판정되면 운전자에게 경보를 보낼 수 있다.If the distance to the detected object is larger than the reference distance y obtained as described above, the control module 103 can determine that the detected object is outside the filtering area and can filter out the detected object, If it is determined that the object is within the reference distance, an alarm can be sent to the driver.

도 7은 본 명세서의 실시예에 따른 차량하부 탐지방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method of detecting a vehicle lower portion according to an embodiment of the present invention.

상기 방법은 도 1 내지 도 6에서 설명한 차량하부 탐지장치에 의해 수행될 수 있다. 한편, 상기 차량하부 탐지장치는 회전 모듈(예:스테퍼 모터, stepper motor)을 사용하여 차량 하부의 모든 방향 배경 이미지를 획득하고, 실시간 입력 영상에 대한 배경 차분 방법(background subtraction method)을 사용하여 물체를 탐지한다. 또한 지속적으로 변화하는 배경을 처리하기 위해 외부 물체 필터링 알고리즘(external obstacle filtering algorithm)을 사용할 수 있다.The above method can be performed by the vehicle lower detecting apparatus described in Figs. Meanwhile, the vehicle lower detecting apparatus obtains a background image in all directions under the vehicle using a rotation module (e.g., a stepper motor), and uses a background subtraction method for a real- Lt; / RTI > You can also use an external obstacle filtering algorithm to handle a continuously changing background.

상기 차량하부 탐지장치는 물체가 없는 상태에서의 차량 하부 촬영 영상에 대응되는 제1 깊이 영상을 생성할 수 있다(S110). 이때 상기 제1 깊이 영상은 깊이 센서를 수평 방향으로 회전시켜 생성될 수 있다.The vehicle lower detecting apparatus may generate a first depth image corresponding to the vehicle lower imaging image in the absence of an object (S110). The first depth image may be generated by horizontally rotating the depth sensor.

다음으로 상기 차량하부 탐지장치는 임의의 시각에서의 차량 하부 촬영 영상에 대응되는 제2 깊이 영상을 생성할 수 있다(S120). 이때 상기 제2 깊이 영상은 깊이 센서를 수평 방향으로 회전시켜 생성될 수 있다.Next, the vehicle lower detection apparatus may generate a second depth image corresponding to the vehicle lower image at an arbitrary time (S120). The second depth image may be generated by rotating the depth sensor horizontally.

이때 상기 제1 깊이 영상 및 상기 제2 깊이 영상은 상기 깊이 센서의 시야각에 상응하여 정의된 다수 개의 방향에서 촬영된 깊이 영상을 조합하여 구성될 수 있다. 예컨대, 상기 깊이 센서의 시야각이 57˚라면, 45˚ 간격으로 8개의 깊이 맵(서브 맵)을 획득하고, 8개를 조합하여 하나의 배경 영상으로 만들 수 있다.The first depth image and the second depth image may be formed by combining depth images captured in a plurality of directions defined according to the viewing angle of the depth sensor. For example, if the viewing angle of the depth sensor is 57 degrees, eight depth maps (submaps) may be obtained at intervals of 45 degrees, and eight depth maps may be combined into a single background image.

상기 차량하부 탐지장치는 제2 깊이 영상과 제1 깊이 영상을 차분(subtraction)하여 물체를 검출할 수 있다(S130). 이때 상기 차량하부 탐지장치는 상기 처리를 위해, 모폴로지 연산(morphological operation)을 적용할 수 있다. 또한 isolated noise를 제거하고 인접 픽셀들을 병합하기 위해 Erode operation 및/또는 Dilate operation을 적용할 수도 있다. 더 나아가 탐지 물체를 제외한 모든 픽셀을 제거하기 위해 labeling operation을 적용할 수도 있다.The vehicle lower detecting apparatus may detect an object by subtracting the second depth image and the first depth image (S130). At this time, the vehicle lower detecting apparatus may apply a morphological operation for the process. Erode operation and / or Dilate operation may also be applied to remove isolated noise and merge adjacent pixels. Further, a labeling operation may be applied to remove all pixels except the object to be detected.

상기 차량하부 탐지장치는 이동하는 차량 주위의 계속 변하는 배경에 기인한 차분 방법 적용상의 난점을 해결하기 위해, 필터링 영역을 정의하고 상기 필터링 영역 외부의 물체는 제거하는 알고리즘을 수행할 수 있다.The under vehicle detection device may perform an algorithm to define a filtering area and to remove an object outside the filtering area to solve a difficulty in application of the difference method due to the continuously changing background around the moving vehicle.

일 예로, 상기 차량하부 탐지장치는 검출된 물체가 기준 거리 외부에 위치하는 경우, 상기 검출된 물체가 위험 물체가 아닌 것으로 판정할 수 있다(S140). For example, when the detected object is located outside the reference distance, the vehicle lower detecting apparatus may determine that the detected object is not a dangerous object (S140).

여기서 상기 중심점은 상기 검출된 물체가 상기 제2 영상에서 차지하는 픽셀(pixel) 수에 근거하여 계산될 수 있다. 또한 상기 방향각은 상기 중심점과 상기 제2 영상의 중심선 간의 수평거리를 제2 영상의 수평 시야각과의 비례관계에 따라 각도로 환산하고, 상기 환산된 각도를 상기 제2 영상의 촬영 각도에서 가감하여 게산될 수 있다.The center point may be calculated based on the number of pixels occupied by the detected object in the second image. Wherein the angle of incidence is obtained by converting the horizontal distance between the center point and the centerline of the second image into an angle in proportion to the horizontal viewing angle of the second image and by adding or subtracting the converted angle from the angle of view of the second image Can be calculated.

한편, 상기 기준 거리는 타원 형태로 정의될 수 있으며, 이 경우 상기 제어 모듈(103)은 상기 기준 거리를 하기 수학식에 따라 계산할 수 있다.Meanwhile, the reference distance may be defined as an elliptical shape. In this case, the control module 103 may calculate the reference distance according to the following equation.

Figure 112013119664252-pat00007
Figure 112013119664252-pat00007

여기서 상기 y는 기준 거리이고, 상기 θ는 상기 검출된 물체의 방향각이고, 상기 a는 상기 타원의 장축 길이이고, 상기 b는 상기 타원의 단축 길이이다.Here, y is a reference distance,? Is a directional angle of the detected object, a is a major axis length of the ellipse, and b is a minor axis length of the ellipse.

상기 차량하부 탐지장치는 상기와 같이 구해진 기준거리(y)보다 탐지 물체의 중심점까지의 거리 값이 크다면, 해당 탐지 물체는 필터링 영역 바깥에 있는 것으로 판단되어 제거(filtering out)할 수 있으며, 반대로 탐지 물체가 기준 거리 이내에 있는 것으로 판정되면 운전자에게 경보를 보낼 수 있다. If the distance to the center of the detection object is larger than the reference distance y obtained as described above, the detection device may determine that the detection object is located outside the filtering area, If it is determined that the detected object is within the reference distance, an alarm can be sent to the driver.

한편, 본 명세서의 방법은, 상기 도 7에서 서술한 각 단계를 수행하는 명령들을 포함하는 컴퓨터로 판독 가능한 기록매체로 구현될 수도 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.On the other hand, the method of the present specification may be embodied as a computer-readable recording medium including instructions for performing the respective steps described in FIG. The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of matter that affects the machine readable propagation type signal, or a combination of one or more of the foregoing.

본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 처리 시스템의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다.Implementations of the functional operations and the subject matter described herein may be implemented in digital electronic circuitry, or may be implemented in computer software, firmware, or hardware, including the structures disclosed herein, and structural equivalents thereof, It can be implemented. Implementations of the subject matter described herein may be implemented as one or more computer program products, i. E. One or more modules relating to computer program instructions encoded on a type of program storage medium for execution by, or control of, the operation of the processing system Can be implemented.

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program (also known as a program, software, software application, script or code) may be written in any form of programming language, including compiled or interpreted language, a priori or procedural language, Components, subroutines, or other units suitable for use in a computer environment. A computer program does not necessarily correspond to a file in the file system. The program may be stored in a single file provided to the requested program, or in multiple interactive files (e.g., a file storing one or more modules, subprograms, or portions of code) (E.g., one or more scripts stored in a markup language document). A computer program may be deployed to run on multiple computers or on one computer, located on a single site or distributed across multiple sites and interconnected by a communications network.

한편, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함할 수 있다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.On the other hand, computer readable media suitable for storing computer program instructions and data include semiconductor memory devices such as, for example, EPROM, EEPROM and flash memory devices, such as magnetic disks such as internal hard disks or external disks, Non-volatile memory, media and memory devices, including ROM and DVD-ROM disks. The processor and memory may be supplemented by, or incorporated in, special purpose logic circuits.

이상, 본 발명의 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

100 : 차량하부 탐지장치
101 : 깊이 센서
102 : 회전 모듈
103 : 제어 모듈
100: vehicle lower detection device
101: Depth sensor
102: rotation module
103: Control module

Claims (13)

차량 하부에 대한 깊이 영상을 생성하는 깊이 센서;
상기 깊이 센서를 수평 방향으로 회전시키는 회전 모듈;
물체가 없는 상태에서의 차량 하부 촬영 영상에 대응되는 제1 깊이 영상을 획득하고,
임의의 시각에서의 차량 하부 촬영 영상에 대응되는 제2 깊이 영상과 상기 제1 깊이 영상을 차분(subtraction)하여 물체를 검출하는 제어 모듈을 포함하며,
상기 제어 모듈은
상기 검출된 물체의 중심점 및 방향각을 계산하고, 상기 계산된 중심점 및 방향각을 기초로 상기 검출된 물체가 기준 거리 이내에 위치하는지 여부를 판단하고,
상기 검출된 물체가 기준 거리 외부에 위치하는 경우, 상기 검출된 물체가 위험 물체가 아닌 것으로 판정하는 것을 특징으로 하는 차량하부 탐지장치.
A depth sensor for generating a depth image of a lower portion of the vehicle;
A rotation module for horizontally rotating the depth sensor;
Acquiring a first depth image corresponding to the under-vehicle image captured in the absence of an object,
And a control module for subtracting the first depth image and the second depth image corresponding to the under-vehicle shot image at an arbitrary time to detect an object,
The control module
Calculating a center point and a direction angle of the detected object, determining whether the detected object is located within a reference distance based on the calculated center point and a direction angle,
And determines that the detected object is not a dangerous object when the detected object is located outside the reference distance.
제1항에 있어서,
상기 제1 깊이 영상 및 상기 제2 깊이 영상은 상기 깊이 센서의 시야각에 상응하여 정의된 다수 개의 방향에서 촬영된 깊이 영상을 조합하여 구성되는 것을 특징으로 하는 차량하부 탐지장치.
The method according to claim 1,
Wherein the first depth image and the second depth image are composed of a combination of depth images photographed in a plurality of directions defined corresponding to a viewing angle of the depth sensor.
삭제delete 제1항에 있어서,
상기 중심점은
상기 검출된 물체가 상기 제2 영상에서 차지하는 픽셀(pixel) 수에 근거하여 계산되고,
상기 방향각은
상기 중심점과 상기 제2 영상의 중심선 간의 수평거리를 제2 영상의 수평 시야각과의 비례관계에 따라 각도로 환산하고,
상기 환산된 각도를 상기 제2 영상의 촬영 각도에서 가감하여 계산되는 것을 특징으로 하는 차량하부 탐지장치.
The method according to claim 1,
The center point
The detected object is calculated based on the number of pixels occupied in the second image,
The direction angle
Converting the horizontal distance between the center point and the center line of the second image into an angle according to a proportional relationship with a horizontal viewing angle of the second image,
And the calculated angle is calculated by adding or subtracting the converted angle from the photographing angle of the second image.
제1항에 있어서,
상기 기준 거리는 타원 형태로 정의되는 것을 특징으로 하는 차량하부 탐지장치.
The method according to claim 1,
Wherein the reference distance is defined as an elliptical shape.
제5항에 있어서,
상기 제어 모듈은
상기 기준 거리를 하기 수학식에 따라 계산하며,
Figure 112013119664252-pat00008

여기서 상기 y는 기준 거리이고, 상기 θ는 상기 검출된 물체의 방향각이고, 상기 a는 상기 타원의 장축 길이이고, 상기 b는 상기 타원의 단축 길이인 것을 특징으로 하는 차량하부 탐지장치.
6. The method of claim 5,
The control module
The reference distance is calculated according to the following equation,
Figure 112013119664252-pat00008

Wherein y is a reference distance,? Is a direction angle of the detected object, a is a major axis length of the ellipse, and b is a minor axis length of the ellipse.
차량하부 탐지장치가 차량하부의 물체를 탐지하는 방법으로서,
깊이 센서를 수평 방향으로 회전시켜 물체가 없는 상태에서의 차량 하부 촬영 영상에 대응되는 제1 깊이 영상을 생성하는 단계;
상기 깊이 센서를 수평 방향으로 회전시켜 임의의 시각에서의 차량 하부 촬영 영상에 대응되는 제2 깊이 영상을 생성하는 단계;
상기 제2 깊이 영상과 상기 제1 깊이 영상을 차분(subtraction)하여 물체를 검출하는 단계를 포함하며,
상기 물체를 검출하는 단계는,
상기 검출된 물체의 중심점 및 방향각을 계산하는 단계;
상기 계산된 중심점 및 방향각을 기초로 상기 검출된 물체가 기준 거리 이내에 위치하는지 여부를 판단하는 단계; 및
상기 검출된 물체가 기준 거리 외부에 위치하는 경우, 상기 검출된 물체가 위험 물체가 아닌 것으로 판정하는 단계를 포함하는 것을 특징으로 하는 방법.
CLAIMS 1. A method for detecting an object below a vehicle,
Rotating a depth sensor in a horizontal direction to generate a first depth image corresponding to an under-vehicle shot image in the absence of an object;
Rotating the depth sensor in a horizontal direction to generate a second depth image corresponding to an under-vehicle image at an arbitrary time;
And subtracting the second depth image and the first depth image to detect an object,
The method of claim 1,
Calculating a center point and a direction angle of the detected object;
Determining whether the detected object is located within a reference distance based on the calculated center point and direction angle; And
And determining that the detected object is not a dangerous object when the detected object is located outside the reference distance.
제7항에 있어서,
상기 제1 깊이 영상 및 상기 제2 깊이 영상은 상기 깊이 센서의 시야각에 상응하여 정의된 다수 개의 방향에서 촬영된 깊이 영상을 조합하여 구성되는 것을 특징으로 하는 방법.
8. The method of claim 7,
Wherein the first depth image and the second depth image are formed by combining depth images photographed in a plurality of directions defined corresponding to a viewing angle of the depth sensor.
삭제delete 제7항에 있어서,
상기 중심점은
상기 검출된 물체가 상기 제2 영상에서 차지하는 픽셀(pixel) 수에 근거하여 계산되고,
상기 방향각은
상기 중심점과 상기 제2 영상의 중심선 간의 수평거리를 제2 영상의 수평 시야각과의 비례관계에 따라 각도로 환산하고,
상기 환산된 각도를 상기 제2 영상의 촬영 각도에서 가감하여 계산되는 것을 특징으로 하는 방법.
8. The method of claim 7,
The center point
The detected object is calculated based on the number of pixels occupied in the second image,
The direction angle
Converting the horizontal distance between the center point and the center line of the second image into an angle according to a proportional relationship with a horizontal viewing angle of the second image,
And the calculated angle is calculated by adding or subtracting from the angle of view of the second image.
제7항에 있어서,
상기 기준 거리는 타원 형태로 정의되는 것을 특징으로 하는 방법.
8. The method of claim 7,
Wherein the reference distance is defined as an elliptical shape.
제11항에 있어서,
상기 기준 거리는 하기 수학식에 따라 계산되며,
Figure 112013119664252-pat00009

여기서 상기 y는 기준 거리이고, 상기 θ는 상기 검출된 물체의 방향각이고, 상기 a는 상기 타원의 장축 길이이고, 상기 b는 상기 타원의 단축 길이인 것을 특징으로 하는 방법.
12. The method of claim 11,
The reference distance is calculated according to the following equation,
Figure 112013119664252-pat00009

Wherein y is a reference distance,? Is a direction angle of the detected object, a is a major axis length of the ellipse, and b is a minor axis length of the ellipse.
차량하부 탐지장치가 차량하부의 물체를 탐지하는 명령들을 포함하는 컴퓨터 판독 가능 기록매체로서,
깊이 센서를 수평 방향으로 회전시켜 물체가 없는 상태에서의 차량 하부 촬영 영상에 대응되는 제1 깊이 영상을 생성하는 단계;
상기 깊이 센서를 수평 방향으로 회전시켜 임의의 시각에서의 차량 하부 촬영 영상에 대응되는 제2 깊이 영상을 생성하는 단계;
상기 제2 깊이 영상과 상기 제1 깊이 영상을 차분(subtraction)하여 물체를 검출하는 단계;를 수행하는 명령들을 포함하며,
상기 물체를 검출하는 단계는,
상기 검출된 물체의 중심점 및 방향각을 계산하는 단계;
상기 계산된 중심점 및 방향각을 기초로 상기 검출된 물체가 기준 거리 이내에 위치하는지 여부를 판단하는 단계; 및
상기 검출된 물체가 기준 거리 외부에 위치하는 경우, 상기 검출된 물체가 위험 물체가 아닌 것으로 판정하는 단계를 수행하는 명령들을 포함하는 컴퓨터 판독 가능 기록매체.
There is provided a computer readable medium having instructions for an under vehicle detection device to detect an object under the vehicle,
Rotating a depth sensor in a horizontal direction to generate a first depth image corresponding to an under-vehicle shot image in the absence of an object;
Rotating the depth sensor in a horizontal direction to generate a second depth image corresponding to an under-vehicle image at an arbitrary time;
And subtracting the second depth image and the first depth image to detect an object,
The method of claim 1,
Calculating a center point and a direction angle of the detected object;
Determining whether the detected object is located within a reference distance based on the calculated center point and direction angle; And
And determining that the detected object is not a dangerous object when the detected object is located outside the reference distance.
KR1020130165416A 2013-12-27 2013-12-27 Apparatus and method for object detection of vehicle floor KR101531313B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130165416A KR101531313B1 (en) 2013-12-27 2013-12-27 Apparatus and method for object detection of vehicle floor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130165416A KR101531313B1 (en) 2013-12-27 2013-12-27 Apparatus and method for object detection of vehicle floor

Publications (1)

Publication Number Publication Date
KR101531313B1 true KR101531313B1 (en) 2015-06-24

Family

ID=53519761

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130165416A KR101531313B1 (en) 2013-12-27 2013-12-27 Apparatus and method for object detection of vehicle floor

Country Status (1)

Country Link
KR (1) KR101531313B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021001224A1 (en) * 2019-07-02 2021-01-07 Valeo Schalter Und Sensoren Gmbh Method for monitoring a ground area beneath a parked vehicle
KR20220102947A (en) * 2021-01-14 2022-07-21 충남대학교산학협력단 Device for detecting moving object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138720A (en) * 2003-11-07 2005-06-02 Denso Corp Obstacle detector, obstacle detection program, and storage medium
JP2007112400A (en) * 2005-10-24 2007-05-10 Denso Corp Periphery confirmation device for vehicle
JP2010015346A (en) * 2008-07-03 2010-01-21 Alpine Electronics Inc Surroundings monitoring apparatus
KR20110056049A (en) * 2009-11-20 2011-05-26 현대모비스 주식회사 Parking assist system and method using cameras attached underneath the vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138720A (en) * 2003-11-07 2005-06-02 Denso Corp Obstacle detector, obstacle detection program, and storage medium
JP2007112400A (en) * 2005-10-24 2007-05-10 Denso Corp Periphery confirmation device for vehicle
JP2010015346A (en) * 2008-07-03 2010-01-21 Alpine Electronics Inc Surroundings monitoring apparatus
KR20110056049A (en) * 2009-11-20 2011-05-26 현대모비스 주식회사 Parking assist system and method using cameras attached underneath the vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021001224A1 (en) * 2019-07-02 2021-01-07 Valeo Schalter Und Sensoren Gmbh Method for monitoring a ground area beneath a parked vehicle
KR20220102947A (en) * 2021-01-14 2022-07-21 충남대학교산학협력단 Device for detecting moving object
KR102537465B1 (en) 2021-01-14 2023-05-26 충남대학교 산학협력단 Device for detecting moving object

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP3759429B2 (en) Obstacle detection apparatus and method
US7321386B2 (en) Robust stereo-driven video-based surveillance
JP4919036B2 (en) Moving object recognition device
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
KR101188588B1 (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
JP6054777B2 (en) Stereo camera device
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
KR101464489B1 (en) Method and system for detecting an approaching obstacle based on image recognition
JP6072064B2 (en) Image processing apparatus for self-propelled industrial machine and image processing method for self-propelled industrial machine
JP2013109760A (en) Target detection method and target detection system
JP6032034B2 (en) Object detection device
US20090052742A1 (en) Image processing apparatus and method thereof
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP6617150B2 (en) Object detection method and object detection apparatus
US20200193184A1 (en) Image processing device and image processing method
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
JP2018073275A (en) Image recognition device
KR20150050233A (en) device for lane detection
JP4754434B2 (en) Road surface estimation device
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device
JP4106163B2 (en) Obstacle detection apparatus and method
JP5903901B2 (en) Vehicle position calculation device
JP4144464B2 (en) In-vehicle distance calculation device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191014

Year of fee payment: 5