KR20100113371A - Method and apparatus for guarding pedestrian using far-infra-red stereo camera - Google Patents

Method and apparatus for guarding pedestrian using far-infra-red stereo camera Download PDF

Info

Publication number
KR20100113371A
KR20100113371A KR1020090031910A KR20090031910A KR20100113371A KR 20100113371 A KR20100113371 A KR 20100113371A KR 1020090031910 A KR1020090031910 A KR 1020090031910A KR 20090031910 A KR20090031910 A KR 20090031910A KR 20100113371 A KR20100113371 A KR 20100113371A
Authority
KR
South Korea
Prior art keywords
pedestrian
far
image
stereo camera
collision
Prior art date
Application number
KR1020090031910A
Other languages
Korean (ko)
Other versions
KR101281272B1 (en
Inventor
이윤희
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020090031910A priority Critical patent/KR101281272B1/en
Publication of KR20100113371A publication Critical patent/KR20100113371A/en
Application granted granted Critical
Publication of KR101281272B1 publication Critical patent/KR101281272B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/34Protecting non-occupants of a vehicle, e.g. pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras

Abstract

PURPOSE: A pedestrian protecting method using a FIR(far-infra-red) stereo camera is provided to prevent the collision with pedestrians by accurately recognizing background and pedestrian using a FIR stereo camera. CONSTITUTION: A pedestrian protecting method using an FIR(far-infra-red) stereo camera comprises an image acquisition part(120), a pedestrian recognition part(130), a collision risk determining part(140) and an anti-collision controller(150). The pedestrian recognition part takes image using FIR stereo camera which is calibrated. The pedestrian recognition part recognizes the pedestrians using the image. The anti-collision controller controls a brake device to prevent the collision with pedestrians.

Description

원적외선 스테레오 카메라를 이용한 보행자 보호 방법 및 장치{Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera}Method and device for pedestrian protection using far infrared stereo camera {Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera}

본 발명은 본 발명은 원적외선 스테레오 카메라를 이용한 보행자 보호 방법 및 장치에 관한 것이다. 더욱 상세하게는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하여, 정확히 보행자를 보호할 수 있는 원적외선 스테레오 카메라를 이용한 보행자 보호 방법 및 장치에 관한 것이다.The present invention relates to a pedestrian protection method and apparatus using a far infrared stereo camera. More specifically, the present invention relates to a pedestrian protection method and apparatus using a far-infrared stereo camera capable of accurately protecting a pedestrian by accurately distinguishing a background of surrounding buildings, objects, and the like, which should be excluded in order to accurately recognize a pedestrian.

최근에, 교통 사고 중 보행자(자전거 탑승자 포함) 사고가 상당 부분을 차지하며, 이러한 보행자 사고는 일단 사고가 나면 사망 등의 큰 인명 사고로 이어진다는 점에서 반드시 방지해야만 하는 사고이다. Recently, a pedestrian (including a bicycle occupant) accident takes up a large part of a traffic accident, and such a pedestrian accident is an accident that must be prevented in that it leads to a big human accident such as death once an accident occurs.

따라서, 보행자(자전거 탑승자 포함) 보호에 대한 많은 연구들이 진행되고 있는 상황이다. 그럼에도 불구하고, 종래의 보행자 보호 장치에서는, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하지 못하는 문제점이 여전히 있으며, 이로 인해, 제대로 된 보행자 보호를 하지 못하고 있는 실정이다.Therefore, many studies on the protection of pedestrians (including bicycle occupants) are in progress. Nevertheless, the conventional pedestrian protection device, there is still a problem that can not accurately distinguish the background of the surrounding buildings, objects, and the like to be excluded in order to correctly recognize the pedestrian, and thus, the pedestrian protection is not properly There is a situation.

전술한 문제점을 해결하기 위한 본 발명의 목적은, 보행자를 정확하게 인식하기 위해서 배제되어야 할 주변 건물, 주변 물체 등의 배경을 보행자와 정확히 구별하여, 정확히 보행자를 보호할 수 있는 보행자 보호 장치를 제공하는 데 있다. SUMMARY OF THE INVENTION An object of the present invention for solving the above problems is to provide a pedestrian protection device that can accurately protect a pedestrian by accurately distinguishing a background of surrounding buildings, objects, and the like, which should be excluded in order to correctly recognize a pedestrian. There is.

전술한 목적을 달성하기 위한 본 발명은, 캘리브레이션(Calibration) 된 원적외선(FIR: Far-Infra-Red) 스테레오 카메라를 통해 영상을 획득하는 영상 획득부; 상기 획득된 영상을 통해 보행자를 인식하는 보행자 인식부; 상기 인식된 보행자와의 거리정보 및 차량의 속도정보에 근거하여, 상기 인식된 보행자와의 충돌 위험성을 판단하는 충돌 위험성 판단부; 및 상기 충돌 위험성이 있는 것으로 판단된 경우, 상기 인식된 보행자와의 충돌을 회피하도록 제동장치를 제어하는 충돌 회피 제어부를 포함하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치를 제공한다. The present invention for achieving the above object, the image acquisition unit for obtaining an image through a calibrated Far-Infra-Red (FIR) stereo camera; A pedestrian recognition unit recognizing a pedestrian through the acquired image; A collision risk determination unit configured to determine a risk of collision with the recognized pedestrian based on the recognized distance information of the pedestrian and the speed information of the vehicle; And a collision avoidance control unit controlling a braking device so as to avoid a collision with the recognized pedestrian when it is determined that there is a risk of collision, which provides a pedestrian protection apparatus using a far-infrared stereo camera.

또한, 본 발명은, 캘리브레이션(Calibration) 된 원적외선(FIR: Far-Infra-Red) 스테레오 카메라를 통해 영상을 획득하는 영상 획득 단계; 상기 획득된 영상을 통해 보행자를 인식하는 보행자 인식 단계; 상기 인식된 보행자와의 거리정보 및 차량의 속도정보에 근거하여, 상기 인식된 보행자와의 충돌 위험성을 판단하는 충돌 위험성 판단 단계; 및 상기 충돌 위험성이 있는 것으로 판단된 경우, 상기 인식된 보행자와의 충돌을 회피하도록 제동장치를 제어하는 충돌 회피 제어 단계를 포함하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 방법을 제공한다. In addition, the present invention, the image acquisition step of acquiring an image through a calibrated Far-Infra-Red (FIR) stereo camera; A pedestrian recognition step of recognizing a pedestrian through the acquired image; A collision risk determining step of determining a collision risk with the recognized pedestrian based on distance information of the recognized pedestrian and vehicle speed information; And a collision avoidance control step of controlling a braking device to avoid a collision with the recognized pedestrian when it is determined that there is a risk of collision, and providing a pedestrian protection method using a far-infrared stereo camera.

이상에서 설명한 바와 같이 본 발명에 의하면, 원적외선 스테레오 카메라를 이용함으로써 배경과 보행자를 정확히 구별하여 보행자를 인식하고, 인식된 보행자와의 충돌 위험성을 판단하며, 충돌 위험성이 있는 보행자와의 충돌을 회피하도록 차량을 제어함으로써, 정확히 보행자를 보호할 수 있는 보행자 보호 장치를 제공하는 효과가 있다. As described above, according to the present invention, by using a far-infrared stereo camera to accurately distinguish the background and pedestrians to recognize the pedestrians, determine the risk of collision with the recognized pedestrians, and avoid collisions with pedestrians with a collision risk. By controlling the vehicle, there is an effect of providing a pedestrian protection device that can accurately protect pedestrians.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected to or connected to that other component, but there may be another configuration between each component. It is to be understood that the elements may be "connected", "coupled" or "connected".

도 1은 본 발명의 일 실시예에 따른 원적외선(FIR: Far-Infra-Red, 이하 "FIR"이라 칭함) 스테레오 카메라(110)를 이용한 보행자 보호 장치(100)에 대한 블록 구성도이다. 1 is a block diagram of a pedestrian protection device 100 using a far-infra-red (FIR) stereo camera 110 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 FIR 스테레오 카메라(110)를 이용한 보행자 보호 장치(100)는, 캘리브레이션(Calibration) 된 FIR 스테레오 카메라(110)를 통해 영상을 획득하는 영상 획득부(120); FIR 스테레오 카메라(110)를 통해 획득된 영상을 통해 보행자(자전거 탑승자도 포함함)를 인식하는 보행자 인식부(130); 인식된 보행자와의 거리정보 및 차량의 속도정보에 근거하여, 인식된 보행자와의 충돌 위험성을 판단하는 충돌 위험성 판단부(140); 및 충돌 위험성이 있는 것으로 판단된 경우, 인식된 보행자와의 충돌을 회피하도록 제동장치를 제어하는 충돌 회피 제어부(150) 등을 포함한다. 1, the pedestrian protection device 100 using the FIR stereo camera 110 according to an embodiment of the present invention, the image acquisition unit for obtaining an image through a calibrated FIR stereo camera 110 120; A pedestrian recognition unit 130 for recognizing a pedestrian (including a bicycle occupant) through an image acquired through the FIR stereo camera 110; A collision risk determination unit 140 that determines a risk of collision with the recognized pedestrian based on the recognized distance information of the pedestrian and the speed information of the vehicle; And a collision avoidance control unit 150 for controlling the braking device to avoid collision with the recognized pedestrian when it is determined that there is a collision risk.

전술한 FIR 스테레오 카메라(110)는, 제 1 FIR 카메라(예: 왼쪽 FIR 카메라) 및 제 2 원적외선 카메라(예: 오른쪽 FIR 카메라)를 포함하고, FIR 스테레오 카메라(110)를 통해 획득된 영상은 제 1 원적외선 카메라 및 제 2 원적외선 카메라를 통해 각각 획득된 제 1 영상과 제 2 영상을 포함한다. The above-described FIR stereo camera 110 includes a first FIR camera (for example, a left FIR camera) and a second far infrared camera (for example, a right FIR camera), and an image obtained through the FIR stereo camera 110 may be obtained. And a first image and a second image acquired through the first far infrared camera and the second far infrared camera, respectively.

이러한 FIR 스테레오 카메라(110)의 특성을 아래에서 간단히 알아본다. The characteristics of the FIR stereo camera 110 will be briefly described below.

일반 CCD, CMOS 소자를 사용하는 카메라는 가시광 영역의 빛을 감지하여 투영하는 역할을 하기 때문에 사람의 눈으로 보는 것과 비슷한 영상을 획득할 수 있다. 반면 FIR 스테레오 카메라(110)의 경우는 사람이 보지 못하는 적외선 대역의 빛을 투영한다. 적외선은 빛의 파장 중 750nm에서 1mm의 대역의 빛을 말하는것으로서, 이러한 적외선 대역 중에서도 NIR(Near Infra Red)의 빛은 700nm에서 1400nm의 파장을 말하며, NIR 대역의 빛은 사람의 눈에는 보이지 않지만 CCD나 CMOS 소자로도 감지가 가능하며 필터를 이용하면 NIR 대역의 빛만을 감지할 수 있다. 이에 비해, FIR의 빛은 LWIR(Long Wavelength Infra Red)라고도 하며 적외선은 빛의 파장 중 8μm에서 15μm의 대역을 나타낸다. 특히 FIR 대역은 온도에 따라 파장이 변하기 때문에 온도를 구별할 수 있는 장점이 있다. 사람의 체온은 10μm의 파장을 가진다. Cameras using common CCD and CMOS devices detect and project light in the visible region, so images similar to those seen by the human eye can be obtained. On the other hand, the FIR stereo camera 110 projects light in an infrared band that is not seen by a person. Infrared refers to light of 750nm to 1mm of the wavelength of light. Among these infrared bands, NIR (Near Infra Red) light refers to a wavelength of 700nm to 1400nm, and NIR band of light is invisible to human eyes, but CCD It can also be sensed by CMOS devices, and filters can only detect light in the NIR band. In contrast, FIR light is also referred to as Long Wavelength Infra Red (LWIR), and infrared light represents a band of 8 to 15 μm of light wavelengths. In particular, the FIR band has the advantage of distinguishing the temperature because the wavelength changes with temperature. Human body temperature has a wavelength of 10 μm.

위에서 언급한 캘리브레이션(Calibration)은, FIR 카메라(110)에서 획득된 영상과 실제 세계와의 관계를 의미한다. 즉, FIR 카메라(110)에서 투영된 영상의 좌표 실제 획득한 3차원과의 관계를 나타낸다. 카메라 좌표와 실제 세계 좌표와의 관계는 도 4와 수학식 1을 통해서 나타난다.The above-mentioned calibration (Calibration) refers to the relationship between the image obtained by the FIR camera 110 and the real world. That is, the relationship between the coordinates of the image projected by the FIR camera 110 and the three-dimensional actual obtained. The relationship between the camera coordinates and the real world coordinates is shown through FIG. 4 and Equation 1.

Figure 112009022197611-PAT00001
Figure 112009022197611-PAT00001

수학식 1에서, (xi, yi)는 영상 좌표를 나타내며, (Xi, Yi, Zi)는 실제 세계의 좌표를 나타낸다.In Equation 1, (xi, yi) represents image coordinates, and (Xi, Yi, Zi) represents coordinates of the real world.

FIR 스테레오 카메라(110)의 캘리브레이션은 수학식 1의 P matrix를 구하여 이루어진다. P matrix를 구하기 위해서는 최소 6개의 점에 대한 카메라 좌표와 실 제 세계 좌표 값을 알아야 한다. 좀더 정확한 P matrix 값을 알기 위해서는 많은 수의 점을 이용하여 구할 수 있다. 많은 수의 점들에 대한 최소 자승(Least Square) 방법을 이용하여 더욱 정확한 값을 구한다.Calibration of the FIR stereo camera 110 is performed by obtaining P matrix of Equation 1. To find the P matrix, we need to know the camera coordinates and the real world coordinate values for at least six points. More accurate P matrix values can be obtained using a large number of points. More accurate values are obtained using the Least Squares method for a large number of points.

FIR 스테레오 카메라(110)는 두 대의 FIR 카메라(제 1 FIR 카메라 및 제 2 FIR 카메라)에서 동시에 영상을 획득하도록 한 것이기 때문에, 한 대의 FIR 카메라를 이용해서 취득할 수 없는 거리 정보를 취득할 수 있다. FIR 스테레오 카메라(110)에서는 두 대의 FIR 카메라(제 1 FIR 카메라 및 제 2 FIR 카메라)의 관계를 이용하여 3차원 깊이정보 취득이 가능하며 3차원 깊이정보는 거리정보를 의미한다. FIR 스테레오 카메라(110)는, 도 5에 도시된 바와 같이, 제 1 FIR 카메라(510) 및 제 2 FIR 카메라(520)를 포함하는 2대의 FIR 카메라로 구성될 수 있다. 도 5에 도시된 바와 같이, 실제 세계의 점 X' 및 X''는, 제 1 FIR 카메라(510) 및 제 2 FIR 카메라(520)에 각각 획득된 영상에서 투영되는 점에 차이가 있다. 각각의 FIR 카메라(510, 520)에 투영되는 점의 차이는 거리에 따라 다르게 나타나며 각각의 FIR 카메라(510, 520)에 투영되는 점의 차이가 3차원 깊이정보(즉, 거리정보)를 나타낸다. Since the FIR stereo camera 110 acquires images simultaneously from two FIR cameras (a first FIR camera and a second FIR camera), it is possible to acquire distance information that cannot be acquired using a single FIR camera. . In the FIR stereo camera 110, three-dimensional depth information may be acquired using a relationship between two FIR cameras (a first FIR camera and a second FIR camera), and the three-dimensional depth information means distance information. As illustrated in FIG. 5, the FIR stereo camera 110 may be configured with two FIR cameras including a first FIR camera 510 and a second FIR camera 520. As shown in FIG. 5, the points X 'and X' 'of the real world differ in the points projected from the images acquired by the first FIR camera 510 and the second FIR camera 520, respectively. The difference between the points projected on the respective FIR cameras 510 and 520 is different depending on the distance, and the difference between the points projected on the respective FIR cameras 510 and 520 represents three-dimensional depth information (ie, distance information).

각각의 FIR 카메라(510, 520)에 실제 세계의 점 X'이 투영된 영상 좌표의 점을 각각 x'L, x'R이라고 하면, 두 좌표의 차이는 수학식 2에서와 같이 나타난다.Speaking of each FIR camera (510, 520) L, x "R" x each point of the projected image coordinate "point X to the real world, two-coordinate difference is represented as in equation (2).

Figure 112009022197611-PAT00002
Figure 112009022197611-PAT00002

수학식 2에서, Z'는 3차원 깊이정보(거리정보)이며, f는 FIR 카메라(510, 52)의 초점 거리(Focal Length)이고, B는 FIR 카메라(510, 52) 간의 거리를 나타낸다. 수학식 2에서 3차원 거리정보를 획득하기 위해서, 수학식 3과 같이 변환하고, 변환된 수학식 3을 이용하여 영상의 각 픽셀의 3차원 깊이정보(거리정보)를 획득할 수 있다. In Equation 2, Z 'is three-dimensional depth information (distance information), f is a focal length of the FIR cameras 510 and 52, and B is a distance between the FIR cameras 510 and 52. In order to obtain 3D distance information in Equation 2, it is converted as in Equation 3, and 3D depth information (distance information) of each pixel of the image may be obtained using the converted Equation 3.

Figure 112009022197611-PAT00003
Figure 112009022197611-PAT00003

이러한 특성을 갖는 FIR 스테레오 카메라(110)를 통해 영상을 획득하는 영상 획득부(120)는, 열 반사성 또는 열 흡수성의 차이가 나는 캘리브레이션 패턴(Calibration Pattern)을 이용하여 캘리브레이션 된 FIR 스테레오 카메라(110)를 통해 영상을 획득한다. The image acquisition unit 120 for acquiring an image through the FIR stereo camera 110 having such characteristics is a FIR stereo camera 110 calibrated using a calibration pattern having a difference in heat reflectivity or heat absorption. Acquire an image through.

위에서 언급한 캘리브레이션 패턴은, 일 예로서, 열 반사성 또는 열 흡수성의 차이가 나는 흰색 알루미늄과 검은색 종이를 이용하여 제작된 패턴일 수 있다. 이와 같은 캘리브레이션 패턴은 도 6에 예시적으로 도시되어 있고, 이러한 캘리브레이션 패턴을 이용하여 획득된 영상에서, 도 7에 도시된 바와 같이, 흰색 알루미늄 부분은 열을 흡수하지 못하여 검은색으로 나타나고, 검은색 종이 부분은 열을 흡수하여 상대적으로 고온이 되어 흰색으로 나타나는 것으로 볼 수 있다.The calibration pattern mentioned above may be, for example, a pattern manufactured using white aluminum and black paper having a difference in heat reflectivity or heat absorption. Such a calibration pattern is exemplarily illustrated in FIG. 6, and in an image obtained by using the calibration pattern, as shown in FIG. 7, the white aluminum part does not absorb heat and appears black and is black. It can be seen that the paper part absorbs heat and becomes relatively hot and appears white.

도 2는 본 발명의 일 실시예에 따른 FIR 스테레오 카메라(110)를 이용한 보행자 보호 장치(100)에 포함된 보행자 인식부(130)에 대한 블록 구성도이다. 2 is a block diagram of the pedestrian recognition unit 130 included in the pedestrian protection device 100 using the FIR stereo camera 110 according to an embodiment of the present invention.

도 2를 참조하면, FIR 스테레오 카메라(110)를 이용한 보행자 보호 장치(100)에 포함된 보행자 인식부(130)는, FIR 스테레오 카메라(110)를 통해 획득된 영상을 입력받아 입력된 영상에 대한 스테레오 매칭(Stereo Matching)을 통해, 입력된 영상의 각 픽셀에서의 3차원 거리정보를 획득하는 스테레오 매칭부(210); 입력된 영상을 이진화(Binary)하고, 앞에서 획득된 3차원 거리정보를 이용하여 이진화된 영상에 대한 픽셀 분포 분석을 수행하여 보행자 후보군을 추출하는 보행자 후보군 추출부(220); 및 추출된 보행자 후보군에 대한 특징 데이터를 추출하고, 추출된 특징 데이터에 근거하여 추출된 보행자 후보군의 보행자 여부를 판단함으로써, 보행자를 인식하는 보행자 여부 판단부(230) 등으로 포함한다. Referring to FIG. 2, the pedestrian recognition unit 130 included in the pedestrian protection device 100 using the FIR stereo camera 110 receives an image acquired through the FIR stereo camera 110 and receives an image. A stereo matching unit 210 for obtaining 3D distance information of each pixel of the input image through stereo matching; A pedestrian candidate group extracting unit 220 for binarizing the input image and extracting a pedestrian candidate group by performing pixel distribution analysis on the binarized image by using the 3D distance information obtained above; And extracting feature data on the extracted pedestrian candidate group and determining whether the extracted pedestrian candidate group is a pedestrian based on the extracted feature data, such as a pedestrian determination unit 230 for recognizing the pedestrian.

전술한 스테레오 매칭부(210)에서 획득된 3차원 거리정보는, 충돌 위험성 판단부(140)에서 충돌 위험성을 판단하기 위해 이용하는 '인식된 보행자와의 거리정보'이다. The three-dimensional distance information obtained by the stereo matching unit 210 is 'distance information with the recognized pedestrian' used by the collision risk determination unit 140 to determine the collision risk.

전술한 스테레오 매칭부(210)는 입력된 영상의 각 픽셀에서 3차원 거리정보를 획득하기 위한 스테레오 매칭을 수행하는데, 여기서, 수행하는 스테레오 매칭 방법에는 영역 기반 스테레오 매칭(Region Based Stereo Matching) 방법과 특성 기반 스테레오 매칭(Feature Based Stereo Matching) 방법이 있다. The stereo matching unit 210 performs stereo matching to obtain 3D distance information from each pixel of the input image. Here, the stereo matching method includes a region based stereo matching method and a region based stereo matching method. There is a feature based stereo matching method.

영역 기반 스테레오 매칭(Region Based Stereo Matching) 방법은 영상의 영역을 비교하여 최적의 대응점을 찾는 방법이고, 특성 기반 스테레오 매칭(Feature Based Stereo Matching) 방법은 영상의 특징을 추출하고 특징점을 비교하여 최적의 대응점을 찾는 방법이다. Region Based Stereo Matching method finds the best matching point by comparing the regions of the image.Feature Based Stereo Matching method extracts the features of the image and compares the feature points. How to find the matching point.

본 발명에서, 전술한 스테레오 매칭부(210)는 입력된 영상의 각 픽셀에서 3차원 거리정보를 획득하기 위한 스테레오 매칭으로서, 영역 기반 스테레오 매칭(Region Based Stereo Matching) 방법을 이용한다. FIR 스테레오 카메라(110)를 통해 획득된 영상은 적외선 대역의 열을 감지한다. 그러므로, 열이 높은 곳은 높은 값을 갖는 영상으로 표현되기 때문에, 영상 획득 과정에서 이미 특징을 얻을 수 있다. 따라서, 스테레오 매칭부(210)는 입력된 영상의 각 픽셀에서 3차원 거리정보를 획득하기 위한 스테레오 매칭으로서, 입력된 영상의 영역을 비교하여 대응점을 찾는 스테레오 매칭을 통해, 각 픽셀에서의 3차원 거리정보를 획득하는 영역 기반 스테레오 매칭(Region Based Stereo Matching) 방법을 이용한다. In the present invention, the stereo matching unit 210 uses a region based stereo matching method as stereo matching to obtain 3D distance information from each pixel of the input image. The image acquired through the FIR stereo camera 110 detects heat in the infrared band. Therefore, since the high heat is represented by the image having a high value, the feature can be obtained already in the image acquisition process. Accordingly, the stereo matching unit 210 is a stereo matching for obtaining three-dimensional distance information from each pixel of the input image. The stereo matching unit 210 compares regions of the input image and finds a corresponding point. A Region Based Stereo Matching method for obtaining distance information is used.

이때, 스테레오 매칭부(210)는, 모든 영역에 대해서 스테레오 매칭을 수행하지 않고, 입력된 영상의 모든 영역 중에서 임계 온도(예: T=85)에 대응되는 값 이상이 되는 영역을 비교하여 대응점을 찾는 스테레오 매칭을 수행한다. 왜냐하면, 영상의 모든 영역에 대해서 스테레오 매칭을 수행하면 많은 연산을 필요로 하며, 또한 임계 온도에 대응되는 일정 값을 넘지 못하는 열이 낮은 곳은 관심 영역에서 제외되는 부분이기 때문에 일정 값 이상이 되는 부분에 대해서만 스테레오 매칭을 수행하는 것이다. At this time, the stereo matching unit 210 does not perform stereo matching on all regions, but compares the corresponding points by comparing regions which are equal to or greater than a value corresponding to a threshold temperature (for example, T = 85) among all regions of the input image. Perform a stereo match to find. Because stereo matching is required for all areas of the image, many operations are required, and since the low heat that does not exceed a certain value corresponding to the threshold temperature is excluded from the region of interest, the part that is above a certain value Is to perform stereo matching only.

스테레오 매칭부(210)에서 사용한 영역 기반 스테레오 매칭(Region Based Stereo Matching) 방법은 아래 수학식 4에 의해서 수행된다. The region based stereo matching method used in the stereo matching unit 210 is performed by Equation 4 below.

Figure 112009022197611-PAT00004
Figure 112009022197611-PAT00004

수학식 4에서, L은 FIR 스테레오 카메라(110) 중 제 1 FIR 카메라(예: 왼쪽 FIR 카메라)로부터 획득된 영상이고, R은 FIR 스테레오 카메라(110) 중 제 2 FIR 카메라(예: 오른쪽 FIR 카메라)로부터 획득된 영상이며, S는 영역 기반 스테레오 매칭(Region Based Stereo Matching) 방법에서의 각 픽셀의 유사도를 의미한다. 수학식 4를 참조하면, 각 픽셀의 유사도 S가 최소가 되도록 하는 s는 3차원 거리정보를 의미한다. In Equation 4, L is an image obtained from a first FIR camera (eg, a left FIR camera) of the FIR stereo camera 110, and R is a second FIR camera (eg, a right FIR camera) of the FIR stereo camera 110. ), S denotes the similarity of each pixel in the Region Based Stereo Matching method. Referring to Equation 4, s to make the similarity S of each pixel to be the minimum means three-dimensional distance information.

다시 말해, 스테레오 매칭부(210)는, 스테레오 매칭 시, 입력된 영상의 각 픽셀의 유사도(S)를 계산하고, 계산된 유사도(S)에 근거하여 각 픽셀에서의 3차원 거리정보(s)를 획득한다. In other words, the stereo matching unit 210, when stereo matching, calculates the similarity (S) of each pixel of the input image, and based on the calculated similarity (S) three-dimensional distance information (s) in each pixel Acquire it.

도 8은, 스테레오 매칭부(210)에 입력된 영상(도 8의 (a) 및 (b))에 대하여, 스테레오 매칭을 수행함으로써, 획득된 3차원 거리정보에 대한 영상(도 8의 (c))을 예시적으로 나타낸 도면이다. 도 8의 (a)는 FIR 스테레오 카메라(110) 중 제 1 FIR 카메라(예: 왼쪽 FIR 카메라)로부터 획득된 영상이고, 도 8의 (b)는 FIR 스테레오 카메라(110) 중 제 2 FIR 카메라(예: 오른쪽 FIR 카메라)로부터 획득된 영상이다. FIG. 8 is an image (3 (c) of FIG. 8C) obtained by performing stereo matching on an image (FIGS. 8A and 8B) input to the stereo matching unit 210. )) Is an exemplary view showing. FIG. 8A illustrates an image obtained from a first FIR camera (eg, a left FIR camera) of the FIR stereo camera 110, and FIG. 8B illustrates a second FIR camera of the FIR stereo camera 110. Example: Image obtained from the right FIR camera.

전술한 보행자 후보군 추출부(220)는, 입력된 영상에서 보행자로 인식될 가능성이 있는 보행자 후보를 추출하는 모듈로서, 입력된 영상은 FIR 스테레오 카메라(110)를 통해 획득되었기 때문에, 보행자가 존재하는 부분은 밝은 색으로 나타난다. 따라서, 보행자 후보군 추출부(220)는 입력된 영상을 다음의 수학식 5와 같이 이진화(Binary) 과정을 거치면 보행자 후보가 되는 부분이 추출될 수 있다. The above-described pedestrian candidate group extracting unit 220 is a module for extracting a pedestrian candidate that may be recognized as a pedestrian from the input image. Since the input image is obtained through the FIR stereo camera 110, the pedestrian may exist. The part appears in bright colors. Accordingly, the pedestrian candidate group extracting unit 220 may extract a portion that becomes a pedestrian candidate when the input image undergoes a binary process as shown in Equation 5 below.

Figure 112009022197611-PAT00005
Figure 112009022197611-PAT00005

보행자 후보군 추출부(220)에서 입력된 영상을 수학식 5를 이용하여 이진화하여 얻은 이진화된 영상은 도 9를 통해 확인할 수 있다. 도 9의 (a)는 보행자 후보군 추출부(220)에 입력된 영상이고, 도 9의 (b)는 도 9의 (a)를 이진화하여 얻은 이진화된 영상이다. The binarized image obtained by binarizing the image input by the pedestrian candidate group extracting unit 220 using Equation 5 may be confirmed through FIG. 9. FIG. 9A illustrates an image input to the pedestrian candidate group extracting unit 220, and FIG. 9B illustrates a binarized image obtained by binarizing FIG. 9A.

여기서, 보행자 후보군 추출부(220)는 밝은 부분만 이진화된 영상에서 보행자 부분을 추출하기 위해서는, 세로 픽셀 수와 가로 픽셀 수에 대한 픽셀 분포 분석을 수행할 수 있다. 도 9에서 도시된 바와 같이, 보행자가 있는 부분은 밝은 색 픽셀이 많이 분포하고 있기 때문에, 픽셀 개수의 분포에서 픽셀 개수가 많은 곳을 보행자 후보로 정할 수 있다. 특히, 보행자의 경우, 세로로 분포되어 있기 때문에, 세로 픽셀 분포 분석을 수행한 이후, 가로 픽셀 분포 분석을 수행하면 보행자 후보 군을 더 잘 추출할 수 있다. 밝은 색 픽셀의 세로 분포 중 최고 값의 일정 비율(예: 40%)이상의 되는 픽셀을 보행자 후보군으로 추출할 수 있다. 도 10은 밝은 색 픽셀의 세로 픽셀 분포 분석을 통해 획득한 보행자 후보군에 대한 영상이다. Here, the pedestrian candidate group extracting unit 220 may perform pixel distribution analysis on the number of vertical pixels and the number of horizontal pixels in order to extract the pedestrian part from the binarized image of only the bright part. As illustrated in FIG. 9, since a portion of the pedestrian has a large number of bright color pixels, a large number of pixels may be determined as a pedestrian candidate in the distribution of the number of pixels. In particular, since the pedestrians are vertically distributed, after performing the vertical pixel distribution analysis, the horizontal pixel distribution analysis may be performed to better extract the pedestrian candidate group. Pixels having a predetermined ratio (for example, 40%) of the highest value among the vertical distribution of bright color pixels may be extracted as pedestrian candidates. 10 is an image of a pedestrian candidate group obtained through vertical pixel distribution analysis of bright color pixels.

이러한 세로 픽셀 분포 분석을 수행한 이후, 가로 픽셀 분포 분석을 수행하기 위해서는, 세로 픽셀 분포 분석 결과에서 보행자 후보군으로 추출된 부분을 이용할 수 있다. 세로 픽셀 분포 분석을 통해서 보행자 후보군의 위치가 결정되었기 때문에, 가로 픽셀 분포 분석을 통해 더욱 정확한 보행자 후보군을 추출할 수 있게 된다. 하지만, 세로 픽셀 분포 분석과 달리, 가로 픽셀 분포 분석은 주변 노이즈에 대한 많은 영향을 받을 수 있다. 도 10과 같이, 주변 노이즈들(예: 주변 건물들)은 보행자(즉, 사람)과 달리 가로로 배치되어 있기 때문에 영향을 주게 되며, 가로 픽셀 분포 분석을 어렵게 하는 요인이 된다. 특히, 도 10에 도시된 세로 픽셀 분포 분석의 결과를 이용하여 가로 픽셀 분포 분석을 수행함으로써 얻은 결과를 나타내는 도 11에서는, 주변 노이즈들(예: 주변 건물들)로 인하여, 보행자로 인식될 수 있는 부분이 여러 부분으로 나누어지는 상황이 발생할 수 있음을 알 수 있다. After performing the vertical pixel distribution analysis, in order to perform the horizontal pixel distribution analysis, a portion extracted as the pedestrian candidate group from the vertical pixel distribution analysis result may be used. Since the position of the pedestrian candidate group is determined through the vertical pixel distribution analysis, a more accurate pedestrian candidate group can be extracted through the horizontal pixel distribution analysis. However, unlike the vertical pixel distribution analysis, the horizontal pixel distribution analysis may be greatly influenced by the ambient noise. As shown in FIG. 10, the ambient noises (eg, surrounding buildings) are influenced because they are arranged horizontally unlike pedestrians (ie, humans), which makes it difficult to analyze the horizontal pixel distribution. In particular, in FIG. 11, which shows a result obtained by performing a horizontal pixel distribution analysis using the results of the vertical pixel distribution analysis shown in FIG. 10, due to the ambient noise (eg, surrounding buildings), it may be recognized as a pedestrian. It can be seen that a situation where a part is divided into several parts may occur.

도 11에 도시된 바와 같이, 보행자 후보군이 노이즈로 인하여 여러 부분으로 나뉜 경우, 보행자 인식을 정확하게 할 수 없는 문제점이 있으며, 이때 거리정보를 이용하면 좀 더 정확하게 보행자 후보군을 추출할 수 있다. As shown in FIG. 11, when the pedestrian candidate group is divided into various parts due to noise, there is a problem in that pedestrian recognition cannot be accurately performed. At this time, the pedestrian candidate group can be more accurately extracted using distance information.

거리정보를 이용하기 위해서는, 보행자 영상의 거리를 알아야 하며, 이러한 보행자 영상의 거리를 알기 위해서는, 가로 픽셀 분포 분석 중 가장 길이가 긴 부분의 거리 평균을 이용한다. 그러면, 거리정보를 알 수 있다. 분석된 거리정보를 이요아형 보행자의 높이를 계산할 수 있으며, 이러한 보행자의 높이는 다음의 수학식 6을 통해서 구할 수 있다. In order to use the distance information, it is necessary to know the distance of the pedestrian image, and to know the distance of the pedestrian image, the distance average of the longest part of the horizontal pixel distribution analysis is used. Then, the distance information can be known. The height of the pedestrian can be calculated from the analyzed distance information, and the height of the pedestrian can be obtained through Equation 6 below.

Figure 112009022197611-PAT00006
Figure 112009022197611-PAT00006

수학식 6에서, Y는 보행자의 높이를 의미하고, Z는 보행자와의 거리를 의미하며, f는 초점 거리(Focal Length)를 의미하며, y는 영상에서의 y 좌표를 의미한다. In Equation 6, Y means the height of the pedestrian, Z means the distance to the pedestrian, f means the focal length, and y means the y coordinate in the image.

또한, 캘리브레이션 정보를 이용하여 도로면과 보행자가 만나는 점을 계산할 수 있는데 이를 통해 도로면(바닥) 및 영상에서의 y좌표와의 관계를 구할 수 있고, 이렇게 구해진 영상에서의 y좌표와 바닥과의 관계를 이용하고, 일반적인 사람(보행자)의 키(예: 1.8m)를 이용하여 보행자의 높이를 구하고, 구해진 보행자의 높이 값과 가장 가까운 부분을 이용하면 도 12와 같은 보행자 후보군을 더욱 정확하게 추출할 수 있다. In addition, it is possible to calculate the point where the road surface meets the pedestrian by using the calibration information. Through this, the relationship between the y coordinate in the road surface (floor) and the image can be obtained. By using the relationship, the height of the pedestrian is calculated using the height of a common person (pedestrian) (for example, 1.8m), and using the closest part of the obtained pedestrian height value, the candidate group of pedestrians as shown in FIG. 12 can be extracted more accurately. Can be.

도 3을 참조하여 다시 말해, 입력된 영상에서 보행자로 인식될 가능성이 있는 보행자 후보를 추출하는 보행자 후보군 추출부(220)는, 이진화된 영상의 세로 픽셀에 대한 분포를 분석하여, 보행자 후보군의 위치 정보를 파악하는 세로 픽셀 분포 분석부(310); 및 이진화된 영상의 가로 픽셀에 대한 분포를 분석하여, 보행자 후보군의 높이 정보를 파악하는 가로 픽셀 분포 분석부(320)를 포함한다. In other words, referring to FIG. 3, the pedestrian candidate group extracting unit 220 extracting a pedestrian candidate that may be recognized as a pedestrian from the input image, analyzes a distribution of vertical pixels of the binarized image and positions the pedestrian candidate group. A vertical pixel distribution analyzer 310 for identifying information; And a horizontal pixel distribution analyzer 320 for analyzing the distribution of the horizontal pixels of the binarized image to determine the height information of the pedestrian candidate group.

또한, 도 3을 참조하면, 보행자 후보군 추출부(220)는, 획득된 3차원 거리정 보를 이용하여 파악된 높이 정보에서 보행자 후보군에 관련이 없는 높이 정보인 노이즈를 제거하는 노이즈 제거부(330)를 포함할 수 있으며, 이를 통해 더욱 정확한 보행자 후보군을 추출할 수 있게 된다. In addition, referring to FIG. 3, the pedestrian candidate group extracting unit 220 removes noise, which is height information irrelevant to the pedestrian candidate group, from the height information obtained using the obtained 3D distance information. It may include, through which it is possible to extract a more accurate pedestrian candidate group.

보행자 보호 장치(110)의 보행자 인식부(130)에 포함된 보행자 여부 판단부(230)는, 보행자 후보군 추출부(220)에서 추출된 보행자 후보군에 대한 영상을 이용하여 보행자 여부를 판단하게 되는데, 이를 위한 일 예로서, 가보 필터 뱅크(Gabor Filter Bank)를 통해, 추출된 보행자 후보군에 해당하는 영상으로부터 특징 데이터를 추출하고, 서포트 벡터 머신(SVM: Support Vector Machine)를 통해, 추출된 특징 데이터를 분류하여 추출된 보행자 후보군의 보행자 여부를 판단함으로써, 최종적으로 보행자를 인식한다. The pedestrian determination unit 230 included in the pedestrian recognition unit 130 of the pedestrian protection device 110 may determine whether the pedestrian is using an image of the pedestrian candidate group extracted by the pedestrian candidate group extraction unit 220. As an example for this purpose, feature data is extracted from an image corresponding to the extracted pedestrian candidate group through a Gabor Filter Bank, and extracted feature data through a support vector machine (SVM). The pedestrian is finally recognized by determining whether the pedestrian candidate group classified and extracted is a pedestrian.

보행자 보호 장치(110)의 충돌 위험성 판단부(140)는 보행자 인식부(130)에서의 보행자 인식 결과를 토대로, 보행자와의 거리정보 및 해당 차량의 속도정보에 근거하여 해당 보행자와의 충돌 위험성을 판단하고, 충돌 위험성이 있는 것으로 판단된 경우, 충돌 회피 제어부(150)는, 인식된 보행자와의 거리정보, 차량의 속도정보 및 차량의 제동거리 정보에 근거하여, 제동 시점을 결정하고, 결정된 제동 시점에 전자 제어 유닛(ECU: Electronic Cotnrol Unit)을 통해 제동장치를 제어함으로써, 보행자와의 충돌을 회피하여 보행자 보호를 가능하게 한다. The collision risk determination unit 140 of the pedestrian protection device 110 measures the risk of collision with the pedestrian based on the distance information with the pedestrian and the speed information of the vehicle, based on the pedestrian recognition result from the pedestrian recognition unit 130. If it is determined that there is a risk of collision, the collision avoidance control unit 150 determines a braking time point based on the recognized distance information with the pedestrian, the speed information of the vehicle, and the braking distance information of the vehicle, and determines the determined braking time. By controlling the braking device through the electronic control unit (ECU) at the time point, it is possible to avoid the collision with the pedestrian and to protect the pedestrian.

도 13은 본 발명의 일 실시예에 따른 원적외선 스테레오 카메라를 이용한 보행자 보호 방법에 대한 흐름도이다. 13 is a flowchart illustrating a pedestrian protection method using a far infrared stereo camera according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 일 실시예에 따른 원적외선 스테레오 카메라를 이용한 보행자 보호 방법은, 캘리브레이션(Calibration) 된 원적외선(FIR: Far-Infra-Red) 스테레오 카메라(110)를 통해 영상을 획득하는 영상 획득 단계(S1300); 획득된 영상을 통해 보행자를 인식하는 보행자 인식 단계(S1302); 인식된 보행자와의 거리정보 및 차량의 속도정보에 근거하여, 인식된 보행자와의 충돌 위험성을 판단하는 충돌 위험성 판단 단계(S1304); 및 충돌 위험성이 있는 것으로 판단된 경우, 인식된 보행자와의 충돌을 회피하도록 제동장치를 제어하는 충돌 회피 제어 단계(S1305) 등을 포함한다. Referring to FIG. 13, a pedestrian protection method using a far-infrared stereo camera according to an embodiment of the present invention may include obtaining an image through a calibrated far-infra-red (FIR) stereo camera 110. Image acquisition step S1300; Pedestrian recognition step (S1302) for recognizing the pedestrian through the obtained image; A collision risk determination step (S1304) of determining a risk of collision with the recognized pedestrian based on distance information of the recognized pedestrian and vehicle speed information; And a collision avoidance control step (S1305) of controlling the braking device to avoid a collision with the recognized pedestrian when it is determined that there is a collision risk.

이상에서 설명한 바와 같이 본 발명에 의하면, 원적외선 스테레오 카메라(110)를 이용함으로써 배경(주변 건물 및 주변 물체 등)과 보행자를 정확히 구별하여 보행자를 인식하고, 이렇게 인식된 보행자와의 충돌 위험성을 판단하며, 충돌 위험성이 있는 보행자와의 충돌을 회피하도록 차량을 제어함으로써, 정확히 보행자를 보호할 수 있는 보행자 보호 방법 및 보행자 보호 장치(100)를 제공하는 효과가 있다. As described above, according to the present invention, the far-infrared stereo camera 110 is used to accurately distinguish the pedestrian from the background (a neighboring building and the surrounding object) and the pedestrian, and determine the risk of collision with the recognized pedestrian. By controlling the vehicle to avoid a collision with a pedestrian having a collision risk, there is an effect of providing a pedestrian protection method and a pedestrian protection device 100 capable of accurately protecting a pedestrian.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램 으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.In the above description, all elements constituting the embodiments of the present invention are described as being combined or operating in combination, but the present invention is not necessarily limited to the embodiments. In other words, within the scope of the present invention, all of the components may be selectively operated in combination with one or more. In addition, although all of the components may be implemented in one independent hardware, each or all of the components may be selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, the terms "comprise", "comprise" or "having" described above mean that the corresponding component may be included, unless otherwise stated, and thus excludes other components. It should be construed that it may further include other components instead. All terms, including technical and scientific terms, have the same meanings as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms commonly used, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be construed in an ideal or excessively formal sense unless explicitly defined in the present invention.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위 가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

도 1은 본 발명의 일 실시예에 따른 원적외선 스테레오 카메라를 이용한 보행자 보호 장치에 대한 블록 구성도, 1 is a block diagram of a pedestrian protection device using a far-infrared stereo camera according to an embodiment of the present invention,

도 2는 본 발명의 일 실시예에 따른 원적외선 스테레오 카메라를 이용한 보행자 보호 장치에 포함된 보행자 인식부에 대한 블록 구성도, 2 is a block diagram of a pedestrian recognition unit included in a pedestrian protection device using a far-infrared stereo camera according to an embodiment of the present invention;

도 3은 본 발명의 일 실시예에 따른 원적외선 스테레오 카메라를 이용한 보행자 보호 장치에 포함된 보행자 인식부에서의 보행자 후보군 추출부에 대한 블록 구성도, 3 is a block diagram of a pedestrian candidate group extraction unit in a pedestrian recognition unit included in a pedestrian protection device using a far-infrared stereo camera according to an embodiment of the present invention;

도 4는 카메라 좌표 및 실제 세게 좌표 간의 관계를 나타낸 도면, 4 is a diagram illustrating a relationship between camera coordinates and actual coordinates;

도 5는 원적외선 스테레오 카메라의 구성을 나타낸 도면, 5 is a view showing the configuration of a far-infrared stereo camera;

도 6은 캘리브레이션 패턴을 예시적으로 나타낸 도면, 6 exemplarily shows a calibration pattern;

도 7은 캘리브레이션 패턴을 이용하여 캘리브레이션 된 원적외선 스테레오 카메라를 통해 획득된 영상을 예시적으로 나타낸 도면, 7 is a diagram illustrating an image acquired by a far-infrared stereo camera calibrated using a calibration pattern;

도 8은 입력된 영상에 대한 스테레오 매칭을 통해 획득된 3차원 거리정보에 대한 영상을 예시적으로 나타낸 도면, 8 is a diagram illustrating an image of 3D distance information obtained through stereo matching on an input image by way of example;

도 9는 입력된 영상이 이진화된 영상을 예시적으로 나타낸 도면, 9 is a diagram illustrating an image in which an input image is binarized;

도 10은 이진화된 영상의 세로 픽셀 분포에 대한 분석 결과를 예시적으로 나타낸 도면, 10 is a diagram exemplarily illustrating a result of analyzing a vertical pixel distribution of a binarized image;

도 11은 이진화된 영상의 가로 픽셀 분포에 대한 분석 결과를 예시적으로 나타낸 도면, 11 is a diagram exemplarily illustrating a result of analyzing horizontal pixel distribution of a binarized image;

도 12는 이진화된 영상의 가로 픽셀 분포에 대하여, 노이즈를 제거하여 얻어진 가로 픽셀 분포에 대한 분석 결과를 예시적으로 나타낸 도면, 12 is a diagram illustrating an analysis result of a horizontal pixel distribution obtained by removing noise with respect to a horizontal pixel distribution of a binarized image.

도 13은 본 발명의 일 실시예에 따른 원적외선 스테레오 카메라를 이용한 보행자 보호 방법에 대한 흐름도이다. 13 is a flowchart illustrating a pedestrian protection method using a far infrared stereo camera according to an embodiment of the present invention.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

100: 보행자 보호 장치100: pedestrian protection device

110: 원적외선(FIR) 스테레오 카메라110: Far Infrared (FIR) Stereo Camera

120: 영상 획득부120: image acquisition unit

130: 보행자 인식부130: pedestrian recognition unit

140: 충돌 위험성 판단부140: collision risk determination unit

150: 충돌 회피 제어부150: collision avoidance control

210: 스테레오 매칭부210: stereo matching unit

220: 보행자 후보군 추출부220: pedestrian candidate group extraction unit

230: 보행자 여부 판단부230: pedestrian determination unit

310: 세로 픽셀 분포 분석부310: vertical pixel distribution analyzer

320: 가로 픽셀 분포 분석부320: horizontal pixel distribution analyzer

330: 노이즈 제거부330: noise removing unit

Claims (13)

캘리브레이션(Calibration) 된 원적외선(FIR: Far-Infra-Red) 스테레오 카메라를 통해 영상을 획득하는 영상 획득부; An image acquisition unit that acquires an image through a calibrated Far-Infra-Red (FIR) stereo camera; 상기 획득된 영상을 통해 보행자를 인식하는 보행자 인식부; A pedestrian recognition unit recognizing a pedestrian through the acquired image; 상기 인식된 보행자와의 거리정보 및 차량의 속도정보에 근거하여, 상기 인식된 보행자와의 충돌 위험성을 판단하는 충돌 위험성 판단부; 및 A collision risk determination unit configured to determine a risk of collision with the recognized pedestrian based on the recognized distance information of the pedestrian and the speed information of the vehicle; And 상기 충돌 위험성이 있는 것으로 판단된 경우, 상기 인식된 보행자와의 충돌을 회피하도록 제동장치를 제어하는 충돌 회피 제어부If it is determined that there is a risk of collision, a collision avoidance control unit controlling a braking device to avoid a collision with the recognized pedestrian. 를 포함하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. Pedestrian protection device using a far-infrared stereo camera, characterized in that it comprises a. 제 1항에 있어서, The method of claim 1, 상기 원적외선 스테레오 카메라는 제 1 원적외선 카메라 및 제 2 원적외선 카메라를 포함하고, 상기 획득된 영상은 상기 제 1 원적외선 카메라 및 상기 제 2 원적외선 카메라를 통해 각각 획득된 제 1 영상과 제 2 영상을 포함하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. The far infrared stereo camera may include a first far infrared camera and a second far infrared camera, and the obtained image may include a first image and a second image acquired through the first far infrared camera and the second far infrared camera, respectively. Pedestrian protection device using a far-infrared stereo camera. 제 1항에 있어서, The method of claim 1, 상기 영상 획득부는, The image acquisition unit, 열 반사성 또는 열 흡수성의 차이가 나는 캘리브레이션 패턴(Calibration Pattern)을 이용하여 상기 캘리브레이션 된 원적외선 스테레오 카메라를 통해 상기 영상을 획득하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. A pedestrian protection apparatus using a far-infrared stereo camera, characterized in that the image is acquired through the calibrated far-infrared stereo camera using a calibration pattern having a difference in heat reflectivity or heat absorption. 제 3항에 있어서, The method of claim 3, wherein 상기 캘리브레이션 패턴은, The calibration pattern is, 상기 열 반사성 또는 상기 열 흡수성의 차이가 나는 흰색 알루미늄과 검은색 종이를 이용하여 제작된 패턴인 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. The pedestrian protection device using a far-infrared stereo camera, characterized in that the pattern is made of white aluminum and black paper having a difference in the heat reflectivity or the heat absorption. 제 1항에 있어서, The method of claim 1, 상기 보행자 인식부는, The pedestrian recognition unit, 상기 획득된 영상을 입력받아 상기 입력된 영상에 대한 스테레오 매칭을 통해, 상기 입력된 영상의 각 픽셀에서의 3차원 거리정보를 획득하는 스테레오 매칭부; A stereo matching unit which receives the obtained image and acquires 3D distance information of each pixel of the input image through stereo matching with respect to the input image; 상기 입력된 영상을 이진화하고, 상기 획득된 3차원 거리정보를 이용하여 상기 이진화된 영상에 대한 픽셀 분포 분석을 수행하여 보행자 후보군을 추출하는 보행자 후보군 추출부; 및 A pedestrian candidate group extraction unit for binarizing the input image and extracting a pedestrian candidate group by performing pixel distribution analysis on the binarized image using the obtained 3D distance information; And 상기 추출된 보행자 후보군에 대한 특징 데이터를 추출하고, 상기 추출된 특 징 데이터에 근거하여 상기 추출된 보행자 후보군의 보행자 여부를 판단함으로써, 상기 보행자를 인식하는 보행자 여부 판단부A pedestrian determination unit that extracts feature data for the extracted pedestrian candidate group and determines whether the pedestrian candidate group is a pedestrian based on the extracted feature data, thereby recognizing the pedestrian. 를 포함하되, Including, 상기 획득된 3차원 거리정보는 상기 인식된 보행자와의 거리정보인 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. The acquired 3D distance information is a pedestrian protection device using a far-infrared stereo camera, characterized in that the distance information with the recognized pedestrian. 제 5항에 있어서, The method of claim 5, 상기 스테레오 매칭부는, The stereo matching unit, 상기 입력된 영상의 영역을 비교하여 대응점을 찾는 상기 스테레오 매칭을 통해, 상기 각 픽셀에서의 상기 3차원 거리정보를 획득하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. The pedestrian protection apparatus using a far-infrared stereo camera, characterized in that to obtain the three-dimensional distance information in each pixel through the stereo matching to find the corresponding point by comparing the input image area. 제 6항에 있어서, The method of claim 6, 상기 스테레오 매칭부는, The stereo matching unit, 상기 입력된 영상의 모든 영역 중에서 임계 온도에 대응되는 값 이상이 되는 영역을 비교하여 상기 대응점을 찾는 상기 스테레오 매칭을 수행하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. The stereoscopic pedestrian protection device using a far-infrared stereo camera, characterized in that to perform the stereo matching to find the corresponding point by comparing the area that is equal to or greater than a value corresponding to a threshold temperature of all the input image. 제 5항에 있어서, The method of claim 5, 상기 스테레오 매칭부는, The stereo matching unit, 상기 스테레오 매칭 시, 상기 입력된 영상의 각 픽셀의 유사도를 계산하고, 상기 계산된 유사도에 근거하여 상기 각 픽셀에서의 상기 3차원 거리정보를 획득하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. In the stereo matching, the similarity of each pixel of the input image is calculated, the pedestrian protection device using a far-infrared stereo camera, characterized in that to obtain the three-dimensional distance information on each pixel based on the calculated similarity. . 제 5항에 있어서, The method of claim 5, 상기 보행자 후보군 추출부는, The pedestrian candidate group extraction unit, 상기 이진화된 영상의 세로 픽셀에 대한 분포를 분석하여, 상기 보행자 후보군의 위치 정보를 파악하는 세로 픽셀 분포 분석부; 및 A vertical pixel distribution analyzer configured to analyze the distribution of the vertical pixels of the binarized image and determine position information of the pedestrian candidate group; And 상기 이진화된 영상의 가로 픽셀에 대한 분포를 분석하여, 상기 보행자 후보군의 높이 정보를 파악하는 가로 픽셀 분포 분석부Horizontal pixel distribution analysis unit for analyzing the distribution of the horizontal pixels of the binarized image, to determine the height information of the pedestrian candidate group 를 포함하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. Pedestrian protection device using a far-infrared stereo camera, characterized in that it comprises a. 제 9항에 있어서, The method of claim 9, 상기 보행자 후보군 추출부는, The pedestrian candidate group extraction unit, 상기 획득된 3차원 거리정보를 이용하여 상기 파악된 높이 정보에서 상기 보행자 후보군에 관련이 없는 높이 정보인 노이즈를 제거하는 노이즈 제거부를 포함하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. And a noise removing unit configured to remove noise, which is height information irrelevant to the pedestrian candidate group, from the determined height information by using the obtained three-dimensional distance information. 제 5항에 있어서, The method of claim 5, 상기 보행자 여부 판단부는, The pedestrian determination unit, 가보 필터 뱅크(Gabor Filter Bank)를 통해, 상기 추출된 보행자 후보군에 해당하는 영상으로부터 상기 특징 데이터를 추출하고, Through the Gabor Filter Bank, the feature data is extracted from the image corresponding to the extracted pedestrian candidate group, 서포트 벡터 머신(SVM: Support Vector Machine)를 통해, 상기 추출된 특징 데이터를 분류하여 상기 추출된 보행자 후보군의 보행자 여부를 판단함으로써, 상기 보행자를 인식하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. A pedestrian protection apparatus using a far-infrared stereo camera, wherein the pedestrian is recognized by classifying the extracted feature data and determining whether the extracted pedestrian candidate group is a pedestrian through a support vector machine (SVM). . 제 1항에 있어서, The method of claim 1, 상기 충돌 회피 제어부는, The collision avoidance control unit, 상기 충돌 위험성이 있는 것으로 판단된 경우, 상기 인식된 보행자와의 거리정보, 상기 차량의 속도정보 및 상기 차량의 제동거리 정보에 근거하여, 제동 시점을 결정하고, 상기 결정된 제동 시점에 전자 제어 유닛(ECU: Electronic Cotnrol Unit)을 통해 상기 제동장치를 제어하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 장치. When it is determined that there is a risk of collision, the braking time is determined based on the recognized distance information with respect to the pedestrian, the speed information of the vehicle, and the braking distance information of the vehicle, and the electronic control unit may be used at the determined braking time. ECU: A pedestrian protection device using a far-infrared stereo camera, characterized in that for controlling the braking device through an Electronic Cotnrol Unit. 캘리브레이션(Calibration) 된 원적외선(FIR: Far-Infra-Red) 스테레오 카메라를 통해 영상을 획득하는 영상 획득 단계; An image acquisition step of acquiring an image through a calibrated far-infra-red (FIR) stereo camera; 상기 획득된 영상을 통해 보행자를 인식하는 보행자 인식 단계; A pedestrian recognition step of recognizing a pedestrian through the acquired image; 상기 인식된 보행자와의 거리정보 및 차량의 속도정보에 근거하여, 상기 인 식된 보행자와의 충돌 위험성을 판단하는 충돌 위험성 판단 단계; 및 A collision risk determination step of determining a collision risk with the recognized pedestrian based on the recognized distance information of the pedestrian and the speed information of the vehicle; And 상기 충돌 위험성이 있는 것으로 판단된 경우, 상기 인식된 보행자와의 충돌을 회피하도록 제동장치를 제어하는 충돌 회피 제어 단계A collision avoidance control step of controlling a braking device to avoid a collision with the recognized pedestrian when it is determined that there is a risk of collision 를 포함하는 것을 특징으로 하는 원적외선 스테레오 카메라를 이용한 보행자 보호 방법. Pedestrian protection method using a far-infrared stereo camera, characterized in that it comprises a.
KR1020090031910A 2009-04-13 2009-04-13 Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera KR101281272B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090031910A KR101281272B1 (en) 2009-04-13 2009-04-13 Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090031910A KR101281272B1 (en) 2009-04-13 2009-04-13 Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera

Publications (2)

Publication Number Publication Date
KR20100113371A true KR20100113371A (en) 2010-10-21
KR101281272B1 KR101281272B1 (en) 2013-07-03

Family

ID=43132969

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090031910A KR101281272B1 (en) 2009-04-13 2009-04-13 Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera

Country Status (1)

Country Link
KR (1) KR101281272B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102765365A (en) * 2011-05-06 2012-11-07 香港生产力促进局 Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision
WO2014051335A1 (en) * 2012-09-25 2014-04-03 한양대학교 산학협력단 Vehicle side mirror system and vehicle side and rear image display method thereof
KR101427032B1 (en) * 2013-01-28 2014-08-05 주식회사 만도 Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof
KR101501531B1 (en) * 2013-10-10 2015-03-11 재단법인대구경북과학기술원 Stereo Vision-based Pedestrian Detection System and the method of
WO2016088960A1 (en) * 2014-12-01 2016-06-09 계명대학교 산학협력단 Method and system for detecting, in night environment, danger due to presence of pedestrian, for advanced driver assistance system
KR20160121026A (en) * 2015-04-09 2016-10-19 현대자동차주식회사 Apparatus and method for estimating distance to a pedestrian
WO2018092934A1 (en) * 2016-11-17 2018-05-24 주식회사 토비스 Night vision system
US10643473B2 (en) 2017-04-11 2020-05-05 Hyundai Motor Company Vehicle and method for collision avoidance assistance
CN111332200A (en) * 2018-12-18 2020-06-26 现代自动车株式会社 Vehicle and control method of vehicle

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101519261B1 (en) 2013-12-17 2015-05-11 현대자동차주식회사 Monitoring method and automatic braking apparatus
KR102173476B1 (en) 2018-12-28 2020-11-03 넵코어스 주식회사 Signal processing system for aircraft

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100503299B1 (en) * 2002-10-01 2005-07-25 현대모비스 주식회사 Assistance apparatus for night driving of a vehicle and method thereof
KR20070019166A (en) * 2005-08-11 2007-02-15 주식회사 현대오토넷 Sytem and control method for a car crash prevention by using infrared rays camera
JP2008003880A (en) * 2006-06-23 2008-01-10 Honda Motor Co Ltd Vehicle periphery monitoring system, vehicle periphery monitoring program and method for constructing vehicle periphery monitoring system and server
KR101188584B1 (en) * 2007-08-28 2012-10-05 주식회사 만도 Apparatus for Discriminating Forward Objects of Vehicle by Using Camera And Laser Scanner

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102765365A (en) * 2011-05-06 2012-11-07 香港生产力促进局 Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision
CN102765365B (en) * 2011-05-06 2014-07-30 香港生产力促进局 Pedestrian detection method based on machine vision and pedestrian anti-collision warning system based on machine vision
WO2014051335A1 (en) * 2012-09-25 2014-04-03 한양대학교 산학협력단 Vehicle side mirror system and vehicle side and rear image display method thereof
KR101427032B1 (en) * 2013-01-28 2014-08-05 주식회사 만도 Apparatus and method for recognizing pedestrian in vehicle, and apparatus and method for warning and preventing collision with pedestrian in vehicle using thereof
KR101501531B1 (en) * 2013-10-10 2015-03-11 재단법인대구경북과학기술원 Stereo Vision-based Pedestrian Detection System and the method of
WO2016088960A1 (en) * 2014-12-01 2016-06-09 계명대학교 산학협력단 Method and system for detecting, in night environment, danger due to presence of pedestrian, for advanced driver assistance system
KR20160121026A (en) * 2015-04-09 2016-10-19 현대자동차주식회사 Apparatus and method for estimating distance to a pedestrian
WO2018092934A1 (en) * 2016-11-17 2018-05-24 주식회사 토비스 Night vision system
US10643473B2 (en) 2017-04-11 2020-05-05 Hyundai Motor Company Vehicle and method for collision avoidance assistance
CN111332200A (en) * 2018-12-18 2020-06-26 现代自动车株式会社 Vehicle and control method of vehicle

Also Published As

Publication number Publication date
KR101281272B1 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
KR101281272B1 (en) Method and Apparatus for Guarding Pedestrian using Far-Infra-Red Stereo Camera
JP4263737B2 (en) Pedestrian detection device
US9351683B2 (en) Wrinkle detection method, wrinkle detection device and recording medium storing wrinkle detection program, as well as wrinkle evaluation method, wrinkle evaluation device and recording medium storing wrinkle evaluation program
KR101281260B1 (en) Method and Apparatus for Recognizing Vehicle
CN113243016A (en) Object recognition system, arithmetic processing device, automobile, vehicle lamp, and method for learning classifier
US8345100B2 (en) Shadow removal in an image captured by a vehicle-based camera using an optimized oriented linear axis
KR101279712B1 (en) Apparatus and method for providing real-time lane detection, recording medium thereof
KR102021152B1 (en) Method for detecting pedestrians based on far infrared ray camera at night
WO2009107237A1 (en) Biometrics device
US11227170B2 (en) Collation device and collation method
KR101498975B1 (en) Lane Departure Warning System
KR102317180B1 (en) Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information
CN102479323A (en) Method of authenticating a driver&#39;s real face in a vehicle
US9197860B2 (en) Color detector for vehicle
KR101738129B1 (en) Apparatus and method for recognizing automatic number plate on long distance image using one camera
WO2010124801A1 (en) Vision method and system for automatically detecting objects in front of a motor vehicle
JP6782433B2 (en) Image recognition device
KR101919090B1 (en) Apparatus and method of face recognition verifying liveness based on 3d depth information and ir information
CN108197523A (en) Vehicle detection at night method and system based on image conversion and profile neighborhood difference
JP6572696B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
CN103914684A (en) Method and system for recorgnizing hand gesture using selective illumination
Negied Human biometrics: Moving towards thermal imaging
JP2009295112A (en) Object recognition device
US20170132467A1 (en) Method for personal identification
JP4611919B2 (en) Pedestrian recognition device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170320

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190403

Year of fee payment: 7