KR20200140769A - System and method for detecting vehicle by using sensor - Google Patents

System and method for detecting vehicle by using sensor Download PDF

Info

Publication number
KR20200140769A
KR20200140769A KR1020200167071A KR20200167071A KR20200140769A KR 20200140769 A KR20200140769 A KR 20200140769A KR 1020200167071 A KR1020200167071 A KR 1020200167071A KR 20200167071 A KR20200167071 A KR 20200167071A KR 20200140769 A KR20200140769 A KR 20200140769A
Authority
KR
South Korea
Prior art keywords
vehicle
obstacle
preceding vehicle
light
aeb
Prior art date
Application number
KR1020200167071A
Other languages
Korean (ko)
Other versions
KR102203276B9 (en
KR102203276B1 (en
Inventor
김원겸
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140026106A external-priority patent/KR102192252B1/en
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020200167071A priority Critical patent/KR102203276B1/en
Publication of KR20200140769A publication Critical patent/KR20200140769A/en
Application granted granted Critical
Publication of KR102203276B1 publication Critical patent/KR102203276B1/en
Publication of KR102203276B9 publication Critical patent/KR102203276B9/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • G06K9/00805
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • B60W2420/62
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/81Braking systems
    • G06K2209/23
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Provided are a system and a method for recognizing a vehicle by using a sensor. The system for recognizing a vehicle by using a sensor comprises: an image sensor for receiving light reflected from a rear reflector of a preceding vehicle in front of a vehicle and generating image information including received intensity of the received light; a pixel detection unit for detecting a pixel area having the received strength within a previously trained boundary range according to the distance from the preceding vehicle in order to detect, from the generated image information, a pixel area having the received strength of the light reflected from the rear reflector of the preceding vehicle; and an autonomous emergency braking (AEB) operation point control unit for calculating the number of detected pixel areas, classifying the vehicle model of the preceding vehicle by using the calculated number of pixel areas, and determining an operating point of the AEB system of the vehicle according to the classified vehicle model of the preceding vehicle. Therefore, classifying performance can be increased, and wrong detections can be minimized.

Description

센서를 이용한 차량 인식 시스템 및 방법 {SYSTEM AND METHOD FOR DETECTING VEHICLE BY USING SENSOR}Vehicle recognition system and method using sensors {SYSTEM AND METHOD FOR DETECTING VEHICLE BY USING SENSOR}

본 발명은 센서를 이용한 차량 인식 시스템 및 방법에 관한 것으로서, 구체적으로 LIDAR 센서를 이용하여 전방의 선행 차량을 인식하는 시스템 및 방법에 관한 것이다.The present invention relates to a vehicle recognition system and method using a sensor, and more particularly, to a system and method for recognizing a preceding vehicle in front using a LIDAR sensor.

현재 자동차 분야에서 자동긴급제동(AEB, Autonomous Emergency Breaking) 시스템을 위한 3D 영상기반 장애물 인식 시스템은 일반적으로 RADAR(RAdio Detection And Ranging) 센서, LIDAR(LIght Detection And Ranging) 센서, 스테레오 카메라, 센서퓨전 등과 같은 3D 영상 카메라 센서를 이용한다.Currently, 3D image-based obstacle recognition systems for Autonomous Emergency Breaking (AEB) systems in the automotive field are generally RADAR (RAdio Detection And Ranging) sensors, LIDAR (LIght Detection And Ranging) sensors, stereo cameras, sensor fusion, etc. The same 3D image camera sensor is used.

도 1은 종래기술에 따른 3D 영상 카메라 센서의 종류를 나타낸 도면이다. 도 1에 도시된 바와 같이, 3D 영상 카메라 센서는 수동 센서와 능동 센서로 구분할 수 있다. 수동 센서는 가시광선 영역의 스테레오 카메라(10)가 대표적이며, 능동 센서는 자외선 영역의 LIDAR 센서(20) 및 밀리미터파 대역의 RADAR 센서(30)가 대표적이다. 구체적으로 스테레오 카메라(10)는 두 개의 카메라 영상과 삼각법 기반으로 장애물 또는 선행 차량(40)의 3D 정보를 획득하고, LIDAR 센서(20)와 RADAR 센서(30)는 TOF(Time Of Flight) 기반으로 장애물 또는 선행 차량(40)의 3D 정보를 획득한다. 이 중, RADAR 센서(30)는 수평 해상도가 낮은 단점이 있고 스테레오 카메라(10)는 야간 환경에 약한 취약점을 갖고 있으므로, 향후, 차량의 주/야간 환경에 강한 LIDAR 센서(20)를 단독으로 하는 장애물 인식 시스템을 개발하는 방법이 필요하다. 1 is a diagram showing the types of 3D image camera sensors according to the prior art. As shown in FIG. 1, the 3D image camera sensor can be classified into a passive sensor and an active sensor. A typical passive sensor is a stereo camera 10 in a visible light region, and as an active sensor, a LIDAR sensor 20 in an ultraviolet region and a RADAR sensor 30 in a millimeter wave band are typical. Specifically, the stereo camera 10 acquires 3D information of an obstacle or a preceding vehicle 40 based on two camera images and trigonometry, and the LIDAR sensor 20 and the RADAR sensor 30 are based on TOF (Time Of Flight). Acquires 3D information of an obstacle or a preceding vehicle 40. Among them, the RADAR sensor 30 has a disadvantage of low horizontal resolution and the stereo camera 10 has a weak vulnerability in the night environment, so in the future, the LIDAR sensor 20 that is strong against the day/night environment of the vehicle is used alone. There is a need for a way to develop an obstacle recognition system.

도 2는 종래기술에 따른 LIDAR 센서 시스템의 차량 내 장착 위치를 나타낸 도면이다. 도 2에 도시된 바와 같이, LIDAR 센서 시스템은 차량의 윈드실드(Windshield)(21) 또는 범퍼(22)에 장착되고, 도시하지는 않았으나 차량 램프 후방에도 장착 가능하며, Flash 또는 Scan 방식의 레이저 빔을 이용하여 선행 차량을 인식하는 장애물 인식 시스템이다. 2 is a view showing a mounting position in a vehicle of the LIDAR sensor system according to the prior art. As shown in Fig. 2, the LIDAR sensor system is mounted on the windshield 21 or bumper 22 of the vehicle, and although not shown, it can be mounted on the rear of the vehicle lamp, and a flash or scan type laser beam is used. It is an obstacle recognition system that recognizes the preceding vehicle by using.

도 3은 종래기술에 따른 LIDAR 센서 시스템을 나타낸 블록도이다. 도 3에 도시된 바와 같이, LIDAR 센서 시스템(100)은 송신부, 수신부, 및 처리부로 구성된다. 송신부(130)의 LD(Laser Diode)(134)는 LD드라이버(132)를 통해 레이저 신호를 발생하고 광학계(136)를 통해 레이저 신호를 방출한다. 수신부(110)는 전방의 장애물 또는 선행 차량(40)에서 부딪쳐 돌아온 레이저 신호를 광학계(112)를 통해 FPA(Focal Plane Array)(114)에 집광한다. 집광된 신호는 전처리부(116)에서 SNR(Signal to Noise Ratio)을 개선한 후 처리부(120)로 전달한다. 여기서, FPA(114)는 단일 파장대의 빛을 이용하는 PD(Photo Diode)(115)들로 구성되며 각각의 PD(115)는 장애물 또는 선행 차량(40)에서 반사되는 빛을 수신하여 거리 및 빛 반사량을 계산한다. 처리부(120)는 수신부(110)에서 전달된 거리정보 및 빛 반사량 정보를 이용하여 장애물 또는 선행 차량(40)을 검출 및 분류한다. 분류하는 방법으로, 비슷한 거리값을 갖는 주변 PD(115)들을 그룹화하여 하나의 장애물로 검출하고 검출된 장애물에서의 빛 반사량을 이용하여 장애물을 분류하는 것이 활용된다. 3 is a block diagram showing a LIDAR sensor system according to the prior art. As shown in FIG. 3, the LIDAR sensor system 100 includes a transmitter, a receiver, and a processor. The LD (Laser Diode) 134 of the transmitter 130 generates a laser signal through the LD driver 132 and emits a laser signal through the optical system 136. The receiving unit 110 condenses the laser signal returned from the front obstacle or the preceding vehicle 40 to the focal plane array (FPA) 114 through the optical system 112. The condensed signal is transmitted to the processor 120 after improving the signal to noise ratio (SNR) in the preprocessor 116. Here, the FPA 114 is composed of PD (Photo Diode) 115 using light of a single wavelength band, and each PD 115 receives the light reflected from an obstacle or the preceding vehicle 40 to determine the distance and light reflection amount. Calculate The processing unit 120 detects and classifies the obstacle or the preceding vehicle 40 using distance information and light reflection amount information transmitted from the receiving unit 110. As a classification method, surrounding PDs 115 having similar distance values are grouped and detected as one obstacle, and the obstacle is classified using the amount of light reflection from the detected obstacle.

그러나, 검출된 장애물에서의 빛 반사량을 이용하여 장애물을 분류하는 기존의 LIDAR 센서 시스템(100)에서는 장애물의 색상, 기하학적 형태, 주변 환경에 의한 반사 노이즈, 악천후 등에 의해 장애물 분류의 신뢰성을 유지하기가 매우 어렵다. 따라서, 기존의 LIDAR 센서 시스템(100)에 더하여 장애물의 분류 성능을 높이고 장애물의 오검출을 최소화하는 인식 시스템이 필요하다.However, in the existing LIDAR sensor system 100 that classifies obstacles using the amount of light reflection from the detected obstacle, it is difficult to maintain the reliability of obstacle classification due to the color, geometric shape of the obstacle, reflected noise due to the surrounding environment, and bad weather. Very difficult. Therefore, in addition to the existing LIDAR sensor system 100, there is a need for a recognition system that improves the classification performance of obstacles and minimizes erroneous detection of obstacles.

따라서, 본 발명의 목적은 전술한 문제점을 해결하기 위하여, 차량 후방에 장착되는 후부 반사기의 개수 및 간격 특징을 이용하여 선행 차량을 검출하고 분류함으로써, 기존의 센서 시스템에 더하여 분류 성능을 높이고 오검출을 최소화하는 차량 인식 시스템 및 장치를 제공하는 데 있다.Accordingly, it is an object of the present invention to detect and classify the preceding vehicle using the number and spacing characteristics of rear reflectors mounted at the rear of the vehicle in order to solve the above-described problem, thereby improving classification performance and detecting falsehood in addition to the existing sensor system. It is to provide a vehicle recognition system and device that minimizes.

상술한 목적을 달성하기 위한 본 발명의 일면에 따른 센서를 이용한 차량 인식 시스템은 차량 전방의 선행 차량으로부터 반사되는 빛의 수신세기를 수신하고, 수신된 상기 빛의 수신세기를 포함하는 영상정보를 생성하는 영상 센서, 생성된 상기 영상정보로부터 상기 선행 차량의 후부 반사기에서 반사된 빛의 수신세기를 갖는 픽셀 영역을 검출하기 위해, 상기 선행 차량과의 거리에 따라 사전에 학습된 경계 범위 이내의 수신세기를 갖는 픽셀 영역을 검출하는 픽셀 검출부 및 검출된 상기 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하고, 분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동 시스템(AEB, Autonomous Emergency Breaking)의 동작지점을 결정하는 AEB 동작지점 제어부를 포함한다.A vehicle recognition system using a sensor according to an aspect of the present invention to achieve the above object receives the reception intensity of light reflected from the preceding vehicle in front of the vehicle, and generates image information including the reception intensity of the received light. In order to detect a pixel region having a reception intensity of light reflected from a rear reflector of the preceding vehicle from the generated image information, a reception intensity within a boundary range previously learned according to a distance from the preceding vehicle A pixel detection unit for detecting a pixel area having a and calculating the number of the detected pixel areas, classifying the vehicle type of the preceding vehicle using the calculated number of pixel areas, and classifying the vehicle type of the preceding vehicle. It includes an AEB operation point control unit that determines an operation point of an automatic emergency braking system (AEB) of the vehicle.

본 발명의 구성 및 작용은 이후에 도면과 함께 설명하는 구체적인 실시예를 통하여 더욱 명확해질 것이다. The configuration and operation of the present invention will become more apparent through specific embodiments described later together with the drawings.

본 발명에 의하면, 영상 센서를 이용하여 선행 차량의 후부 반사기의 기하학적 특징으로 선행 차량을 검출하는 차량 인식 시스템으로서, 주/야간 환경에 강하며 기존의 센서 시스템 보다 향상된 검출 및 분류 성능을 얻을 수 있는 효과가 있다. According to the present invention, as a vehicle recognition system that detects a preceding vehicle with geometric characteristics of a rear reflector of a preceding vehicle using an image sensor, it is resistant to day/night environments and can obtain improved detection and classification performance than conventional sensor systems. It works.

더불어, 분류된 선행 차량의 차종 정보와 현재 차량의 운행 정보를 이용하여 자동 긴급 제동 시스템(AEB, Autonomous Emergency Breaking)의 동작지점을 조정함으로써 차량사고의 피해를 경감하는 효과가 있다.In addition, there is an effect of reducing the damage of a vehicle accident by adjusting the operating point of an automatic emergency braking system (AEB) using the vehicle type information of the classified preceding vehicle and the current vehicle operation information.

도 1은 종래기술에 따른 3D 영상 카메라 센서의 종류를 나타낸 도면이다.
도 2는 종래기술에 따른 LIDAR 센서 시스템의 차량 내 장착 위치를 나타낸 도면이다.
도 3은 종래기술에 따른 LIDAR 센서 시스템을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 차량 인식 시스템을 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 자차와 선행 차량 간의 거리에 따른 빛의 수신세기의 경계치인 I0(d)를 나타낸 그래프이다.
도 6은 본 발명의 일 실시예에 따른 선행 차량의 후부 반사기 검출 방법을 나타낸 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 자동 긴급 제동(AEB) 시스템의 동작지점 계산 방법을 나타낸 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 전방에 존재하는 2륜차와 4륜차를 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 차종 차이에 따른 AEB 시스템의 동작지점을 나타낸 도면이다.
도 10은 본 발명에 따른 3D 영상 기반 차량 인식 시스템 및 방법의 작용을 설명하기 위한 예시적 주행 상황을 나타내는 도면이다.
도 11은 도 10의 상황에서의 차량 인식을 위한 조건들 중 하나인 오프셋 차이를 설명하기 위한 도면이다.
도 12는 획득된 3D 영상 정보의 예로, 5*8 픽셀의 3차원 영상을 나타낸 도면이다.
1 is a diagram showing the types of 3D image camera sensors according to the prior art.
2 is a view showing a mounting position in a vehicle of the LIDAR sensor system according to the prior art.
3 is a block diagram showing a LIDAR sensor system according to the prior art.
4 is a block diagram showing a vehicle recognition system according to an embodiment of the present invention.
5 is a graph showing I 0 (d), which is a boundary value of light reception intensity according to a distance between an own vehicle and a preceding vehicle according to an embodiment of the present invention.
6 is a flowchart illustrating a method of detecting a rear reflector of a preceding vehicle according to an embodiment of the present invention.
7 is a flowchart illustrating a method of calculating an operation point of an automatic emergency braking (AEB) system according to an embodiment of the present invention.
8 is a view showing a two-wheeled vehicle and a four-wheeled vehicle existing in the front according to an embodiment of the present invention.
9 is a diagram showing an operation point of an AEB system according to a vehicle type difference according to an embodiment of the present invention.
10 is a diagram illustrating an exemplary driving situation for explaining the operation of the 3D image-based vehicle recognition system and method according to the present invention.
11 is a diagram for explaining an offset difference, which is one of conditions for vehicle recognition in the situation of FIG. 10.
12 is a diagram illustrating a 3D image of 5*8 pixels as an example of acquired 3D image information.

본 발명은 선행 차량의 후부 반사기의 개수 및 간격 특징을 이용하여 선행 차량을 검출 및 분류하는 차량 인식 시스템 및 방법을 제공한다. 더불어, 분류된 선행 차량의 차종과 자차의 정보를 이용하여 자동 긴급 제동 시스템(AEB)의 동작지점을 결정하는 차량 인식 시스템 및 방법을 제공한다.The present invention provides a vehicle recognition system and method for detecting and classifying a preceding vehicle using the number and spacing characteristics of rear reflectors of the preceding vehicle. In addition, it provides a vehicle recognition system and method for determining an operation point of an automatic emergency braking system (AEB) using the classified information of the vehicle type of the preceding vehicle and the own vehicle.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이므로 본 발명의 권리범위는 청구항의 기재에 의해 정하여진다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and are common knowledge in the technical field to which the present invention pertains. The scope of the present invention is determined by the description of the claims, since it is provided only to completely inform the scope of the invention to the person having the present invention.

한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자에 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가함을 배제하지 않는다. Meanwhile, terms used in the present specification are for explaining embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, "comprise" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in the mentioned component, step, operation and/or element. Or does not preclude adding.

이하, 본 발명의 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명하도록 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 4는 본 발명의 일 실시예에 따른 차량 인식 시스템을 나타낸 블록도이며, 도 5는 본 발명의 일 실시예에 따른 자차와 선행 차량 간의 거리에 따른 빛의 수신세기의 경계치인 I0(d)를 나타낸 그래프이다.4 is a block diagram showing a vehicle recognition system according to an embodiment of the present invention, and FIG. 5 is a boundary value of light reception intensity according to a distance between an own vehicle and a preceding vehicle according to an embodiment of the present invention, I 0 (d ) Is a graph.

도 4와 도 5를 함께 참조하여, 본 발명의 일 실시예에 따른 차량 인식 시스템을 상세하게 설명하고자 한다. A vehicle recognition system according to an exemplary embodiment of the present invention will be described in detail with reference to FIGS. 4 and 5 together.

도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 차량 인식 시스템은 차량 전방의 장애물로부터 반사되어 돌아오는 빛 중, 선행 차량에서(구체적으로는, 후부 반사기에서) 반사되어 돌아오는 빛을 검출 및 분류하여 자차의 자동 긴급 제동 시스템(AEB)의 동작지점을 조정한다. 이를 위해, 차량 인식 시스템은 영상 센서(400) 및 처리부(410)를 포함한다. As shown in FIG. 4, the vehicle recognition system according to an exemplary embodiment of the present invention provides light reflected from a preceding vehicle (specifically, from a rear reflector) among light reflected from an obstacle in front of the vehicle and returned. It detects and classifies the vehicle's automatic emergency braking system (AEB) to adjust the operating point. To this end, the vehicle recognition system includes an image sensor 400 and a processing unit 410.

영상 센서(400)는 레이저 펄스와 같은 빛을 출사하고 빛이 전방의 장애물로부터 반사되어 돌아오는 데 걸리는 시간을 측정하여 장애물의 위치를 계산한다. 또한, 영상 센서(400)는 계산된 장애물의 위치를 거리에 따른 빛의 수신세기(I(x,y,d))(50)로 표현되는 영상정보를 생성한다. 여기서, I는 빛의 수신세기(Intensity)를 나타내는 함수를 의미하며, x는 장애물들 사이의 간격이고, y는 지면으로부터 측정된 장애물의 높이이다. 그리고, d는 장애물과 자차 사이의 거리를 의미한다. 빛의 수신세기(I(x,y,d))(50)로 표현되는 영상정보를 생성하는 영상 센서는 LIDAR 센서일 수 있다. The image sensor 400 calculates the position of the obstacle by emitting light such as a laser pulse and measuring the time it takes for the light to return after being reflected from the obstacle in front. In addition, the image sensor 400 generates image information representing the calculated position of the obstacle as the light reception intensity (I(x,y,d)) 50 according to the distance. Here, I is a function representing the intensity of light reception, x is the distance between obstacles, and y is the height of the obstacle measured from the ground. And, d means the distance between the obstacle and the own vehicle. An image sensor that generates image information expressed by the light reception intensity (I(x,y,d)) 50 may be a LIDAR sensor.

처리부(410)는 영상 센서(400)에 의해 생성된 영상정보로부터 선행 차량의 후부 반사기에 반사된 빛을 검출하여 검출된 빛으로부터 선행 차량의 차종을 분류하고, 자차의 자동 긴급 제동 시스템(AEB)의 동작지점을 조정한다. 이를 위해, 처리부(410)는 픽셀 검출부(412) 및 AEB 동작지점 제어부(414)를 포함한다. The processing unit 410 detects light reflected by the rear reflector of the preceding vehicle from the image information generated by the image sensor 400, classifies the vehicle type of the preceding vehicle from the detected light, and classifies the vehicle type of the preceding vehicle from the detected light, and an automatic emergency braking system (AEB) of the host vehicle Adjust the operating point of To this end, the processing unit 410 includes a pixel detection unit 412 and an AEB operation point control unit 414.

픽셀 검출부(412)는 영상 센서(400)로부터 빛의 수신세기(I(x,y,d))(50)로 표현되는 영상정보를 전달 받아, 빛을 반사시키는 장애물들 사이의 간격인 x와 높이인 y를 제외한, 장애물과 자차 사이의 거리 d에 따른 빛의 수신세기인 I(d)로 표현되는 영상정보를 생성한다. 생성된 영상정보 I(d)를 이용함으로써, 픽셀 검출부(412)는 장애물로부터 반사된 빛 중, 선행 차량의 후부 반사기에서 반사된 빛을 구분한다. The pixel detection unit 412 receives image information expressed as the light reception intensity (I(x,y,d)) 50 from the image sensor 400, so that x, which is the distance between obstacles reflecting light, and Image information expressed as I(d), which is the intensity of light reception according to the distance d between the obstacle and the host vehicle, is generated, excluding the height y. By using the generated image information I(d), the pixel detector 412 identifies the light reflected from the rear reflector of the preceding vehicle among the light reflected from the obstacle.

또한, 픽셀 검출부(412)는 전달 받은 빛의 수신세기(I(x,y,d))(50) 중에서 선행 차량의 후부 반사기에서 반사된 빛의 수신세기를 갖는 픽셀 영역을 검출하기 위해, 사전에 학습되어 설정된 자차와의 거리에 따른 도로 표지병의 수신세기(Icat(d)), 후부 반사기의 수신세기(Iref(d)), 및 빛의 수신세기의 경계치(I0'(d))를 이용한다. 여기서, 자차와의 거리에 따른 빛의 수신세기의 경계치인(I0'(d))는 실험을 통해 설정되거나, 차량 주행 시 지속적인 학습을 통해 업데이트 가능한 값으로, 도 5에 도시된 바와 같이, 도로 표지병의 수신세기(Icat(d))와 후부 반사기의 수신세기(Iref(d))의 사이의 값을 갖는다. 또한, 선행 차량의 후부 반사기에서 반사된 빛의 수신세기 I(d)는 거리에 따른 빛의 수신세기의 경계치 I0'(d)보다 큰 값을 가져야 한다. 따라서, I0'(d)는 Icat(d)보다 크고 Iref(d)보다는 작은 값을 가지며, 선행 차량의 후부 반사기에서 반사된 빛의 수신세기는 I0'(d)보다는 큰 값을 갖는다. In addition, the pixel detection unit 412 detects a pixel region having a reception intensity of light reflected from a rear reflector of a preceding vehicle among the received light reception intensity (I(x,y,d)) 50. Receiving intensity of road sign (I cat (d)), reception intensity of rear reflector (I ref (d)), and threshold of light reception intensity (I 0 '(d )). Here, the boundary value of the light reception intensity according to the distance to the host vehicle (I 0 '(d)) is a value that is set through an experiment or can be updated through continuous learning while driving the vehicle, as shown in FIG. 5, It has a value between the reception intensity of the road marker (I cat (d)) and the reception intensity of the rear reflector (I ref (d)). In addition, the reception intensity I(d) of the light reflected from the rear reflector of the preceding vehicle must have a value greater than the threshold value I 0 '(d) of the light reception intensity according to the distance. Therefore, I 0 '(d) has a value greater than I cat (d) and less than I ref (d), and the reception intensity of light reflected from the rear reflector of the preceding vehicle is greater than I 0 '(d). Have.

이와 같이 픽셀 검출부(412)는 상기 거리에 따른 빛의 수신세기의 경계치 I0'(d)보다 큰 값을 갖는 I(d)값을 검출하고, 이 I(d)에 해당하는 빛을 후부 반사기로부터 반사된 빛의 픽셀 영역 Pref(x',y',d')의 영상정보로 생성한다. In this way, the pixel detector 412 detects an I(d) value having a value greater than the threshold value I 0 '(d) of the light reception intensity according to the distance, and transmits the light corresponding to this I(d) to the rear. It is generated as image information of the pixel area P ref (x',y',d') of light reflected from the reflector.

AEB 동작지점 제어부(414)는 선행 차량의 차종을 분류하고, 자차의 운행 정보(52)와 비교하여 자차의 자동 긴급 제동 시스템(AEB)의 동작지점을 조정한다. 이를 위해, AEB 동작지점 제어부(414)는 분류기(414A) 및 동작지점 결정부(414B)를 포함한다. The AEB operation point control unit 414 classifies the vehicle type of the preceding vehicle and compares it with the operation information 52 of the own vehicle to adjust the operation point of the automatic emergency braking system AEB of the own vehicle. To this end, the AEB operation point control unit 414 includes a classifier 414A and an operation point determination unit 414B.

분류기(414A)는 픽셀 검출부(412)에서 검출된 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중, 근접한 픽셀 영역을 그룹화한다. 그룹화된 픽셀 영역의 개수는 선행 차량의 후부 반사기의 개수를 의미하므로, 계산된 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류한다. The classifier 414A calculates the number of pixel areas Pref(x',y',d') of the rear reflector detected by the pixel detection unit 412, and groups adjacent pixel areas among the calculated pixel areas of the rear reflector. . Since the number of grouped pixel areas means the number of rear reflectors of the preceding vehicle, the vehicle type of the preceding vehicle is classified using the calculated number of rear reflectors.

동작지점 결정부(414B)는 분류기(414A)에서 분류한 선행 차량의 차종 정보와 자차의 ECU(전자 제어 유닛, Electronic Control Unit)(420)로부터 받은 자차의 운행 정보(52)를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB시스템(430)으로 AEB 동작신호(54)를 전달한다. The operation point determination unit 414B uses the vehicle type information of the preceding vehicle classified by the classifier 414A and the operation information 52 of the own vehicle received from the ECU (Electronic Control Unit) 420 of the own vehicle. The operation point of the automatic emergency braking (AEB) system is determined, and the AEB operation signal 54 is transmitted to the AEB system 430 of the host vehicle.

여기서, ECU(420)로 부터 받은 자차의 운행 정보(52)는 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태와 같은 정보를 포함한다. Here, the driving information 52 of the own vehicle received from the ECU 420 includes information such as vehicle type, braking force, speed, steering angle, wiper, and headlight status.

이하, 도 6을 참조하여 본 발명의 일 실시예에 따른 선행 차량의 후부 반사기 검출 방법을 더욱 상세하게 설명하고자 한다.Hereinafter, a method of detecting a rear reflector of a preceding vehicle according to an embodiment of the present invention will be described in more detail with reference to FIG. 6.

도 6은 본 발명의 일 실시예에 따른 선행 차량의 후부 반사기 검출 방법을 나타낸 흐름도이다. 6 is a flowchart illustrating a method of detecting a rear reflector of a preceding vehicle according to an embodiment of the present invention.

특별히 언급하지 않는 한, 도 6의 수행주체는 픽셀 검출부(412)를 의미한다.Unless otherwise noted, the execution subject of FIG. 6 refers to the pixel detection unit 412.

도 6에 도시된 바와 같이, 영상 센서(400)로부터 수신한 빛의 수신세기(I(x,y,d))(50)를 빛을 반사시키는 장애물들 사이의 간격인 x 및 장애물의 높이인 y를 제외한, 장애물과 자차 사이의 거리 d에 따른 빛의 수신세기인 I(d)로 표현되는 영상정보를 생성한다(S600).As shown in FIG. 6, the intensity of the light received from the image sensor 400 (I(x,y,d)) 50 is reflected between the obstacles that reflect the light, x, and the height of the obstacle. Except for y, image information expressed as I(d), which is the light reception intensity according to the distance d between the obstacle and the host, is generated (S600).

이어, 장애물에서 반사된 빛의 수신세기 I(d) 중, 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출한다(S610). 여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 정보로, I0'(d)는 Inoise(d)보다 크며, Icat(d)와 Iref(d)의 사이의 값을 갖는다.Then, of the reception intensity I (d) of the light reflected from the obstacle, an I (d) value greater than I 0 '(d), which is a threshold value of the reception intensity of light according to the distance to the host vehicle, is detected (S610). Here, I 0 '(d) is the learned boundary value, the learned reception intensity I cat (d) of the road marker according to the distance to the host vehicle, the learned reception intensity I ref (d) of the rear reflector, and the fine light This information is obtained through calculation using I noise (d), the reception strength of the surrounding obstacles reflecting the I 0 '(d) is greater than I noise (d), and between I cat (d) and I ref (d). Has the value of

이어서 상술한 범위에 속하는 I(d)값을 이용해 선행 차량의 후부 반사기에서 반사된 빛을 검출하고 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성한다(S620).Next, the light reflected from the rear reflector of the preceding vehicle is detected using the I(d) value falling within the above-described range, and the pixel area of the light reflected from the rear reflector is P ref (x', y', d') image information. It is generated as (S620).

이후, 분류기(414A)는 상기 생성된 후부 반사기의 픽셀 영역 (Pref(x',y',d')) 정보를 이용하여 선행 차량의 차종을 분류한다. 분류된 차종 정보는 동작지점 결정부(414B)에서 자차의 자동 긴급 제동(AEB)시스템의 동작지점을 계산하는 데 이용된다.Thereafter, the classifier 414A classifies the vehicle type of the preceding vehicle using the generated pixel area (Pref(x',y',d')) information of the rear reflector. The classified vehicle type information is used by the operation point determination unit 414B to calculate the operation point of the automatic emergency braking (AEB) system of the host vehicle.

도 7을 참조하여 본 발명의 일 실시예에 따른 선행 차량의 차종 분류 방법 및 자차의 자동 긴급 제동(AEB)시스템의 동작지점을 계산하는 방법을 상세하게 설명한다. A method of classifying a vehicle type of a preceding vehicle and a method of calculating an operation point of an automatic emergency braking (AEB) system of an own vehicle according to an embodiment of the present invention will be described in detail with reference to FIG. 7.

도 7은 본 발명의 일 실시예에 따른 자동 긴급 제동(AEB) 시스템의 동작지점 계산 방법을 나타낸 흐름도이다. 7 is a flowchart illustrating a method of calculating an operation point of an automatic emergency braking (AEB) system according to an embodiment of the present invention.

특별히 언급하지 않는 한, 도 7의 수행주체는 분류기(414A)를 의미한다.Unless otherwise noted, the performing subject of FIG. 7 refers to the classifier 414A.

도 7에 도시된 바와 같이, 픽셀 검출부(412)에서 검출된 후부 반사기의 픽셀 영역(Pref(x',y',d'))을 자차와 선행 차량 간의 간격정보인 d'만을 이용한 픽셀 영역 Pref(d')로 표현되는 영상정보를 생성한다(S700).As shown in FIG. 7, the pixel area (P ref (x', y', d')) of the rear reflector detected by the pixel detection unit 412 is a pixel area using only d', which is the distance information between the host vehicle and the preceding vehicle. Image information represented by P ref (d') is generated (S700).

이하, 상기 픽셀 영역 Pref(d')를 근접한 픽셀 영역끼리 그룹화하고, 이를 그룹화된 픽셀 영역 Pref_GP(d')로 표현되는 영상정보로 생성한다(S710). 여기서, 그룹화된 하나의 픽셀 영역 Pref_GP(d')은 선행 차량의 후부 반사기 하나로부터 반사된 빛을 의미한다.Hereinafter, the pixel area P ref (d') is grouped with adjacent pixel areas, and the pixel area P ref_GP (d') is generated as image information represented by the grouped pixel area P ref_GP (d') (S710). Here, one grouped pixel area P ref_GP (d') refers to light reflected from one rear reflector of the preceding vehicle.

그룹화된 픽셀 영역 Pref_GP(d')의 개수를 계산하고, Pref_GP(d')의 개수, 즉 선행 차량의 후부 반사기의 개수를 이용하여 선행 차량의 차종을 1차 분류한다. 일반적으로, 2륜 차량의 후부 반사기는 하나이고, 4륜 차량 이상은 후부 반사기를 2개 장착하므로, 계산된 후부 반사기의 개수를 이용하여 선행 차량의 차종을 2륜 차량 또는 4륜 차량으로 분류한다.The number of grouped pixel areas P ref_GP (d') is calculated, and the vehicle type of the preceding vehicle is first classified using the number of P ref_GP (d'), that is, the number of rear reflectors of the preceding vehicle. In general, a two-wheel vehicle has one rear reflector, and four or more vehicles have two rear reflectors, so the vehicle type of the preceding vehicle is classified as a two-wheel vehicle or a four-wheel vehicle using the calculated number of rear reflectors. .

여기서, Pref_GP(d')의 개수가 2개 이상인 경우(S720), 즉 선행 차량의 차종이 4륜 차량으로 분류되는 경우, 검출된 후부 반사기 간의 간격을 계산하고(S730), 계산된 후부 반사기간 간격을 기 저장된 기준 후부 반사기 간격과 비교하여 소형차, 중형차, 대형차로 선행 차량의 차종을 2차 분류한다. Here, when the number of P ref_GP (d') is 2 or more (S720), that is, when the vehicle type of the preceding vehicle is classified as a 4-wheel vehicle, the distance between the detected rear reflectors is calculated (S730), and the calculated rear reflection By comparing the period interval with the previously stored reference rear reflector interval, the vehicle type of the preceding vehicle is classified into a small car, a midsize car, and a large car.

표 1은 차종에 따른 후부 반사기간 간격을 나타낸 간격 기준표이다.Table 1 is an interval reference table showing the interval between the rear reflection periods according to vehicle types.

구분
division
2륜 차량
(2W)
Two wheeled vehicle
(2W)
4륜 차량(4W)4-wheel vehicle (4W)
소형차Small car 중형차Midsize car 대형차Large car 후부 반사기 간격(m)Rear reflector spacing (m) S2 S 2 Small(S4S)Small(S 4S ) Middle(S4M)Middle(S 4M ) Large(S4L)Large(S 4L ) 00 1.4~1.51.4~1.5 1.5~1.61.5~1.6 1.6~1.6~ 제동 거리Braking distance 짧다short 짧다short 중간middle 길다long 시야가림 정도Degree of blinding 적다little 적다little 중간middle 많다many

표 1을 참조하면, 검출된 후부 반사기의 개수가 2개이며 그 간격이 1.5~1.6m 사이의 값을 가지는 경우, 선행 차량의 차종을 4륜 차량의 중형차로 분류한다. 또한, Pref_GP(d')의 개수가 3개인 경우, 즉, 전방의 4륜 차량(58)과 2륜 차량이 동시에 존재하는 경우, 검출된 후부 반사기간 거리를 각각 계산하고, 3개의 후부 반사기간 간격들 중에 2번째로 큰 간격을 4륜 차량의 것으로 분류한다. Referring to Table 1, when the number of detected rear reflectors is two and the interval is between 1.5 and 1.6 m, the vehicle type of the preceding vehicle is classified as a mid-size vehicle of a four-wheel vehicle. In addition, when the number of P ref_GP (d') is 3, that is, when the front four-wheel vehicle 58 and the two-wheel vehicle exist at the same time, the detected rear reflection period distances are each calculated, and three rear reflections Among the period intervals, the second largest interval is classified as that of a four-wheel vehicle.

정리하자면, 계산된 픽셀 영역의 개수가 한 개일 경우, 선행 차량의 차종을 2륜 차량으로 분류한다. 또한, 계산된 픽셀 영역의 개수가 두 개이며, 픽셀 영역의 간격이 기설정된 4륜 차량의 후부 반사기의 기준 간격 범위에 속하는 경우, 선행 차량의 차종을 4륜 차량으로 분류한다. 그리고, 계산된 픽셀 영역의 개수가 세 개인 경우, 픽셀 영역의 간격 중 두 번째로 큰 간격을 갖는 픽셀 영역을 4륜 차량의 것으로 분류한다. In summary, when the calculated number of pixel areas is one, the vehicle type of the preceding vehicle is classified as a two-wheeled vehicle. In addition, when the calculated number of pixel regions is two and the interval between the pixel regions falls within the reference interval range of the rear reflector of the four wheel vehicle, the vehicle type of the preceding vehicle is classified as a four wheel vehicle. In addition, when the calculated number of pixel regions is three, the pixel region having the second largest interval among the intervals of the pixel regions is classified as a four-wheel vehicle.

동작지점 결정부(414B)는 분류기(414A)에서 분류한 선행 차량의 차종과 자차의 ECU로부터 수신한 자차의 차종정보를 전달받아 선행 차량과 자차의 차종 차이를 수치화하여 계산하고(S740), 계산된 차종 차이값을 기초로 하여 자차의 자동 긴급 제동(AEB) 시스템의 동작지점을 결정한다(S750). The operation point determination unit 414B receives the vehicle type of the preceding vehicle classified by the classifier 414A and the vehicle type information of the host vehicle received from the ECU of the host vehicle, calculates the difference between the vehicle type of the preceding vehicle and the host vehicle (S740), and calculates An operation point of an automatic emergency braking (AEB) system of the host vehicle is determined based on the difference value of the vehicle type (S750).

도 8을 참조하여 본 발명의 일 실시예에 따른 전방의 2륜차와 4륜차를 구분하는 방법을 상세하게 설명한다.A method of distinguishing a front two-wheeled vehicle and a four-wheeled vehicle according to an embodiment of the present invention will be described in detail with reference to FIG. 8.

도 8은 본 발명의 일 실시예에 따른 전방에 존재하는 2륜차와 4륜차를 나타낸 도면이다. 도 8에 도시된 바와 같이 전방에 4륜 차량(58)과 2륜 차량(60)이 동시에 존재할 경우, 즉 분류기(414A)가 계산한 Pref_GP(d')의 개수가 3개인 경우, 분류기(414A)는 검출된 후부 반사기간 간격 S1, S2, S3를 각각 계산하고, 3개의 후부 반사기간 간격들 중에 2번째로 큰 간격 S2nd max(S2)를 4륜 차량(58)의 것으로 분류한다.8 is a view showing a two-wheeled vehicle and a four-wheeled vehicle existing in the front according to an embodiment of the present invention. As shown in Fig. 8, when the four-wheel vehicle 58 and the two-wheel vehicle 60 exist at the same time in front, that is, when the number of P ref_GP (d') calculated by the classifier 414A is three, the classifier ( 414A) calculates the detected rear reflection period intervals S1, S2, and S3, respectively, and classifies the second largest interval S 2nd max (S2) among the three rear reflection period intervals as those of the four-wheel vehicle 58.

도 9를 참조하여 본 발명의 일 실시예에 따른 자차와 선행 차량의 차종 차이에 따른 AEB 동작지점 결정방법을 상세하게 설명한다.A method of determining an AEB operation point according to a vehicle type difference between an own vehicle and a preceding vehicle according to an embodiment of the present invention will be described in detail with reference to FIG. 9.

도 9는 본 발명의 일 실시예에 따른 차종 차이에 따른 AEB 시스템의 동작지점을 나타낸 도면이다. 도 9에 도시된 바와 같이, 자차의 차종이 소형차(62)이며, 선행 차량의 차종이 대형차(64)로 분류될 경우, 분류기(414A)는 AEB 시스템의 동작지점을 2로 결정한다. 9 is a diagram showing an operation point of an AEB system according to a vehicle type difference according to an embodiment of the present invention. As shown in FIG. 9, when the vehicle type of the host vehicle is a small vehicle 62 and the vehicle type of the preceding vehicle is classified as a large vehicle 64, the classifier 414A determines the operation point of the AEB system as 2.

표 2는 차종 차이에 따른 AEB 시스템의 동작지점을 수치화하여 나타낸 표이다.Table 2 is a table showing numerically the operating points of the AEB system according to the vehicle model difference.

구분division 2륜 차량Two wheeled vehicle 소형차Small car 중형차Midsize car 대형차Large car 2륜 차량Two wheeled vehicle 00 1One 22 33 소형차Small car 1One 00 1One 22 중형차Midsize car 22 1One 00 1One 대형차Large car 33 22 1One 00

여기서, AEB의 동작지점은 자차와 선행 차량 간의 크기 또는 무게를 비교한 상대적 수치이다. 차량의 크기 또는 무게가 클수록 제동력은 떨어지고 주행시야 가림 정도가 커지는 경향을 가지므로, AEB의 동작지점을 유동성있게 조절함으로써 사고시, 충돌 충격과 피해 정도를 경감하는 효과를 얻을 수 있다. Here, the operating point of the AEB is a relative value obtained by comparing the size or weight between the host vehicle and the preceding vehicle. As the size or weight of the vehicle increases, the braking force decreases and the degree of obstruction of the driving vision tends to increase.Therefore, the effect of reducing the degree of impact and damage during an accident can be obtained by fluidly adjusting the operating point of the AEB.

도 10, 도 11, 도 12를 참조하여 본 발명예에 따른 3D 영상 기반 차량 인식 시스템 및 방법의 작용에 대해 보충 설명한다. The operation of the 3D image-based vehicle recognition system and method according to the present invention will be supplemented with reference to FIGS. 10, 11 and 12.

도 10은 본 발명에 따른 3D 영상 기반 차량 인식 시스템 및 방법의 작용을 설명하기 위한 예시적 주행 상황을 나타내는 도면이며, 도 11은 도 10의 상황에서의 차량 인식을 위한 조건들 중 하나인 오프셋 차이를 설명하기 위한 도면이고, 도 12는 획득된 3D 영상 정보의 예로, 5*8 픽셀의 3차원 영상을 나타낸 도면이다.10 is a view showing an exemplary driving situation for explaining the operation of the 3D image-based vehicle recognition system and method according to the present invention, and FIG. 11 is an offset difference, which is one of conditions for vehicle recognition in the situation of FIG. 10 FIG. 12 is a diagram illustrating a 3D image of 5*8 pixels as an example of acquired 3D image information.

본 발명에 따른 3D 영상 기반 차량 인식 시스템 및 방법에 따라 차량을 인식하기 위해서는 다음의 5개의 조건이 가정된다. In order to recognize a vehicle according to the 3D image-based vehicle recognition system and method according to the present invention, the following five conditions are assumed.

-자차와 선행 차량은 동일한 차선 안에서 주행-Own vehicle and preceding vehicle drive in the same lane

-2개의 후부 반사기는 각각 1픽셀 이상으로 표현-2 rear reflectors are represented by at least 1 pixel each

-후부 반사기 간의 간격(도 8의 S2 또는 S3)은 2픽셀 이상으로 표현-The spacing between the rear reflectors (S 2 or S 3 in Fig. 8) is expressed as 2 pixels or more

-2개의 후부 반사기가 모두 검출될 경우에만 차량 분류 가능-Vehicle classification is possible only when both rear reflectors are detected

-자차와 선행 차간의 오프셋(offset)이 50% 이하-Offset between the host and the preceding vehicle is less than 50%

예컨대, 도 10에 도시된 바와 같이, 자차에 장착된 3D 영상 센서(66)가, 자차와 동일한 주행차선 내에 있으며 차량 인식 영역(R2) 내에 있는 장애물로부터 반사된 빛을 인식하는 경우, 3D 영상 센서(66)는 선행 차량의 2개의 후부 반사기와 도로 표지병(72)을 3D 영상정보로서 획득할 수 있다. 또한 전방의 선행 차량의 후부 반사기가 도 2에 도시된 바와 같이, 각각 1픽셀 이상의 빛의 수신세기(70)로 표현되며, 후부 반사기간 간격은 2픽셀 이상으로 표현되고, 도 11에 도시된 바와 같이, 자차와 선행 차간의 오프셋(offset)(78)이 50% 이하이면, 차량 인식을 위한 조건이 성립된다. 여기서, 오프셋(78)은 차량 인식을 위한 하나의 조건으로서, 같은 주행 차선 내에서 주행하는 선행 차량과 자차의 엇갈림 정도를 나타내는 기준치이며, 이 오프셋(78)은 LIDAR 센서의 시야각, 분해능, 및 인식거리에 따라 결정될 수 있다. For example, as shown in FIG. 10, when the 3D image sensor 66 mounted on the own vehicle recognizes light reflected from an obstacle within the vehicle recognition area R2 and within the same driving lane as the own vehicle, the 3D image sensor Reference numeral 66 may obtain the two rear reflectors of the preceding vehicle and the road marker 72 as 3D image information. In addition, as shown in FIG. 2, the rear reflector of the preceding vehicle in front is expressed by the light reception intensity 70 of 1 pixel or more, and the interval between the rear reflection period is expressed by 2 pixels or more, as shown in FIG. Likewise, if the offset 78 between the host vehicle and the preceding vehicle is 50% or less, a condition for vehicle recognition is established. Here, the offset 78 is a condition for vehicle recognition, and is a reference value indicating the degree of the difference between the preceding vehicle and the host vehicle traveling in the same driving lane, and this offset 78 is the viewing angle, resolution, and recognition of the LIDAR sensor. It can be determined according to the distance.

후부 반사기를 기반으로 차량 인식이 가능한 영역은 도시된 바와 같이 R2로 나타낼 수 있으며, 이 R2는 최소 거리 dmin ~ 최대 거리 dmax 사이의 영역으로 정의될 수 있다. 예컨대, 획득된 3D 영상 정보를 도 12와 같이 나타낼 수 있을 때, 선행 차량(80)과 자차(76)의 거리(d1)가 20m일 때, 도로 표지병(72)과 구분된 후부 반사기간 간격이 1.56m로 계산되는 경우, 3D 영상 센서(66)는 표 1의 차종에 따른 후부 반사기의 간격 기준표에 따라 선행 차량을 중형차로 분류한다. 또한, 3D 영상 센서는 자차의 제동력, 속력과 같은 차량정보를 기반으로 자차와 선행 차량의 차종 차이를 계산하고, 계산된 차종 차이에 따라 설정된 AEB 동작신호를 ECU로 전달한다. ECU는 AEB 동작신호를 전달받아 AEB 시스템을 작동한다. An area in which vehicle recognition is possible based on the rear reflector may be represented by R2 as illustrated, and this R2 may be defined as an area between the minimum distance d min and the maximum distance d max . For example, when the obtained 3D image information can be represented as shown in FIG. 12, when the distance d1 between the preceding vehicle 80 and the host vehicle 76 is 20 m, the interval between the rear reflection period separated from the road marker 72 is When it is calculated as 1.56m, the 3D image sensor 66 classifies the preceding vehicle as a medium-sized vehicle according to the reference table for the distance between the rear reflectors according to the vehicle types in Table 1. In addition, the 3D image sensor calculates the vehicle type difference between the host vehicle and the preceding vehicle based on vehicle information such as braking force and speed of the host vehicle, and transmits an AEB operation signal set according to the calculated vehicle type difference to the ECU. The ECU operates the AEB system by receiving the AEB operation signal.

이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면, 본 발명의 본질적 특성을 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능하다. 따라서 본 발명에 표현된 실시 예들은 본 발명의 기술적 사상을 한정하는 것이 아니라, 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 권리범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 특허청구범위에 의하여 해석되어야 하고, 그와 동등하거나 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains, various modifications and variations can be made without departing from the essential characteristics of the present invention. Accordingly, the embodiments expressed in the present invention are not intended to limit the technical idea of the present invention, but are intended to be described, and the scope of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent or equivalent thereto should be construed as being included in the scope of the present invention.

400: 영상 센서, 410: 처리부, 412: 픽셀 검출부, 414: AEB 동작지점 제어부, 414A: 분류기, 414B: 동작지점 결정부, 420: ECU, 430: AEB 시스템400: image sensor, 410: processing unit, 412: pixel detection unit, 414: AEB operation point control unit, 414A: classifier, 414B: operation point determination unit, 420: ECU, 430: AEB system

Claims (11)

장애물에서 반사되는 빛으로부터 장애물의 위치를 계산하고, 계산된 장애물의 위치를 거리에 따른 빛의 수신세기 I(x,y,d)로 표현되는 영상정보를 생성(여기서, x는 장애물들 사이의 간격, y는 지면으로부터의 장애물의 높이, d는 장애물과 자차 사이의 거리임)하는 영상센서; 및
상기 영상 센서로부터 상기 I(x,y,d)로 표현되는 영상정보를 전달받아, x와 y를 제외시켜 장애물에서 반사된 빛의 수신세기 I(d)로 표현되는 영상정보를 생성하고, 상기 장애물로부터 반사된 빛 중에서 선행 차량의 후부 반사기에서 반사된 빛을 구분하는 픽셀 검출부를 포함하되,
상기 픽셀 검출부는 상기 생성한 영상정보 I(d) 중에서 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출하고(여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 빛의 세기 정보임), 상기 I(d)값에 해당하는 빛을 선행 차량의 후부 반사기에서 반사된 빛으로 검출하고, 이 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성하도록 구성되는 것을 특징으로 하는 차량 인식 시스템.
The position of the obstacle is calculated from the light reflected from the obstacle, and the calculated position of the obstacle is expressed as the light reception intensity I(x,y,d) according to the distance (where x is between obstacles). A distance, y is the height of the obstacle from the ground, d is the distance between the obstacle and the host vehicle); And
Receives the image information expressed as I(x,y,d) from the image sensor, and generates image information expressed as the reception intensity I(d) of light reflected from the obstacle by excluding x and y, and the Including a pixel detector for distinguishing the light reflected from the rear reflector of the preceding vehicle among the light reflected from the obstacle,
The pixel detector detects an I(d) value greater than I 0 '(d), which is a boundary value of the light reception intensity according to a distance from the host vehicle, among the generated image information I(d) (here, I 0 '( d) is the learned threshold, the learned reception strength I cat (d) of the road marker according to the distance from the host vehicle, the learned reception strength I ref (d) of the rear reflector, and the surrounding obstacles reflecting fine light. Receiving intensity I noise (d) is the light intensity information obtained through calculation using noise (d)), the light corresponding to the value of I (d) is detected as light reflected from the rear reflector of the preceding vehicle, and reflected from the rear reflector. A vehicle recognition system, characterized in that configured to generate a pixel area of light as image information of P ref (x',y',d').
제1항에 있어서,
상기 픽셀 검출부에 의해 검출된 상기 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하는 분류기; 및
분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동(AEB) 시스템의 동작지점을 결정하는 AEB 동작지점 결정부를 추가로 포함하는 차량 인식 시스템.
The method of claim 1,
A classifier that calculates the number of pixel areas detected by the pixel detection unit and classifies a vehicle type of the preceding vehicle using the calculated number of pixel areas; And
Vehicle recognition system further comprising an AEB operation point determination unit for determining an operation point of the automatic emergency braking (AEB) system of the vehicle according to the classified vehicle type of the preceding vehicle.
제2항에 있어서, 상기 분류기는
상기 픽셀 검출부에서 검출된 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중 근접한 픽셀 영역을 그룹화하여 이 그룹화된 픽셀 영역의 개수가 나타내는 선행 차량의 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류하도록 구성되는 차량 인식 시스템.
The method of claim 2, wherein the classifier
The number of pixel areas Pref(x',y',d') of the rear reflector detected by the pixel detection unit is calculated, and adjacent pixel areas among the calculated pixel areas of the rear reflector are grouped to determine the number of grouped pixel areas. A vehicle recognition system configured to classify a vehicle type of a preceding vehicle using information on the number of rear reflectors of the preceding vehicle.
제2항에 있어서, 상기 AEB 동작지점 결정부는
상기 분류기가 분류한 선행 차량의 차종 정보와 자차의 ECU로부터 받은 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태 중 적어도 하나가 포함된 자차 운행 정보를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB 시스템으로 AEB 동작신호를 전달하도록 구성되는 차량 인식 시스템.
The method of claim 2, wherein the AEB operation point determination unit
Using the vehicle type information of the preceding vehicle classified by the classifier and the own vehicle operation information including at least one of vehicle type, braking force, speed, steering angle, wiper, and headlight status received from the ECU of the host vehicle, the automatic emergency braking (AEB) system of the vehicle A vehicle recognition system configured to determine an operation point and transmit an AEB operation signal to the AEB system of the own vehicle.
1) 장애물에서 반사되는 빛으로부터 장애물의 위치를 계산하고, 계산된 장애물의 위치를 거리에 따른 빛의 수신세기 I(x,y,d)로 표현되는 영상정보를 생성(여기서, x는 장애물들 사이의 간격, y는 지면으로부터의 장애물의 높이, d는 장애물과 자차 사이의 거리임)하는 단계; 및
2) 상기 영상 센서로부터 상기 I(x,y,d)로 표현되는 영상정보를 전달받아, x와 y를 제외한, d가 포함된 장애물에서 반사된 빛의 수신세기 I(d)로 표현되는 영상정보를 생성하여, 상기 장애물로부터 반사된 빛 중에서 선행 차량의 후부 반사기에서 반사된 빛을 구분하는 단계를 포함하되,
상기 2) 단계는,
상기 생성한 영상정보 I(d) 중에서 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출하고(여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 빛의 세기 정보임),
상기 I(d)값에 해당하는 빛을 선행 차량의 후부 반사기에서 반사된 빛으로 검출하고,
상기 검출된 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성하는 것을 포함하는 차량 인식 방법.
1) Calculate the position of the obstacle from the light reflected from the obstacle, and generate image information expressing the calculated position of the obstacle as the light reception intensity I(x,y,d) according to the distance (where x is the obstacles A distance between the obstacles, y is the height of the obstacle from the ground, and d is the distance between the obstacle and the host vehicle); And
2) An image that receives the image information expressed as I(x,y,d) from the image sensor, and is expressed as the reception intensity I(d) of the light reflected from the obstacle including d, excluding x and y Generating information, comprising the step of distinguishing the light reflected from the rear reflector of the preceding vehicle among the light reflected from the obstacle,
Step 2),
Among the generated image information I(d), an I(d) value greater than I 0 '(d), which is the boundary value of the light reception intensity according to the distance to the own vehicle, is detected (here, I 0 '(d) is a learning As the threshold value, the learned reception intensity I cat (d) of the road marker according to the distance from the host vehicle, the learned reception intensity I ref (d) of the rear reflector, and the reception intensity I noise of the surrounding obstacle reflecting fine light It is the light intensity information obtained through calculation using (d)),
The light corresponding to the I(d) value is detected as light reflected from the rear reflector of the preceding vehicle,
And generating a pixel region of light reflected from the detected rear reflector as image information of P ref (x',y',d').
제5항에 있어서,
3) 상기 2) 단계에서 검출된 상기 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하는 단계; 및
4) 분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동(AEB) 시스템의 동작지점을 결정하는 단계를 추가로 포함하는 차량 인식 방법.
The method of claim 5,
3) calculating the number of the pixel areas detected in step 2), and classifying the vehicle type of the preceding vehicle using the calculated number of pixel areas; And
4) The vehicle recognition method further comprising determining an operation point of the automatic emergency braking (AEB) system of the vehicle according to the classified vehicle type of the preceding vehicle.
제6항에 있어서, 상기 3) 단계는
상기 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중 근접한 픽셀 영역을 그룹화하여 이 그룹화된 픽셀 영역의 개수가 나타내는 선행 차량의 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류하는 단계를 포함하는 차량 인식 방법.
The method of claim 6, wherein step 3)
Calculate the number of pixel areas Pref(x',y',d') of the rear reflector, group adjacent pixel areas among the calculated pixel areas of the rear reflector, and the rear of the preceding vehicle represented by the number of grouped pixel areas A vehicle recognition method comprising the step of classifying a vehicle type of a preceding vehicle using information on the number of reflectors.
제6항에 있어서, 상기 4) 단계는
상기 분류된 선행 차량의 차종 정보와 자차의 ECU로부터 받은 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태 중 적어도 하나가 포함된 자차 운행 정보를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB 시스템으로 AEB 동작신호를 전달하는 단계를 포함하는 차량 인식 방법.
The method of claim 6, wherein step 4)
The operation point of the automatic emergency braking (AEB) system of the vehicle by using the vehicle type information of the classified preceding vehicle and the own vehicle operation information including at least one of vehicle type, braking force, speed, steering angle, wiper, and headlight status received from the ECU of the host vehicle. And transmitting the AEB operation signal to the AEB system of the host vehicle.
자차 전방의 장애물에 빛을 출사하고 이 장애물에서 반사되는 빛을 감지하는 영상센서로부터 빛을 수신하는 수단,
상기 장애물의 위치를 계산하고, 계산된 장애물의 위치를 거리에 따른 빛의 수신세기 I(x,y,d)로 표현되는 영상정보를 생성(여기서, x는 장애물들 사이의 간격, y는 지면으로부터의 장애물의 높이, d는 장애물과 자차 사이의 거리임)하는 수단,
상기 I(x,y,d) 영상정보로부터 x와 y를 제외시켜 장애물에서 반사된 빛의 수신세기 I(d)로 표현되는 영상정보를 생성하는 수단,
상기 장애물로부터 반사된 빛 중에서 선행 차량의 후부 반사기에서 반사된 빛을 구분하기 위하여, 상기 생성한 영상정보 I(d) 중에서 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출하는 수단(여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 빛의 세기 정보임),
상기 I(d)값에 해당하는 빛을 선행 차량의 후부 반사기에서 반사된 빛으로 검출하는 수단,
상기 검출된 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성하는 수단,
상기 검출된 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하는 수단, 및
분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동(AEB) 동작지점을 결정하는 수단을 포함하는 차량 인식 시스템.
A means for emitting light to an obstacle in front of the own vehicle and receiving light from an image sensor that detects light reflected from the obstacle,
Calculate the position of the obstacle, and generate image information expressing the calculated position of the obstacle as the light reception intensity I(x,y,d) according to the distance (where x is the distance between obstacles, y is the ground The height of the obstacle from, d is the distance between the obstacle and the vehicle),
A means for generating image information expressed by the reception intensity I(d) of light reflected from an obstacle by excluding x and y from the I(x,y,d) image information,
In order to distinguish the light reflected from the rear reflector of the preceding vehicle among the light reflected from the obstacle, I 0 '(d), which is the boundary value of the light reception intensity according to the distance to the host vehicle among the generated image information I(d). Means for detecting a larger I(d) value (where I 0 '(d) is the learned boundary value, the learned reception strength I cat (d) of the road marker according to the distance from the host vehicle, and the learning of the rear reflector This is the light intensity information obtained through calculation using the received intensity I ref (d) and the intensity I noise (d) of the surrounding obstacles reflecting fine light),
Means for detecting the light corresponding to the I(d) value as light reflected from the rear reflector of the preceding vehicle,
Means for generating a pixel region of light reflected from the detected rear reflector as image information of P ref (x',y',d'),
Means for calculating the number of the detected pixel areas and classifying the vehicle type of the preceding vehicle using the calculated number of pixel areas, and
And means for determining an automatic emergency braking (AEB) operation point of the vehicle according to the classified vehicle type of the preceding vehicle.
제9항에 있어서, 상기 선행 차량의 차종을 분류하는 수단은
상기 생성된 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중 근접한 픽셀 영역을 그룹화하여 이 그룹화된 픽셀 영역의 개수가 나타내는 선행 차량의 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류하도록 구성되는 차량 인식 시스템.
The method of claim 9, wherein the means for classifying the vehicle type of the preceding vehicle
A preceding vehicle represented by the number of grouped pixel areas by calculating the number of pixel areas Pref(x',y',d') of the generated rear reflector and grouping adjacent pixel areas among the calculated pixel areas of the rear reflector A vehicle recognition system, configured to classify a vehicle type of a preceding vehicle using information on the number of rear reflectors.
제9항에 있어서, 상기 AEB 동작지점을 결정하는 수단은
상기 선행 차량의 차종을 분류하는 수단이 분류한 선행 차량의 차종 정보와 자차의 ECU로부터 받은 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태 중 적어도 하나가 포함된 자차 운행 정보를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB 시스템으로 AEB 동작신호를 전달하도록 구성되는 차량 인식 시스템.
The method of claim 9, wherein the means for determining the AEB operation point
Automated vehicle by using the vehicle type information of the preceding vehicle classified by the vehicle type classifying means of the preceding vehicle and the own vehicle operation information including at least one of vehicle type, braking force, speed, steering angle, wiper, and headlamp status received from the ECU of the host vehicle. A vehicle recognition system configured to determine an operation point of an emergency braking (AEB) system and to transmit an AEB operation signal to the AEB system of the host vehicle.
KR1020200167071A 2014-03-05 2020-12-02 System and method for detecting vehicle by using sensor KR102203276B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200167071A KR102203276B1 (en) 2014-03-05 2020-12-02 System and method for detecting vehicle by using sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140026106A KR102192252B1 (en) 2014-03-05 2014-03-05 System and method for detecting vehicle by using sensor
KR1020200167071A KR102203276B1 (en) 2014-03-05 2020-12-02 System and method for detecting vehicle by using sensor

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140026106A Division KR102192252B1 (en) 2014-03-05 2014-03-05 System and method for detecting vehicle by using sensor

Publications (3)

Publication Number Publication Date
KR20200140769A true KR20200140769A (en) 2020-12-16
KR102203276B1 KR102203276B1 (en) 2021-01-14
KR102203276B9 KR102203276B9 (en) 2021-09-17

Family

ID=74042312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200167071A KR102203276B1 (en) 2014-03-05 2020-12-02 System and method for detecting vehicle by using sensor

Country Status (1)

Country Link
KR (1) KR102203276B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883392A (en) * 1994-09-14 1996-03-26 Toshiba Corp Method and device for detecting vehicle
JPH0927100A (en) * 1995-07-12 1997-01-28 Yazaki Corp Method and device for recognizing proceding vehicel and read-end collision preventive device equipped there with for vehicle
JP3853574B2 (en) * 2000-06-16 2006-12-06 三菱電機株式会社 Moving object detection system
JP2007137116A (en) * 2005-11-15 2007-06-07 Mitsubishi Electric Corp Apparatus for reducing shock caused by collision of vehicle
KR20140006462A (en) * 2012-07-05 2014-01-16 현대모비스 주식회사 Apparatus and method for assisting safe driving

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883392A (en) * 1994-09-14 1996-03-26 Toshiba Corp Method and device for detecting vehicle
JPH0927100A (en) * 1995-07-12 1997-01-28 Yazaki Corp Method and device for recognizing proceding vehicel and read-end collision preventive device equipped there with for vehicle
JP3853574B2 (en) * 2000-06-16 2006-12-06 三菱電機株式会社 Moving object detection system
JP2007137116A (en) * 2005-11-15 2007-06-07 Mitsubishi Electric Corp Apparatus for reducing shock caused by collision of vehicle
KR20140006462A (en) * 2012-07-05 2014-01-16 현대모비스 주식회사 Apparatus and method for assisting safe driving

Also Published As

Publication number Publication date
KR102203276B9 (en) 2021-09-17
KR102203276B1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
KR102192252B1 (en) System and method for detecting vehicle by using sensor
KR101551667B1 (en) LIDAR Sensor System
US11609329B2 (en) Camera-gated lidar system
US11972615B2 (en) Vehicular control system
US10137842B2 (en) Camera system for a vehicle
KR101632873B1 (en) System and method for detecting obstacles
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
US9223311B2 (en) Vehicle driving support control apparatus
US9827956B2 (en) Method and device for detecting a braking situation
KR20200047886A (en) Driver assistance system and control method for the same
US11208085B2 (en) Automotive braking control system, apparatus, and method considering weather condition
US20120163671A1 (en) Context-aware method and apparatus based on fusion of data of image sensor and distance sensor
US20170169301A1 (en) Vehicle vision system using reflective vehicle tags
JP7122101B2 (en) Vehicle obstacle detection device
KR102579567B1 (en) Apparatus, method and system for controling curvature of vehicle
CN110673599A (en) Sensor network-based environment sensing system for automatic driving vehicle
JP5968494B2 (en) Vehicle detection system and vehicle detection method
US11520019B2 (en) Light signal detection device, range finding device, and detection method
KR20150001119A (en) Object Recognition System
JP2008003959A (en) Communication system for vehicle
US12106583B2 (en) Vehicular lane marker determination system with lane marker estimation based in part on a LIDAR sensing system
CN117302021A (en) Road surface obstacle early warning device and method based on laser dot matrix pattern imaging
CN116133921A (en) Method for operating an autonomous vehicle
KR102041633B1 (en) Object Recognition System
JP3822417B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]