KR102203276B1 - 센서를 이용한 차량 인식 시스템 및 방법 - Google Patents

센서를 이용한 차량 인식 시스템 및 방법 Download PDF

Info

Publication number
KR102203276B1
KR102203276B1 KR1020200167071A KR20200167071A KR102203276B1 KR 102203276 B1 KR102203276 B1 KR 102203276B1 KR 1020200167071 A KR1020200167071 A KR 1020200167071A KR 20200167071 A KR20200167071 A KR 20200167071A KR 102203276 B1 KR102203276 B1 KR 102203276B1
Authority
KR
South Korea
Prior art keywords
vehicle
obstacle
preceding vehicle
light
aeb
Prior art date
Application number
KR1020200167071A
Other languages
English (en)
Other versions
KR20200140769A (ko
KR102203276B9 (ko
Inventor
김원겸
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140026106A external-priority patent/KR102192252B1/ko
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020200167071A priority Critical patent/KR102203276B1/ko
Publication of KR20200140769A publication Critical patent/KR20200140769A/ko
Application granted granted Critical
Publication of KR102203276B1 publication Critical patent/KR102203276B1/ko
Publication of KR102203276B9 publication Critical patent/KR102203276B9/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • G06K9/00805
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/52
    • B60W2420/62
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/81Braking systems
    • G06K2209/23
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

센서를 이용한 차량 인식 시스템 및 방법이 제공된다. 상기 센서를 이용한 차량 인식 시스템 및 방법은 차량 전방의 선행 차량의 후부 반사기로부터 반사되는 빛을 수신하고 수신된 상기 빛의 수신세기를 포함하는 영상정보를 생성하는 영상 센서, 생성된 상기 영상정보로부터 상기 선행 차량의 후부 반사기에서 반사된 빛의 수신세기를 갖는 픽셀 영역을 검출하기 위해 상기 선행 차량과의 거리에 따라 사전에 학습된 경계 범위 이내의 수신세기를 갖는 픽셀 영역을 검출하는 픽셀 검출부, 및 검출된 상기 픽셀 영역의 개수를 계산하고 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하고, 분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동 시스템(AEB)의 동작지점을 결정하는 AEB 동작지점 제어부를 포함한다.

Description

센서를 이용한 차량 인식 시스템 및 방법 {SYSTEM AND METHOD FOR DETECTING VEHICLE BY USING SENSOR}
본 발명은 센서를 이용한 차량 인식 시스템 및 방법에 관한 것으로서, 구체적으로 LIDAR 센서를 이용하여 전방의 선행 차량을 인식하는 시스템 및 방법에 관한 것이다.
현재 자동차 분야에서 자동긴급제동(AEB, Autonomous Emergency Breaking) 시스템을 위한 3D 영상기반 장애물 인식 시스템은 일반적으로 RADAR(RAdio Detection And Ranging) 센서, LIDAR(LIght Detection And Ranging) 센서, 스테레오 카메라, 센서퓨전 등과 같은 3D 영상 카메라 센서를 이용한다.
도 1은 종래기술에 따른 3D 영상 카메라 센서의 종류를 나타낸 도면이다. 도 1에 도시된 바와 같이, 3D 영상 카메라 센서는 수동 센서와 능동 센서로 구분할 수 있다. 수동 센서는 가시광선 영역의 스테레오 카메라(10)가 대표적이며, 능동 센서는 자외선 영역의 LIDAR 센서(20) 및 밀리미터파 대역의 RADAR 센서(30)가 대표적이다. 구체적으로 스테레오 카메라(10)는 두 개의 카메라 영상과 삼각법 기반으로 장애물 또는 선행 차량(40)의 3D 정보를 획득하고, LIDAR 센서(20)와 RADAR 센서(30)는 TOF(Time Of Flight) 기반으로 장애물 또는 선행 차량(40)의 3D 정보를 획득한다. 이 중, RADAR 센서(30)는 수평 해상도가 낮은 단점이 있고 스테레오 카메라(10)는 야간 환경에 약한 취약점을 갖고 있으므로, 향후, 차량의 주/야간 환경에 강한 LIDAR 센서(20)를 단독으로 하는 장애물 인식 시스템을 개발하는 방법이 필요하다.
도 2는 종래기술에 따른 LIDAR 센서 시스템의 차량 내 장착 위치를 나타낸 도면이다. 도 2에 도시된 바와 같이, LIDAR 센서 시스템은 차량의 윈드실드(Windshield)(21) 또는 범퍼(22)에 장착되고, 도시하지는 않았으나 차량 램프 후방에도 장착 가능하며, Flash 또는 Scan 방식의 레이저 빔을 이용하여 선행 차량을 인식하는 장애물 인식 시스템이다.
도 3은 종래기술에 따른 LIDAR 센서 시스템을 나타낸 블록도이다. 도 3에 도시된 바와 같이, LIDAR 센서 시스템(100)은 송신부, 수신부, 및 처리부로 구성된다. 송신부(130)의 LD(Laser Diode)(134)는 LD드라이버(132)를 통해 레이저 신호를 발생하고 광학계(136)를 통해 레이저 신호를 방출한다. 수신부(110)는 전방의 장애물 또는 선행 차량(40)에서 부딪쳐 돌아온 레이저 신호를 광학계(112)를 통해 FPA(Focal Plane Array)(114)에 집광한다. 집광된 신호는 전처리부(116)에서 SNR(Signal to Noise Ratio)을 개선한 후 처리부(120)로 전달한다. 여기서, FPA(114)는 단일 파장대의 빛을 이용하는 PD(Photo Diode)(115)들로 구성되며 각각의 PD(115)는 장애물 또는 선행 차량(40)에서 반사되는 빛을 수신하여 거리 및 빛 반사량을 계산한다. 처리부(120)는 수신부(110)에서 전달된 거리정보 및 빛 반사량 정보를 이용하여 장애물 또는 선행 차량(40)을 검출 및 분류한다. 분류하는 방법으로, 비슷한 거리값을 갖는 주변 PD(115)들을 그룹화하여 하나의 장애물로 검출하고 검출된 장애물에서의 빛 반사량을 이용하여 장애물을 분류하는 것이 활용된다.
그러나, 검출된 장애물에서의 빛 반사량을 이용하여 장애물을 분류하는 기존의 LIDAR 센서 시스템(100)에서는 장애물의 색상, 기하학적 형태, 주변 환경에 의한 반사 노이즈, 악천후 등에 의해 장애물 분류의 신뢰성을 유지하기가 매우 어렵다. 따라서, 기존의 LIDAR 센서 시스템(100)에 더하여 장애물의 분류 성능을 높이고 장애물의 오검출을 최소화하는 인식 시스템이 필요하다.
따라서, 본 발명의 목적은 전술한 문제점을 해결하기 위하여, 차량 후방에 장착되는 후부 반사기의 개수 및 간격 특징을 이용하여 선행 차량을 검출하고 분류함으로써, 기존의 센서 시스템에 더하여 분류 성능을 높이고 오검출을 최소화하는 차량 인식 시스템 및 장치를 제공하는 데 있다.
상술한 목적을 달성하기 위한 본 발명의 일면에 따른 센서를 이용한 차량 인식 시스템은 차량 전방의 선행 차량으로부터 반사되는 빛의 수신세기를 수신하고, 수신된 상기 빛의 수신세기를 포함하는 영상정보를 생성하는 영상 센서, 생성된 상기 영상정보로부터 상기 선행 차량의 후부 반사기에서 반사된 빛의 수신세기를 갖는 픽셀 영역을 검출하기 위해, 상기 선행 차량과의 거리에 따라 사전에 학습된 경계 범위 이내의 수신세기를 갖는 픽셀 영역을 검출하는 픽셀 검출부 및 검출된 상기 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하고, 분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동 시스템(AEB, Autonomous Emergency Breaking)의 동작지점을 결정하는 AEB 동작지점 제어부를 포함한다.
본 발명의 구성 및 작용은 이후에 도면과 함께 설명하는 구체적인 실시예를 통하여 더욱 명확해질 것이다.
본 발명에 의하면, 영상 센서를 이용하여 선행 차량의 후부 반사기의 기하학적 특징으로 선행 차량을 검출하는 차량 인식 시스템으로서, 주/야간 환경에 강하며 기존의 센서 시스템 보다 향상된 검출 및 분류 성능을 얻을 수 있는 효과가 있다.
더불어, 분류된 선행 차량의 차종 정보와 현재 차량의 운행 정보를 이용하여 자동 긴급 제동 시스템(AEB, Autonomous Emergency Breaking)의 동작지점을 조정함으로써 차량사고의 피해를 경감하는 효과가 있다.
도 1은 종래기술에 따른 3D 영상 카메라 센서의 종류를 나타낸 도면이다.
도 2는 종래기술에 따른 LIDAR 센서 시스템의 차량 내 장착 위치를 나타낸 도면이다.
도 3은 종래기술에 따른 LIDAR 센서 시스템을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 차량 인식 시스템을 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 자차와 선행 차량 간의 거리에 따른 빛의 수신세기의 경계치인 I0(d)를 나타낸 그래프이다.
도 6은 본 발명의 일 실시예에 따른 선행 차량의 후부 반사기 검출 방법을 나타낸 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 자동 긴급 제동(AEB) 시스템의 동작지점 계산 방법을 나타낸 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 전방에 존재하는 2륜차와 4륜차를 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 차종 차이에 따른 AEB 시스템의 동작지점을 나타낸 도면이다.
도 10은 본 발명에 따른 3D 영상 기반 차량 인식 시스템 및 방법의 작용을 설명하기 위한 예시적 주행 상황을 나타내는 도면이다.
도 11은 도 10의 상황에서의 차량 인식을 위한 조건들 중 하나인 오프셋 차이를 설명하기 위한 도면이다.
도 12는 획득된 3D 영상 정보의 예로, 5*8 픽셀의 3차원 영상을 나타낸 도면이다.
본 발명은 선행 차량의 후부 반사기의 개수 및 간격 특징을 이용하여 선행 차량을 검출 및 분류하는 차량 인식 시스템 및 방법을 제공한다. 더불어, 분류된 선행 차량의 차종과 자차의 정보를 이용하여 자동 긴급 제동 시스템(AEB)의 동작지점을 결정하는 차량 인식 시스템 및 방법을 제공한다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이므로 본 발명의 권리범위는 청구항의 기재에 의해 정하여진다.
한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자에 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가함을 배제하지 않는다.
이하, 본 발명의 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명하도록 한다.
도 4는 본 발명의 일 실시예에 따른 차량 인식 시스템을 나타낸 블록도이며, 도 5는 본 발명의 일 실시예에 따른 자차와 선행 차량 간의 거리에 따른 빛의 수신세기의 경계치인 I0(d)를 나타낸 그래프이다.
도 4와 도 5를 함께 참조하여, 본 발명의 일 실시예에 따른 차량 인식 시스템을 상세하게 설명하고자 한다.
도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 차량 인식 시스템은 차량 전방의 장애물로부터 반사되어 돌아오는 빛 중, 선행 차량에서(구체적으로는, 후부 반사기에서) 반사되어 돌아오는 빛을 검출 및 분류하여 자차의 자동 긴급 제동 시스템(AEB)의 동작지점을 조정한다. 이를 위해, 차량 인식 시스템은 영상 센서(400) 및 처리부(410)를 포함한다.
영상 센서(400)는 레이저 펄스와 같은 빛을 출사하고 빛이 전방의 장애물로부터 반사되어 돌아오는 데 걸리는 시간을 측정하여 장애물의 위치를 계산한다. 또한, 영상 센서(400)는 계산된 장애물의 위치를 거리에 따른 빛의 수신세기(I(x,y,d))(50)로 표현되는 영상정보를 생성한다. 여기서, I는 빛의 수신세기(Intensity)를 나타내는 함수를 의미하며, x는 장애물들 사이의 간격이고, y는 지면으로부터 측정된 장애물의 높이이다. 그리고, d는 장애물과 자차 사이의 거리를 의미한다. 빛의 수신세기(I(x,y,d))(50)로 표현되는 영상정보를 생성하는 영상 센서는 LIDAR 센서일 수 있다.
처리부(410)는 영상 센서(400)에 의해 생성된 영상정보로부터 선행 차량의 후부 반사기에 반사된 빛을 검출하여 검출된 빛으로부터 선행 차량의 차종을 분류하고, 자차의 자동 긴급 제동 시스템(AEB)의 동작지점을 조정한다. 이를 위해, 처리부(410)는 픽셀 검출부(412) 및 AEB 동작지점 제어부(414)를 포함한다.
픽셀 검출부(412)는 영상 센서(400)로부터 빛의 수신세기(I(x,y,d))(50)로 표현되는 영상정보를 전달 받아, 빛을 반사시키는 장애물들 사이의 간격인 x와 높이인 y를 제외한, 장애물과 자차 사이의 거리 d에 따른 빛의 수신세기인 I(d)로 표현되는 영상정보를 생성한다. 생성된 영상정보 I(d)를 이용함으로써, 픽셀 검출부(412)는 장애물로부터 반사된 빛 중, 선행 차량의 후부 반사기에서 반사된 빛을 구분한다.
또한, 픽셀 검출부(412)는 전달 받은 빛의 수신세기(I(x,y,d))(50) 중에서 선행 차량의 후부 반사기에서 반사된 빛의 수신세기를 갖는 픽셀 영역을 검출하기 위해, 사전에 학습되어 설정된 자차와의 거리에 따른 도로 표지병의 수신세기(Icat(d)), 후부 반사기의 수신세기(Iref(d)), 및 빛의 수신세기의 경계치(I0'(d))를 이용한다. 여기서, 자차와의 거리에 따른 빛의 수신세기의 경계치인(I0'(d))는 실험을 통해 설정되거나, 차량 주행 시 지속적인 학습을 통해 업데이트 가능한 값으로, 도 5에 도시된 바와 같이, 도로 표지병의 수신세기(Icat(d))와 후부 반사기의 수신세기(Iref(d))의 사이의 값을 갖는다. 또한, 선행 차량의 후부 반사기에서 반사된 빛의 수신세기 I(d)는 거리에 따른 빛의 수신세기의 경계치 I0'(d)보다 큰 값을 가져야 한다. 따라서, I0'(d)는 Icat(d)보다 크고 Iref(d)보다는 작은 값을 가지며, 선행 차량의 후부 반사기에서 반사된 빛의 수신세기는 I0'(d)보다는 큰 값을 갖는다.
이와 같이 픽셀 검출부(412)는 상기 거리에 따른 빛의 수신세기의 경계치 I0'(d)보다 큰 값을 갖는 I(d)값을 검출하고, 이 I(d)에 해당하는 빛을 후부 반사기로부터 반사된 빛의 픽셀 영역 Pref(x',y',d')의 영상정보로 생성한다.
AEB 동작지점 제어부(414)는 선행 차량의 차종을 분류하고, 자차의 운행 정보(52)와 비교하여 자차의 자동 긴급 제동 시스템(AEB)의 동작지점을 조정한다. 이를 위해, AEB 동작지점 제어부(414)는 분류기(414A) 및 동작지점 결정부(414B)를 포함한다.
분류기(414A)는 픽셀 검출부(412)에서 검출된 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중, 근접한 픽셀 영역을 그룹화한다. 그룹화된 픽셀 영역의 개수는 선행 차량의 후부 반사기의 개수를 의미하므로, 계산된 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류한다.
동작지점 결정부(414B)는 분류기(414A)에서 분류한 선행 차량의 차종 정보와 자차의 ECU(전자 제어 유닛, Electronic Control Unit)(420)로부터 받은 자차의 운행 정보(52)를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB시스템(430)으로 AEB 동작신호(54)를 전달한다.
여기서, ECU(420)로 부터 받은 자차의 운행 정보(52)는 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태와 같은 정보를 포함한다.
이하, 도 6을 참조하여 본 발명의 일 실시예에 따른 선행 차량의 후부 반사기 검출 방법을 더욱 상세하게 설명하고자 한다.
도 6은 본 발명의 일 실시예에 따른 선행 차량의 후부 반사기 검출 방법을 나타낸 흐름도이다.
특별히 언급하지 않는 한, 도 6의 수행주체는 픽셀 검출부(412)를 의미한다.
도 6에 도시된 바와 같이, 영상 센서(400)로부터 수신한 빛의 수신세기(I(x,y,d))(50)를 빛을 반사시키는 장애물들 사이의 간격인 x 및 장애물의 높이인 y를 제외한, 장애물과 자차 사이의 거리 d에 따른 빛의 수신세기인 I(d)로 표현되는 영상정보를 생성한다(S600).
이어, 장애물에서 반사된 빛의 수신세기 I(d) 중, 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출한다(S610). 여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 정보로, I0'(d)는 Inoise(d)보다 크며, Icat(d)와 Iref(d)의 사이의 값을 갖는다.
이어서 상술한 범위에 속하는 I(d)값을 이용해 선행 차량의 후부 반사기에서 반사된 빛을 검출하고 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성한다(S620).
이후, 분류기(414A)는 상기 생성된 후부 반사기의 픽셀 영역 (Pref(x',y',d')) 정보를 이용하여 선행 차량의 차종을 분류한다. 분류된 차종 정보는 동작지점 결정부(414B)에서 자차의 자동 긴급 제동(AEB)시스템의 동작지점을 계산하는 데 이용된다.
도 7을 참조하여 본 발명의 일 실시예에 따른 선행 차량의 차종 분류 방법 및 자차의 자동 긴급 제동(AEB)시스템의 동작지점을 계산하는 방법을 상세하게 설명한다.
도 7은 본 발명의 일 실시예에 따른 자동 긴급 제동(AEB) 시스템의 동작지점 계산 방법을 나타낸 흐름도이다.
특별히 언급하지 않는 한, 도 7의 수행주체는 분류기(414A)를 의미한다.
도 7에 도시된 바와 같이, 픽셀 검출부(412)에서 검출된 후부 반사기의 픽셀 영역(Pref(x',y',d'))을 자차와 선행 차량 간의 간격정보인 d'만을 이용한 픽셀 영역 Pref(d')로 표현되는 영상정보를 생성한다(S700).
이하, 상기 픽셀 영역 Pref(d')를 근접한 픽셀 영역끼리 그룹화하고, 이를 그룹화된 픽셀 영역 Pref_GP(d')로 표현되는 영상정보로 생성한다(S710). 여기서, 그룹화된 하나의 픽셀 영역 Pref_GP(d')은 선행 차량의 후부 반사기 하나로부터 반사된 빛을 의미한다.
그룹화된 픽셀 영역 Pref_GP(d')의 개수를 계산하고, Pref_GP(d')의 개수, 즉 선행 차량의 후부 반사기의 개수를 이용하여 선행 차량의 차종을 1차 분류한다. 일반적으로, 2륜 차량의 후부 반사기는 하나이고, 4륜 차량 이상은 후부 반사기를 2개 장착하므로, 계산된 후부 반사기의 개수를 이용하여 선행 차량의 차종을 2륜 차량 또는 4륜 차량으로 분류한다.
여기서, Pref_GP(d')의 개수가 2개 이상인 경우(S720), 즉 선행 차량의 차종이 4륜 차량으로 분류되는 경우, 검출된 후부 반사기 간의 간격을 계산하고(S730), 계산된 후부 반사기간 간격을 기 저장된 기준 후부 반사기 간격과 비교하여 소형차, 중형차, 대형차로 선행 차량의 차종을 2차 분류한다.
표 1은 차종에 따른 후부 반사기간 간격을 나타낸 간격 기준표이다.
구분
2륜 차량
(2W)
4륜 차량(4W)
소형차 중형차 대형차
후부 반사기 간격(m) S2 Small(S4S) Middle(S4M) Large(S4L)
0 1.4~1.5 1.5~1.6 1.6~
제동 거리 짧다 짧다 중간 길다
시야가림 정도 적다 적다 중간 많다
표 1을 참조하면, 검출된 후부 반사기의 개수가 2개이며 그 간격이 1.5~1.6m 사이의 값을 가지는 경우, 선행 차량의 차종을 4륜 차량의 중형차로 분류한다. 또한, Pref_GP(d')의 개수가 3개인 경우, 즉, 전방의 4륜 차량(58)과 2륜 차량이 동시에 존재하는 경우, 검출된 후부 반사기간 거리를 각각 계산하고, 3개의 후부 반사기간 간격들 중에 2번째로 큰 간격을 4륜 차량의 것으로 분류한다.
정리하자면, 계산된 픽셀 영역의 개수가 한 개일 경우, 선행 차량의 차종을 2륜 차량으로 분류한다. 또한, 계산된 픽셀 영역의 개수가 두 개이며, 픽셀 영역의 간격이 기설정된 4륜 차량의 후부 반사기의 기준 간격 범위에 속하는 경우, 선행 차량의 차종을 4륜 차량으로 분류한다. 그리고, 계산된 픽셀 영역의 개수가 세 개인 경우, 픽셀 영역의 간격 중 두 번째로 큰 간격을 갖는 픽셀 영역을 4륜 차량의 것으로 분류한다.
동작지점 결정부(414B)는 분류기(414A)에서 분류한 선행 차량의 차종과 자차의 ECU로부터 수신한 자차의 차종정보를 전달받아 선행 차량과 자차의 차종 차이를 수치화하여 계산하고(S740), 계산된 차종 차이값을 기초로 하여 자차의 자동 긴급 제동(AEB) 시스템의 동작지점을 결정한다(S750).
도 8을 참조하여 본 발명의 일 실시예에 따른 전방의 2륜차와 4륜차를 구분하는 방법을 상세하게 설명한다.
도 8은 본 발명의 일 실시예에 따른 전방에 존재하는 2륜차와 4륜차를 나타낸 도면이다. 도 8에 도시된 바와 같이 전방에 4륜 차량(58)과 2륜 차량(60)이 동시에 존재할 경우, 즉 분류기(414A)가 계산한 Pref_GP(d')의 개수가 3개인 경우, 분류기(414A)는 검출된 후부 반사기간 간격 S1, S2, S3를 각각 계산하고, 3개의 후부 반사기간 간격들 중에 2번째로 큰 간격 S2nd max(S2)를 4륜 차량(58)의 것으로 분류한다.
도 9를 참조하여 본 발명의 일 실시예에 따른 자차와 선행 차량의 차종 차이에 따른 AEB 동작지점 결정방법을 상세하게 설명한다.
도 9는 본 발명의 일 실시예에 따른 차종 차이에 따른 AEB 시스템의 동작지점을 나타낸 도면이다. 도 9에 도시된 바와 같이, 자차의 차종이 소형차(62)이며, 선행 차량의 차종이 대형차(64)로 분류될 경우, 분류기(414A)는 AEB 시스템의 동작지점을 2로 결정한다.
표 2는 차종 차이에 따른 AEB 시스템의 동작지점을 수치화하여 나타낸 표이다.
구분 2륜 차량 소형차 중형차 대형차
2륜 차량 0 1 2 3
소형차 1 0 1 2
중형차 2 1 0 1
대형차 3 2 1 0
여기서, AEB의 동작지점은 자차와 선행 차량 간의 크기 또는 무게를 비교한 상대적 수치이다. 차량의 크기 또는 무게가 클수록 제동력은 떨어지고 주행시야 가림 정도가 커지는 경향을 가지므로, AEB의 동작지점을 유동성있게 조절함으로써 사고시, 충돌 충격과 피해 정도를 경감하는 효과를 얻을 수 있다.
도 10, 도 11, 도 12를 참조하여 본 발명예에 따른 3D 영상 기반 차량 인식 시스템 및 방법의 작용에 대해 보충 설명한다.
도 10은 본 발명에 따른 3D 영상 기반 차량 인식 시스템 및 방법의 작용을 설명하기 위한 예시적 주행 상황을 나타내는 도면이며, 도 11은 도 10의 상황에서의 차량 인식을 위한 조건들 중 하나인 오프셋 차이를 설명하기 위한 도면이고, 도 12는 획득된 3D 영상 정보의 예로, 5*8 픽셀의 3차원 영상을 나타낸 도면이다.
본 발명에 따른 3D 영상 기반 차량 인식 시스템 및 방법에 따라 차량을 인식하기 위해서는 다음의 5개의 조건이 가정된다.
-자차와 선행 차량은 동일한 차선 안에서 주행
-2개의 후부 반사기는 각각 1픽셀 이상으로 표현
-후부 반사기 간의 간격(도 8의 S2 또는 S3)은 2픽셀 이상으로 표현
-2개의 후부 반사기가 모두 검출될 경우에만 차량 분류 가능
-자차와 선행 차간의 오프셋(offset)이 50% 이하
예컨대, 도 10에 도시된 바와 같이, 자차에 장착된 3D 영상 센서(66)가, 자차와 동일한 주행차선 내에 있으며 차량 인식 영역(R2) 내에 있는 장애물로부터 반사된 빛을 인식하는 경우, 3D 영상 센서(66)는 선행 차량의 2개의 후부 반사기와 도로 표지병(72)을 3D 영상정보로서 획득할 수 있다. 또한 전방의 선행 차량의 후부 반사기가 도 2에 도시된 바와 같이, 각각 1픽셀 이상의 빛의 수신세기(70)로 표현되며, 후부 반사기간 간격은 2픽셀 이상으로 표현되고, 도 11에 도시된 바와 같이, 자차와 선행 차간의 오프셋(offset)(78)이 50% 이하이면, 차량 인식을 위한 조건이 성립된다. 여기서, 오프셋(78)은 차량 인식을 위한 하나의 조건으로서, 같은 주행 차선 내에서 주행하는 선행 차량과 자차의 엇갈림 정도를 나타내는 기준치이며, 이 오프셋(78)은 LIDAR 센서의 시야각, 분해능, 및 인식거리에 따라 결정될 수 있다.
후부 반사기를 기반으로 차량 인식이 가능한 영역은 도시된 바와 같이 R2로 나타낼 수 있으며, 이 R2는 최소 거리 dmin ~ 최대 거리 dmax 사이의 영역으로 정의될 수 있다. 예컨대, 획득된 3D 영상 정보를 도 12와 같이 나타낼 수 있을 때, 선행 차량(80)과 자차(76)의 거리(d1)가 20m일 때, 도로 표지병(72)과 구분된 후부 반사기간 간격이 1.56m로 계산되는 경우, 3D 영상 센서(66)는 표 1의 차종에 따른 후부 반사기의 간격 기준표에 따라 선행 차량을 중형차로 분류한다. 또한, 3D 영상 센서는 자차의 제동력, 속력과 같은 차량정보를 기반으로 자차와 선행 차량의 차종 차이를 계산하고, 계산된 차종 차이에 따라 설정된 AEB 동작신호를 ECU로 전달한다. ECU는 AEB 동작신호를 전달받아 AEB 시스템을 작동한다.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면, 본 발명의 본질적 특성을 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능하다. 따라서 본 발명에 표현된 실시 예들은 본 발명의 기술적 사상을 한정하는 것이 아니라, 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 권리범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 특허청구범위에 의하여 해석되어야 하고, 그와 동등하거나 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
400: 영상 센서, 410: 처리부, 412: 픽셀 검출부, 414: AEB 동작지점 제어부, 414A: 분류기, 414B: 동작지점 결정부, 420: ECU, 430: AEB 시스템

Claims (11)

  1. 장애물에서 반사되는 빛으로부터 장애물의 위치를 계산하고, 계산된 장애물의 위치를 거리에 따른 빛의 수신세기 I(x,y,d)로 표현되는 영상정보를 생성(여기서, x는 장애물들 사이의 간격, y는 지면으로부터의 장애물의 높이, d는 장애물과 자차 사이의 거리임)하는 영상센서; 및
    상기 영상 센서로부터 상기 I(x,y,d)로 표현되는 영상정보를 전달받아, x와 y를 제외시켜 장애물에서 반사된 빛의 수신세기 I(d)로 표현되는 영상정보를 생성하고, 상기 장애물로부터 반사된 빛 중에서 선행 차량의 후부 반사기에서 반사된 빛을 구분하는 픽셀 검출부를 포함하되,
    상기 픽셀 검출부는 상기 생성한 영상정보 I(d) 중에서 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출하고(여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 빛의 세기 정보임), 상기 I(d)값에 해당하는 빛을 선행 차량의 후부 반사기에서 반사된 빛으로 검출하고, 이 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성하도록 구성되는 것을 특징으로 하는 차량 인식 시스템.
  2. 제1항에 있어서,
    상기 픽셀 검출부에 의해 검출된 상기 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하는 분류기; 및
    분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동(AEB) 시스템의 동작지점을 결정하는 AEB 동작지점 결정부를 추가로 포함하는 차량 인식 시스템.
  3. 제2항에 있어서, 상기 분류기는
    상기 픽셀 검출부에서 검출된 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중 근접한 픽셀 영역을 그룹화하여 이 그룹화된 픽셀 영역의 개수가 나타내는 선행 차량의 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류하도록 구성되는 차량 인식 시스템.
  4. 제2항에 있어서, 상기 AEB 동작지점 결정부는
    상기 분류기가 분류한 선행 차량의 차종 정보와 자차의 ECU로부터 받은 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태 중 적어도 하나가 포함된 자차 운행 정보를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB 시스템으로 AEB 동작신호를 전달하도록 구성되는 차량 인식 시스템.
  5. 1) 장애물에서 반사되는 빛으로부터 장애물의 위치를 계산하고, 계산된 장애물의 위치를 거리에 따른 빛의 수신세기 I(x,y,d)로 표현되는 영상정보를 생성(여기서, x는 장애물들 사이의 간격, y는 지면으로부터의 장애물의 높이, d는 장애물과 자차 사이의 거리임)하는 단계; 및
    2) 상기 영상 센서로부터 상기 I(x,y,d)로 표현되는 영상정보를 전달받아, x와 y를 제외한, d가 포함된 장애물에서 반사된 빛의 수신세기 I(d)로 표현되는 영상정보를 생성하여, 상기 장애물로부터 반사된 빛 중에서 선행 차량의 후부 반사기에서 반사된 빛을 구분하는 단계를 포함하되,
    상기 2) 단계는,
    상기 생성한 영상정보 I(d) 중에서 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출하고(여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 빛의 세기 정보임),
    상기 I(d)값에 해당하는 빛을 선행 차량의 후부 반사기에서 반사된 빛으로 검출하고,
    상기 검출된 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성하는 것을 포함하는 차량 인식 방법.
  6. 제5항에 있어서,
    3) 상기 2) 단계에서 검출된 상기 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하는 단계; 및
    4) 분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동(AEB) 시스템의 동작지점을 결정하는 단계를 추가로 포함하는 차량 인식 방법.
  7. 제6항에 있어서, 상기 3) 단계는
    상기 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중 근접한 픽셀 영역을 그룹화하여 이 그룹화된 픽셀 영역의 개수가 나타내는 선행 차량의 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류하는 단계를 포함하는 차량 인식 방법.
  8. 제6항에 있어서, 상기 4) 단계는
    상기 분류된 선행 차량의 차종 정보와 자차의 ECU로부터 받은 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태 중 적어도 하나가 포함된 자차 운행 정보를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB 시스템으로 AEB 동작신호를 전달하는 단계를 포함하는 차량 인식 방법.
  9. 자차 전방의 장애물에 빛을 출사하고 이 장애물에서 반사되는 빛을 감지하는 영상센서로부터 빛을 수신하는 수단,
    상기 장애물의 위치를 계산하고, 계산된 장애물의 위치를 거리에 따른 빛의 수신세기 I(x,y,d)로 표현되는 영상정보를 생성(여기서, x는 장애물들 사이의 간격, y는 지면으로부터의 장애물의 높이, d는 장애물과 자차 사이의 거리임)하는 수단,
    상기 I(x,y,d) 영상정보로부터 x와 y를 제외시켜 장애물에서 반사된 빛의 수신세기 I(d)로 표현되는 영상정보를 생성하는 수단,
    상기 장애물로부터 반사된 빛 중에서 선행 차량의 후부 반사기에서 반사된 빛을 구분하기 위하여, 상기 생성한 영상정보 I(d) 중에서 자차와의 거리에 따른 빛의 수신세기의 경계치인 I0'(d)보다 큰 I(d)값을 검출하는 수단(여기서, I0'(d)는 학습된 경계치로서, 자차와의 거리에 따른 도로 표지병의 학습된 수신세기 Icat(d), 후부 반사기의 학습된 수신세기 Iref(d), 및 미세한 빛을 반사하는 주변 장애물의 수신세기 Inoise(d)를 이용한 계산을 통해 얻어지는 빛의 세기 정보임),
    상기 I(d)값에 해당하는 빛을 선행 차량의 후부 반사기에서 반사된 빛으로 검출하는 수단,
    상기 검출된 후부 반사기로부터 반사된 빛의 픽셀 영역을 Pref(x',y',d')의 영상정보로 생성하는 수단,
    상기 검출된 픽셀 영역의 개수를 계산하고, 계산된 상기 픽셀 영역의 개수를 이용하여 상기 선행 차량의 차종을 분류하는 수단, 및
    분류된 상기 선행 차량의 차종에 따라 상기 차량의 자동 긴급 제동(AEB) 동작지점을 결정하는 수단을 포함하는 차량 인식 시스템.
  10. 제9항에 있어서, 상기 선행 차량의 차종을 분류하는 수단은
    상기 생성된 후부 반사기의 픽셀 영역 Pref(x',y',d')의 개수를 계산하고, 계산된 후부 반사기의 픽셀 영역 중 근접한 픽셀 영역을 그룹화하여 이 그룹화된 픽셀 영역의 개수가 나타내는 선행 차량의 후부 반사기의 개수 정보를 이용하여 선행 차량의 차종을 분류하도록 구성되는 차량 인식 시스템.
  11. 제9항에 있어서, 상기 AEB 동작지점을 결정하는 수단은
    상기 선행 차량의 차종을 분류하는 수단이 분류한 선행 차량의 차종 정보와 자차의 ECU로부터 받은 차종, 제동력, 속력, 조향각, 와이퍼, 전조등 상태 중 적어도 하나가 포함된 자차 운행 정보를 이용하여 차량의 자동 긴급 제동(AEB)시스템의 동작지점을 결정하고, 자차의 AEB 시스템으로 AEB 동작신호를 전달하도록 구성되는 차량 인식 시스템.
KR1020200167071A 2014-03-05 2020-12-02 센서를 이용한 차량 인식 시스템 및 방법 KR102203276B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200167071A KR102203276B1 (ko) 2014-03-05 2020-12-02 센서를 이용한 차량 인식 시스템 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140026106A KR102192252B1 (ko) 2014-03-05 2014-03-05 센서를 이용한 차량 인식 시스템 및 그 방법
KR1020200167071A KR102203276B1 (ko) 2014-03-05 2020-12-02 센서를 이용한 차량 인식 시스템 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140026106A Division KR102192252B1 (ko) 2014-03-05 2014-03-05 센서를 이용한 차량 인식 시스템 및 그 방법

Publications (3)

Publication Number Publication Date
KR20200140769A KR20200140769A (ko) 2020-12-16
KR102203276B1 true KR102203276B1 (ko) 2021-01-14
KR102203276B9 KR102203276B9 (ko) 2021-09-17

Family

ID=74042312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200167071A KR102203276B1 (ko) 2014-03-05 2020-12-02 센서를 이용한 차량 인식 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102203276B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3853574B2 (ja) * 2000-06-16 2006-12-06 三菱電機株式会社 移動体検出システム
JP2007137116A (ja) * 2005-11-15 2007-06-07 Mitsubishi Electric Corp 車両衝突軽減装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883392A (ja) * 1994-09-14 1996-03-26 Toshiba Corp 車両検出方法及び車両検出装置
JPH0927100A (ja) * 1995-07-12 1997-01-28 Yazaki Corp 前方車両認識方法及び前方車両認識装置並びにそれを用いた車両用追突防止装置
KR20140006462A (ko) * 2012-07-05 2014-01-16 현대모비스 주식회사 안전운전 지원 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3853574B2 (ja) * 2000-06-16 2006-12-06 三菱電機株式会社 移動体検出システム
JP2007137116A (ja) * 2005-11-15 2007-06-07 Mitsubishi Electric Corp 車両衝突軽減装置

Also Published As

Publication number Publication date
KR20200140769A (ko) 2020-12-16
KR102203276B9 (ko) 2021-09-17

Similar Documents

Publication Publication Date Title
KR102192252B1 (ko) 센서를 이용한 차량 인식 시스템 및 그 방법
KR101551667B1 (ko) 라이다 센서 시스템
US11972615B2 (en) Vehicular control system
US11609329B2 (en) Camera-gated lidar system
US10137842B2 (en) Camera system for a vehicle
KR101632873B1 (ko) 장애물 검출 시스템 및 방법
EP2889641B1 (en) Image processing apparatus, image processing method, program and image processing system
US9223311B2 (en) Vehicle driving support control apparatus
US9827956B2 (en) Method and device for detecting a braking situation
KR20200047886A (ko) 운전자 보조 시스템 및 그 제어방법
US10430674B2 (en) Vehicle vision system using reflective vehicle tags
US10933798B2 (en) Vehicle lighting control system with fog detection
US20120163671A1 (en) Context-aware method and apparatus based on fusion of data of image sensor and distance sensor
CN110673599A (zh) 基于传感器网络的自动驾驶车辆环境感知系统
JP5968494B2 (ja) 車両検出システムおよび車両検出方法
US11520019B2 (en) Light signal detection device, range finding device, and detection method
JP2008003959A (ja) 車両用通信システム
KR102579567B1 (ko) 차량 곡률 제어 장치, 차량 곡률 제어 방법 및 차량 곡률 제어 시스템
JP3822417B2 (ja) 車両周辺監視装置
KR102041633B1 (ko) 물체 인식 시스템
KR102203276B1 (ko) 센서를 이용한 차량 인식 시스템 및 방법
US20220108117A1 (en) Vehicular lane marker determination system with lane marker estimation based in part on a lidar sensing system
CN211032395U (zh) 自动驾驶车辆
US11871130B2 (en) Compact perception device
WO2021135973A1 (zh) 照明探测灯组及车辆

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]