KR20210017315A - 차량의 장애물 경고 방법 - Google Patents

차량의 장애물 경고 방법 Download PDF

Info

Publication number
KR20210017315A
KR20210017315A KR1020190096375A KR20190096375A KR20210017315A KR 20210017315 A KR20210017315 A KR 20210017315A KR 1020190096375 A KR1020190096375 A KR 1020190096375A KR 20190096375 A KR20190096375 A KR 20190096375A KR 20210017315 A KR20210017315 A KR 20210017315A
Authority
KR
South Korea
Prior art keywords
obstacle
vehicle
adjacent vehicle
message
obstacles
Prior art date
Application number
KR1020190096375A
Other languages
English (en)
Inventor
김소영
이정용
정상경
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190096375A priority Critical patent/KR20210017315A/ko
Priority to US16/554,743 priority patent/US10891864B2/en
Publication of KR20210017315A publication Critical patent/KR20210017315A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/62
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 실시예에 따른 차량의 장애물 경고 방법은 레이저 센서를 통해 제1 장애물을 탐지하는 단계, 인접 차량의 위치를 식별하는 단계, 상기 인접 차량의 위치에 기초하여 상기 제1 장애물에 의한 상기 인접 차량의 사각지대를 결정하는 단계, 상기 레이저 센서를 통해 상기 사각지대에 포함되는 제2 장애물을 탐지하는 단계 및 상기 인접 차량에 위험 메시지를 송신하는 단계를 포함하는 것을 특징으로 한다.
본 발명이 적용되는 차량은 임의의 인공지능(Artificial Intelligence; AI) 모듈, 드론(drone), 무인항공기(Unmmaned Aerial Vehicle), 로봇, 증강현실(Augmented Reality; AR) 모듈, 가상현실(Virtual reality; VR) 모듈, 5G(5th Generation) 이동통신 장치 등과 연계될 수 있다.

Description

차량의 장애물 경고 방법{OBSTACLE WARNING METHOD OF VEHICLE}
본 발명은 인접 차량의 사각지대에 존재하는 장애물을 경고하기 위한 방법에 관한 것이다.
최근 자율주행 차량 개발의 일환으로서 주변 상황을 고려한 차량의 주행 기술에 관한 연구가 지속적으로 이루어지고 있으며, 이를 위해, 주변 상황을 감지할 수 있는 다양한 센서들이 차량에 구비되고 있다.
차량에 구비되는 대부분의 센서는 신호를 방사형으로 발산하고, 물체에 반사되어 되돌아오는 신호를 감지함으로써 물체를 식별한다. 이에 따라, 현재까지의 차량은 방사형으로 발산되는 신호가 닿는 물체만을 식별할 수 있으며, 신호가 닿지 않는 물체를 식별할 수 없다는 한계가 있다.
이러한 한계로 인해, 차량은 큰 물체 뒤에 가려진 작은 물체를 식별할 수가 없고, 큰 물체 뒤에 가려져있던 작은 물체가 돌발적으로 출현하는 경우 사고가 발생할 수 있다. 예컨대, 차량은 반대 차선에서 다가오는 대형 차량 바로 뒤에 위치한 소형 차량을 식별할 수 없고, 소형 차량이 돌발적으로 출현하는 경우 불가피한 사고가 발생할 수 있다.
이에 따라, 어느 한 물체에 가려짐으로써 센서에 의해 식별되지 않는 다른 물체가 존재할 때, 이를 파악하고 경고할 수 있는 방법이 요구된다.
본 발명은 어느 한 장애물에 의한 사각지대에 존재하는 다른 장애물을 인접 차량에 경고하는 차량의 장애물 경고 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 주행 중인 차량에 의한 사각지대에 존재하는 장애물을 인접 차량에 경고하는 차량의 장애물 경고 방법을 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 차량의 장애물 경고 방법은 레이저 센서를 통해 제1 장애물을 탐지하는 단계, 인접 차량의 위치를 식별하는 단계, 상기 인접 차량의 위치에 기초하여 상기 제1 장애물에 의한 상기 인접 차량의 사각지대를 결정하는 단계, 상기 레이저 센서를 통해 상기 사각지대에 포함되는 제2 장애물을 탐지하는 단계 및 상기 인접 차량에 위험 메시지를 송신하는 단계를 포함하는 것을 특징으로 한다.
또한, 전술한 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 차량의 장애물 경고 방법은 인접 차량의 위치를 식별하는 단계, 주행 차량의 바운딩 박스를 생성하는 단계, 상기 인접 차량의 위치에 기초하여 상기 주행 차량의 바운딩 박스에 의한 상기 인접 차량의 사각지대를 결정하는 단계, 상기 레이저 센서를 통해 상기 사각지대에 포함되는 장애물을 탐지하는 단계 및 상기 인접 차량에 위험 메시지를 송신하는 단계를 포함하는 것을 특징으로 한다.
본 발명은 어느 한 장애물에 의한 사각지대에 존재하는 다른 장애물을 인접 차량에 경고하거나, 주행 중인 차량에 의한 사각지대에 존재하는 장애물을 인접 차량에 경고함으로써, 도로 상의 모든 차량이 센서에 의해 식별되지 않는 장애물을 고려하여 주행하도록 할 수 있고, 장애물의 돌발 출현에 따른 사고 발생률을 크게 낮출 수 있다.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 일 실시예에 따른 차량의 장애물 경고 방법을 도시한 순서도.
도 2는 본 발명의 일 실시예에 따른 차량의 내부 구성을 도시한 도면.
도 3은 차량이 레이저 센서를 이용하여 장애물을 감지하는 모습을 도시한 도면.
도 4a 및 도 4b는 제1 장애물의 후방에 제2 장애물이 위치한 모습과, 인접 차량의 시야에서 제1 장애물에 의해 제2 장애물이 가려진 모습을 각각 도시한 도면.
도 5a 및 도 5b는 제1 장애물에 의한 사각지대를 설명하기 위한 도면.
도 6은 각 장애물에 대한 바운딩 박스를 도시한 도면.
도 7은 인접 차량의 위치 좌표와 바운딩 박스위 모서리 좌표에 따라 결정되는 사각지대를 설명하기 위한 도면.
도 8은 주행 차량, 장애물 및 인접 차량 간의 메시지 송수신을 설명하기 위한 도면.
도 9a 및 도 9b는 도 8에 도시된 각 메시지의 프레임을 도시한 도면.
도 10은 지오네트워킹 방식의 메시지 송신을 설명하기 위한 도면.
도 11은 인접 차량의 차량용 HMI를 통해 출력되는 화면을 도시한 도면.
도 12는 본 발명의 다른 실시예에 따른 차량의 장애물 경고 방법을 도시한 순서도.
도 13은 5G 통신 시스템에서 차량과 5G 네트워크의 동작의 일 예를 나타낸 도면.
도 14 내지 도 17은 5G 통신을 이용한 차량의 동작 과정의 일 예를 나타낸 도면.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
본 발명은 인접 차량의 사각지대에 존재하는 장애물을 경고하기 위한 방법에 관한 것이다.
이하, 도 1 내지 도 11을 참조하여, 본 발명의 일 실시예에 따른 차량의 장애물 경고 방법을 구체적으로 설명하도록 한다
도 1은 본 발명의 일 실시예에 따른 차량의 장애물 경고 방법을 도시한 순서도이다. 또한, 도 2는 본 발명의 일 실시예에 따른 차량의 내부 구성을 도시한 도면이다.
도 3은 차량이 레이저 센서를 이용하여 장애물을 감지하는 모습을 도시한 도면이다.
도 4a 및 도 4b는 제1 장애물의 후방에 제2 장애물이 위치한 모습과, 인접 차량의 시야에서 제1 장애물에 의해 제2 장애물이 가려진 모습을 각각 도시한 도면이다.
도 5a 및 도 5b는 제1 장애물에 의한 사각지대를 설명하기 위한 도면이다.
도 6은 각 장애물에 대한 바운딩 박스를 도시한 도면이고, 도 7은 인접 차량의 위치 좌표와 바운딩 박스위 모서리 좌표에 따라 결정되는 사각지대를 설명하기 위한 도면이다.
도 8은 주행 차량, 장애물 및 인접 차량 간의 메시지 송수신을 설명하기 위한 도면이고, 도 9a 및 도 9b는 도 8에 도시된 각 메시지의 프레임을 도시한 도면이다.
도 10은 지오네트워킹 방식의 메시지 송신을 설명하기 위한 도면이다.
도 11은 인접 차량의 차량용 HMI를 통해 출력되는 화면을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량의 장애물 경고 방법(이하, 장애물 경고 방법)은 제1 장애물을 탐지하는 단계(S10), 인접 차량의 위치를 식별하는 단계(S20), 제1 장애물에 의한 인접 차량의 사각지대를 결정하는 단계(S30), 사각지대에 포함되는 제2 장애물을 식별하는 단계(S40) 및 인접 차량에 위험 메시지를 송신하는 단계(S50)를 포함할 수 있다.
도 1에 도시된 장애물 경고 방법은 일 실시예에 따른 것이고, 발명을 이루는 각 단계들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 단계가 부가, 변경 또는 삭제될 수 있다.
본 발명의 장애물 경고 방법은 차량(100)에 의해 수행될 수 있다. 후술되는 차량(100)은 동력원으로서 엔진을 구비하는 내연기관 차량(internal combustion engine vehicle), 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량(hybrid vehicle), 동력원으로서 전기 모터를 구비하는 전기 차량(electronic vehicle), 동력원으로서 연료 전지를 구비하는 수소연료전지차(fuel cell electric vehicle) 등으로 구현될 수 있다.
또한, 차량(100)은 사용자의 조작 없이 스스로 목적지까지 운행할 수 있는 자율주행 차량(autonomous vehicle)일 수 있다. 이 경우, 자율주행 차량은 임의의 인공지능(Artificial Intelligence; AI) 모듈, 드론(drone), 무인항공기(Unmmaned Aerial Vehicle), 로봇, 증강현실(Augmented Reality; AR) 모듈, 가상현실(Virtual reality; VR) 모듈, 5G(5th Generation) 이동통신 장치 등과 연계될 수 있다.
도 2를 참조하면, 본 발명을 수행하는 차량(100)은 프로세서(110), 메모리(120), 제어 모듈(130), 차량용 HMI(140), 카메라(150), 통신 모듈(160), 레이저 센서(170) 및 GPS(Global Positioning System) 모듈(180)을 포함할 수 있다. 도 2에 도시된 차량(100)은 발명을 설명하기 위한 일 예시에 불과할 뿐, 그 구성요소들이 도 2에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
차량(100) 내 각 구성요소는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors)중 적어도 하나를 포함하는 물리적인 요소로 구현될 수 있다.
또한, 차량(100) 내 각 구성요소들의 동작은 프로세서(110)에 의해 제어될 수 있으며, 프로세서(110)는 각 구성요소들로부터 획득된 데이터 또는 각 구성요소로 제공되는 데이터를 처리할 수 있다. 또한, 메모리(120)는 ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등으로 구성되어 전술한 프로세서(110)의 동작을 위한 프로그램과 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
이하에서는, 도 1에 도시된 장애물 경고 방법을 도 2에 도시된 각 구성요소를 참조하여 설명하도록 한다. 한편, 이하에서 설명되는 차량(100)은 장애물, 주행 차량 및 인접 차량을 모두 포함하는 개념일 수 있고, 이들 각각은 모두 후술하는 장애물 경고 방법을 수행할 수 있다. 다만, 설명의 편의를 위해 발명의 각 단계를 수행하는 차량(100)을 주행 차량으로 기술하도록 한다.
주행 차량(100)은 레이저 센서(170)를 통해 제1 장애물(300)을 탐지할 수 있다(S10).
레이저 센서(170)는 레이저를 방출하고, 방출된 레이저가 제1 장애물(300)에서 반사되면, 반사된 레이저를 검출할 수 있다. 프로세서(110)는 레이저 센서(170)에 의해 검출된 레이저에 기초하여 제1 장애물(300)을 탐지할 수 있다.
도 3을 참조하면, 주행 차량(100) 내 레이저 센서(170)는 방사형(a radial shape)으로 레이저를 방출할 수 있고, 이를 위해 레이저 센서(170)는 주행 차량(100) 외부면에 회전 가능하도록 고정 구비될 수 있다. 레이저 센서(170)에서 방출된 레이저는 제1 장애물(300)에 반사될 수 있고, 반사된 레이저는 레이저 센서(170)에서 검출될 수 있다. 프로세서(110)는 레이저 센서(170)를 통해 검출된 레이저를 통해 제1 장애물(300)을 탐지할 수 있고, 레이저의 입사 각도, 세기, 레이저의 왕복 시간(Time Of Flight; TOF), 위상 변화(phase shift) 등에 기초하여 제1 장애물(300)의 위치 및 크기를 식별할 수 있다.
이러한 레이저 센서(170)는 레이저로서 마이크로파를 방출 및 검출하는 레이더(Radio Detecting And Ranging; RADAR)로 구현될 수 있고, 레이저로서 빛(예컨대, 레이저 펄스)을 방출 및 검출하는 라이다(Light Detection And Ranging; LiDAR)로 구현될 수도 있다. 이 외에도, 레이저 센서(170)는 임의의 파장을 갖는 레이저를 방출 및 검출하는 다양한 센서로 구현될 수 있다.
제1 장애물(300)이 탐지되면, 주행 차량(100)은 인접 차량(200)의 위치를 식별할 수 있다(S20). 인접 차량(200)은 주행 차량(100)과 미리 설정된 거리 이내의 차량으로 정의될 수 있고, 주행 차량(100)의 레이저 센서(170)를 통해 식별되는 차량으로 정의될 수도 있다.
일 예에서, 주행 차량(100)은 인접 차량(200)으로부터 위치 정보를 수신하여 인접 차량(200)의 위치를 식별할 수 있다.
본 발명에서 차량들은 서로 V2V(Vehicle to Vehicle) 통신, 또는 V2X(Vehicle to Everything) 통신을 통해 메시지를 주고받을 수 있다. 이러한 통신은 미리 설정된 거리 이내에서 수행될 수 있으며, 통신 네트워크 상에서 송수신되는 메시지에는 메시지 발신 차량의 위치 정보가 포함될 수 있다.
보다 구체적으로, 차량 내 GPS 모듈(180)은 인공위성에서 출력되는 위성신호를 해석함으로써 GPS 모듈(180)이 위치한 좌표를 획득할 수 있다. GPS 모듈(180)은 차량에 내장되므로 GPS 모듈(180)이 획득한 위치 좌표는 차량의 위치 좌표일 수 있다.
차량 내 통신 모듈(160)은 GPS 모듈(180)에 의해 실시간으로 획득된 위치 좌표를 메시지에 포함시킬 수 있고, 메시지를 통신 네트워크 상에 브로드캐스트 방식으로 송신할 수 있다. 이러한 방법에 따라 인접 차량(200)은 자신의 위치 좌표(200c)를 포함하는 메시지를 송신할 수 있고, 주행 차량(100)은 해당 메시지를 수신하여 인접 차량(200)의 위치를 식별할 수 있다.
다른 예에서, 주행 차량(100)은 레이저 센서(170)를 통해 인접 차량(200)의 위치를 식별할 수 있다.
앞서 설명한 바와 같이, 주행 차량(100)은 레이저 센서(170)를 통해 주행 차량(100) 주변의 물체를 식별할 수 있다. 보다 구체적으로, 프로세서(110)는 레이저 센서(170)에 의해 검출되는 레이저에 기초하여 주행 차량(100)의 주변에 대한 3차원 지도를 생성할 수 있고, 생성된 지도 상에 표현되는 이미지에 기초하여 인접 차량(200)을 식별할 수 있다. 인접 차량(200)이 식별되면 프로세서(110)는 레이저 센서(170)에 의해 검출된 레이저의 입사 각도, 세기, 레이저의 왕복 시간(TOF), 위상 변화 등에 기초하여 인접 차량(200)의 위치를 식별할 수 있다.
또 다른 예에서, 주행 차량(100)은 카메라(150)를 통해 인접 차량(200)의 위치를 식별할 수 있다.
차량 내 카메라(150)는 주행 차량(100)의 외부 영상을 실시간으로 촬영할 수 있고, 프로세서(110)는 카메라(150)에 의해 촬영되는 외부 영상을 분석하여 인접 차량(200)을 오브젝트로 탐지할 수 있고, 오브젝트의 위치와 크기를 식별할 수 있다.
인접 차량(200)을 오브젝트로 탐지하기 위해 프로세서(110)는 Frame differencing, Optical flow, Background subtraction 등과 같은 테크닉에 의해 수행되는 오브젝트 탐지(Object Detection) 동작과, Shape-based classification, Motion-based classification, Color based classification, Texture based classification 등과 같은 테크닉에 의해 수행되는 오브젝트 분류(Object Classification) 동작을 수행할 수 있다.
또한, 오브젝트로 탐지된 인접 차량(200)을 추적하기 위해 프로세서(110)는 Point Tracking, Kernel Tracking, Silhouette 등과 같은 테크닉에 의해 수행되는 오브젝트 추적(Object Tracking) 동작을 수행할 수도 있다.
인접 차량(200)의 위치가 식별되면, 주행 차량(100)은 인접 차량(200)의 위치에 기초하여 제1 장애물(300)에 의한 인접 차량(200)의 사각지대(blind spot)를 결정할 수 있다(S30).
여기서 사각지대는 인접 차량(200)의 위치에서 제1 장애물(300)에 의해 시야가 확보되지 않은 영역으로 정의될 수 있다. 즉, 사각지대는 인접 차량(200)에 탑승한 탑승자의 시야가 확보되지 않는 영역, 인접 차량(200)에 구비된 카메라(150)의 화각이 확보되지 않는 영역, 인접 차량(200)에 구비된 레이저 센서(170)에 의해 감지되지 않는 영역일 수 있다.
도 4a를 참조하면, 주행 차량(100) 전방에는 제1 장애물(300)이 위치할 수 있고, 주행 차량(100)과 제1 장애물(300) 사이에는 소형 차량(400)(예컨대, 오토바이)이 위치할 수 있다. 이 때, 반대 차선에서는 인접 차량(200)이 주행 중일 수 있다.
도 4b를 참조하면, 인접 차량(200)의 위치에서는 제1 장애물(300)에 의해 소형 차량(400)에 대한 시야가 확보되지 않을 수 있다. 다시 말해, 인접 차량(200)에 탑승한 탑승자는 제1 장애물(300) 후방에 위치한 소형 차량(400)에 대한 시야를 확보하지 못할 수 있고, 인접 차량(200)에 구비된 카메라(150) 및 레이저 센서(170)는 제1 장애물(300) 후방에 위치한 소형 차량(400)을 식별하지 못할 수 있다.
도 5a 및 도 5b를 참조하면, 제1 장애물(300)에 의한 인접 차량(200)의 사각지대는 인접 차량(200)의 위치 좌표(200c)와 제1 장애물(300)의 간의 거리 및 제1 장애물(300)의 부피에 따라 결정될 수 있다. 이에 따라, 주행 차량(100)은 인접 차량(200)의 위치 좌표(200c)와 제1 장애물(300)의 위치 및 부피에 따라 사각지대를 결정할 수 있다.
앞서 언급한 바와 같이, 주행 차량(100)은 카메라(150) 또는 레이더 센서를 이용하여 제1 장애물(300)의 위치 및 크기를 식별할 수 있다. 이를 위해 주행 차량(100)은 제1 장애물(300)의 특징점을 추출할 수 있다.
프로세서(110)는 카메라(150)에 의해 촬영된 영상 또는 레이더 센서에서 검출된 레이저에 의해 생성된 3차원 영상에서 제1 장애물(300)의 특징점을 추출할 수 있다. 예컨대, 제1 장애물(300)이 트럭인 경우 프로세서(110)는 트럭 차체의 모서리 또는 꼭짓점을 특징점으로 추출할 수 있다.
이를 위해, 프로세서(110)는 당해 기술분야에서 이용되는 Harris Corner, Shi-Tomasi, SIFT (Scale-Invariant Feature Transform), SURF (Speeded Up Robust Features), FAST (Features from Accelerated Segment Test), AGAST (Adaptive and Generic corner detection based on the Accelerated Segment Test), Ferns (Fast keypoint recognition in ten lines of code) 등의 알고리즘을 이용할 수 있다.
프로세서(110)는 특징점의 기술자(descriptor)에 기초하여 제1 장애물(300)의 특징점의 각 좌표를 결정할 수 있고, 인접 차량(200)의 위치 좌표(200c)와 특징점의 각 좌표에 기초하여 인접 차량(200)의 사각지대를 결정할 수 있다. 도 5a 및 도 5b에 도시된 바와 같이, 프로세서(110)는 인접 차량(200)의 위치 좌표(200c)와 제1 장애물(300)의 각 특징점의 좌표를 연결함으로써, 제1 장애물(300)에 의한 인접 차량(200)의 사각지대를 결정할 수 있다.
또한, 프로세서(110)는 제1 장애물(300)의 바운딩 박스(B/B)를 생성하고, 인접 차량(200)의 위치 좌표(200c)와 바운딩 박스의 모서리 좌표에 기초하여 인접 차량(200)의 사각지대를 결정할 수도 있다. 여기서 바운딩 박스는 제1 장애물(300)의 부피를 정의하는 가상의 3차원 영역으로 정의될 수 있다.
보다 구체적으로, 프로세서(110)는 레이더 센서에 의해 식별된 제1 장애물(300)에 대한 3차원 영상에 기초하여 제1 장애물(300)의 바운딩 박스를 생성할 수 있다. 예를 들어, 프로세서(110)는 MPEG-I 표준 기술을 활용한 포인트 클라우드 압축(Point cloud compression)을 통해 제1 장애물(300)을 식별하고, 제1 장애물(300)을 포함하는 바운딩 박스를 생성할 수 있다.
도 6을 참조하면, 프로세서(110)는 제1 장애물(300)의 바운딩 박스를 일정 너비(w), 일정 깊이(d), 일정 높이(h)를 가지며 제1 장애물(300)을 그 내부에 포함하는 직육면체로 생성할 수 있다. 바운딩 박스 생성 시 프로세서(110)는 바운딩 박스를 정의하는 각 모서리의 좌표를 메모리(120)에 저장할 수 있다.
프로세서(110)는 메모리(120)에 저장된 바운딩 박스의 모서리 좌표와 인접 차량(200)의 위치 좌표(200c)에 기초하여 인접 차량(200)의 사각지대를 결정할 수 있다.
도 7을 참조하면, 프로세서(110)는 인접 차량(200)의 위치 좌표(200c)와, 바운딩 박스의 모서리 좌표(B1, B2, B3, B4, B5)를 각각 연결함으로써, 제1 장애물(300)에 의한 인접 차량(200)의 사각지대를 결정할 수 있다.
한편, 바운딩 박스 생성 동작에 있어서, 프로세서(110)는 인접 차량(200)의 속도에 따라 바운딩 박스의 크기를 조절할 수 있다.
본 발명은 사각지대에 존재하는 장애물에 대한 위험을 인접 차량(200)에 경고하기 위한 것을 목적으로 하는데, 인접 차량(200)의 속도가 빠를수록 장애물에 대한 방어운전(defensive drive)이 어려울 수 있다.
이에 따라, 프로세서(110)는 인접 차량(200)의 속도를 식별하고, 식별된 인접 차량(200)의 속도에 비례하여 바운딩 박스의 크기를 조절할 수 있다.
보다 구체적으로, 프로세서(110)는 전술한 레이더 센서를 통해 인접 차량(200)의 속도를 식별할 수도 있고, 인접 차량(200)으로부터 수신된 위치 정보에 기초하여 인접 차량(200)의 속도를 산출할 수도 있다. 또한, 인접 차량(200)으로부터 수신된 메시지에 인접 차량(200)의 속도 정보가 포함되어 있는 경우, 프로세서(110)는 해당 메시지를 참조하여 인접 차량(200)의 속도를 식별할 수 있다.
프로세서(110)는 인접 차량(200)의 속도에 비례하여 바운딩 박스의 크기를 증가시킬 수 있다. 도 6을 예로 들어 설명하면, 도 6에 도시된 제1 장애물(300)의 바운딩 박스는 인접 차량(200)의 속도가 기준 속도(예컨대, 60km/h)일 때를 기준으로 생성될 수 있다. 프로세서(110)는 인접 차량(200)의 속도를 80km/h로 식별할 수 있고, 기준 속도에 대한 인접 차량(200)의 속도의 비만큼 바운딩 박스를 증가시킬 수 있다.
즉, 도 6에 도시된 바운딩 박스는, 인접 차량(200)의 속도가 80km/h인 경우 4/3만큼 증가될 수 있다. 다시 말해, 프로세서(110)는 바운딩 박스의 너비, 깊이 및 높이를 각각 4/3w, 4/3d, 4/3h로 증가시킬 수 있다.
사각지대가 결정되면, 주행 차량(100)은 레이저 센서(170)를 통해 사각지대에 포함되는 제2 장애물(400)을 탐지할 수 있다(S40).
제2 장애물(400)을 탐지하는 방법은 전술한 제1 장애물(300)을 탐지하는 방법과 동일하므로, 탐지 방법에 대한 자세한 설명은 생략하도록 한다.
프로세서(110)는 레이저 센서(170)를 통해 탐지되는 복수의 장애물 중에서 앞서 결정된 사각지대 내에 포함되는 제2 장애물(400)을 탐지할 수 있다.
다시 도 5b를 참조하면, 프로세서(110)는 레이저 센서(170)를 통해 주행 차량(100) 주변의 적어도 하나의 차량을 식별할 수 있다. 프로세서(110)는, 식별된 복수의 장애물 중 인접 차량(200)의 사각지대 내에 포함되는 소형 차량(예컨대, 오토바이)을 제2 장애물(400)로 탐지할 수 있다.
보다 구체적으로, 프로세서(110)는 레이저 센서(170)를 통해 탐지된 적어도 하나의 장애물 중에서 그 위치 좌표가 사각지대에 포함되는 제2 장애물(400)을 탐지할 수 있다.
일 예에서, 프로세서(110)는 레이저 센서(170)를 통해 적어도 하나의 장애물을 탐지할 수 있다. 한편, 프로세서(110)는 주변의 차량으로부터 위치 정보를 수신할 수도 있고, 레이저 센서(170)를 통해 주변 차량의 위치를 식별할 수도 있으며, 카메라(150)를 통해 주변 차량의 위치를 식별할 수도 있다. 각 방법을 통해 위치 정보를 식별하는 방법에 대해서는 전술한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
프로세서(110)는 식별된 주변 차량의 위치 좌표 중에서 사각지대에 포함되는 위치 좌표를 식별할 수 있고, 해당 위치 좌표를 갖는 차량을 제2 장애물(400)로 탐지할 수 있다.
다른 예에서, 프로세서(110)는 바운딩 박스의 일부 또는 전부가 사각지대에 포함되는 제2 장애물(400)을 탐지할 수 있다.
다시 도 6을 참조하면, 프로세서(110)는 레이저 센서(170)를 통해 주변 차량의 바운딩 박스를 생성할 수 있다. 바운딩 박스를 생성하는 방법에 대해서는 전술한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다
프로세서(110)는 각 주변 차량에 대해 생성된 바운딩 박스 중에서, 바운딩 박스에 의해 정의되는 영역(바운딩 박스의 내부 영역)이 사각지대에 일부 또는 전부 포함되는 바운딩 박스를 식별할 수 있고, 해당 바운딩 박스에 대응하는 차량을 제2 장애물(400)로 탐지할 수 있다.
제2 장애물(400)이 탐지되면, 주행 차량(100)은 인접 차량(200)에 위험 메시지를 송신할 수 있다(S50). 여기서 위험 메시지는 사각지대 내에 장애물이 존재함을 지시하는 임의의 알람 메시지를 포함할 수 있다. 위험 메시지의 송신에는 전술한 V2V, V2X 통신이 이용될 수 있다.
위험 메시지에는 사각지대 내에 장애물이 존재함을 지시하기 위한 다양한 정보가 포함될 수 있다.
주행 차량(100)은 제2 장애물(400)의 위치 정보를 포함하는 위험 메시지를 송신할 수 있다.
앞서 설명한 바와 같이 프로세서(110)는 주변 차량의 위치 정보를 식별할 수 있고, 주변 차량들 중 제2 장애물(400)로 탐지된 차량의 위치 정보를 위험 메시지에 포함시킬 수 있다. 통신 모듈(160)은 제2 장애물(400)의 위치 정보가 포함된 위험 메시지를 인접 차량(200)에 송신할 수 있다.
또한, 주행 차량(100)은 제2 장애물(400)의 타입을 결정하고, 제2 장애물(400)의 타입 정보를 포함하는 위험 메시지를 송신할 수 있다.
일 예에서, 주행 차량(100)은 제2 장애물(400)로부터 타입 정보룰 수신함으로써 제2 장애물(400)의 타입을 결정할 수 있다. 앞서 언급한 바와 같이 제2 장애물(400)은 차량일 수 있고, 제2 장애물(400)은 주행 차량(100)에 메시지를 송신할 수 있다. 여기서 제2 장애물(400)이 송신하는 메시지에는 자신의 타입 정보가 포함될 수 있다. 타입 정보는 차량의 특성에 관한 것으로서, 차량의 차종, 크기, 용도, 등 차량을 특정할 수 있는 임의의 특성에 관한 것일 수 있다.
프로세서(110)는 제2 장애물(400)로부터 수신된 메시지를 통해 제2 장애물(400)의 타입 정보를 식별할 수 있고, 제2 장애물(400)로부터 수신된 타입 정보를 위험 메시지에 포함시킬 수 있다. 통신 모듈(160)은 제2 장애물(400)의 타입 정보가 포함된 위험 메시지를 인접 차량(200)에 송신할 수 있다.
다른 예에서, 주행 차량(100)은 레이저 센서(170)를 통해 제2 장애물(400)의 타입을 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 레이저 센서(170)에 의해 검출되는 레이저에 기초하여 제2 장애물(400)을 포함하는 3차원 지도를 생성할 수 있고, 생성된 지도 상에서 표현되는 이미지에 기초하여 제2 장애물(400)의 타입을 결정할 수 있다.
제2 장애물(400)의 타입이 결정되면, 프로세서(110)는 제2 장애물(400)의 타입 정보를 생성하고, 생성된 타입 정보를 위험 메시지에 포함시킬 수 있다. 통신 모듈(160)은 제2 장애물(400)의 타입 정보가 포함된 위험 메시지를 인접 차량(200)에 송신할 수 있다.
또 다른 예에서, 주행 차량(100)은 카메라(150)를 통해 제2 장애물(400)의 타입을 결정할 수 있다. 보다 구체적으로, 프로세서(110)는 카메라(150)에 의해 촬영된 외부 영상을 분석하여 제2 장애물(400)을 오브젝트로 탐지할 수 있고, 오브젝트의 크기, 모양 및 형태에 기초하여 제2 장애물(400)의 타입을 결정할 수 있다.
제2 장애물(400)의 타입이 결정되면, 프로세서(110)는 제2 장애물(400)의 타입 정보를 생성하고, 생성된 타입 정보를 위험 메시지에 포함시킬 수 있다. 통신 모듈(160)은 제2 장애물(400)의 타입 정보가 포함된 위험 메시지를 인접 차량(200)에 송신할 수 있다.
이에 따라, 인접 차량(200)은 현재 식별되지 않는 제2 장애물(400)의 정확한 위치가 어디인지, 제2 장애물(400)이 무엇인지, 그 크기는 얼마인지 파악할 수 있고, 이를 고려하여 주행할 수 있다.
한편, 주행 차량(100)은 제2 장애물(400)의 주행 차선을 식별할 수 있고, 제2 장애물(400)의 주행 차선 정보를 포함하는 위험 메시지를 송신할 수 있다.
프로세서(110)는 제2 장애물(400)의 위치 정보와 메모리(120)에 저장된 지도 정보를 비교하여 제2 장애물(400)의 주행 차선을 식별할 수 있다. 보다 구체적으로, 프로세서(110)는 지도 정보에 포함된 각 차선의 좌표와 제2 장애물(400)의 위치 좌표를 비교하여, 제2 장애물(400)이 어느 차선에 위치하는지 식별할 수 있다.
제2 장애물(400)의 주행 차선이 식별되면, 프로세서(110)는 제2 장애물(400)의 주행 차선 정보를 생성하고, 생성된 주행 차선 정보를 위험 메시지에 포함시킬 수 있다. 통신 모듈(160)은 제2 장애물(400)의 주행 차선 정보가 포함된 위험 메시지를 인접 차량(200)에 송신할 수 있다.
이에 따라, 인접 차량(200)은 현재 식별되지 않는 제2 장애물(400)이 자신과 같은 방향으로 주행 중인지 반대 방향으로 주행 중인지를 파악할 수 있고, 이를 고려하여 주행할 수 있다.
주행 차량(100)은 전술한 위험 메시지를 브로드캐스트 방식으로 송신할 수 있다. 보다 구체적으로, 주행 차량(100)은 V2V 또는 V2X 통신을 통해 위험 메시지를 브로드캐스트 방식으로 송신할 수 있다.
도 5b 및 도 8을 함께 참조하면, 인접 차량(200)에서 송신된 메시지(A)는 제1 장애물(300)과 주행 차량(100)에 각각 수신될 수 있고, 제1 장애물(300)에서 송신된 메시지(B)는 인접 차량(200)과 주행 차량(100)에 각각 수신될 수 있으며, 주행 차량(100)에서 송신된 메시지(C)는 제1 장애물(300)과 인접 차량(200)에 각각 수신될 수 있다.
한편, 각 차량은 차량 간의 통신(예컨대, V2V, V2X)에 이용되는 프로토콜을 기반으로 하는 메시지를 송수신할 수 있다.
도 9a를 참조하여 설명하면, 인접 차량(200)에서 송신된 메시지(A)는 메시지 헤더(header)와, 차량 정보(Vehicle Information), 센서 정보(sensor) 및 센서에 의해 감지된 오브젝트 정보(object)를 포함할 수 있다. 여기서 차량 정보는 전술한 차량의 위치 정보, 타입 정보를 포함할 수 있고, 센서 정보는 전술한 레이저 센서(170)에 대한 정보를 포함할 수 있다. 한편, 오브젝트 정보는 레이저 센서(170)에 의해 식별된 주변 차량에 대한 정보를 포함할 수 있다.
도 5b를 참조하면, 인접 차량(200)은 레이저 센서(170)를 통해 제1 장애물(300)만을 식별할 수 있으므로, 도 9a에 도시된 바와 같이 인접 차량(200)에서 송신된 메시지(A)에는 제1 장애물(300)에 대한 오브젝트 정보가 포함될 수 있다.
제1 장애물(300)이 차량인 경우, 제1 장애물(300)은 레이저 센서(170)를 통해 인접 차량(200), 제2 장애물(400) 및 주행 차량(100)을 식별할 수 있으므로, 도 9a에 도시된 바와 같이 인접 차량(200)에서 송신된 메시지(B)에는 인접 차량(200), 제2 장애물(400) 및 주행 차량(100)에 대한 오브젝트 정보가 포함될 수 있다.
주행 차량(100)은 레이저 센서(170)를 통해 제1 장애물(300) 및 제2 장애물(400)을 식별할 수 있으므로, 도 9a에 도시된 바와 같이 주행 차량(100)에서 송신된 메시지(C)에는 제1 장애물(300) 및 제2 장애물(400)에 대한 오브젝트 정보가 포함될 수 있다.
한편, 주행 차량(100)은 전술한 메시지에 위험 코드 정보를 추가 또는 삽입하여 위험 메시지를 생성하고, 생성된 위험 메시지를 송신할 수 있다.
앞서 설명한 바와 같이, 위험 메시지는 사각지대 내 장애물이 존재함을 지시하는 기능을 수행하며, 이를 위해 주행 차량(100)은 위험 코드 정보를 기존의 메시지에 추가 또는 삽입함으로써 위험 메시지를 생성할 수 있다.
다시 도 9a를 참조하면, 위험 코드 정보(Danger Code)는 기존 메시지의 후단에 추가될 수 있다. 위험 코드 정보는 전술한 제2 장애물(400)의 위치 정보 및 타입 정보를 포함할 수 있다. 한편, 도 9a에 도시된 바와 달리, 위험 코드 정보는 기존 메시지를 구성하는 각 프레임 사이에 삽입될 수도 있다.
또한, 주행 차량(100)은 전술한 메시지에 위험 코드 정보를 지시하는 추가 헤더를 삽입하여 위험 메시지를 생성할 수도 있다.
도 9b를 참조하면, 주행 차량(100)에서 송신되는 위험 메시지(C)에는 전술한 위험 코드 정보뿐만 아니라, 위험 코드 정보를 지시하는 추가 헤더(Additional Header)가 포함될 수 있다. 이 때, 추가 헤더는 기존 메시지에 포함된 헤더 바로 다음에 삽입될 수 있다.
추가 헤더는 위험 코드 정보가 포함된 프레임의 위치를 지시할 수 있고, 이에 따라, 위험 메시지를 수신한 인접 차량(200)은 위험 메시지를 처리함에 있어서 추가 헤더를 참조하여 곧바로 위험 코드 정보를 식별할 수 있다.
한편, 전술한 바와 달리 주행 차량(100)은 지오네트워킹(Geo-Networking) 방식으로 위험 메시지를 송신할 수 있다. 지오네트워킹 방식은 특정 지역의 네트워크에 정보를 전달하는 방식을 의미할 수 있다.
이에 따라, 주행 차량(100)은 복수의 인접 차량(200) 중에서, 특정 지역 내에 위치한 인접 차량(200)에게만 선택적으로 위험 메시지를 송신할 수 있다.
도 10을 참조하면, 주행 차량(100)은 위험 메시지를 송신할 특정 지역을 목표 영역(Destination Area)으로 설정할 수 있고, 목표 영역의 네트워크에 선택적으로 위험 메시지를 송신할 수 있다.
이를 위해, CBF(Contention-Based forwarding) 방식이 이용될 수 있다. 보다 구체적으로, 주행 차량(100)은 자신의 위치와 일 방향으로 가장 가까운 차량에 위험 메시지를 송신할 수 있고, 위험 메시지를 수신한 차량은 다시 자신의 위치와 일 방향으로 가장 가까운 차량에 위험 메시지를 전달할 수 있다.
이와 같은 방법으로 위험 메시지는 목표 영역까지 전달될 수 있고, 목표 영역 내의 인접 차량(200a, 200b, 200c, 200d)은 위험 메시지를 수신할 수 있다.
주행 차량(100)은 지오네트워킹 방식 중 하나로서, GAC(Geographically-Scoped Anycase) 방식을 통해 위험 메시지를 송신할 수 있다. 이 경우, 목표 영역에 위치한 임의의 인접 차량(200)은 위험 메시지를 수신할 수 있다.
또한, 주행 차량(100)은 지오네트워킹 방식 중 하나로서 GUC(Geographically-Scoped Unicast) 방식을 통해 위험 메시지를 송신할 수 있다. 이 경우, 목표 영역에 위치한 어느 한 인접 차량(200)이 위험 메시지를 수신할 수 있다.
보다 구체적으로, 주행 차량(100)은 GUC 방식을 통해 목표 영역에 위치한 복수의 인접 차량(200a, 200b, 200c, 200d) 중에서 반대 차선에서 주행하는 인접 차량(200a, 200b)에 선택적으로 위험 메시지를 송신할 수 있다. 차량의 주행 차선을 식별하는 방법에 대해서는 전술한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
또한, 주행 차량(100)은 지오네트워킹 방식 중 하나로서 GBC(Geographically-Scoped Broadcast) 방식을 통해 위험 메시지를 송신할 수 있다. 이 경우, 목표 영역에 위치한 모든 인접 차량(200a, 200b, 200c, 200d)은 위험 메시지를 수신할 수 있다.
이 외에도, 주행 차량(100)은 목표 영역에 선택적으로 위험 메시지를 송신하기 위해, 당해 기술분야에서 이용되는 다양한 통신 방법을 따를 수 있다.
전술한 방법에 따라 송신된 위험 메시지를 수신한 인접 차량(200)은, 위험 메시지에 포함된 정보에 기초하여 제2 장애물(400)을 차량용 HMI(Human Machine Interface, 140)를 통해 출력할 수 있다.
도 2에 도시된 바와 같이, 차량 내부에는 차량용 HMI(140)가 구비될 수 있다. 차량용 HMI(140)는 다수의 물리적인 인터페이스를 통해 기본적으로 차량의 정보 및 상태를 운전자에게 시각적 및 청각적으로 출력하는 기능을 수행할 수 있다. 이를 위해, 차량용 HMI(140)는 AVN(Audio, Video, Navigation) 모듈(141)과, HUD(Head Up Display) 모듈(142)을 포함할 수 있다.
AVN 모듈(141)은 스피커 및 디스플레이를 포함할 수 있고, 차량의 정보 및 상태를 스피커를 통해 청각적으로 출력할 수 있으며, 디스플레이를 통해 시각적으로 출력할 수도 있다.
HUD 모듈(142)은 차량 전면에 구비된 윈드 실드(W)에 이미지를 투사하여 운전자가 전방을 주시하면서 투사된 이미지를 확인할 수 있도록 할 수 있다.
도 11을 참조하면, 인접 차량(200)은 위험 메시지에 포함된 위험 코드 정보에 기초하여 제2 장애물(400)을 HUD 모듈(142)을 통해 윈드 쉴드(W)에 출력할 수 있다. 보다 구체적으로, 인접 차량(200) 내 프로세서(110)는 위험 코드 정보에 포함된 제2 장애물(400)의 위치 정보에 기초하여 HUD 모듈(142)이, 제2 장애물(400)의 위치 좌표에 제2 장애물(400)의 실루엣을 출력하도록 제어할 수 있다. 인접 차량(200)의 운전자는 HUD 모듈(142)에 의해 투사된 영상을 통해 제2 장애물(400)의 위치를 식별할 수 있을 뿐만 아니라 전방에 대한 시야를 확보할 수 있다.
또한, 인접 차량(200)은 위험 메시지에 포함된 정보에 기초하여 제2 장애물(400)의 주행 차선에 경고 이미지(220)를 출력할 수 있다.
보다 구체적으로, 인접 차량(200) 내 프로세서(110)는 위험 코드 정보에 포함된 제2 장애물(400)의 위치 정보에 기초하여 제2 장애물(400)의 주행 차선을 식별할 수 있다. 이어서, 프로세서(110)는 도 11에 도시된 바와 같이 HUD 모듈(142)이 제2 장애물(400)의 주행 차선에 미리 설정된 경고 이미지(220)를 출력하도록 제어할 수 있다.
이에 더하여, 프로세서(110)는 AVN 모듈(141)이, 디스플레이를 통해 경고 이미지(220)를 출력하도록 제어할 수 있다. 도 11에는 AVN 모듈(141)의 디스플레이에 경고 이미지(220)만이 출력되는 것으로 도시되었으나, AVN 모듈(141)의 디스플레이에 차선이 표시되는 경우, 제2 장애물(400)의 주행 차선에 경고 이미지(220)가 출력될 수도 있다.
뿐만 아니라, 인접 차량(200)은 위험 메시지에 포함된 정보에 기초하여 차량을 제어할 수도 있다. 보다 구체적으로, 인접 차량(200) 내 제어 모듈(130)은 위험 메시지에 포함된 위험 코드 정보에 기초하여 차량의 주행을 제어할 수 있다.
이를 위해, 제어 모듈(130)은 차량 내 각 구동 장치(예컨대, 전원 구동 장치, 조향 구동 장치, 브레이크 구동 장치, 서스펜션 구동 장치, 핸들 구동 장치 등)를 제어할 수 있다. 한편, 차량이 자율주행 차량인 경우 제어 모듈(130)은 차간 간격 유지, 차선 이탈 방지, 차선 트래킹, 신호등 감지, 보행자 감지, 구조물 감지, 교통상황 감지, 자율 주차 등을 위한 알고리즘을 통해 차량 내 각 구동 장치를 제어할 수 있다.
제어 모듈(130)은 위험 메시지에 포함된 위험 코드 정보에 기초하여, 장애물과 미리 설정된 거리 이내에서 차량의 속도가 기준 속도(예컨대, 60km/h)를 넘지 못하도록 구동 장치를 제어할 수 있다.
또한, 제어 모듈(130)은 위험 메시지에 포함된 위험 코드 정보에 기초하여, 장애물과 미리 설정된 거리 이내에서 인접 차량(200)이 장애물과 먼 쪽의 차선을 따라 주행하도록 구동 장치를 제어할 수 있다.
이 외에도, 제어 모듈(130)은 장애물의 위치를 고려한 다양한 알고리즘을 통해 구동 장치를 제어할 수 있다.
도 12는 본 발명의 다른 실시예에 따른 차량의 장애물 경고 방법을 도시한 순서도이다.
도 12를 참조하면, 본 발명의 다른 실시예에 따른 차량의 장애물 경고 방법은, 인접 차량의 위치를 식별하는 단계(S10'), 주행 차량의 바운딩 박스를 생성하는 단계(S20'), 바운딩 박스에 의한 인접 차량의 사각지대를 결정하는 단계(S30'), 사각지대에 포함되는 장애물을 탐지하는 단계(S40') 및 인접 차량에 위험 메시지를 송신하는 단계(S50')을 포함할 수 있다.
본 발명의 다른 실시예를 설명함에 있어서는 도면 부호 300을 주행 차량으로 설명하도록 하며, 도면 부호 400을 장애물로 설명하도록 한다. 또한, 앞서 설명한 것과 중복되는 내용은 생략하도록 한다.
주행 차량(300)은 인접 차량(200)의 위치를 식별할 수 있다(S10').
보다 구체적으로, 주행 차량(300)은 인접 차량(200)으로부터 위치 정보를 수신함으로써 인접 차량(200)의 위치를 식별할 수도 있고, 레이저 센서(170)를 통해 인접 차량(200)의 위치를 식별할 수도 있다. 인접 차량(200)의 위치를 식별하는 내용에 대해서는 전술한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
이어서, 주행 차량(300)은 주행 차량(300)의 바운딩 박스를 생성할 수 있다(S20'). 다시 말해, 주행 차량(300)은 자신의 바운딩 박스를 생성할 수 있다.
도 6을 참조하면, 주행 차량(300) 내 메모리(120)에는 주행 차량(300)의 부피 정보로서, 너비(w), 깊이(d) 및 높이(h)에 대한 정보가 미리 저장될 수 있다. 이에 따라, 프로세서(110)는 메모리(120)에 저장된 차량의 부피 정보에 기초하여 주행 차량(300)의 바운딩 박스를 생성할 수 있다.
이어서, 주행 차량(300)은 인접 차량(200)의 위치에 기초하여 주행 차량(300)의 바운딩 박스에 의한 인접 차량(200)의 사각지대를 결정할 수 있다(S30'). 바운딩 박스에 의한 사각지대 결정 방법은 도 1의 단계(S30)와 도 7을 참조하여 설명한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
이어서, 주행 차량(300)은 레이저 센서(170)를 통해 사각지대에 포함되는 장애물(400)을 탐지할 수 있다(S40').
도 6을 참조하면, 주행 차량(300)은 레이저 센서(170)를 통해 사각지대 내인 후방의 장애물(400)(예컨대, 오토바이)을 탐지할 수 있다. 장애물(400)이 사각지대 내인지 여부를 판단하는 방법에 대해서는, 앞서 도 1의 단계(S40)에서 설명한 것과 동일할 수 있다.
사각지대 내에서 장애물(400)이 탐지되면, 주행 차량(300)은 인접 차량(200)에 위험 메시지를 송신할 수 있다(S50'). 위험 메시지의 송신 방법에 대해서는 앞서 도 1의 단계(S50)과 도 8 내지 도 10을 참조하여 설명한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
상술한 바와 같이 본 발명은 어느 한 장애물에 의한 사각지대에 존재하는 다른 장애물을 인접 차량에 경고하거나, 주행 중인 차량에 의한 사각지대에 존재하는 장애물을 인접 차량에 경고함으로써, 도로 상의 모든 차량이 센서에 의해 식별되지 않는 장애물을 고려하여 주행하도록 할 수 있고, 장애물의 돌발 출현에 따른 사고 발생률을 크게 낮출 수 있다.
한편, 전술한 차량간 통신, 구체적으로, 주행 차량(100), 인접 차량(200), 제1 및 제2 장애물(300, 400) 사이에서 이루어지는 통신은 5G 네트워크를 통해 이루어질 수 있다. 다시 말해, 차량간 통신에서 송수신되는 메시지는 5G 네트워크에 의해 중계될 수 있다. 예컨대, 주행 차량(100)이 인접 차량(200)에 임의의 메시지를 송신하는 경우, 주행 차량(100)은 5G 네트워크에 해당 메시지를 송신할 수 있고, 5G 네트워크는 수신된 메시지를 인접 차량(200)에 송신할 수 있다.
이하에서는 도 13 내지 도 17을 참조하여, 5G 네트워크를 통한 데이터 통신을 위해 차량이 동작하는 과정을 구체적으로 설명하도록 한다.
도 13은 5G 통신 시스템에서 차량과 5G 네트워크의 동작의 일 예를 나타낸 도면이다. 이하에서는 도면에 도시된 차량(vehicle)을 전술한 주행 차량(100)인 것으로 설명하나, 후술되는 차량은 인접 차량(200), 제1 및 제2 장애물(300, 400)을 포함하는 임의의 차량일 수 있음은 당연하다.
주행 차량(100)은 5G 네트워크와 초기 접속(initial access) 절차를 수행할 수 있다(S110).
초기 접속 절차는 하향 링크(Downlink, DL) 동작 획득을 위한 셀 서치(cell search), 시스템 정보(system information)를 획득하는 과정 등을 포함할 수 있다.
그리고, 주행 차량(100)은 5G 네트워크와 임의 접속(random access) 절차를 수행할 수 있다(S120).
임의 접속 과정은 상향 링크(Uplink, UL) 동기 획득 또는 UL 데이터 전송을 위해 프리엠블 전송, 임의 접속 응답 수신 과정 등을 포함할 수 있다.
그리고 5G 네트워크는, 위험 메시지의 전송을 스케쥴링하기 위한 UL grant를 주행 차량(100)으로 전송할 수 있다(S130).
UL Grant 수신은 5G 네트워크로 UL 데이터의 전송을 위해 시간/주파수 자원 스케줄링을 받는 과정을 포함할 수 있다.
그리고, 주행 차량(100)은 UL grant에 기초하여 5G 네트워크로 위험 메시지를 전송할 수 있다(S140).
한편, 도 13에 도시되지 않았으나, 5G 네트워크로부터 위험 메시지를 수신하기 위해, 인접 차량(200)은 물리 하향 링크 제어 채널을 통해 DL grant를 수신할 수 있다. 이 때, 5G 네트워크는 DL grant에 기초하여 인접 차량(200)으로 위험 메시지를 전송할 수 있다.
도 14 내지 도 17은 5G 통신을 이용한 차량의 동작 과정의 일 예를 나타낸 도면이다.
먼저 도 14를 참고하면, 주행 차량(100)은 DL 동기 및 시스템 정보를 획득하기 위해 SSB(synchronization signal block)에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S210).
그리고, 주행 차량(100)은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S220).
그리고, 주행 차량(100)은 위험 메시지를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S230).
그리고, 주행 차량(100)은 UL grant에 기초하여 위험 메시지를 5G 네트워크로 전송할 수 있다(S240).
단계(S210)에 빔 관리(beam management, BM) 과정이 추가될 수 있으며, S31에 PRACH(physical random access channel) 전송과 관련된 빔 실패 복구(beam failure recovery) 과정이 추가될 수 있으며, 단계(S230)에 UL grant를 포함하는 PDCCH의 빔 수신 방향과 관련하여 QCL 관계 추가될 수 있으며, 단계(S240)에 위험 메시지를 포함하는 PUCCH (physical uplink control channel)/PUSCH (physical uplink shared channel)의 빔 전송 방향과 관련하여 QCL 관계 추가가 추가될 수 있다.
한편, 도 14에는 도시되지 않았으나, 5G 네트워크로부터 위험 메시지를 수신하기 위해, 인접 차량(200)은 DL grant를 5G 네트워크로부터 수신할 수 있고, DL grant에 기초하여 위험 메시지를 5G 네트워크로부터 수신할 수 있다.
도 15를 참고하면, 주행 차량(100)은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S310).
그리고, 주행 차량(100)은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S320).
그리고, 주행 차량(100)은 설정된 그랜트(configured grant)에 기초하여 위험 메시지를 5G 네트워크로 전송할 수 있다(S330). 다시 말해, 5G 네트워크로부터 UL grant를 수신하는 과정 대신, 설정된 그랜트(configured grant)에 기초하여 위험 메시지를 5G 네트워크로 전송할 수도 있다.
한편, 도 15에는 도시되지 않았으나, 5G 네트워크로부터 위험 메시지를 수신하기 위해, 인접 차량(200)은 설정된 그랜트에 기초하여 위험 메시지를 5G 네트워크로부터 수신할 수 있다.
도 16을 참고하면, 주행 차량(100)은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S410).
그리고, 주행 차량(100)은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S420).
그리고, 주행 차량(100)은 5G 네트워크로부터 DownlinkPreemption IE를 수신할 수 있다(S430).
그리고, 주행 차량(100)은 DownlinkPreemption IE에 기초하여 프리엠션 지시를 포함하는 DCI 포맷 2_1을 5G 네트워크로부터 수신할 수 있다(S440).
그리고, 주행 차량(100)은 pre-emption indication에 의해 지시된 자원(PRB 및/또는 OFDM 심볼)에서 eMBB data의 수신을 수행(또는 기대 또는 가정)하지 않을 수 있다(S450).
그리고, 주행 차량(100)은 위험 메시지를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S460).
그리고, 주행 차량(100)은 UL grant에 기초하여 위험 메시지를 5G 네트워크로 전송할 수 있다(S470).
한편, 도 16에는 도시되지 않았으나, 5G 네트워크로부터 위험 메시지를 수신하기 위해, 인접 차량(200)은 DL grant를 5G 네트워크로부터 수신할 수 있고, DL grant에 기초하여 위험 메시지를 5G 네트워크로부터 수신할 수 있다.
도 17을 참고하면, 주행 차량(100)은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S510).
그리고, 주행 차량(100)은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S520).
그리고, 주행 차량(100)은 위험 메시지를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S530).
UL grant는 위험 메시지의 전송에 대한 반복 횟수에 대한 정보를 포함하고, 위험 메시지는 반복 횟수에 대한 정보에 기초하여 반복하여 전송될 수 있다(S540).
그리고, 주행 차량(100)은 UL grant에 기초하여 위험 메시지를 5G 네트워크로 전송할 수 있다.
그리고, 위험 메시지의 반복 전송은 주파수 호핑을 통해 수행되고, 첫 번째 위험 메시지의 전송은 제 1 주파수 자원에서, 두 번째 위험 메시지의 전송은 제 2 주파수 자원에서 전송될 수 있다.
위험 메시지는 6RB(Resource Block) 또는 1RB(Resource Block)의 협대역(narrowband)을 통해 전송될 수 있다.
한편, 도 17에는 도시되지 않았으나, 5G 네트워크로부터 위험 메시지를 수신하기 위해, 인접 차량(200)은 DL grant를 5G 네트워크로부터 수신할 수 있고, DL grant에 기초하여 위험 메시지를 5G 네트워크로부터 수신할 수 있다.
도 13 내지 도 17에서는 위험 메시지의 송수신을 예로 들어 차량과 5G 네트워크간의 데이터 통신을 설명하였으나, 전술한 통신 방법은 5G 네트워크와 차량(100) 간에 송수신되는 임의의 신호에 대해 적용될 수 있다.
이상에서 설명한 5G 통신 기술은 본 명세서에 기술된 차량의 데이터 통신 방법을 구체화하거나 명확하게 하는데 보충될 수 있다. 다만, 차량의 데이터 통신 방법이 이에 한정되는 것은 아니며, 차량은 당해 기술분야에서 이용되고 있는 다양한 방법을 통해 데이터 통신을 수행할 수 있다.
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.

Claims (20)

  1. 레이저 센서를 통해 제1 장애물을 탐지하는 단계;
    인접 차량의 위치를 식별하는 단계;
    상기 인접 차량의 위치에 기초하여 상기 제1 장애물에 의한 상기 인접 차량의 사각지대를 결정하는 단계;
    상기 레이저 센서를 통해 상기 사각지대에 포함되는 제2 장애물을 탐지하는 단계; 및
    상기 인접 차량에 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  2. 제1항에 있어서,
    상기 레이저 센서는 레이저를 방출하고 상기 제1 장애물 및 상기 제2 장애물에서 반사된 레이저를 검출하는
    차량의 장애물 경고 방법.
  3. 제1항에 있어서,
    상기 인접 차량의 위치를 식별하는 단계는
    상기 인접 차량으로부터 위치 정보를 수신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  4. 제1항에 있어서,
    상기 인접 차량의 위치를 식별하는 단계는
    상기 레이저 센서를 통해 인접 차량의 위치를 식별하는 단계를 포함하는
    차량의 장애물 경고 방법.
  5. 제1항에 있어서,
    상기 인접 차량의 위치에 기초하여 상기 제1 장애물에 의한 상기 인접 차량의 사각지대를 결정하는 단계는
    상기 인접 차량의 위치 좌표와 상기 제1 장애물의 위치 및 부피에 기초하여 상기 인접 차량의 사각지대를 결정하는 단계를 포함하는
    차량의 장애물 경고 방법.
  6. 제5항에 있어서,
    상기 인접 차량의 위치 좌표와 상기 제1 장애물의 위치 및 부피에 기초하여 상기 인접 차량의 사각지대를 결정하는 단계는
    상기 제1 장애물의 바운딩 박스를 생성하는 단계와,
    상기 인접 차량의 위치 좌표와 상기 바운딩 박스의 모서리 좌표에 기초하여 상기 인접 차량의 사각지대를 결정하는 단계를 포함하는
    차량의 장애물 경고 방법.
  7. 제6항에 있어서,
    상기 제1 장애물의 바운딩 박스를 생성하는 단계는
    상기 인접 차량의 속도에 따라 바운딩 박스의 크기를 조절하는 단계를 포함하는
    차량의 장애물 경고 방법.
  8. 제1항에 있어서,
    상기 레이저 센서를 통해 상기 사각지대에 포함되는 제2 장애물을 탐지하는 단계는
    상기 레이저 센서를 통해 탐지된 적어도 하나의 장애물 중에서 위치 좌표가 상기 사각지대에 포함되는 상기 제2 장애물을 탐지하는 단계를 포함하는
    차량의 장애물 경고 방법.
  9. 제1항에 있어서,
    상기 레이저 센서를 통해 상기 사각지대에 포함되는 제2 장애물을 탐지하는 단계는
    바운딩 박스의 일부 또는 전부가 상기 사각지대에 포함되는 상기 제2 장애물을 탐지하는 단계를 포함하는
    차량의 장애물 경고 방법.
  10. 제1항에 있어서,
    상기 인접 차량에 위험 메시지를 송신하는 단계는
    상기 제2 장애물의 위치 정보를 포함하는 상기 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  11. 제1항에 있어서,
    상기 탐지된 제2 장애물의 타입을 결정하는 단계를 더 포함하고,
    상기 인접 차량에 위험 메시지를 송신하는 단계는
    상기 제2 장애물의 타입 정보를 포함하는 상기 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  12. 제1항에 있어서,
    상기 탐지된 제2 장애물의 주행 차선을 식별하는 단계를 더 포함하고,
    상기 인접 차량에 위험 메시지를 송신하는 단계는
    상기 제2 장애물의 주행 차선 정보를 포함하는 상기 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  13. 제1항에 있어서,
    상기 인접 차량에 위험 메시지를 송신하는 단계는
    브로드캐스트(broadcast) 방식으로 상기 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  14. 제1항에 있어서,
    상기 인접 차량에 위험 메시지를 송신하는 단계는
    지오네트워킹(Geo-Networking) 방식으로 상기 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  15. 제1항에 있어서,
    상기 인접 차량에 위험 메시지를 송신하는 단계는
    차량 간의 통신에 이용되는 프로토콜을 기반으로 하는 메시지에 위험 코드 정보를 추가 또는 삽입하여 상기 위험 메시지를 생성하는 단계와,
    상기 생성된 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  16. 제15항에 있어서,
    상기 차량 간의 통신에 이용되는 프로토콜을 기반으로 하는 메시지에 위험 코드 정보를 추가 또는 삽입하여 상기 위험 메시지를 생성하는 단계는
    상기 메시지에 상기 위험 코드 정보를 지시하는 추가 헤더를 삽입하여 상기 위험 메시지를 생성하는 단계를 포함하는
    차량의 장애물 경고 방법.
  17. 제1항에 있어서,
    상기 인접 차량은 상기 수신된 위험 메시지에 포함된 정보에 기초하여 상기 제2 장애물을 차량용 HMI(Human Machine Interface)를 통해 출력하는
    차량의 장애물 경고 방법.
  18. 제1항에 있어서,
    상기 인접 차량은 상기 수신된 위험 메시지에 포함된 정보에 기초하여 상기 제2 장애물의 주행 차선에 경고 이미지를 출력하는
    차량의 장애물 경고 방법.
  19. 제1항에 있어서,
    상기 인접 차량에 위험 메시지를 송신하는 단계는
    5G(5th Generation) 네트워크를 통해 상기 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
  20. 인접 차량의 위치를 식별하는 단계;
    주행 차량의 바운딩 박스를 생성하는 단계;
    상기 인접 차량의 위치에 기초하여 상기 주행 차량의 바운딩 박스에 의한 상기 인접 차량의 사각지대를 결정하는 단계;
    상기 레이저 센서를 통해 상기 사각지대에 포함되는 장애물을 탐지하는 단계; 및
    상기 인접 차량에 위험 메시지를 송신하는 단계를 포함하는
    차량의 장애물 경고 방법.
KR1020190096375A 2019-08-07 2019-08-07 차량의 장애물 경고 방법 KR20210017315A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190096375A KR20210017315A (ko) 2019-08-07 2019-08-07 차량의 장애물 경고 방법
US16/554,743 US10891864B2 (en) 2019-08-07 2019-08-29 Obstacle warning method for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190096375A KR20210017315A (ko) 2019-08-07 2019-08-07 차량의 장애물 경고 방법

Publications (1)

Publication Number Publication Date
KR20210017315A true KR20210017315A (ko) 2021-02-17

Family

ID=68840169

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190096375A KR20210017315A (ko) 2019-08-07 2019-08-07 차량의 장애물 경고 방법

Country Status (2)

Country Link
US (1) US10891864B2 (ko)
KR (1) KR20210017315A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102610329B1 (ko) * 2023-04-11 2023-12-05 고려대학교 산학협력단 요청 기반 v2x 안전 메시지 전송 방법 및 그 장치

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11307309B2 (en) * 2017-12-14 2022-04-19 COM-IoT Technologies Mobile LiDAR platforms for vehicle tracking
US11726210B2 (en) 2018-08-05 2023-08-15 COM-IoT Technologies Individual identification and tracking via combined video and lidar systems
KR20210017315A (ko) * 2019-08-07 2021-02-17 엘지전자 주식회사 차량의 장애물 경고 방법
KR20210053385A (ko) * 2019-11-01 2021-05-12 엘지전자 주식회사 위험 상황 알림 기능을 갖는 차량 및 이의 제어방법
EP3852083A1 (en) 2020-01-14 2021-07-21 Veoneer Sweden AB System and method for obstacle detection and avoidance on roads
CN115398272A (zh) * 2020-04-30 2022-11-25 华为技术有限公司 检测车辆可通行区域的方法及装置
CN112633258B (zh) * 2021-03-05 2021-05-25 天津所托瑞安汽车科技有限公司 一种目标确定方法及装置、电子设备、计算机可读存储介质
CN113232030B (zh) * 2021-05-31 2023-09-08 王正琼 一种高速公路收费门架设备自动清洗机器人
JP7256233B2 (ja) * 2021-06-18 2023-04-11 本田技研工業株式会社 警告制御装置、移動体、警告制御方法及びプログラム
CN114786126B (zh) * 2022-06-22 2022-09-09 浙江吉利控股集团有限公司 路面积水预警方法、装置、电子设备及可读存储介质
TWI831370B (zh) * 2022-09-13 2024-02-01 神達數位股份有限公司 駕駛輔助方法及系統

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4561863B2 (ja) * 2008-04-07 2010-10-13 トヨタ自動車株式会社 移動体進路推定装置
CN102577320B (zh) * 2009-06-05 2016-01-06 大陆-特韦斯贸易合伙股份公司及两合公司 车辆天线单元
JP5613398B2 (ja) * 2009-10-29 2014-10-22 富士重工業株式会社 交差点運転支援装置
JP2013038578A (ja) * 2011-08-08 2013-02-21 Fujitsu Ltd 光ネットワーク装置
KR20140019571A (ko) * 2012-08-06 2014-02-17 주식회사 만도 후측방 경보 시스템 및 방법
US9595195B2 (en) * 2012-09-06 2017-03-14 Apple Inc. Wireless vehicle system for enhancing situational awareness
JP2016536703A (ja) * 2013-09-05 2016-11-24 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 後方レーダセンサからのデータに基づく高度車線逸脱警告
US9489849B2 (en) * 2014-03-19 2016-11-08 Honda Motor Co., Ltd. System and method for monitoring road conditions using blind spot information
JP2017114155A (ja) * 2015-12-21 2017-06-29 三菱自動車工業株式会社 運転支援装置
WO2017130342A1 (ja) * 2016-01-28 2017-08-03 三菱電機株式会社 事故確率計算装置、事故確率計算方法及び事故確率計算プログラム
US9994151B2 (en) * 2016-04-12 2018-06-12 Denso International America, Inc. Methods and systems for blind spot monitoring with adaptive alert zone
US10115025B2 (en) * 2016-06-13 2018-10-30 Ford Global Technologies, Llc Detecting visibility of a vehicle to driver of other vehicles
US20170355263A1 (en) * 2016-06-13 2017-12-14 Ford Global Technologies, Llc Blind Spot Detection Systems And Methods
US10496890B2 (en) * 2016-10-28 2019-12-03 International Business Machines Corporation Vehicular collaboration for vehicular blind spot detection
US10453344B2 (en) * 2017-02-16 2019-10-22 Panasonic Intellectual Corporation Of America Information processing apparatus and non-transitory recording medium
DE102017002221A1 (de) * 2017-03-08 2018-09-13 Man Truck & Bus Ag Technik zur Überwachung eines Totwinkelbereichs
US10497265B2 (en) * 2017-05-18 2019-12-03 Panasonic Intellectual Property Corporation Of America Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
US20190011913A1 (en) * 2017-07-05 2019-01-10 GM Global Technology Operations LLC Methods and systems for blind spot detection in an autonomous vehicle
KR20190033159A (ko) * 2017-09-21 2019-03-29 주식회사 만도 충돌 방지 제어 장치 및 방법
KR20190100614A (ko) * 2018-02-21 2019-08-29 현대자동차주식회사 차량 및 그 제어방법
KR20200023802A (ko) * 2018-08-27 2020-03-06 주식회사 만도 사각지대 감지 장치 및 그 사각지대 감지 방법
US20200086789A1 (en) * 2018-09-13 2020-03-19 Valeo Comfort And Driving Assistance Mixed reality left turn assistance to promote traffic efficiency and enhanced safety
US10635915B1 (en) * 2019-01-30 2020-04-28 StradVision, Inc. Method and device for warning blind spot cooperatively based on V2V communication with fault tolerance and fluctuation robustness in extreme situation
KR20210017315A (ko) * 2019-08-07 2021-02-17 엘지전자 주식회사 차량의 장애물 경고 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102610329B1 (ko) * 2023-04-11 2023-12-05 고려대학교 산학협력단 요청 기반 v2x 안전 메시지 전송 방법 및 그 장치

Also Published As

Publication number Publication date
US10891864B2 (en) 2021-01-12
US20190385457A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
US10891864B2 (en) Obstacle warning method for vehicle
KR102618700B1 (ko) 시각적 이미지 데이터를 사용하는 오브젝트 특성 추정
US10127818B2 (en) Systems and methods for detecting and avoiding an emergency vehicle in the proximity of a substantially autonomous vehicle
US11242068B2 (en) Vehicle display device and vehicle
CN110371114B (zh) 车辆控制装置、车辆控制方法及存储介质
JP7086798B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN110832553B (zh) 图像处理装置和图像处理方法
US20180339730A1 (en) Method and system for generating a wide-area perception scene graph
CN108944919B (zh) 为机动车辆生成具有聚焦区的感知场景图的方法和系统
WO2022183329A1 (zh) 一种智能驾驶方法、装置、存储介质及计算机程序
KR102635265B1 (ko) 라이다를 이용한 어라운드 뷰 모니터링 장치 및 방법
JP2023126642A (ja) 情報処理装置、情報処理方法、及び、情報処理システム
EP3825958B1 (en) A new way to generate tight 2d bounding boxes for autonomous driving labeling
CN111595357A (zh) 可视化界面的显示方法、装置、电子设备和存储介质
WO2021060018A1 (ja) 信号処理装置、信号処理方法、プログラム、及び、移動装置
US11285941B2 (en) Electronic device for vehicle and operating method thereof
KR20210100775A (ko) 노면 상태를 검출하기 위한 자율 주행 장치 및 그의 동작 방법
JP6839642B2 (ja) 車両制御装置、車両制御方法、およびプログラム
KR20220087429A (ko) 차량용 내비게이션의 영상 제공 방법
US11432094B2 (en) Three-dimensional (3D) audio notification for vehicle
CN116137655A (zh) 用于环绕视图增强的智能车辆系统和控制逻辑
US20210056844A1 (en) Electronic device for vehicle and operating method of electronic device for vehicle
WO2023162497A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2024009739A1 (ja) 光学式測距センサ、及び光学式測距システム
US20230206596A1 (en) Information processing device, information processing method, and program