KR102050991B1 - System for recognizing circumstance of vehicle and method thereof - Google Patents
System for recognizing circumstance of vehicle and method thereof Download PDFInfo
- Publication number
- KR102050991B1 KR102050991B1 KR1020170106472A KR20170106472A KR102050991B1 KR 102050991 B1 KR102050991 B1 KR 102050991B1 KR 1020170106472 A KR1020170106472 A KR 1020170106472A KR 20170106472 A KR20170106472 A KR 20170106472A KR 102050991 B1 KR102050991 B1 KR 102050991B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- image information
- information
- surrounding
- determined
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/70—Services for machine-to-machine communication [M2M] or machine type communication [MTC]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B60W2550/308—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 차량의 주변 상황 인지 시스템 및 방법에 관한 것으로서, 위험 상황 또는 정체 상황 발생 시, 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 제1 차량으로서, 브로드캐스트 정보는 제1 차량의 위치 정보 및 제1 차량의 주변 영상 정보를 포함하는, 제1 차량, 및 제1 차량으로부터 전송받은 제1 차량의 위치 정보에 기초하여 제1 차량이 선행 차량 또는 후속 차량으로 판단된 경우, 제1 차량으로부터 전송받은 제1 차량의 주변 영상 정보를 출력하는 제2 차량을 포함하는 것을 특징으로 한다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and method for recognizing a surrounding situation of a vehicle. The present invention relates to a first vehicle that transmits broadcast information to surrounding vehicles when a dangerous situation or a congestion occurs, and the broadcast information is location information of the first vehicle. And when it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle based on the location information of the first vehicle and the first vehicle received from the first vehicle, including the surrounding image information of the first vehicle. And a second vehicle that outputs surrounding image information of the received first vehicle.
Description
본 발명은 차량의 주변 상황 인지 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 위험 상황 또는 정체 상황에서 차량의 주변 영상을 운전자에게 출력하는 차량의 주변 상황 인지 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for recognizing a surrounding situation of a vehicle, and more particularly, to a system and method for recognizing a surrounding situation of a vehicle for outputting a surrounding image of the vehicle to a driver in a dangerous situation or a congestion situation.
차량에는 주행 중의 주변 상황을 촬영하여 운전자에게 제공함으로써 주행 편의성을 향상시키기 위한 운전자 지원 시스템이 적용되고 있다. 어라운드 뷰 모니터링(AVM: Around View Monitoring) 시스템을 그 대표적인 예로 들 수 있으며, AVM 시스템은 차량의 전방, 후방, 좌측 및 우측 카메라로부터 획득된 주변 영상을 하나의 영상으로 융합하여 제공함으로써 운전자로 하여금 주변 상황을 인지할 수 있도록 하는 시스템을 말한다. AVM 시스템은 차량의 사각지대 영상, 및 주차 시의 후방 영상을 운전자에게 제공하는 등의 편의성을 제공하여 운전자를 보조하는 운전 지원 시스템으로 보급되는 추세에 있다.A driver assistance system is applied to a vehicle to improve driving convenience by photographing and providing surrounding conditions while driving. A typical example is the Around View Monitoring (AVM) system, which provides the driver with the surrounding images from the front, rear, left and right cameras of the vehicle. A system that allows you to recognize a situation. The AVM system has been widely used as a driving support system for assisting drivers by providing convenience such as providing a blind spot image of a vehicle and a rear view image when parking.
이러한 AVM 시스템을 비롯한 지원 시스템은, 차량의 전방, 후방, 좌측 및 우측에 위치한 주변 객체만을 촬영하여 운전자에게 제공하는 한계를 갖으며, 즉 주변 객체에 의해 가려져 촬영되지 않는 타 객체는 운전자에게 제공할 수 없는 한계를 갖는다. 예를 들어, 현재의 지원 시스템만으로는 자차량의 전방을 주행하는 선행 차량에 의해 운전자의 시야가 확보되지 않는, 선행 차량의 전방 상황을 운전자가 인지할 수 없어 위험 상황을 사전에 예측할 수 없는 문제점이 존재한다.The support system including the AVM system has a limitation of photographing only the surrounding objects located at the front, rear, left and right sides of the vehicle and providing them to the driver. There is no limit. For example, the current support system alone does not allow the driver to recognize the situation ahead of the vehicle where the driver's vision is not secured by the vehicle ahead of the vehicle. exist.
이러한 문제점은 자차량의 전방에 위치하는 대형 버스 또는 트럭에 의해 운전자의 시야가 확보되기 어려운 상황에서 악화될 수 있기 때문에, 자차량의 직접적인 주변 객체뿐만 아니라 주변 객체에 의해 가려지는 타 객체 또한 운전자가 확인함으로써 위험 상황을 예측할 수 있도록 하기 위한 시스템이 요청된다.This problem may be exacerbated in a situation where the driver's field of view is difficult to secure by a large bus or truck located in front of the vehicle, so that not only the immediate surrounding object of the vehicle but also other objects covered by the surrounding object A system is required to enable verification to predict the risk situation.
본 발명의 배경기술은 대한민국 공개특허공보 제10-2013-0028230호(2013. 03. 19 공개)에 개시되어 있다.Background art of the present invention is disclosed in Republic of Korea Patent Publication No. 10-2013-0028230 (published on March 19, 2013).
본 발명은 전술한 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 자차량의 직접적인 주변 객체뿐만 아니라, 운전자의 시야 확보가 되지 않는 위치에 존재하는 객체의 영상 정보를 운전자에게 제공하여 운전자가 차량 주변에 위험 상황 또는 정체 상황이 발생하였는지 인지할 수 있도록 함으로써 운전자의 주행 편의성을 향상시키기 위한 차량의 주변 상황 인지 시스템 및 방법을 제공하는 것이다.The present invention has been made to solve the above-described problems, an object according to an aspect of the present invention is to provide the driver with the image information of the object present in the position not to secure the driver's field of view as well as the direct surrounding objects of the vehicle. The present invention provides a system and method for recognizing surrounding conditions of a vehicle to improve driving convenience of the driver by allowing the driver to recognize whether a dangerous situation or a congestion situation has occurred around the vehicle.
본 발명의 일 측면에 따른 차량의 주변 상황 인지 시스템은 위험 상황 또는 정체 상황 발생 시, 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 제1 차량으로서, 상기 브로드캐스트 정보는 상기 제1 차량의 위치 정보 및 상기 제1 차량의 주변 영상 정보를 포함하는, 제1 차량, 및 상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 선행 차량 또는 후속 차량으로 판단된 경우, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 제2 차량을 포함하는 것을 특징으로 한다.A surrounding situation awareness system of a vehicle according to an aspect of the present invention is a first vehicle that transmits broadcast information to a surrounding vehicle when a dangerous situation or a congestion occurs, wherein the broadcast information is a location of the first vehicle. When the first vehicle is determined to be a preceding vehicle or a subsequent vehicle based on location information of the first vehicle and the first vehicle transmitted from the first vehicle, including information and surrounding image information of the first vehicle; And a second vehicle that outputs surrounding image information of the first vehicle received from the first vehicle.
본 발명에 있어 상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고, 상기 제1 차량은, 상기 제1 차량의 전방 객체 및 상기 제1 차량 간의 거리 감소율이 미리 설정된 기준치 이상인 경우, 상기 위험 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하는 것을 특징으로 한다.In the present invention, the surrounding image information includes the front image information of the first vehicle, the first vehicle, when the distance reduction rate between the front object of the first vehicle and the first vehicle is equal to or greater than a preset reference value, The broadcast information is transmitted to the surrounding vehicles by determining that the situation is dangerous.
본 발명에 있어 상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고, 상기 제1 차량은, 상기 제1 차량의 선행 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하는 것을 특징으로 한다.In the present invention, the surrounding image information includes front image information of the first vehicle, wherein the first vehicle is configured to perform a preset time of any one of the preceding vehicle and the first vehicle of the first vehicle. When the average vehicle speed is less than or equal to a predetermined reference vehicle speed, the traffic information is determined to be determined as the congestion state and the broadcast information is transmitted to the surrounding vehicles.
본 발명에 있어 상기 제2 차량은, 상기 제2 차량의 선행 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 선행 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 선행 차량인 것으로 판단된 경우, 상기 제1 차량의 전방 영상 정보를 출력하는 것을 특징으로 한다.In the present invention, the second vehicle is configured to determine the position of the preceding vehicle of the second vehicle estimated based on the distance between the preceding vehicle and the second vehicle of the second vehicle and the position of the second vehicle. When it is determined that the first vehicle is a preceding vehicle of the second vehicle compared to the position information of the vehicle, the front image information of the first vehicle may be output.
본 발명에 있어 상기 주변 영상 정보는 상기 제1 차량의 후방 영상 정보를 포함하고, 상기 제1 차량은, 상기 제1 차량의 후속 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하는 것을 특징으로 한다.In the present invention, the surrounding image information includes rear image information of the first vehicle, wherein the first vehicle is configured to perform a preset time of any one of a subsequent vehicle of the first vehicle and one of the first vehicles. When the average vehicle speed is less than or equal to a predetermined reference vehicle speed, the traffic information is determined to be determined as the congestion state and the broadcast information is transmitted to the surrounding vehicles.
본 발명에 있어 상기 제2 차량은, 상기 제2 차량의 후속 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 후속 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 후속 차량인 것으로 판단된 경우, 상기 제1 차량의 후방 영상 정보를 출력하는 것을 특징으로 한다.In the present invention, the second vehicle is configured to determine a position of a subsequent vehicle of the second vehicle estimated based on a distance between a subsequent vehicle of the second vehicle and the second vehicle and a position of the second vehicle. When it is determined that the first vehicle is a subsequent vehicle of the second vehicle compared to the position information of the vehicle, the rear image information of the first vehicle may be output.
본 발명에 있어 상기 제1 차량 및 상기 제2 차량은 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 상기 브로드캐스트 정보를 송수신하는 것을 특징으로 한다.In the present invention, the first vehicle and the second vehicle is characterized in that the transmission and reception of the broadcast information using a vehicle to vehicle (V2V).
본 발명에 있어 상기 제2 차량은, 상기 제1 차량의 주변 영상 정보를 증강현실(AR: Augmented Reality)을 이용하여 출력하는 것을 특징으로 한다.In the present invention, the second vehicle is characterized by outputting the surrounding image information of the first vehicle using Augmented Reality (AR).
본 발명의 일 실시예에 따른 차량의 주변 환경 인지 방법은 제1 차량이, 주변에 위험 상황 또는 정체 상황이 발생하였는지 여부를 판단하는 제1 판단 단계, 상기 위험 상황 또는 상기 정체 상황이 발생한 것으로 판단된 경우, 상기 제1 차량이 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 전송 단계로서, 상기 브로드캐스트 정보는 상기 제1 차량의 위치 정보 및 상기 제1 차량의 주변 영상 정보를 포함하는, 전송 단계, 제2 차량이, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인지 여부를 판단하는 제2 판단 단계, 및 상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인 것으로 판단된 경우, 상기 제2 차량이 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 출력 단계를 포함하는 것을 특징으로 한다.In a method of recognizing a surrounding environment of a vehicle according to an exemplary embodiment of the present disclosure, a first determination step of determining whether a dangerous situation or a congestion situation has occurred in a surrounding of a first vehicle, and determines that the dangerous situation or the congestion situation occurs In this case, the first vehicle transmits broadcast information to surrounding vehicles, wherein the broadcast information includes location information of the first vehicle and surrounding image information of the first vehicle. A second determination step of determining, by the second vehicle, whether the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle based on the position information of the first vehicle received from the first vehicle, and When it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle, the first vehicle received by the second vehicle from the first vehicle And outputting the image information of the surroundings.
본 발명의 일 측면에 따르면, 본 발명은 운전자의 시야 확보가 되지 않는 위치에 존재하는 객체의 영상 정보를 운전자에게 제공함으로써 운전자가 보다 넓은 범위의 주변 상황을 인지할 수 있도록 할 수 있고, 그리고 자차량의 선행 차량 또는 후속 차량이 전송한 정보만을 위험 상황 또는 정체 상황이 발생한 경우에만 운전자에게 제공함으로써 차량 간의 통신 부하를 최소화하면서 운전자가 주변 상황을 인지할 수 있도록 할 수 있다.According to an aspect of the present invention, the present invention can provide a driver with image information of an object existing at a position where the driver's field of view is not secured so that the driver can recognize a wider range of surrounding conditions, and By providing only the information transmitted by the preceding vehicle or the subsequent vehicle of the vehicle to the driver only when a dangerous situation or a congestion situation occurs, the driver can recognize the surrounding situation while minimizing the communication load between the vehicles.
도 1은 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템을 설명하기 위한 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템의 동작을 설명하기 위한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 방법을 설명하기 위한 흐름도이다.1 is a block diagram illustrating a system for recognizing a surrounding situation of a vehicle according to an exemplary embodiment of the present invention.
2 is an exemplary diagram for describing an operation of a system for recognizing a surrounding situation of a vehicle according to an exemplary embodiment of the present disclosure.
3 is a flowchart illustrating a method of recognizing a surrounding situation of a vehicle according to an exemplary embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 차량의 주변 상황 인지 시스템 및 방법의 일 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the surrounding situation recognition system and method of the vehicle according to the present invention. In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of description. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to the intention or convention of a user or an operator. Therefore, definitions of these terms should be made based on the contents throughout the specification.
도 1은 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템을 설명하기 위한 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템의 동작을 설명하기 위한 예시도이다.1 is a block diagram illustrating a system for recognizing a surrounding situation according to an embodiment of the present invention, and FIG. 2 is an example for describing an operation of a system for recognizing surrounding conditions according to an embodiment of the present invention. It is also.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템은 주변 영상을 촬영하여 현재 위치와 함께 주변 차량으로 전송하는 브로드캐스터(Broadcaster)로 동작하는 제1 차량(100), 및 제1 차량(100)으로부터 전송받은 주변 영상을 운전자에게 출력하는 제2 차량(200)을 포함할 수 있다.Referring to FIG. 1, a system for recognizing surrounding conditions of a vehicle according to an exemplary embodiment of the present invention may include a
먼저, 제1 차량(100)의 동작에 대하여 설명하면, 제1 차량(100)은 주변에 위험 상황 또는 정체 상황 발생 시, 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송할 수 있다. 여기서, 브로드캐스트 정보는 제1 차량(100)의 위치 정보 및 제1 차량(100)의 주변 영상 정보를 포함할 수 있다.First, when the operation of the
이하에서는 전술한 제1 차량(100)의 동작을 그 세부 구성으로서 구체적으로 설명한다.Hereinafter, the operation of the
제1 차량(100)은 전술한 동작을 수행하기 위한 세부 구성으로서 제1 검출부(110), 제1 측위부(130), 촬영부(150), 제1 통신부(170) 및 제1 제어부(190)를 포함할 수 있다.As a detailed configuration for performing the above-described operation, the
제1 검출부(110)는 제1 차량(100)의 전방 객체를 감지하고 제1 차량(100) 및 전방 객체 간의 거리를 검출하여 후술할 제1 제어부(190)로 전달할 수 있다. 제1 검출부(110)는 제1 차량(100)의 전방 객체를 감지하기 위해 라이다 센서, 레이더 센서 등을 이용할 수 있으나, 이에 한정되지 않고 다른 방식의 물체 검출 센서(예: 초음파 센서, 적외선 센서 등)를 이용할 수도 있다. 이에 따라 제1 검출부(110)는 제1 차량(100)의 전방 객체에 대하여 펄스 신호를 송신하고, 송신한 펄스 신호가 전방 객체로부터 반사되어 돌아오는 시간을 측정함으로써 제1 차량(100) 및 전방 객체 간의 거리를 검출할 수 있다. 또한, 제1 검출부(110)는 제1 차량(100)의 후방 객체를 감지하고 제1 차량(100) 및 후방 객체 간의 거리를 검출하여 제1 제어부(190)로 전달할 수 있다. 이를 위해 제1 검출부(110)는 전방 객체까지의 거리를 검출하는 제1 전방 검출부(111), 및 후방 객체까지의 거리를 검출하는 제1 후방 검출부(113)를 포함할 수 있다. 여기서 전방 객체 또는 후방 객체는 제1 차량(100)의 전방 또는 후방을 주행하는 전방 차량 또는 후방 차량, 및 제1 차량(100)의 전방 또는 후방에 위치한 고정 장애물 등을 포함할 수 있다.The
제1 측위부(130)는 제1 차량(100)의 위치 정보를 획득하여 제1 제어부(190)로 전달할 수 있다. 제1 측위부(130)는 GPS 등의 위성 항법 시스템을 이용하여 제1 차량(100)의 현재 위치에 대한 GPS 좌표, 즉 위경도 좌표의 위치 정보를 수신하고 제1 제어부(190)로 전달하여 제1 제어부(190)가 제1 차량(100)의 현재 위치를 파악할 수 있도록 할 수 있다.The
촬영부(150)는 제1 차량(100)의 주변 환경에 대한 영상 정보, 즉 주변 영상 정보를 획득하여 제1 제어부(190)로 전달할 수 있다. 주변 영상 정보는 제1 차량(100)의 전방 영상 정보 및 후방 영상 정보를 포함할 수 있으며, 이에 본 실시예에서 촬영부(150)는 제1 차량(100)의 전방 영상 정보를 획득하는 전방 촬영부(151), 및 제1 차량(100)의 후방 영상 정보를 획득하는 후방 촬영부(153)를 포함할 수 있다. 촬영부(150)는 제1 차량(100)의 주변 영상 정보를 획득하기 위해 카메라 센서와 같은 영상 인식 센서를 포함할 수 있다.The photographing
제1 통신부(170)는 제1 제어부(190)로부터 브로드캐스트 정보를 전달받아 후술할 제2 차량(200)으로 전송할 수 있다. 즉, 제1 통신부(170)는 제1 차량(100)이 제2 차량(200)과 통신하기 위한 통신 인터페이스로 기능할 수 있으며, 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 브로드캐스트 정보를 제2 차량(200)으로 전송할 수 있다.The
제1 제어부(190)는 위험 상황 또는 정체 상황 발생 시, 제1 측위부(130)로부터 전달받은 제1 차량(100)의 위치 정보, 및 촬영부(150)로부터 전달받은 제1 차량(100)의 주변 영상 정보를 포함하는 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.The
먼저, 제1 제어부(190)가 위험 상황이 발생하였는지 여부를 판단하는 과정을 설명하면, 제1 제어부(190)는 제1 차량(100)의 전방 객체 및 제1 차량(100) 간의 거리 감소율이 미리 설정된 기준치 이상인 경우, 위험 상황이 발생한 것으로 판단할 수 있다.First, when the
즉, 제1 제어부(190)는 제1 전방 검출부(111)로부터 전달받은 제1 차량(100) 및 전방 객체 간의 거리에 기초하여 소정 시간 동안의 거리 감소율을 산출하고, 산출된 거리 감소율이 기준치 이상이면 제1 차량(100) 및 전방 객체 간의 충돌 위험이 존재하는 것으로 판단하여, 즉 위험 상황이 발생한 것으로 판단하여 제1 측위부(130)에 의해 획득된 위치 정보 및 전방 촬영부(151)에 의해 획득된 전방 영상 정보를 포함하는 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.That is, the
다음으로, 제1 제어부(190)가 정체 상황이 발생하였는지 여부를 판단하는 과정을 설명하면, 제1 제어부(190)는 제1 차량(100)의 선행 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 정체 상황이 발생한 것으로 판단할 수 있다.Next, when the
즉, 제1 차량(100)의 평균 차속, 또는 제1 차량(100)의 선행 차량의 평균 차속(제1 차량(100)의 평균 차속과, 제1 전방 검출부(111)에 의해 검출된 제1 차량(100) 및 선행 차량 간의 거리에 기초하여 산출될 수 있다.)이 기준 차속 이하이면 제1 제어부(190)는 정체 상황이 발생한 것으로 판단하여 제1 측위부(130)에 의해 획득된 위치 정보 및 전방 촬영부(151)에 의해 획득된 전방 영상 정보를 포함하는 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.That is, the average vehicle speed of the
따라서, 제1 차량(100)은 위치 정보 및 전방 영상 정보를 포함하는 브로드캐스트 정보를 주변 차량으로 상시 전송하는 것이 아닌, 위험 상황 또는 정체 상황이 발생한 경우에만 브로드캐스트 정보를 전송하여 통신 부하를 저감시킴으로써 차량 간 통신 효율을 향상시킬 수 있다.Accordingly, the
다음으로, 제2 차량(200)의 동작에 대하여 설명하면, 제2 차량(200)은 제1 차량(100)으로부터 전송받은 제1 차량(100)의 위치 정보에 기초하여 제1 차량(100)이 제2 차량(200)의 선행 차량 또는 후속 차량으로 판단된 경우, 제1 차량(100)으로부터 전송받은 제1 차량(100)의 주변 영상 정보를 출력할 수 있다. 여기서 제2 차량(200)의 선행 차량 및 후속 차량은 제2 차량(200)과 동일 차로를 주행하고 있는 선행 차량 및 후속 차량을 의미할 수 있다.Next, the operation of the
이하에서는 전술한 제2 차량(200)의 동작을 그 세부 구성으로서 구체적으로 설명한다.Hereinafter, the operation of the above-described
제2 차량(200)은 전술한 동작을 수행하기 위한 세부 구성으로서 제2 검출부(210), 제2 측위부(230), 출력부(250), 제2 통신부(270) 및 제2 제어부(290)를 포함할 수 있다.As the detailed configuration for performing the above-described operation, the
제2 검출부(210)는 제2 차량(200)의 선행 차량을 감지하고 제2 차량(200) 및 선행 차량 간의 거리를 검출하여 후술할 제2 제어부(290)로 전달할 수 있다. 제2 검출부(210)의 동작은 전술한 제1 검출부(110)의 동작과 동일하므로 구체적인 동작 설명은 생략한다. 또한, 제2 검출부(210)는 제2 차량(200)의 후속 차량을 감지하고 제2 차량(200) 및 후속 차량 간의 거리를 검출하여 제2 제어부(290)로 전달할 수 있으며, 이를 위해 제2 검출부(210)는 선행 차량까지의 거리를 검출하는 제2 전방 검출부(211), 및 후속 차량까지의 거리를 검출하는 제2 후방 검출부(213)를 포함할 수 있다.The
제2 측위부(230)는 제2 차량(200)의 위치를 측위하여 제2 제어부(290)로 전달할 수 있다. 제2 측위부(230)는 GPS 등의 위성 항법 시스템을 이용하여 제2 차량(200)의 현재 위치에 대한 GPS 좌표, 즉 위경도 좌표의 위치 정보를 수신하고 제2 제어부(290)로 전달하여 제2 제어부(290)가 제2 차량(200)의 현재 위치를 파악할 수 있도록 할 수 있다.The
제2 통신부(270)는 제1 차량(100)의 제1 통신부(170)로부터 브로드캐스트 정보를 전송받아 제2 제어부(290)로 전달할 수 있다. 즉, 제2 통신부(270)는 제2 차량(200)이 제1 차량(100)과 통신하기 위한 통신 인터페이스로 기능할 수 있으며, 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 브로드캐스트 정보를 제1 차량(100)으로부터 전송받을 수 있다.The
출력부(250)는 제2 제어부(290)로부터 브로드캐스트 정보의 주변 영상 정보를 전달받아 출력하여 운전자에게 제공할 수 있다. 출력부(250)는 제2 차량(200)의 인스트루먼트 패널에 구비되어 주변 영상 정보를 출력하는 디스플레이로 구현될 수도 있고, 헤드 업 디스플레이(Head Up Display)와 같이 증강현실(AR: Augmented Reality)을 이용하여 차량의 윈드쉴드에 주변 영상 정보를 출력하는 방식으로 구현될 수도 있다.The
제2 제어부(290)는 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우, 제1 통신부(170)로부터 전달받은 브로드캐스트 정보에 포함된 제1 차량(100)의 전방 영상 정보를 출력부(250)를 통해 출력할 수 있다.When it is determined that the
제2 제어부(290)가, 제1 차량(100)이 제2 차량(200)의 선행 차량인지 여부를 판단하는 과정을 설명하면, 제2 제어부(290)는 제2 전방 검출부(211)로부터 입력받은 제2 차량(200)의 선행 차량 및 제2 차량(200) 간의 거리와, 제2 측위부(230)로부터 전달받은 제2 차량(200)의 위치에 근거하여 제2 차량(200)의 선행 차량의 위치를 추정할 수 있다. 그리고, 추정된 제2 차량(200)의 선행 차량의 위치를 제2 통신부(270)를 통해 전달받은 브로드캐스트 정보에 포함된 제1 차량(100)의 위치 정보와 비교하여 그 일치 여부를 판단함으로써 제1 차량(100)이 제2 차량(200)의 선행 차량인지 여부를 판단할 수 있다. 추정된 제2 차량(200)의 선행 차량의 위치 및 제1 차량(100)의 위치 정보를 비교할 때, 제2 제어부(290)는 위치 좌표 간의 정확한 일치가 아닌, 위치 좌표 간의 거리 차이가 미리 설정된 허용 오차 범위 이내인 경우에 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단할 수 있다.When the
제2 제어부(290)는 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우, 제1 차량(100)의 전방 영상 정보를 출력부(250)를 통해 출력할 수 있다.When it is determined that the
따라서, 제2 차량(200)은 제1 차량(100)의 전방 영상 정보를 상기 출력하는 것이 아닌, 제1 차량(100)이 제2 차량(200)의 선행 차량이어서 제2 차량(200)에도 위험 상황이 발생할 가능성이 있거나 정체 상황임을 운전자에게 알릴 필요성이 있는 경우에만 제1 차량(100)의 전방 영상 정보를 출력함으로써 주변 상황을 운전자에게 보다 능동적으로 제공할 수 있다.Therefore, the
전술한 본 실시예의 동작을 도 2에 도시된 예시로서 정리하면, 제1 차량(100)은 전방 객체로 인해 위험 상황이 발생한 것으로 판단하고 제1 차량(100)의 위치 정보 및 전방 영상 정보를 포함하는 브로드캐스트 정보를 주변 차량으로 전송한다. 브로드캐스트 정보를 수신한 제2 차량(200)은 제1 차량(100)이 제2 차량(200)의 선행 차량이므로 제1 차량(100)의 전방 영상 정보를 출력하고, 브로드캐스정보를 수신한 제3 차량(300)은 제1 차량(100)이 제3 차량의 선행 차량이 아니므로 제1 차량(100)의 전방 영상 정보를 출력하지 않는다.2, the
이상에서는 제1 차량(100)의 전방 환경에 위험 상황 또는 정체 상황이 발생한 경우, 제1 차량(100)의 위치 정보 및 전방 영상 정보를 포함하는 브로드캐스트 정보를 제1 차량(100)이 제2 차량(200)으로 전송하고, 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우 제2 차량(200)이 제1 차량(100)의 전방 영상 정보를 출력하는 구성으로 설명하였다. 이와 함께, 본 실시예는 제1 차량(100)의 후방 환경에 정체 상황이 발생한 경우, 제1 차량(100)의 위치 정보 및 후방 영상 정보를 포함하는 브로드캐스트 정보를 제1 차량(100)이 제2 차량(200)으로 전송하고, 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우 제2 차량(200)이 제1 차량(100)의 후방 영상 정보를 출력하는 구성으로 구현될 수도 있다.In the above description, when a dangerous situation or a congestion situation occurs in the front environment of the
구체적으로, 제1 차량(100)은 제1 차량(100)의 후속 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 정체 상황으로 판단하여 브로드캐스트 정보(제1 차량(100)의 위치 정보 및 후방 영상 정보)를 주변 차량으로 전송할 수 있다.Specifically, when the average vehicle speed of the subsequent vehicle of the
즉, 제1 차량(100)의 평균 차속, 또는 제1 차량(100)의 후속 차량의 평균 차속(제1 차량(100)의 평균 차속과, 제1 후방 검출부(113)에 의해 검출된 제1 차량(100) 및 후속 차량 간의 거리에 기초하여 산출될 수 있다.)이 기준 차속 이하이면 제1 제어부(190)는 정체 상황이 발생한 것으로 판단하여 제1 측위부(130)에 의해 획득된 제1 차량(100)의 위치 정보, 및 후방 촬영부(153)에 의해 획득된 후방 영상 정보를 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.That is, the average vehicle speed of the
이때, 제2 차량(200)은 제2 차량(200)의 후속 차량 및 제2 차량(200) 간의 거리와, 제2 차량(200)의 위치에 근거하여 추정된 제2 차량(200)의 후속 차량의 위치를 제1 차량(100)의 위치 정보와 비교하여 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우, 제1 차량(100)의 후방 영상 정보를 출력할 수 있다.In this case, the
즉, 제2 제어부(290)는 제2 후방 검출부(213)로부터 입력받은 제2 차량(200)의 후속 차량 및 제2 차량(200) 간의 거리와, 제2 측위부(230)로부터 전달받은 제2 차량(200)의 위치에 근거하여 제2 차량(200)의 후속 차량의 위치를 추정할 수 있다. 그리고, 추정된 제2 차량(200)의 후속 차량의 위치를 제2 통신부(270)를 통해 전달받은 브로드캐스트 정보에 포함된 제1 차량(100)의 위치 정보와 비교하여 그 일치 여부를 판단함으로써 제1 차량(100)이 제2 차량(200)의 후속 차량인지 여부를 판단할 수 있다. 추정된 제2 차량(200)의 후속 차량의 위치 및 제1 차량(100)의 위치 정보를 비교할 때, 제2 제어부(290)는 위치 좌표 간의 정확한 일치가 아닌, 위치 좌표 간의 거리 차이가 미리 설정된 허용 오차 범위 이내인 경우에 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단할 수 있다.That is, the
이에 따라 제2 제어부(290)는 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우, 제2 차량(200)의 후방 영상 정보를 출력부(250)를 통해 출력할 수 있다. 따라서 제2 차량(200)의 운전자는 도심의 골목과 같은 주행 환경에서의 정체 상황에서 후진 시, 제2 차량(200)의 후방 영상 정보를 확인함으로써 주변 환경을 인식할 수 있다.Accordingly, when it is determined that the
도 3은 본 발명의 일 실시예에 따른 차량의 주변 환경 인지 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method for recognizing a surrounding environment of a vehicle according to an exemplary embodiment of the present invention.
도 3을 참조하여 본 발명의 일 실시예에 따른 차량의 주변 환경 인지 방법을 설명하면, 먼저 제1 차량(100)은 제1 차량(100)의 주변에 위험 상황 또는 정체 상황이 발생하였는지 여부를 판단한다(S100).Referring to FIG. 3, a method for recognizing a surrounding environment of a vehicle according to an exemplary embodiment of the present invention will be described. First, the
S100 단계에서 제1 차량(100)은, 제1 차량(100)의 전방 객체 및 제1 차량(100) 간의 거리 감소율이 미리 설정된 기준치 이상인 경우에 위험 상황이 발생한 것으로 판단할 수 있으며, 제1 차량(100)의 선행 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우에 정체 상황이 발생한 것으로 판단할 수 있다.In operation S100, the
또한, S100 단계에서 제1 차량(100)은, 제1 차량(100)의 후속 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 정체 상황이 발생한 것으로 판단할 수 있다.In operation S100, when the
이어서, S100 단계에서 위험 상황 또는 정체 상황이 발생한 것으로 판단된 경우, 제1 차량(100)은 브로드캐스트 정보를 주변 차량으로 전송한다(S200). 브로드캐스트 정보는 제1 차량(100)의 위치 정보 및 제1 차량(100)의 주변 영상 정보를 포함할 수 있으며, 주변 영상 정보는 제1 차량(100)의 전방 영상 정보 또는 후방 영상 정보를 포함할 수 있다.Subsequently, when it is determined that a dangerous situation or a congestion situation occurs in step S100, the
이어서, 제2 차량(200)은 제1 차량(100)으로부터 전송받은 제1 차량(100)의 위치 정보에 기초하여 제1 차량(100)이 제2 차량(200)의 선행 차량 또는 후속 차량인지 여부를 판단한다(S300).Subsequently, the
S300 단계에서 제2 차량(200)은, 제2 차량(200)의 선행 차량 및 제2 차량(200) 간의 거리와, 제2 차량(200)의 위치에 근거하여 추정된 제2 차량(200)의 선행 차량의 위치를 제1 차량(100)의 위치 정보와 비교하여 제1 차량(100)이 제2 차량(200)의 선행 차량인지 여부를 판단할 수 있다.In operation S300, the
또한, S300 단계에서 제2 차량(200)은, 제2 차량(200)의 후속 차량 및 제2 차량(200) 간의 거리와, 제2 차량(200)의 위치에 근거하여 추정된 제2 차량(200)의 후속 차량의 위치를 제1 차량(100)의 위치 정보와 비교하여 제1 차량(100)이 제2 차량(200)의 후속 차량인지 여부를 판단할 수 있다.In operation S300, the
이어서, S300 단계에서 제1 차량(100)이 제2 차량(200)의 선행 차량 또는 후속 차량인 것으로 판단된 경우, 제2 차량(200)은 제1 차량(100)으로부터 전송받은 제1 차량(100)의 주변 영상 정보를 출력한다(S400).Subsequently, when it is determined in operation S300 that the
S300 단계에서 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우, 제2 차량(200)은 제1 차량(100)의 전방 영상 정보를 출력할 수 있고, S300 단계에서 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우, 제2 차량(200)은 제1 차량(100)의 후방 영상 정보를 출력할 수 있다.When it is determined in step S300 that the
이와 같이 본 실시예는 운전자의 시야 확보가 되지 않는 위치에 존재하는 객체의 영상 정보를 운전자에게 제공함으로써 운전자가 보다 넓은 범위의 주변 상황을 인지할 수 있도록 할 수 있고, 그리고 자차량의 선행 차량 또는 후속 차량이 전송한 정보만을 위험 상황 또는 정체 상황이 발생한 경우에만 운전자에게 제공함으로써 차량 간의 통신 부하를 최소화하면서 운전자가 주변 상황을 인지할 수 있도록 할 수 있다.As such, the present embodiment can provide the driver with image information of an object existing at a position where the driver's field of view cannot be secured, so that the driver can recognize a wider range of surrounding conditions, and the preceding vehicle of the own vehicle or Only the information transmitted by the subsequent vehicle is provided to the driver only when a dangerous situation or a congestion occurs so that the driver can recognize the surrounding situation while minimizing the communication load between the vehicles.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and those skilled in the art to which the art belongs can make various modifications and other equivalent embodiments therefrom. Will understand. Therefore, the technical protection scope of the present invention will be defined by the claims below.
100: 제1 차량
110: 제1 검출부
111: 제1 전방 검출부
113: 제1 후방 검출부
130: 제1 측위부
150: 촬영부
151: 전방 촬영부
153: 후방 촬영부
170: 제1 통신부
190: 제1 제어부
200: 제2 차량
210: 제2 검출부
211: 제2 전방 검출부
213: 제2 후방 검출부
230: 제2 측위부
250: 출력부
270: 제2 통신부
290: 제2 제어부
300: 제3 차량100: first vehicle
110: first detection unit
111: first front detection unit
113: first rear detector
130: first positioning part
150: the photographing unit
151: the front photographing unit
153: rear filming unit
170: first communication unit
190: first control unit
200: second vehicle
210: second detection unit
211: second front detection unit
213: second rear detector
230: second positioning part
250: output unit
270: second communication unit
290: second control unit
300: third vehicle
Claims (16)
상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 선행 차량 또는 후속 차량으로 판단된 경우, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 제2 차량;
을 포함하고,
상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고,
상기 제1 차량은, 상기 제1 차량의 전방 객체 및 상기 제1 차량 간의 거리 감소율이 미리 설정된 기준치 이상인 경우, 상기 위험 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하고,
상기 제1 차량은, 상기 제1 차량의 선행 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하고,
상기 제2 차량은, 상기 제2 차량의 선행 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 선행 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 선행 차량인 것으로 판단된 경우에만 상기 제1 차량의 전방 영상 정보를 출력하고,
상기 주변 영상 정보는 상기 제1 차량의 후방 영상 정보를 포함하고,
상기 제1 차량은, 상기 제1 차량의 후속 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하고,
상기 제2 차량은, 상기 제2 차량의 후속 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 후속 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 후속 차량인 것으로 판단된 경우에만 상기 제1 차량의 후방 영상 정보를 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 시스템.
A first vehicle transmitting broadcast information to surrounding vehicles when a dangerous situation or a traffic jam occurs, wherein the broadcast information includes location information of the first vehicle and surrounding image information of the first vehicle. A first vehicle; And
Outputting peripheral image information of the first vehicle received from the first vehicle when it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle based on the location information of the first vehicle received from the first vehicle; A second vehicle;
Including,
The surrounding image information includes front image information of the first vehicle.
The first vehicle, when the distance reduction rate between the front object of the first vehicle and the first vehicle is greater than or equal to a preset reference value, determines that the dangerous situation and transmits the broadcast information to the surrounding vehicles,
The first vehicle determines that the traffic jam is determined to be the traffic jam when the average vehicle speed during a preset time of one of the preceding vehicle and the first vehicle of the first vehicle is equal to or less than a preset reference vehicle speed. Transfer to nearby vehicles,
The second vehicle may include location information of the first vehicle based on a distance between a preceding vehicle and the second vehicle of the second vehicle and an estimated position of the preceding vehicle of the second vehicle based on the position of the second vehicle. And outputs front image information of the first vehicle only when it is determined that the first vehicle is a preceding vehicle of the second vehicle,
The surrounding image information includes rear image information of the first vehicle,
When the average vehicle speed during a preset time period of one of the following vehicle and the first vehicle of the first vehicle is less than or equal to a preset reference vehicle speed, the first vehicle determines that the traffic jam is to determine the broadcast information. Transfer to nearby vehicles,
The second vehicle may include location information of the first vehicle based on a distance between a subsequent vehicle of the second vehicle and the second vehicle, and a position of a subsequent vehicle of the second vehicle estimated based on the position of the second vehicle. And the rear image information of the first vehicle is output only when it is determined that the first vehicle is a subsequent vehicle of the second vehicle.
상기 제1 차량 및 상기 제2 차량은 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 상기 브로드캐스트 정보를 송수신하는 것을 특징으로 하는 차량의 주변 상황 인지 시스템.
The method of claim 1,
And the first vehicle and the second vehicle transmit and receive the broadcast information using a vehicle to vehicle (V2V).
상기 제2 차량은, 상기 제1 차량의 주변 영상 정보를 증강현실(AR: Augmented Reality)을 이용하여 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 시스템.
The method of claim 1,
And the second vehicle outputs surrounding image information of the first vehicle using Augmented Reality (AR).
상기 위험 상황 또는 상기 정체 상황이 발생한 것으로 판단된 경우, 상기 제1 차량이 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 전송 단계로서, 상기 브로드캐스트 정보는 상기 제1 차량의 위치 정보 및 상기 제1 차량의 주변 영상 정보를 포함하는, 전송 단계;
제2 차량이, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인지 여부를 판단하는 제2 판단 단계; 및
상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인 것으로 판단된 경우, 상기 제2 차량이 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 출력 단계;
를 포함하고,
상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고,
상기 제1 판단 단계에서, 상기 제1 차량은,
상기 제1 차량의 전방 객체 및 상기 제1 차량 간의 거리 감소율이 미리 설정된 기준치 이상인 경우 상기 위험 상황이 발생한 것으로 판단하고, 상기 제1 차량의 선행 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우 상기 정체 상황이 발생한 것으로 판단하며,
상기 제2 판단 단계에서, 상기 제2 차량은,
상기 제2 차량의 선행 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 선행 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 선행 차량인지 여부를 판단하고,
상기 출력 단계에서, 상기 제2 차량은,
상기 제1 차량이 상기 제2 차량의 선행 차량인 것으로 판단된 경우에만 상기 제1 차량의 전방 영상 정보를 출력하고,
상기 주변 영상 정보는 상기 제1 차량의 후방 영상 정보를 포함하고,
상기 제1 판단 단계에서, 상기 제1 차량은,
상기 제1 차량의 후속 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황이 발생한 것으로 판단하고,
제2 판단 단계에서, 상기 제2 차량은,
상기 제2 차량의 후속 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 후속 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 후속 차량인지 여부를 판단하고,
상기 출력 단계에서, 상기 제2 차량은,
상기 제1 차량이 상기 제2 차량의 후속 차량인 것으로 판단된 경우에만 상기 제1 차량의 후방 영상 정보를 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 방법.
A first determination step of determining, by the first vehicle, whether a dangerous situation or a congestion situation has occurred in the vicinity;
When it is determined that the dangerous situation or the congestion occurs, the first vehicle transmits broadcast information to surrounding vehicles, wherein the broadcast information includes location information of the first vehicle and the first vehicle. A transmission step including surrounding image information of the first vehicle;
A second determination step of determining, by the second vehicle, whether the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle based on the position information of the first vehicle received from the first vehicle; And
An output step of outputting, by the second vehicle, surrounding image information of the first vehicle received from the first vehicle when it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle;
Including,
The surrounding image information includes front image information of the first vehicle.
In the first determination step, the first vehicle,
When the distance reduction rate between the front object of the first vehicle and the first vehicle is equal to or greater than a preset reference value, it is determined that the dangerous situation occurs, and the preset vehicle of any one of the preceding vehicle and the first vehicle of the first vehicle is determined. If the average vehicle speed during the time is less than the predetermined reference vehicle speed, it is determined that the congestion occurred.
In the second determination step, the second vehicle,
The first vehicle is compared with the position information of the first vehicle by comparing the distance between the preceding vehicle and the second vehicle of the second vehicle and the position of the preceding vehicle estimated based on the position of the second vehicle. Determine whether the vehicle is a preceding vehicle of the second vehicle,
In the output step, the second vehicle,
Output front image information of the first vehicle only when it is determined that the first vehicle is a preceding vehicle of the second vehicle,
The surrounding image information includes rear image information of the first vehicle,
In the first determination step, the first vehicle,
If the average vehicle speed during a preset time of a subsequent vehicle of the first vehicle and any one of the first vehicle is less than or equal to a preset reference vehicle speed, it is determined that the congestion situation has occurred,
In a second determination step, the second vehicle,
The distance between a subsequent vehicle of the second vehicle and the second vehicle and a position of a subsequent vehicle of the second vehicle estimated based on the position of the second vehicle are compared with the position information of the first vehicle to compare the first vehicle with the first vehicle. Determine whether the vehicle is a subsequent vehicle of the second vehicle,
In the output step, the second vehicle,
And the rear image information of the first vehicle is output only when it is determined that the first vehicle is a subsequent vehicle of the second vehicle.
상기 제1 차량 및 상기 제2 차량은 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 상기 브로드캐스트 정보를 송수신하는 것을 특징으로 하는 차량의 주변 상황 인지 방법.
The method of claim 9,
And the first vehicle and the second vehicle transmit and receive the broadcast information using a vehicle to vehicle (V2V).
상기 출력 단계에서, 상기 제2 차량은,
상기 제1 차량의 주변 영상 정보를 증강현실(AR: Augmented Reality)을 이용하여 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 방법.The method of claim 9,
In the output step, the second vehicle,
The surrounding situation information recognition method of the vehicle, characterized in that for outputting the surrounding image information of the first vehicle using Augmented Reality (AR).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170106472A KR102050991B1 (en) | 2017-08-23 | 2017-08-23 | System for recognizing circumstance of vehicle and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170106472A KR102050991B1 (en) | 2017-08-23 | 2017-08-23 | System for recognizing circumstance of vehicle and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190022949A KR20190022949A (en) | 2019-03-07 |
KR102050991B1 true KR102050991B1 (en) | 2019-12-02 |
Family
ID=65760741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170106472A KR102050991B1 (en) | 2017-08-23 | 2017-08-23 | System for recognizing circumstance of vehicle and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102050991B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102203218B1 (en) * | 2019-06-05 | 2021-01-14 | 에스케이텔레콤 주식회사 | Method and apparatus for sharing image information |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741433B1 (en) * | 2015-06-09 | 2017-05-30 | 엘지전자 주식회사 | Driver assistance apparatus and control method for the same |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101377153B1 (en) * | 2012-02-07 | 2014-03-25 | 최광주 | Traffic condition information sharing method between vehicles |
KR20160112545A (en) * | 2015-03-19 | 2016-09-28 | 현대자동차주식회사 | Vehicle and method for controlling vehicle |
-
2017
- 2017-08-23 KR KR1020170106472A patent/KR102050991B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101741433B1 (en) * | 2015-06-09 | 2017-05-30 | 엘지전자 주식회사 | Driver assistance apparatus and control method for the same |
Also Published As
Publication number | Publication date |
---|---|
KR20190022949A (en) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106004879B (en) | Vehicle driving assistance system and control method thereof | |
CN108447302B (en) | Information processing apparatus and recording medium | |
US10347129B2 (en) | Vehicle system with truck turn alert | |
JP5849040B2 (en) | Vehicle driving support control device | |
US9493117B2 (en) | Vehicle blind spot system operation with trailer tow | |
JP5345350B2 (en) | Vehicle driving support device | |
US9223311B2 (en) | Vehicle driving support control apparatus | |
US8886386B2 (en) | Method for wireless communication between vehicles | |
US20170008531A1 (en) | Driving assistant for vehicles | |
US20190329780A1 (en) | Method and Device for Supporting a Lane Change for a Vehicle | |
CN109219546B (en) | Parking assistance device and parking assistance method | |
US10661803B2 (en) | Vehicle travel control method and travel control device | |
US20090265107A1 (en) | Vehicle drive assist system | |
JP6468204B2 (en) | Preventive safety device when changing course of small vehicle | |
US11027667B2 (en) | Display method and apparatus | |
US20160306357A1 (en) | Automated vehicle system with position bias for motorcycle lane splitting | |
CA3035719C (en) | Obstacle determination method, parking support method, dispatch support method, and obstacle determination device | |
US10192447B2 (en) | Inter-vehicle information sharing system | |
JP5482670B2 (en) | Object detection device | |
US20190135169A1 (en) | Vehicle communication system using projected light | |
JP2008250503A (en) | Operation support device | |
US11097733B2 (en) | Apparatus and method for controlling reverse driving | |
KR20180070300A (en) | Parking Assist System And Method Thereof | |
KR102050991B1 (en) | System for recognizing circumstance of vehicle and method thereof | |
KR20190061137A (en) | Apparatus for keeping virtual lane and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |