KR102050991B1 - System for recognizing circumstance of vehicle and method thereof - Google Patents

System for recognizing circumstance of vehicle and method thereof Download PDF

Info

Publication number
KR102050991B1
KR102050991B1 KR1020170106472A KR20170106472A KR102050991B1 KR 102050991 B1 KR102050991 B1 KR 102050991B1 KR 1020170106472 A KR1020170106472 A KR 1020170106472A KR 20170106472 A KR20170106472 A KR 20170106472A KR 102050991 B1 KR102050991 B1 KR 102050991B1
Authority
KR
South Korea
Prior art keywords
vehicle
image information
information
surrounding
determined
Prior art date
Application number
KR1020170106472A
Other languages
Korean (ko)
Other versions
KR20190022949A (en
Inventor
김태림
이동원
권성진
이봉현
Original Assignee
한국자동차연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국자동차연구원 filed Critical 한국자동차연구원
Priority to KR1020170106472A priority Critical patent/KR102050991B1/en
Publication of KR20190022949A publication Critical patent/KR20190022949A/en
Application granted granted Critical
Publication of KR102050991B1 publication Critical patent/KR102050991B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2550/308
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차량의 주변 상황 인지 시스템 및 방법에 관한 것으로서, 위험 상황 또는 정체 상황 발생 시, 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 제1 차량으로서, 브로드캐스트 정보는 제1 차량의 위치 정보 및 제1 차량의 주변 영상 정보를 포함하는, 제1 차량, 및 제1 차량으로부터 전송받은 제1 차량의 위치 정보에 기초하여 제1 차량이 선행 차량 또는 후속 차량으로 판단된 경우, 제1 차량으로부터 전송받은 제1 차량의 주변 영상 정보를 출력하는 제2 차량을 포함하는 것을 특징으로 한다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and method for recognizing a surrounding situation of a vehicle. The present invention relates to a first vehicle that transmits broadcast information to surrounding vehicles when a dangerous situation or a congestion occurs, and the broadcast information is location information of the first vehicle. And when it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle based on the location information of the first vehicle and the first vehicle received from the first vehicle, including the surrounding image information of the first vehicle. And a second vehicle that outputs surrounding image information of the received first vehicle.

Figure R1020170106472
Figure R1020170106472

Description

차량의 주변 상황 인지 시스템 및 방법{SYSTEM FOR RECOGNIZING CIRCUMSTANCE OF VEHICLE AND METHOD THEREOF}A system and method for recognizing surrounding conditions of a vehicle {SYSTEM FOR RECOGNIZING CIRCUMSTANCE OF VEHICLE AND METHOD THEREOF}

본 발명은 차량의 주변 상황 인지 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 위험 상황 또는 정체 상황에서 차량의 주변 영상을 운전자에게 출력하는 차량의 주변 상황 인지 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for recognizing a surrounding situation of a vehicle, and more particularly, to a system and method for recognizing a surrounding situation of a vehicle for outputting a surrounding image of the vehicle to a driver in a dangerous situation or a congestion situation.

차량에는 주행 중의 주변 상황을 촬영하여 운전자에게 제공함으로써 주행 편의성을 향상시키기 위한 운전자 지원 시스템이 적용되고 있다. 어라운드 뷰 모니터링(AVM: Around View Monitoring) 시스템을 그 대표적인 예로 들 수 있으며, AVM 시스템은 차량의 전방, 후방, 좌측 및 우측 카메라로부터 획득된 주변 영상을 하나의 영상으로 융합하여 제공함으로써 운전자로 하여금 주변 상황을 인지할 수 있도록 하는 시스템을 말한다. AVM 시스템은 차량의 사각지대 영상, 및 주차 시의 후방 영상을 운전자에게 제공하는 등의 편의성을 제공하여 운전자를 보조하는 운전 지원 시스템으로 보급되는 추세에 있다.A driver assistance system is applied to a vehicle to improve driving convenience by photographing and providing surrounding conditions while driving. A typical example is the Around View Monitoring (AVM) system, which provides the driver with the surrounding images from the front, rear, left and right cameras of the vehicle. A system that allows you to recognize a situation. The AVM system has been widely used as a driving support system for assisting drivers by providing convenience such as providing a blind spot image of a vehicle and a rear view image when parking.

이러한 AVM 시스템을 비롯한 지원 시스템은, 차량의 전방, 후방, 좌측 및 우측에 위치한 주변 객체만을 촬영하여 운전자에게 제공하는 한계를 갖으며, 즉 주변 객체에 의해 가려져 촬영되지 않는 타 객체는 운전자에게 제공할 수 없는 한계를 갖는다. 예를 들어, 현재의 지원 시스템만으로는 자차량의 전방을 주행하는 선행 차량에 의해 운전자의 시야가 확보되지 않는, 선행 차량의 전방 상황을 운전자가 인지할 수 없어 위험 상황을 사전에 예측할 수 없는 문제점이 존재한다.The support system including the AVM system has a limitation of photographing only the surrounding objects located at the front, rear, left and right sides of the vehicle and providing them to the driver. There is no limit. For example, the current support system alone does not allow the driver to recognize the situation ahead of the vehicle where the driver's vision is not secured by the vehicle ahead of the vehicle. exist.

이러한 문제점은 자차량의 전방에 위치하는 대형 버스 또는 트럭에 의해 운전자의 시야가 확보되기 어려운 상황에서 악화될 수 있기 때문에, 자차량의 직접적인 주변 객체뿐만 아니라 주변 객체에 의해 가려지는 타 객체 또한 운전자가 확인함으로써 위험 상황을 예측할 수 있도록 하기 위한 시스템이 요청된다.This problem may be exacerbated in a situation where the driver's field of view is difficult to secure by a large bus or truck located in front of the vehicle, so that not only the immediate surrounding object of the vehicle but also other objects covered by the surrounding object A system is required to enable verification to predict the risk situation.

본 발명의 배경기술은 대한민국 공개특허공보 제10-2013-0028230호(2013. 03. 19 공개)에 개시되어 있다.Background art of the present invention is disclosed in Republic of Korea Patent Publication No. 10-2013-0028230 (published on March 19, 2013).

본 발명은 전술한 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 자차량의 직접적인 주변 객체뿐만 아니라, 운전자의 시야 확보가 되지 않는 위치에 존재하는 객체의 영상 정보를 운전자에게 제공하여 운전자가 차량 주변에 위험 상황 또는 정체 상황이 발생하였는지 인지할 수 있도록 함으로써 운전자의 주행 편의성을 향상시키기 위한 차량의 주변 상황 인지 시스템 및 방법을 제공하는 것이다.The present invention has been made to solve the above-described problems, an object according to an aspect of the present invention is to provide the driver with the image information of the object present in the position not to secure the driver's field of view as well as the direct surrounding objects of the vehicle. The present invention provides a system and method for recognizing surrounding conditions of a vehicle to improve driving convenience of the driver by allowing the driver to recognize whether a dangerous situation or a congestion situation has occurred around the vehicle.

본 발명의 일 측면에 따른 차량의 주변 상황 인지 시스템은 위험 상황 또는 정체 상황 발생 시, 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 제1 차량으로서, 상기 브로드캐스트 정보는 상기 제1 차량의 위치 정보 및 상기 제1 차량의 주변 영상 정보를 포함하는, 제1 차량, 및 상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 선행 차량 또는 후속 차량으로 판단된 경우, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 제2 차량을 포함하는 것을 특징으로 한다.A surrounding situation awareness system of a vehicle according to an aspect of the present invention is a first vehicle that transmits broadcast information to a surrounding vehicle when a dangerous situation or a congestion occurs, wherein the broadcast information is a location of the first vehicle. When the first vehicle is determined to be a preceding vehicle or a subsequent vehicle based on location information of the first vehicle and the first vehicle transmitted from the first vehicle, including information and surrounding image information of the first vehicle; And a second vehicle that outputs surrounding image information of the first vehicle received from the first vehicle.

본 발명에 있어 상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고, 상기 제1 차량은, 상기 제1 차량의 전방 객체 및 상기 제1 차량 간의 거리 감소율이 미리 설정된 기준치 이상인 경우, 상기 위험 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하는 것을 특징으로 한다.In the present invention, the surrounding image information includes the front image information of the first vehicle, the first vehicle, when the distance reduction rate between the front object of the first vehicle and the first vehicle is equal to or greater than a preset reference value, The broadcast information is transmitted to the surrounding vehicles by determining that the situation is dangerous.

본 발명에 있어 상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고, 상기 제1 차량은, 상기 제1 차량의 선행 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하는 것을 특징으로 한다.In the present invention, the surrounding image information includes front image information of the first vehicle, wherein the first vehicle is configured to perform a preset time of any one of the preceding vehicle and the first vehicle of the first vehicle. When the average vehicle speed is less than or equal to a predetermined reference vehicle speed, the traffic information is determined to be determined as the congestion state and the broadcast information is transmitted to the surrounding vehicles.

본 발명에 있어 상기 제2 차량은, 상기 제2 차량의 선행 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 선행 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 선행 차량인 것으로 판단된 경우, 상기 제1 차량의 전방 영상 정보를 출력하는 것을 특징으로 한다.In the present invention, the second vehicle is configured to determine the position of the preceding vehicle of the second vehicle estimated based on the distance between the preceding vehicle and the second vehicle of the second vehicle and the position of the second vehicle. When it is determined that the first vehicle is a preceding vehicle of the second vehicle compared to the position information of the vehicle, the front image information of the first vehicle may be output.

본 발명에 있어 상기 주변 영상 정보는 상기 제1 차량의 후방 영상 정보를 포함하고, 상기 제1 차량은, 상기 제1 차량의 후속 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하는 것을 특징으로 한다.In the present invention, the surrounding image information includes rear image information of the first vehicle, wherein the first vehicle is configured to perform a preset time of any one of a subsequent vehicle of the first vehicle and one of the first vehicles. When the average vehicle speed is less than or equal to a predetermined reference vehicle speed, the traffic information is determined to be determined as the congestion state and the broadcast information is transmitted to the surrounding vehicles.

본 발명에 있어 상기 제2 차량은, 상기 제2 차량의 후속 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 후속 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 후속 차량인 것으로 판단된 경우, 상기 제1 차량의 후방 영상 정보를 출력하는 것을 특징으로 한다.In the present invention, the second vehicle is configured to determine a position of a subsequent vehicle of the second vehicle estimated based on a distance between a subsequent vehicle of the second vehicle and the second vehicle and a position of the second vehicle. When it is determined that the first vehicle is a subsequent vehicle of the second vehicle compared to the position information of the vehicle, the rear image information of the first vehicle may be output.

본 발명에 있어 상기 제1 차량 및 상기 제2 차량은 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 상기 브로드캐스트 정보를 송수신하는 것을 특징으로 한다.In the present invention, the first vehicle and the second vehicle is characterized in that the transmission and reception of the broadcast information using a vehicle to vehicle (V2V).

본 발명에 있어 상기 제2 차량은, 상기 제1 차량의 주변 영상 정보를 증강현실(AR: Augmented Reality)을 이용하여 출력하는 것을 특징으로 한다.In the present invention, the second vehicle is characterized by outputting the surrounding image information of the first vehicle using Augmented Reality (AR).

본 발명의 일 실시예에 따른 차량의 주변 환경 인지 방법은 제1 차량이, 주변에 위험 상황 또는 정체 상황이 발생하였는지 여부를 판단하는 제1 판단 단계, 상기 위험 상황 또는 상기 정체 상황이 발생한 것으로 판단된 경우, 상기 제1 차량이 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 전송 단계로서, 상기 브로드캐스트 정보는 상기 제1 차량의 위치 정보 및 상기 제1 차량의 주변 영상 정보를 포함하는, 전송 단계, 제2 차량이, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인지 여부를 판단하는 제2 판단 단계, 및 상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인 것으로 판단된 경우, 상기 제2 차량이 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 출력 단계를 포함하는 것을 특징으로 한다.In a method of recognizing a surrounding environment of a vehicle according to an exemplary embodiment of the present disclosure, a first determination step of determining whether a dangerous situation or a congestion situation has occurred in a surrounding of a first vehicle, and determines that the dangerous situation or the congestion situation occurs In this case, the first vehicle transmits broadcast information to surrounding vehicles, wherein the broadcast information includes location information of the first vehicle and surrounding image information of the first vehicle. A second determination step of determining, by the second vehicle, whether the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle based on the position information of the first vehicle received from the first vehicle, and When it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle, the first vehicle received by the second vehicle from the first vehicle And outputting the image information of the surroundings.

본 발명의 일 측면에 따르면, 본 발명은 운전자의 시야 확보가 되지 않는 위치에 존재하는 객체의 영상 정보를 운전자에게 제공함으로써 운전자가 보다 넓은 범위의 주변 상황을 인지할 수 있도록 할 수 있고, 그리고 자차량의 선행 차량 또는 후속 차량이 전송한 정보만을 위험 상황 또는 정체 상황이 발생한 경우에만 운전자에게 제공함으로써 차량 간의 통신 부하를 최소화하면서 운전자가 주변 상황을 인지할 수 있도록 할 수 있다.According to an aspect of the present invention, the present invention can provide a driver with image information of an object existing at a position where the driver's field of view is not secured so that the driver can recognize a wider range of surrounding conditions, and By providing only the information transmitted by the preceding vehicle or the subsequent vehicle of the vehicle to the driver only when a dangerous situation or a congestion situation occurs, the driver can recognize the surrounding situation while minimizing the communication load between the vehicles.

도 1은 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템을 설명하기 위한 블록구성도이다.
도 2는 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템의 동작을 설명하기 위한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating a system for recognizing a surrounding situation of a vehicle according to an exemplary embodiment of the present invention.
2 is an exemplary diagram for describing an operation of a system for recognizing a surrounding situation of a vehicle according to an exemplary embodiment of the present disclosure.
3 is a flowchart illustrating a method of recognizing a surrounding situation of a vehicle according to an exemplary embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 차량의 주변 상황 인지 시스템 및 방법의 일 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로, 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the surrounding situation recognition system and method of the vehicle according to the present invention. In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of description. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to the intention or convention of a user or an operator. Therefore, definitions of these terms should be made based on the contents throughout the specification.

도 1은 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템을 설명하기 위한 블록구성도이고, 도 2는 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템의 동작을 설명하기 위한 예시도이다.1 is a block diagram illustrating a system for recognizing a surrounding situation according to an embodiment of the present invention, and FIG. 2 is an example for describing an operation of a system for recognizing surrounding conditions according to an embodiment of the present invention. It is also.

도 1을 참조하면, 본 발명의 일 실시예에 따른 차량의 주변 상황 인지 시스템은 주변 영상을 촬영하여 현재 위치와 함께 주변 차량으로 전송하는 브로드캐스터(Broadcaster)로 동작하는 제1 차량(100), 및 제1 차량(100)으로부터 전송받은 주변 영상을 운전자에게 출력하는 제2 차량(200)을 포함할 수 있다.Referring to FIG. 1, a system for recognizing surrounding conditions of a vehicle according to an exemplary embodiment of the present invention may include a first vehicle 100 that operates as a broadcaster that takes a surrounding image and transmits the surrounding image to a nearby vehicle. And a second vehicle 200 outputting the surrounding image received from the first vehicle 100 to the driver.

먼저, 제1 차량(100)의 동작에 대하여 설명하면, 제1 차량(100)은 주변에 위험 상황 또는 정체 상황 발생 시, 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송할 수 있다. 여기서, 브로드캐스트 정보는 제1 차량(100)의 위치 정보 및 제1 차량(100)의 주변 영상 정보를 포함할 수 있다.First, when the operation of the first vehicle 100 is described, the first vehicle 100 may transmit broadcast information to surrounding vehicles when a dangerous situation or a congestion occurs in the surroundings. Here, the broadcast information may include location information of the first vehicle 100 and surrounding image information of the first vehicle 100.

이하에서는 전술한 제1 차량(100)의 동작을 그 세부 구성으로서 구체적으로 설명한다.Hereinafter, the operation of the first vehicle 100 described above will be described in detail as its detailed configuration.

제1 차량(100)은 전술한 동작을 수행하기 위한 세부 구성으로서 제1 검출부(110), 제1 측위부(130), 촬영부(150), 제1 통신부(170) 및 제1 제어부(190)를 포함할 수 있다.As a detailed configuration for performing the above-described operation, the first vehicle 100 may include the first detector 110, the first positioning unit 130, the photographing unit 150, the first communication unit 170, and the first control unit 190. ) May be included.

제1 검출부(110)는 제1 차량(100)의 전방 객체를 감지하고 제1 차량(100) 및 전방 객체 간의 거리를 검출하여 후술할 제1 제어부(190)로 전달할 수 있다. 제1 검출부(110)는 제1 차량(100)의 전방 객체를 감지하기 위해 라이다 센서, 레이더 센서 등을 이용할 수 있으나, 이에 한정되지 않고 다른 방식의 물체 검출 센서(예: 초음파 센서, 적외선 센서 등)를 이용할 수도 있다. 이에 따라 제1 검출부(110)는 제1 차량(100)의 전방 객체에 대하여 펄스 신호를 송신하고, 송신한 펄스 신호가 전방 객체로부터 반사되어 돌아오는 시간을 측정함으로써 제1 차량(100) 및 전방 객체 간의 거리를 검출할 수 있다. 또한, 제1 검출부(110)는 제1 차량(100)의 후방 객체를 감지하고 제1 차량(100) 및 후방 객체 간의 거리를 검출하여 제1 제어부(190)로 전달할 수 있다. 이를 위해 제1 검출부(110)는 전방 객체까지의 거리를 검출하는 제1 전방 검출부(111), 및 후방 객체까지의 거리를 검출하는 제1 후방 검출부(113)를 포함할 수 있다. 여기서 전방 객체 또는 후방 객체는 제1 차량(100)의 전방 또는 후방을 주행하는 전방 차량 또는 후방 차량, 및 제1 차량(100)의 전방 또는 후방에 위치한 고정 장애물 등을 포함할 수 있다.The first detector 110 may detect a front object of the first vehicle 100, detect a distance between the first vehicle 100, and a front object, and transmit the detected distance to the first controller 190 to be described later. The first detection unit 110 may use a lidar sensor, a radar sensor, or the like to detect an object in front of the first vehicle 100, but is not limited thereto. An object detection sensor (eg, an ultrasonic sensor or an infrared sensor) may be used. Etc.) can also be used. Accordingly, the first detection unit 110 transmits a pulse signal to the front object of the first vehicle 100, and measures the time when the transmitted pulse signal is reflected from the front object to return. The distance between objects can be detected. In addition, the first detector 110 may detect a rear object of the first vehicle 100, detect a distance between the first vehicle 100 and the rear object, and transmit the detected distance to the first controller 190. To this end, the first detector 110 may include a first front detector 111 that detects a distance to a front object, and a first rear detector 113 that detects a distance to a rear object. Here, the front object or the rear object may include a front vehicle or a rear vehicle traveling in front of or behind the first vehicle 100, and a fixed obstacle located at the front or rear of the first vehicle 100.

제1 측위부(130)는 제1 차량(100)의 위치 정보를 획득하여 제1 제어부(190)로 전달할 수 있다. 제1 측위부(130)는 GPS 등의 위성 항법 시스템을 이용하여 제1 차량(100)의 현재 위치에 대한 GPS 좌표, 즉 위경도 좌표의 위치 정보를 수신하고 제1 제어부(190)로 전달하여 제1 제어부(190)가 제1 차량(100)의 현재 위치를 파악할 수 있도록 할 수 있다.The first positioning unit 130 may obtain location information of the first vehicle 100 and transmit the location information to the first control unit 190. The first positioning unit 130 receives GPS coordinates of the current position of the first vehicle 100, that is, location information of latitude and longitude coordinates, using a satellite navigation system such as GPS, and transmits the received location information to the first controller 190. The first control unit 190 may enable the current position of the first vehicle 100 to be determined.

촬영부(150)는 제1 차량(100)의 주변 환경에 대한 영상 정보, 즉 주변 영상 정보를 획득하여 제1 제어부(190)로 전달할 수 있다. 주변 영상 정보는 제1 차량(100)의 전방 영상 정보 및 후방 영상 정보를 포함할 수 있으며, 이에 본 실시예에서 촬영부(150)는 제1 차량(100)의 전방 영상 정보를 획득하는 전방 촬영부(151), 및 제1 차량(100)의 후방 영상 정보를 획득하는 후방 촬영부(153)를 포함할 수 있다. 촬영부(150)는 제1 차량(100)의 주변 영상 정보를 획득하기 위해 카메라 센서와 같은 영상 인식 센서를 포함할 수 있다.The photographing unit 150 may obtain image information about the surrounding environment of the first vehicle 100, that is, the surrounding image information, and transmit the image information to the first controller 190. The surrounding image information may include front image information and rear image information of the first vehicle 100. In this embodiment, the photographing unit 150 captures the front image to acquire the front image information of the first vehicle 100. The unit 151 may include a rear photographing unit 153 for acquiring rear image information of the first vehicle 100. The photographing unit 150 may include an image recognition sensor such as a camera sensor in order to obtain surrounding image information of the first vehicle 100.

제1 통신부(170)는 제1 제어부(190)로부터 브로드캐스트 정보를 전달받아 후술할 제2 차량(200)으로 전송할 수 있다. 즉, 제1 통신부(170)는 제1 차량(100)이 제2 차량(200)과 통신하기 위한 통신 인터페이스로 기능할 수 있으며, 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 브로드캐스트 정보를 제2 차량(200)으로 전송할 수 있다.The first communication unit 170 may receive broadcast information from the first control unit 190 and transmit the broadcast information to the second vehicle 200 to be described later. That is, the first communication unit 170 may function as a communication interface for the first vehicle 100 to communicate with the second vehicle 200, and broadcast information using vehicle to vehicle (V2V). May be transmitted to the second vehicle 200.

제1 제어부(190)는 위험 상황 또는 정체 상황 발생 시, 제1 측위부(130)로부터 전달받은 제1 차량(100)의 위치 정보, 및 촬영부(150)로부터 전달받은 제1 차량(100)의 주변 영상 정보를 포함하는 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.The first control unit 190 receives location information of the first vehicle 100 received from the first positioning unit 130 and a first vehicle 100 received from the photographing unit 150 when a dangerous situation or a congestion situation occurs. The broadcast information including the surrounding image information may be transmitted to the surrounding vehicles through the first communication unit 170.

먼저, 제1 제어부(190)가 위험 상황이 발생하였는지 여부를 판단하는 과정을 설명하면, 제1 제어부(190)는 제1 차량(100)의 전방 객체 및 제1 차량(100) 간의 거리 감소율이 미리 설정된 기준치 이상인 경우, 위험 상황이 발생한 것으로 판단할 수 있다.First, when the first control unit 190 describes a process of determining whether a dangerous situation has occurred, the first control unit 190 determines that the distance reduction rate between the front object of the first vehicle 100 and the first vehicle 100 is increased. If the threshold is higher than or equal to a preset threshold, it may be determined that a dangerous situation has occurred.

즉, 제1 제어부(190)는 제1 전방 검출부(111)로부터 전달받은 제1 차량(100) 및 전방 객체 간의 거리에 기초하여 소정 시간 동안의 거리 감소율을 산출하고, 산출된 거리 감소율이 기준치 이상이면 제1 차량(100) 및 전방 객체 간의 충돌 위험이 존재하는 것으로 판단하여, 즉 위험 상황이 발생한 것으로 판단하여 제1 측위부(130)에 의해 획득된 위치 정보 및 전방 촬영부(151)에 의해 획득된 전방 영상 정보를 포함하는 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.That is, the first controller 190 calculates a distance reduction rate for a predetermined time based on the distance between the first vehicle 100 and the front object received from the first front detection unit 111, and the calculated distance reduction rate is greater than or equal to the reference value. When it is determined that there is a risk of collision between the first vehicle 100 and the front object, that is, it is determined that a dangerous situation has occurred, the location information acquired by the first positioning unit 130 and the front photographing unit 151 are determined. The broadcast information including the obtained front image information may be transmitted to the surrounding vehicles through the first communication unit 170.

다음으로, 제1 제어부(190)가 정체 상황이 발생하였는지 여부를 판단하는 과정을 설명하면, 제1 제어부(190)는 제1 차량(100)의 선행 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 정체 상황이 발생한 것으로 판단할 수 있다.Next, when the first control unit 190 describes a process of determining whether a congestion situation has occurred, the first control unit 190 is any one of the preceding vehicle and the first vehicle 100 of the first vehicle 100. When the average vehicle speed during the preset time of the vehicle is equal to or less than the preset reference vehicle speed, it may be determined that a congestion situation has occurred.

즉, 제1 차량(100)의 평균 차속, 또는 제1 차량(100)의 선행 차량의 평균 차속(제1 차량(100)의 평균 차속과, 제1 전방 검출부(111)에 의해 검출된 제1 차량(100) 및 선행 차량 간의 거리에 기초하여 산출될 수 있다.)이 기준 차속 이하이면 제1 제어부(190)는 정체 상황이 발생한 것으로 판단하여 제1 측위부(130)에 의해 획득된 위치 정보 및 전방 촬영부(151)에 의해 획득된 전방 영상 정보를 포함하는 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.That is, the average vehicle speed of the first vehicle 100 or the average vehicle speed of the preceding vehicle of the first vehicle 100 (the average vehicle speed of the first vehicle 100 and the first detected by the first front detection unit 111). The first control unit 190 determines that a congestion has occurred and the positional information obtained by the first positioning unit 130 is determined based on the distance between the vehicle 100 and the preceding vehicle. And broadcast information including the front image information obtained by the front photographing unit 151 to the surrounding vehicles through the first communication unit 170.

따라서, 제1 차량(100)은 위치 정보 및 전방 영상 정보를 포함하는 브로드캐스트 정보를 주변 차량으로 상시 전송하는 것이 아닌, 위험 상황 또는 정체 상황이 발생한 경우에만 브로드캐스트 정보를 전송하여 통신 부하를 저감시킴으로써 차량 간 통신 효율을 향상시킬 수 있다.Accordingly, the first vehicle 100 does not always transmit broadcast information including location information and forward image information to the surrounding vehicles, but reduces the communication load by transmitting broadcast information only when a dangerous situation or a congestion situation occurs. By doing so, the communication efficiency between vehicles can be improved.

다음으로, 제2 차량(200)의 동작에 대하여 설명하면, 제2 차량(200)은 제1 차량(100)으로부터 전송받은 제1 차량(100)의 위치 정보에 기초하여 제1 차량(100)이 제2 차량(200)의 선행 차량 또는 후속 차량으로 판단된 경우, 제1 차량(100)으로부터 전송받은 제1 차량(100)의 주변 영상 정보를 출력할 수 있다. 여기서 제2 차량(200)의 선행 차량 및 후속 차량은 제2 차량(200)과 동일 차로를 주행하고 있는 선행 차량 및 후속 차량을 의미할 수 있다.Next, the operation of the second vehicle 200 will be described. The second vehicle 200 is based on the position information of the first vehicle 100 received from the first vehicle 100. When it is determined that the vehicle is the preceding vehicle or the subsequent vehicle of the second vehicle 200, the peripheral image information of the first vehicle 100 received from the first vehicle 100 may be output. Here, the preceding vehicle and the subsequent vehicle of the second vehicle 200 may refer to the preceding vehicle and the subsequent vehicle traveling on the same lane as the second vehicle 200.

이하에서는 전술한 제2 차량(200)의 동작을 그 세부 구성으로서 구체적으로 설명한다.Hereinafter, the operation of the above-described second vehicle 200 will be described in detail as its detailed configuration.

제2 차량(200)은 전술한 동작을 수행하기 위한 세부 구성으로서 제2 검출부(210), 제2 측위부(230), 출력부(250), 제2 통신부(270) 및 제2 제어부(290)를 포함할 수 있다.As the detailed configuration for performing the above-described operation, the second vehicle 200 includes the second detector 210, the second positioning unit 230, the output unit 250, the second communication unit 270, and the second control unit 290. ) May be included.

제2 검출부(210)는 제2 차량(200)의 선행 차량을 감지하고 제2 차량(200) 및 선행 차량 간의 거리를 검출하여 후술할 제2 제어부(290)로 전달할 수 있다. 제2 검출부(210)의 동작은 전술한 제1 검출부(110)의 동작과 동일하므로 구체적인 동작 설명은 생략한다. 또한, 제2 검출부(210)는 제2 차량(200)의 후속 차량을 감지하고 제2 차량(200) 및 후속 차량 간의 거리를 검출하여 제2 제어부(290)로 전달할 수 있으며, 이를 위해 제2 검출부(210)는 선행 차량까지의 거리를 검출하는 제2 전방 검출부(211), 및 후속 차량까지의 거리를 검출하는 제2 후방 검출부(213)를 포함할 수 있다.The second detector 210 may detect a preceding vehicle of the second vehicle 200, detect a distance between the second vehicle 200 and the preceding vehicle, and transmit the detected distance to the second controller 290 to be described later. Since the operation of the second detector 210 is the same as the operation of the first detector 110 described above, a detailed description of the operation is omitted. In addition, the second detector 210 may detect a subsequent vehicle of the second vehicle 200, detect a distance between the second vehicle 200 and the subsequent vehicle, and transmit the detected distance to the second controller 290. The detector 210 may include a second front detector 211 that detects a distance to a preceding vehicle, and a second rear detector 213 that detects a distance to a subsequent vehicle.

제2 측위부(230)는 제2 차량(200)의 위치를 측위하여 제2 제어부(290)로 전달할 수 있다. 제2 측위부(230)는 GPS 등의 위성 항법 시스템을 이용하여 제2 차량(200)의 현재 위치에 대한 GPS 좌표, 즉 위경도 좌표의 위치 정보를 수신하고 제2 제어부(290)로 전달하여 제2 제어부(290)가 제2 차량(200)의 현재 위치를 파악할 수 있도록 할 수 있다.The second positioning unit 230 may transfer the position of the second vehicle 200 to the second control unit 290. The second positioning unit 230 receives GPS coordinates of the current position of the second vehicle 200, that is, location information of latitude and longitude coordinates, using a satellite navigation system such as GPS, and transmits the location information to the second control unit 290. The second control unit 290 may be able to determine the current position of the second vehicle 200.

제2 통신부(270)는 제1 차량(100)의 제1 통신부(170)로부터 브로드캐스트 정보를 전송받아 제2 제어부(290)로 전달할 수 있다. 즉, 제2 통신부(270)는 제2 차량(200)이 제1 차량(100)과 통신하기 위한 통신 인터페이스로 기능할 수 있으며, 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 브로드캐스트 정보를 제1 차량(100)으로부터 전송받을 수 있다.The second communication unit 270 may receive broadcast information from the first communication unit 170 of the first vehicle 100 and transmit the broadcast information to the second control unit 290. That is, the second communication unit 270 may function as a communication interface for the second vehicle 200 to communicate with the first vehicle 100, and broadcast information using vehicle to vehicle (V2V). May be transmitted from the first vehicle 100.

출력부(250)는 제2 제어부(290)로부터 브로드캐스트 정보의 주변 영상 정보를 전달받아 출력하여 운전자에게 제공할 수 있다. 출력부(250)는 제2 차량(200)의 인스트루먼트 패널에 구비되어 주변 영상 정보를 출력하는 디스플레이로 구현될 수도 있고, 헤드 업 디스플레이(Head Up Display)와 같이 증강현실(AR: Augmented Reality)을 이용하여 차량의 윈드쉴드에 주변 영상 정보를 출력하는 방식으로 구현될 수도 있다.The output unit 250 may receive the surrounding image information of the broadcast information from the second control unit 290 and output the received image information to the driver. The output unit 250 may be implemented as a display provided in the instrument panel of the second vehicle 200 to output surrounding image information. The output unit 250 may include augmented reality (AR) like a head up display (AR). It may be implemented by outputting the surrounding image information to the windshield of the vehicle by using.

제2 제어부(290)는 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우, 제1 통신부(170)로부터 전달받은 브로드캐스트 정보에 포함된 제1 차량(100)의 전방 영상 정보를 출력부(250)를 통해 출력할 수 있다.When it is determined that the first vehicle 100 is a preceding vehicle of the second vehicle 200, the second controller 290 includes the first vehicle 100 included in the broadcast information received from the first communication unit 170. Front image information may be output through the output unit 250.

제2 제어부(290)가, 제1 차량(100)이 제2 차량(200)의 선행 차량인지 여부를 판단하는 과정을 설명하면, 제2 제어부(290)는 제2 전방 검출부(211)로부터 입력받은 제2 차량(200)의 선행 차량 및 제2 차량(200) 간의 거리와, 제2 측위부(230)로부터 전달받은 제2 차량(200)의 위치에 근거하여 제2 차량(200)의 선행 차량의 위치를 추정할 수 있다. 그리고, 추정된 제2 차량(200)의 선행 차량의 위치를 제2 통신부(270)를 통해 전달받은 브로드캐스트 정보에 포함된 제1 차량(100)의 위치 정보와 비교하여 그 일치 여부를 판단함으로써 제1 차량(100)이 제2 차량(200)의 선행 차량인지 여부를 판단할 수 있다. 추정된 제2 차량(200)의 선행 차량의 위치 및 제1 차량(100)의 위치 정보를 비교할 때, 제2 제어부(290)는 위치 좌표 간의 정확한 일치가 아닌, 위치 좌표 간의 거리 차이가 미리 설정된 허용 오차 범위 이내인 경우에 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단할 수 있다.When the second controller 290 describes a process of determining whether the first vehicle 100 is a preceding vehicle of the second vehicle 200, the second controller 290 is input from the second front detector 211. The preceding of the second vehicle 200 based on the distance between the preceding vehicle of the second vehicle 200 and the second vehicle 200 received, and the position of the second vehicle 200 received from the second positioning unit 230. The location of the vehicle can be estimated. Then, by comparing the estimated position of the preceding vehicle of the second vehicle 200 with the position information of the first vehicle 100 included in the broadcast information received through the second communication unit 270 to determine the match It may be determined whether the first vehicle 100 is a preceding vehicle of the second vehicle 200. When comparing the estimated position of the preceding vehicle of the second vehicle 200 and the position information of the first vehicle 100, the second control unit 290 is not the exact match between the position coordinates, the distance difference between the position coordinates is set in advance When it is within the tolerance range, it may be determined that the first vehicle 100 is a preceding vehicle of the second vehicle 200.

제2 제어부(290)는 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우, 제1 차량(100)의 전방 영상 정보를 출력부(250)를 통해 출력할 수 있다.When it is determined that the first vehicle 100 is a preceding vehicle of the second vehicle 200, the second controller 290 may output front image information of the first vehicle 100 through the output unit 250. have.

따라서, 제2 차량(200)은 제1 차량(100)의 전방 영상 정보를 상기 출력하는 것이 아닌, 제1 차량(100)이 제2 차량(200)의 선행 차량이어서 제2 차량(200)에도 위험 상황이 발생할 가능성이 있거나 정체 상황임을 운전자에게 알릴 필요성이 있는 경우에만 제1 차량(100)의 전방 영상 정보를 출력함으로써 주변 상황을 운전자에게 보다 능동적으로 제공할 수 있다.Therefore, the second vehicle 200 does not output the front image information of the first vehicle 100, but the first vehicle 100 is also a preceding vehicle of the second vehicle 200, and thus the second vehicle 200 does not output the front image information of the first vehicle 100. Only when there is a possibility that a dangerous situation may occur or when there is a need to notify the driver of the congestion situation, the front image information of the first vehicle 100 may be output to provide the surrounding situation to the driver more actively.

전술한 본 실시예의 동작을 도 2에 도시된 예시로서 정리하면, 제1 차량(100)은 전방 객체로 인해 위험 상황이 발생한 것으로 판단하고 제1 차량(100)의 위치 정보 및 전방 영상 정보를 포함하는 브로드캐스트 정보를 주변 차량으로 전송한다. 브로드캐스트 정보를 수신한 제2 차량(200)은 제1 차량(100)이 제2 차량(200)의 선행 차량이므로 제1 차량(100)의 전방 영상 정보를 출력하고, 브로드캐스정보를 수신한 제3 차량(300)은 제1 차량(100)이 제3 차량의 선행 차량이 아니므로 제1 차량(100)의 전방 영상 정보를 출력하지 않는다.2, the first vehicle 100 determines that a dangerous situation has occurred due to a front object and includes location information and front image information of the first vehicle 100. The broadcast information is transmitted to nearby vehicles. Since the first vehicle 100 is a preceding vehicle of the second vehicle 200, the second vehicle 200 that receives the broadcast information outputs front image information of the first vehicle 100 and receives the broadcast information. The third vehicle 300 does not output front image information of the first vehicle 100 since the first vehicle 100 is not a preceding vehicle of the third vehicle.

이상에서는 제1 차량(100)의 전방 환경에 위험 상황 또는 정체 상황이 발생한 경우, 제1 차량(100)의 위치 정보 및 전방 영상 정보를 포함하는 브로드캐스트 정보를 제1 차량(100)이 제2 차량(200)으로 전송하고, 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우 제2 차량(200)이 제1 차량(100)의 전방 영상 정보를 출력하는 구성으로 설명하였다. 이와 함께, 본 실시예는 제1 차량(100)의 후방 환경에 정체 상황이 발생한 경우, 제1 차량(100)의 위치 정보 및 후방 영상 정보를 포함하는 브로드캐스트 정보를 제1 차량(100)이 제2 차량(200)으로 전송하고, 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우 제2 차량(200)이 제1 차량(100)의 후방 영상 정보를 출력하는 구성으로 구현될 수도 있다.In the above description, when a dangerous situation or a congestion situation occurs in the front environment of the first vehicle 100, the first vehicle 100 receives broadcast information including the location information and the front image information of the first vehicle 100. Transmitting to the vehicle 200, and when it is determined that the first vehicle 100 is a preceding vehicle of the second vehicle 200, the second vehicle 200 outputs front image information of the first vehicle 100. As described. In addition, in the present exemplary embodiment, when a traffic jam occurs in the rear environment of the first vehicle 100, the first vehicle 100 may transmit broadcast information including the location information and the rear image information of the first vehicle 100. When the first vehicle 100 is determined to be a subsequent vehicle of the second vehicle 200, the second vehicle 200 outputs rear image information of the first vehicle 100. It may be implemented in a configuration to.

구체적으로, 제1 차량(100)은 제1 차량(100)의 후속 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 정체 상황으로 판단하여 브로드캐스트 정보(제1 차량(100)의 위치 정보 및 후방 영상 정보)를 주변 차량으로 전송할 수 있다.Specifically, when the average vehicle speed of the subsequent vehicle of the first vehicle 100 and any one of the first vehicle 100 is less than or equal to the preset reference vehicle speed, the first vehicle 100 may enter into a stall situation. The determination may transmit broadcast information (location information and rear image information of the first vehicle 100) to the surrounding vehicles.

즉, 제1 차량(100)의 평균 차속, 또는 제1 차량(100)의 후속 차량의 평균 차속(제1 차량(100)의 평균 차속과, 제1 후방 검출부(113)에 의해 검출된 제1 차량(100) 및 후속 차량 간의 거리에 기초하여 산출될 수 있다.)이 기준 차속 이하이면 제1 제어부(190)는 정체 상황이 발생한 것으로 판단하여 제1 측위부(130)에 의해 획득된 제1 차량(100)의 위치 정보, 및 후방 촬영부(153)에 의해 획득된 후방 영상 정보를 브로드캐스트 정보를 제1 통신부(170)를 통해 주변 차량으로 전송할 수 있다.That is, the average vehicle speed of the first vehicle 100 or the average vehicle speed of the subsequent vehicle of the first vehicle 100 (the average vehicle speed of the first vehicle 100 and the first detected by the first rear detector 113). The first control unit 190 determines that the congestion has occurred when the vehicle is 100 or less than the reference vehicle speed. The broadcast information may be transmitted to the surrounding vehicles through the first communication unit 170 through the position information of the vehicle 100 and the rear image information obtained by the rear photographing unit 153.

이때, 제2 차량(200)은 제2 차량(200)의 후속 차량 및 제2 차량(200) 간의 거리와, 제2 차량(200)의 위치에 근거하여 추정된 제2 차량(200)의 후속 차량의 위치를 제1 차량(100)의 위치 정보와 비교하여 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우, 제1 차량(100)의 후방 영상 정보를 출력할 수 있다.In this case, the second vehicle 200 may follow the second vehicle 200 estimated based on the distance between the subsequent vehicle of the second vehicle 200 and the second vehicle 200 and the position of the second vehicle 200. When the location of the vehicle is compared with the location information of the first vehicle 100 and it is determined that the first vehicle 100 is a subsequent vehicle of the second vehicle 200, the rear image information of the first vehicle 100 is output. can do.

즉, 제2 제어부(290)는 제2 후방 검출부(213)로부터 입력받은 제2 차량(200)의 후속 차량 및 제2 차량(200) 간의 거리와, 제2 측위부(230)로부터 전달받은 제2 차량(200)의 위치에 근거하여 제2 차량(200)의 후속 차량의 위치를 추정할 수 있다. 그리고, 추정된 제2 차량(200)의 후속 차량의 위치를 제2 통신부(270)를 통해 전달받은 브로드캐스트 정보에 포함된 제1 차량(100)의 위치 정보와 비교하여 그 일치 여부를 판단함으로써 제1 차량(100)이 제2 차량(200)의 후속 차량인지 여부를 판단할 수 있다. 추정된 제2 차량(200)의 후속 차량의 위치 및 제1 차량(100)의 위치 정보를 비교할 때, 제2 제어부(290)는 위치 좌표 간의 정확한 일치가 아닌, 위치 좌표 간의 거리 차이가 미리 설정된 허용 오차 범위 이내인 경우에 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단할 수 있다.That is, the second controller 290 is a distance between the subsequent vehicle and the second vehicle 200 of the second vehicle 200 received from the second rear detector 213 and the second received from the second positioning unit 230. The position of a subsequent vehicle of the second vehicle 200 may be estimated based on the position of the second vehicle 200. And, by comparing the estimated position of the next vehicle of the second vehicle 200 with the position information of the first vehicle 100 included in the broadcast information received through the second communication unit 270 to determine whether the match It may be determined whether the first vehicle 100 is a subsequent vehicle of the second vehicle 200. When comparing the estimated position of the subsequent vehicle of the second vehicle 200 and the position information of the first vehicle 100, the second controller 290 is not a precise match between the position coordinates, but the distance difference between the position coordinates is set in advance. If it is within the tolerance range, it may be determined that the first vehicle 100 is a subsequent vehicle of the second vehicle 200.

이에 따라 제2 제어부(290)는 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우, 제2 차량(200)의 후방 영상 정보를 출력부(250)를 통해 출력할 수 있다. 따라서 제2 차량(200)의 운전자는 도심의 골목과 같은 주행 환경에서의 정체 상황에서 후진 시, 제2 차량(200)의 후방 영상 정보를 확인함으로써 주변 환경을 인식할 수 있다.Accordingly, when it is determined that the first vehicle 100 is a subsequent vehicle of the second vehicle 200, the second controller 290 outputs rear image information of the second vehicle 200 through the output unit 250. can do. Accordingly, the driver of the second vehicle 200 may recognize the surrounding environment by checking the rear image information of the second vehicle 200 when the driver reverses in a congestion situation such as an urban alley.

도 3은 본 발명의 일 실시예에 따른 차량의 주변 환경 인지 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method for recognizing a surrounding environment of a vehicle according to an exemplary embodiment of the present invention.

도 3을 참조하여 본 발명의 일 실시예에 따른 차량의 주변 환경 인지 방법을 설명하면, 먼저 제1 차량(100)은 제1 차량(100)의 주변에 위험 상황 또는 정체 상황이 발생하였는지 여부를 판단한다(S100).Referring to FIG. 3, a method for recognizing a surrounding environment of a vehicle according to an exemplary embodiment of the present invention will be described. First, the first vehicle 100 determines whether a dangerous situation or a congestion situation occurs around the first vehicle 100. Determine (S100).

S100 단계에서 제1 차량(100)은, 제1 차량(100)의 전방 객체 및 제1 차량(100) 간의 거리 감소율이 미리 설정된 기준치 이상인 경우에 위험 상황이 발생한 것으로 판단할 수 있으며, 제1 차량(100)의 선행 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우에 정체 상황이 발생한 것으로 판단할 수 있다.In operation S100, the first vehicle 100 may determine that a dangerous situation occurs when the distance reduction rate between the front object of the first vehicle 100 and the first vehicle 100 is greater than or equal to a preset reference value. It may be determined that the congestion situation occurs when the average vehicle speed during a preset time of any one of the preceding vehicle and the first vehicle 100 of 100 is equal to or less than the preset reference vehicle speed.

또한, S100 단계에서 제1 차량(100)은, 제1 차량(100)의 후속 차량 및 제1 차량(100) 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 정체 상황이 발생한 것으로 판단할 수 있다.In operation S100, when the first vehicle 100 has an average vehicle speed during a preset time of any one of a subsequent vehicle of the first vehicle 100 and one of the first vehicles 100, the first vehicle 100 is less than or equal to the preset reference vehicle speed. A congestion situation may have occurred.

이어서, S100 단계에서 위험 상황 또는 정체 상황이 발생한 것으로 판단된 경우, 제1 차량(100)은 브로드캐스트 정보를 주변 차량으로 전송한다(S200). 브로드캐스트 정보는 제1 차량(100)의 위치 정보 및 제1 차량(100)의 주변 영상 정보를 포함할 수 있으며, 주변 영상 정보는 제1 차량(100)의 전방 영상 정보 또는 후방 영상 정보를 포함할 수 있다.Subsequently, when it is determined that a dangerous situation or a congestion situation occurs in step S100, the first vehicle 100 transmits broadcast information to surrounding vehicles (S200). The broadcast information may include location information of the first vehicle 100 and surrounding image information of the first vehicle 100, and the surrounding image information may include front image information or rear image information of the first vehicle 100. can do.

이어서, 제2 차량(200)은 제1 차량(100)으로부터 전송받은 제1 차량(100)의 위치 정보에 기초하여 제1 차량(100)이 제2 차량(200)의 선행 차량 또는 후속 차량인지 여부를 판단한다(S300).Subsequently, the second vehicle 200 determines whether the first vehicle 100 is a preceding vehicle or a subsequent vehicle of the second vehicle 200 based on the location information of the first vehicle 100 received from the first vehicle 100. It is determined whether or not (S300).

S300 단계에서 제2 차량(200)은, 제2 차량(200)의 선행 차량 및 제2 차량(200) 간의 거리와, 제2 차량(200)의 위치에 근거하여 추정된 제2 차량(200)의 선행 차량의 위치를 제1 차량(100)의 위치 정보와 비교하여 제1 차량(100)이 제2 차량(200)의 선행 차량인지 여부를 판단할 수 있다.In operation S300, the second vehicle 200 may estimate the second vehicle 200 based on the distance between the preceding vehicle and the second vehicle 200 of the second vehicle 200 and the position of the second vehicle 200. The position of the preceding vehicle may be compared with the position information of the first vehicle 100 to determine whether the first vehicle 100 is the preceding vehicle of the second vehicle 200.

또한, S300 단계에서 제2 차량(200)은, 제2 차량(200)의 후속 차량 및 제2 차량(200) 간의 거리와, 제2 차량(200)의 위치에 근거하여 추정된 제2 차량(200)의 후속 차량의 위치를 제1 차량(100)의 위치 정보와 비교하여 제1 차량(100)이 제2 차량(200)의 후속 차량인지 여부를 판단할 수 있다.In operation S300, the second vehicle 200 may include a second vehicle estimated based on a distance between a subsequent vehicle of the second vehicle 200 and the second vehicle 200 and the position of the second vehicle 200 ( The position of the subsequent vehicle of 200 may be compared with the position information of the first vehicle 100 to determine whether the first vehicle 100 is a subsequent vehicle of the second vehicle 200.

이어서, S300 단계에서 제1 차량(100)이 제2 차량(200)의 선행 차량 또는 후속 차량인 것으로 판단된 경우, 제2 차량(200)은 제1 차량(100)으로부터 전송받은 제1 차량(100)의 주변 영상 정보를 출력한다(S400).Subsequently, when it is determined in operation S300 that the first vehicle 100 is a preceding vehicle or a subsequent vehicle of the second vehicle 200, the second vehicle 200 may receive the first vehicle (received from the first vehicle 100). The surrounding image information of 100 is output (S400).

S300 단계에서 제1 차량(100)이 제2 차량(200)의 선행 차량인 것으로 판단된 경우, 제2 차량(200)은 제1 차량(100)의 전방 영상 정보를 출력할 수 있고, S300 단계에서 제1 차량(100)이 제2 차량(200)의 후속 차량인 것으로 판단된 경우, 제2 차량(200)은 제1 차량(100)의 후방 영상 정보를 출력할 수 있다.When it is determined in step S300 that the first vehicle 100 is a preceding vehicle of the second vehicle 200, the second vehicle 200 may output front image information of the first vehicle 100, and in step S300. When it is determined that the first vehicle 100 is a subsequent vehicle of the second vehicle 200, the second vehicle 200 may output rear image information of the first vehicle 100.

이와 같이 본 실시예는 운전자의 시야 확보가 되지 않는 위치에 존재하는 객체의 영상 정보를 운전자에게 제공함으로써 운전자가 보다 넓은 범위의 주변 상황을 인지할 수 있도록 할 수 있고, 그리고 자차량의 선행 차량 또는 후속 차량이 전송한 정보만을 위험 상황 또는 정체 상황이 발생한 경우에만 운전자에게 제공함으로써 차량 간의 통신 부하를 최소화하면서 운전자가 주변 상황을 인지할 수 있도록 할 수 있다.As such, the present embodiment can provide the driver with image information of an object existing at a position where the driver's field of view cannot be secured, so that the driver can recognize a wider range of surrounding conditions, and the preceding vehicle of the own vehicle or Only the information transmitted by the subsequent vehicle is provided to the driver only when a dangerous situation or a congestion occurs so that the driver can recognize the surrounding situation while minimizing the communication load between the vehicles.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and those skilled in the art to which the art belongs can make various modifications and other equivalent embodiments therefrom. Will understand. Therefore, the technical protection scope of the present invention will be defined by the claims below.

100: 제1 차량
110: 제1 검출부
111: 제1 전방 검출부
113: 제1 후방 검출부
130: 제1 측위부
150: 촬영부
151: 전방 촬영부
153: 후방 촬영부
170: 제1 통신부
190: 제1 제어부
200: 제2 차량
210: 제2 검출부
211: 제2 전방 검출부
213: 제2 후방 검출부
230: 제2 측위부
250: 출력부
270: 제2 통신부
290: 제2 제어부
300: 제3 차량
100: first vehicle
110: first detection unit
111: first front detection unit
113: first rear detector
130: first positioning part
150: the photographing unit
151: the front photographing unit
153: rear filming unit
170: first communication unit
190: first control unit
200: second vehicle
210: second detection unit
211: second front detection unit
213: second rear detector
230: second positioning part
250: output unit
270: second communication unit
290: second control unit
300: third vehicle

Claims (16)

위험 상황 또는 정체 상황 발생 시, 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 제1 차량으로서, 상기 브로드캐스트 정보는 상기 제1 차량의 위치 정보 및 상기 제1 차량의 주변 영상 정보를 포함하는, 제1 차량; 및
상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 선행 차량 또는 후속 차량으로 판단된 경우, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 제2 차량;
을 포함하고,
상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고,
상기 제1 차량은, 상기 제1 차량의 전방 객체 및 상기 제1 차량 간의 거리 감소율이 미리 설정된 기준치 이상인 경우, 상기 위험 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하고,
상기 제1 차량은, 상기 제1 차량의 선행 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하고,
상기 제2 차량은, 상기 제2 차량의 선행 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 선행 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 선행 차량인 것으로 판단된 경우에만 상기 제1 차량의 전방 영상 정보를 출력하고,
상기 주변 영상 정보는 상기 제1 차량의 후방 영상 정보를 포함하고,
상기 제1 차량은, 상기 제1 차량의 후속 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황으로 판단하여 상기 브로드캐스트 정보를 주변 차량으로 전송하고,
상기 제2 차량은, 상기 제2 차량의 후속 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 후속 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 후속 차량인 것으로 판단된 경우에만 상기 제1 차량의 후방 영상 정보를 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 시스템.
A first vehicle transmitting broadcast information to surrounding vehicles when a dangerous situation or a traffic jam occurs, wherein the broadcast information includes location information of the first vehicle and surrounding image information of the first vehicle. A first vehicle; And
Outputting peripheral image information of the first vehicle received from the first vehicle when it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle based on the location information of the first vehicle received from the first vehicle; A second vehicle;
Including,
The surrounding image information includes front image information of the first vehicle.
The first vehicle, when the distance reduction rate between the front object of the first vehicle and the first vehicle is greater than or equal to a preset reference value, determines that the dangerous situation and transmits the broadcast information to the surrounding vehicles,
The first vehicle determines that the traffic jam is determined to be the traffic jam when the average vehicle speed during a preset time of one of the preceding vehicle and the first vehicle of the first vehicle is equal to or less than a preset reference vehicle speed. Transfer to nearby vehicles,
The second vehicle may include location information of the first vehicle based on a distance between a preceding vehicle and the second vehicle of the second vehicle and an estimated position of the preceding vehicle of the second vehicle based on the position of the second vehicle. And outputs front image information of the first vehicle only when it is determined that the first vehicle is a preceding vehicle of the second vehicle,
The surrounding image information includes rear image information of the first vehicle,
When the average vehicle speed during a preset time period of one of the following vehicle and the first vehicle of the first vehicle is less than or equal to a preset reference vehicle speed, the first vehicle determines that the traffic jam is to determine the broadcast information. Transfer to nearby vehicles,
The second vehicle may include location information of the first vehicle based on a distance between a subsequent vehicle of the second vehicle and the second vehicle, and a position of a subsequent vehicle of the second vehicle estimated based on the position of the second vehicle. And the rear image information of the first vehicle is output only when it is determined that the first vehicle is a subsequent vehicle of the second vehicle.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 차량 및 상기 제2 차량은 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 상기 브로드캐스트 정보를 송수신하는 것을 특징으로 하는 차량의 주변 상황 인지 시스템.
The method of claim 1,
And the first vehicle and the second vehicle transmit and receive the broadcast information using a vehicle to vehicle (V2V).
제1항에 있어서,
상기 제2 차량은, 상기 제1 차량의 주변 영상 정보를 증강현실(AR: Augmented Reality)을 이용하여 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 시스템.
The method of claim 1,
And the second vehicle outputs surrounding image information of the first vehicle using Augmented Reality (AR).
제1 차량이, 주변에 위험 상황 또는 정체 상황이 발생하였는지 여부를 판단하는 제1 판단 단계;
상기 위험 상황 또는 상기 정체 상황이 발생한 것으로 판단된 경우, 상기 제1 차량이 브로드캐스트(Broadcast) 정보를 주변 차량으로 전송하는 전송 단계로서, 상기 브로드캐스트 정보는 상기 제1 차량의 위치 정보 및 상기 제1 차량의 주변 영상 정보를 포함하는, 전송 단계;
제2 차량이, 상기 제1 차량으로부터 전송받은 상기 제1 차량의 위치 정보에 기초하여 상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인지 여부를 판단하는 제2 판단 단계; 및
상기 제1 차량이 상기 제2 차량의 선행 차량 또는 후속 차량인 것으로 판단된 경우, 상기 제2 차량이 상기 제1 차량으로부터 전송받은 상기 제1 차량의 주변 영상 정보를 출력하는 출력 단계;
를 포함하고,
상기 주변 영상 정보는 상기 제1 차량의 전방 영상 정보를 포함하고,
상기 제1 판단 단계에서, 상기 제1 차량은,
상기 제1 차량의 전방 객체 및 상기 제1 차량 간의 거리 감소율이 미리 설정된 기준치 이상인 경우 상기 위험 상황이 발생한 것으로 판단하고, 상기 제1 차량의 선행 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우 상기 정체 상황이 발생한 것으로 판단하며,
상기 제2 판단 단계에서, 상기 제2 차량은,
상기 제2 차량의 선행 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 선행 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 선행 차량인지 여부를 판단하고,
상기 출력 단계에서, 상기 제2 차량은,
상기 제1 차량이 상기 제2 차량의 선행 차량인 것으로 판단된 경우에만 상기 제1 차량의 전방 영상 정보를 출력하고,
상기 주변 영상 정보는 상기 제1 차량의 후방 영상 정보를 포함하고,
상기 제1 판단 단계에서, 상기 제1 차량은,
상기 제1 차량의 후속 차량 및 상기 제1 차량 중 어느 하나의 차량의 미리 설정된 시간 동안의 평균 차속이 미리 설정된 기준 차속 이하인 경우, 상기 정체 상황이 발생한 것으로 판단하고,
제2 판단 단계에서, 상기 제2 차량은,
상기 제2 차량의 후속 차량 및 상기 제2 차량 간의 거리와, 상기 제2 차량의 위치에 근거하여 추정된 상기 제2 차량의 후속 차량의 위치를 상기 제1 차량의 위치 정보와 비교하여 상기 제1 차량이 상기 제2 차량의 후속 차량인지 여부를 판단하고,
상기 출력 단계에서, 상기 제2 차량은,
상기 제1 차량이 상기 제2 차량의 후속 차량인 것으로 판단된 경우에만 상기 제1 차량의 후방 영상 정보를 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 방법.
A first determination step of determining, by the first vehicle, whether a dangerous situation or a congestion situation has occurred in the vicinity;
When it is determined that the dangerous situation or the congestion occurs, the first vehicle transmits broadcast information to surrounding vehicles, wherein the broadcast information includes location information of the first vehicle and the first vehicle. A transmission step including surrounding image information of the first vehicle;
A second determination step of determining, by the second vehicle, whether the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle based on the position information of the first vehicle received from the first vehicle; And
An output step of outputting, by the second vehicle, surrounding image information of the first vehicle received from the first vehicle when it is determined that the first vehicle is a preceding vehicle or a subsequent vehicle of the second vehicle;
Including,
The surrounding image information includes front image information of the first vehicle.
In the first determination step, the first vehicle,
When the distance reduction rate between the front object of the first vehicle and the first vehicle is equal to or greater than a preset reference value, it is determined that the dangerous situation occurs, and the preset vehicle of any one of the preceding vehicle and the first vehicle of the first vehicle is determined. If the average vehicle speed during the time is less than the predetermined reference vehicle speed, it is determined that the congestion occurred.
In the second determination step, the second vehicle,
The first vehicle is compared with the position information of the first vehicle by comparing the distance between the preceding vehicle and the second vehicle of the second vehicle and the position of the preceding vehicle estimated based on the position of the second vehicle. Determine whether the vehicle is a preceding vehicle of the second vehicle,
In the output step, the second vehicle,
Output front image information of the first vehicle only when it is determined that the first vehicle is a preceding vehicle of the second vehicle,
The surrounding image information includes rear image information of the first vehicle,
In the first determination step, the first vehicle,
If the average vehicle speed during a preset time of a subsequent vehicle of the first vehicle and any one of the first vehicle is less than or equal to a preset reference vehicle speed, it is determined that the congestion situation has occurred,
In a second determination step, the second vehicle,
The distance between a subsequent vehicle of the second vehicle and the second vehicle and a position of a subsequent vehicle of the second vehicle estimated based on the position of the second vehicle are compared with the position information of the first vehicle to compare the first vehicle with the first vehicle. Determine whether the vehicle is a subsequent vehicle of the second vehicle,
In the output step, the second vehicle,
And the rear image information of the first vehicle is output only when it is determined that the first vehicle is a subsequent vehicle of the second vehicle.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제9항에 있어서,
상기 제1 차량 및 상기 제2 차량은 차량 간 통신(V2V: Vehicle to Vehicle)을 이용하여 상기 브로드캐스트 정보를 송수신하는 것을 특징으로 하는 차량의 주변 상황 인지 방법.
The method of claim 9,
And the first vehicle and the second vehicle transmit and receive the broadcast information using a vehicle to vehicle (V2V).
제9항에 있어서,
상기 출력 단계에서, 상기 제2 차량은,
상기 제1 차량의 주변 영상 정보를 증강현실(AR: Augmented Reality)을 이용하여 출력하는 것을 특징으로 하는 차량의 주변 상황 인지 방법.
The method of claim 9,
In the output step, the second vehicle,
The surrounding situation information recognition method of the vehicle, characterized in that for outputting the surrounding image information of the first vehicle using Augmented Reality (AR).
KR1020170106472A 2017-08-23 2017-08-23 System for recognizing circumstance of vehicle and method thereof KR102050991B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170106472A KR102050991B1 (en) 2017-08-23 2017-08-23 System for recognizing circumstance of vehicle and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170106472A KR102050991B1 (en) 2017-08-23 2017-08-23 System for recognizing circumstance of vehicle and method thereof

Publications (2)

Publication Number Publication Date
KR20190022949A KR20190022949A (en) 2019-03-07
KR102050991B1 true KR102050991B1 (en) 2019-12-02

Family

ID=65760741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170106472A KR102050991B1 (en) 2017-08-23 2017-08-23 System for recognizing circumstance of vehicle and method thereof

Country Status (1)

Country Link
KR (1) KR102050991B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102203218B1 (en) * 2019-06-05 2021-01-14 에스케이텔레콤 주식회사 Method and apparatus for sharing image information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741433B1 (en) * 2015-06-09 2017-05-30 엘지전자 주식회사 Driver assistance apparatus and control method for the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101377153B1 (en) * 2012-02-07 2014-03-25 최광주 Traffic condition information sharing method between vehicles
KR20160112545A (en) * 2015-03-19 2016-09-28 현대자동차주식회사 Vehicle and method for controlling vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101741433B1 (en) * 2015-06-09 2017-05-30 엘지전자 주식회사 Driver assistance apparatus and control method for the same

Also Published As

Publication number Publication date
KR20190022949A (en) 2019-03-07

Similar Documents

Publication Publication Date Title
CN106004879B (en) Vehicle driving assistance system and control method thereof
CN108447302B (en) Information processing apparatus and recording medium
US10347129B2 (en) Vehicle system with truck turn alert
JP5849040B2 (en) Vehicle driving support control device
US9493117B2 (en) Vehicle blind spot system operation with trailer tow
JP5345350B2 (en) Vehicle driving support device
US9223311B2 (en) Vehicle driving support control apparatus
US8886386B2 (en) Method for wireless communication between vehicles
US20170008531A1 (en) Driving assistant for vehicles
US20190329780A1 (en) Method and Device for Supporting a Lane Change for a Vehicle
CN109219546B (en) Parking assistance device and parking assistance method
US10661803B2 (en) Vehicle travel control method and travel control device
US20090265107A1 (en) Vehicle drive assist system
JP6468204B2 (en) Preventive safety device when changing course of small vehicle
US11027667B2 (en) Display method and apparatus
US20160306357A1 (en) Automated vehicle system with position bias for motorcycle lane splitting
CA3035719C (en) Obstacle determination method, parking support method, dispatch support method, and obstacle determination device
US10192447B2 (en) Inter-vehicle information sharing system
JP5482670B2 (en) Object detection device
US20190135169A1 (en) Vehicle communication system using projected light
JP2008250503A (en) Operation support device
US11097733B2 (en) Apparatus and method for controlling reverse driving
KR20180070300A (en) Parking Assist System And Method Thereof
KR102050991B1 (en) System for recognizing circumstance of vehicle and method thereof
KR20190061137A (en) Apparatus for keeping virtual lane and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant