KR102505533B1 - Dynamic autonomous driving assistant system using v2i communication - Google Patents

Dynamic autonomous driving assistant system using v2i communication Download PDF

Info

Publication number
KR102505533B1
KR102505533B1 KR1020200154607A KR20200154607A KR102505533B1 KR 102505533 B1 KR102505533 B1 KR 102505533B1 KR 1020200154607 A KR1020200154607 A KR 1020200154607A KR 20200154607 A KR20200154607 A KR 20200154607A KR 102505533 B1 KR102505533 B1 KR 102505533B1
Authority
KR
South Korea
Prior art keywords
driving
link
vehicle
autonomous driving
data
Prior art date
Application number
KR1020200154607A
Other languages
Korean (ko)
Other versions
KR20220067874A (en
Inventor
윤일수
박상민
박성호
정하림
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020200154607A priority Critical patent/KR102505533B1/en
Publication of KR20220067874A publication Critical patent/KR20220067874A/en
Application granted granted Critical
Publication of KR102505533B1 publication Critical patent/KR102505533B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2201/00Application
    • G05D2201/02Control of position of land vehicles
    • G05D2201/0213Road vehicle, e.g. car or truck

Abstract

V2I 통신을 이용한 동적 자율주행 지원 시스템이 개시되며, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 방법은, 차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 상기 차량에 설치된 센서에 의해 수집된 센서 데이터를 수신하는 단계, 상기 주행 경로와 연계된 주행환경 데이터를 수집하는 단계, 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 운행설계영역을 동적으로 변경하는 단계 및 상기 변경된 운행설계영역에 대한 정보를 상기 차량에 전송하는 단계를 포함할 수 있다.A dynamic autonomous driving support system using V2I communication is disclosed, and a method for supporting dynamic autonomous driving using V2I communication according to an embodiment of the present invention includes driving including an operation design domain (ODD) and a driving route of a vehicle. Receiving data and sensor data collected by a sensor installed in the vehicle, collecting driving environment data associated with the driving route, and designing the driving based on the driving data, the sensor data, and the driving environment data. Dynamically changing an area and transmitting information on the changed driving design area to the vehicle.

Figure R1020200154607
Figure R1020200154607

Description

V2I 통신을 이용한 동적 자율주행 지원 시스템{DYNAMIC AUTONOMOUS DRIVING ASSISTANT SYSTEM USING V2I COMMUNICATION}Dynamic autonomous driving support system using V2I communication {DYNAMIC AUTONOMOUS DRIVING ASSISTANT SYSTEM USING V2I COMMUNICATION}

본원은 V2I 통신을 이용한 동적 자율주행 지원 시스템에 관한 것이다. 예를 들면, 본원은 V2I(Vehicle to Infrastructure) 통신을 이용한 동적 자율주행 지원 장치 및 방법과 V2I 통신을 이용한 동적 자율주행 방법에 관한 것이다.The present application relates to a dynamic autonomous driving support system using V2I communication. For example, the present disclosure relates to a dynamic autonomous driving support apparatus and method using V2I (Vehicle to Infrastructure) communication and a dynamic autonomous driving method using V2I communication.

미국 자동차 공학회(SAE)에 따른 자율주행 레벨을 기준으로 Level 5(완전자율주행) 이하의 레벨의 자율주행자동차는 해당 자동차의 제조업체가 부여한 운행설계영역(Operation Design Domain, ODD) 내에서만 자율주행이 가능하고, 통상적으로 운행설계영역(ODD)을 벗어나게 되면 자율주행이 불가능하다. 즉, 운행설계영역(ODD)은 자율주행자동차의 제조업체가 자율주행 가능한 상황을 명시하여 놓은 구간을 의미하는 정적인 개념으로 활용되고 있다.Based on the level of self-driving according to the Society of Automotive Engineers (SAE), self-driving cars with a level of Level 5 (completely autonomous driving) or lower can autonomously drive only within the Operation Design Domain (ODD) assigned by the manufacturer of the car. It is possible, and autonomous driving is usually impossible when it is out of the driving design area (ODD). In other words, the driving design area (ODD) is used as a static concept that means a section in which manufacturers of autonomous vehicles specify situations in which autonomous driving is possible.

그러나, 교통 상황, 날씨, 조도 등 다양한 자율주행자동차가 통행 가능한 도로의 환경적 요소는 시간의 흐름, 상황 등에 따라 유동적으로 변화할 수 있고, 이에 따라 자율주행이 가능한 운행설계영역(ODD) 내로 설정된 구간에서도 날씨, 조도 등에 의한 노면상태, 그림자 존부, 장애물, 유고상황 등으로 인하여 자율주행이 어려운 상황이 발생할 수 있다.However, environmental factors such as traffic conditions, weather, and illumination of roads that various self-driving vehicles can pass through can change flexibly according to the passage of time and circumstances, and accordingly set within the driving design area (ODD) where autonomous driving is possible. Even in the section, a situation in which autonomous driving is difficult may occur due to road conditions such as weather, illumination, existence of shadows, obstacles, and accidents.

따라서, 인프라와 자율주행자동차가 V2I 통신 등을 통해 상호 작용하며 자율주행의 안정성 및 신뢰성을 향상시킬 수 있는 자율주행 지원 시스템의 개발 및 도입이 요구된다.Therefore, it is required to develop and introduce an autonomous driving support system that can improve the stability and reliability of autonomous driving by interacting with the infrastructure and autonomous vehicles through V2I communication.

본원의 배경이 되는 기술은 한국등록특허공보 제10-2107466호에 개시되어 있다.The background technology of the present application is disclosed in Korean Patent Registration No. 10-2107466.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 자율주행자동차에 대한 운행설계영역(ODD)을 도로 상황 등에 따라 능동적으로 판단하여 자율주행을 지원하는 V2I 통신을 이용한 동적 자율주행 지원 시스템을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and provides a dynamic autonomous driving support system using V2I communication that supports autonomous driving by actively determining the driving design area (ODD) for autonomous vehicles according to road conditions, etc. intended to do

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 안전하고 신뢰성 높은 자율주행을 지원하는 V2I 통신을 이용한 동적 자율주행 지원 시스템을 제공하려는 것을 목적으로 한다.The present application is to solve the problems of the prior art described above, and an object of the present application is to provide a dynamic autonomous driving support system using V2I communication that supports safe and reliable autonomous driving.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the embodiments of the present application is not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 방법은, 차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 상기 차량에 설치된 센서에 의해 수집된 센서 데이터를 수신하는 단계, 상기 주행 경로와 연계된 주행환경 데이터를 수집하는 단계, 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 운행설계영역을 동적으로 변경하는 단계 및 상기 변경된 운행설계영역에 대한 정보를 상기 차량에 전송하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, a method for supporting dynamic autonomous driving using V2I communication according to an embodiment of the present application includes driving data including an Operation Design Domain (ODD) and a driving route of a vehicle. and receiving sensor data collected by a sensor installed in the vehicle. Collecting driving environment data associated with the driving route. The driving design area based on the driving data, the sensor data, and the driving environment data. and transmitting information on the changed driving design area to the vehicle.

또한, 상기 동적으로 변경하는 단계는, 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성할 수 있다.In addition, the dynamically changing step may generate determination information on autonomous driving availability for each section of the driving route based on the driving data, the sensor data, and the driving environment data.

또한, 상기 판단 정보는, 상기 차량이 상기 센서 데이터에 기초하여 자율주행이 가능한 상태인 제1판단 정보, 상기 차량이 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 자율주행이 가능한 상태인 제2판단 정보 또는 상기 차량의 자율주행이 불가능한 상태인 제3판단 정보를 포함할 수 있다.In addition, the determination information includes first determination information indicating that the vehicle is capable of autonomous driving based on the sensor data, and second determination information indicating that the vehicle is capable of autonomous driving based on the sensor data and the driving environment data. information or third determination information indicating a state in which autonomous driving of the vehicle is impossible.

또한, 상기 판단 정보를 생성하는 단계는, 상기 주행 경로를 링크 단위로 분할하는 단계 및 상기 분할된 링크마다 상기 판단 정보를 생성하는 단계를 포함할 수 있다.In addition, the generating of the determination information may include dividing the driving route into link units and generating the determination information for each of the divided links.

또한, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 방법은, 상기 전송하는 단계 이후에, 상기 제2판단 정보가 생성된 링크에 대하여 수집되는 상기 주행환경 데이터를 상기 차량으로 전송하는 단계를 포함할 수 있다.In addition, in the dynamic self-driving support method using V2I communication according to an embodiment of the present application, after the transmitting step, the driving environment data collected with respect to the link in which the second determination information is generated is transmitted to the vehicle. steps may be included.

또한, 상기 링크마다 상기 판단 정보를 생성하는 단계는, 상기 주행환경 데이터에 기초하여 상기 차량이 통과할 링크에 대한 노면상태 정보 및 음영 정보를 예측하는 단계 및 상기 예측된 노면상태 정보 및 음영 정보에 기초하여 해당 링크에 대한 상기 판단 정보를 생성하는 단계를 포함할 수 있다.In addition, the generating of the determination information for each link may include predicting road surface condition information and shade information for a link through which the vehicle will pass based on the driving environment data, and the predicted road surface condition information and shade information Based on the method, generating the determination information for the corresponding link may be included.

또한, 상기 주행환경 데이터는, 상기 링크의 노면상태에 대한 시계열 데이터를 포함할 수 있다.In addition, the driving environment data may include time-series data about the road surface condition of the link.

또한, 상기 예측하는 단계는, 상기 시계열 데이터가 입력되면 상기 노면상태의 변화를 예측하도록 미리 학습된 LSTM(Long Short-Term Memory) 기반의 모델에 기초하여 상기 노면상태 정보를 예측할 수 있다.In the predicting step, the road surface condition information may be predicted based on a long short-term memory (LSTM)-based model pre-learned to predict a change in the road surface condition when the time-series data is input.

또한, 상기 주행환경 데이터는, 상기 링크의 노면에 대한 영상 데이터를 포함할 수 있다.Also, the driving environment data may include image data of the road surface of the link.

또한, 상기 예측하는 단계는, 상기 영상 데이터가 입력되면 상기 노면 상의 그림자 존부 및 그림자 길이의 변화를 예측하도록 미리 학습된 YOLO(You Only Look Once) 기반의 모델에 기초하여 상기 음영 정보를 예측할 수 있다.In addition, in the predicting step, the shadow information may be predicted based on a You Only Look Once (YOLO)-based model trained in advance to predict whether a shadow exists on the road surface and a change in shadow length when the image data is input. .

한편, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 방법은, 차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 상기 차량에 설치된 센서에 의해 수집된 센서 데이터를 동적 자율주행 지원 장치로 전송하는 단계, 상기 주행 데이터, 상기 센서 데이터 및 상기 주행 경로와 연계되어 수집된 주행환경 데이터에 기초하여 생성된 상기 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 상기 동적 자율주행 지원 장치로부터 수신하는 단계 및 상기 판단 정보에 기초하여 상기 차량의 구간별 자율주행 수행 여부를 결정하는 단계를 포함할 수 있다.On the other hand, in the dynamic autonomous driving method using V2I communication according to an embodiment of the present application, driving data including an Operation Design Domain (ODD) and a driving route of a vehicle and sensors collected by sensors installed in the vehicle Transmitting data to a dynamic autonomous driving support device, determining information on autonomous driving per section of the driving route generated based on the driving data, the sensor data, and the driving environment data collected in association with the driving route Receiving from the dynamic self-driving support device and determining whether to perform autonomous driving for each section of the vehicle based on the determination information.

또한, 상기 판단 정보는, 상기 주행 경로에 포함된 링크 각각에 대하여 개별 생성되고, 상기 결정하는 단계는, 상기 링크 각각에 대하여 수신된 상기 판단 정보에 기초하여 상기 링크 각각에 대한 자율주행 수행 여부를 결정할 수 있다.In addition, the determination information is individually generated for each link included in the driving route, and the determining step determines whether autonomous driving is performed for each link based on the determination information received for each link. can decide

또한, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 방법은, 상기 제2판단 정보가 생성된 링크에 대한 주행환경 데이터 요청 신호를 상기 동적 자율주행 지원 장치에 전송하는 단계, 상기 동적 자율주행 지원 장치로부터 상기 주행환경 데이터를 수신하는 단계 및 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 해당 링크에 대한 자율주행을 수행하는 단계를 포함할 수 있다.In addition, the dynamic self-driving method using V2I communication according to an embodiment of the present invention includes transmitting a driving environment data request signal for a link in which the second determination information is generated to the dynamic self-driving support device, the dynamic self-driving The method may include receiving the driving environment data from a driving support device and performing autonomous driving on a corresponding link based on the sensor data and the driving environment data.

한편, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 장치는, 차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 상기 차량에 설치된 센서에 의해 수집된 센서 데이터를 수신하는 통신부, 상기 주행 경로와 연계된 주행환경 데이터를 수집하는 수집부 및 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 운행설계영역을 동적으로 변경하는 판단부를 포함할 수 있다.On the other hand, in the dynamic autonomous driving support device using V2I communication according to an embodiment of the present application, driving data including an operation design domain (ODD) and a driving route of a vehicle and collected by a sensor installed in the vehicle A communication unit for receiving sensor data, a collection unit for collecting driving environment data associated with the driving route, and a determination unit for dynamically changing the driving design area based on the driving data, the sensor data, and the driving environment data. can

또한, 상기 통신부는, 상기 변경된 운행설계영역에 대한 정보를 상기 차량에 전송할 수 있다.Also, the communication unit may transmit information about the changed driving design area to the vehicle.

또한, 상기 판단부는, 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성할 수 있다.In addition, the determination unit may generate determination information about autonomous driving per section of the driving route based on the driving data, the sensor data, and the driving environment data.

또한, 상기 판단부는, 상기 주행 경로를 링크 단위로 분할하고, 상기 분할된 링크마다 상기 판단 정보를 생성할 수 있다.In addition, the determination unit may divide the travel path into link units and generate the determination information for each divided link.

또한, 상기 통신부는, 상기 제2판단 정보가 생성된 링크에 대하여 수집되는 상기 주행환경 데이터를 상기 차량으로 전송할 수 있다.Also, the communication unit may transmit the driving environment data collected with respect to the link in which the second determination information is generated to the vehicle.

또한, 상기 판단부는, 상기 주행환경 데이터에 기초하여 상기 차량이 통과할 링크에 대한 노면상태 정보 및 음영 정보를 예측하고, 상기 예측된 노면상태 정보 및 음영 정보에 기초하여 해당 링크에 대한 상기 판단 정보를 생성할 수 있다.In addition, the determination unit predicts road surface condition information and shade information for a link through which the vehicle will pass based on the driving environment data, and the determination information for the corresponding link based on the predicted road surface condition information and shade information. can create

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as intended to limit the present disclosure. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 자율주행자동차에 대한 운행설계영역(ODD)을 도로 상황 등에 따라 능동적으로 판단하여 자율주행을 지원하는 V2I 통신을 이용한 동적 자율주행 지원 시스템을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide a dynamic autonomous driving support system using V2I communication that supports autonomous driving by actively determining an operation design area (ODD) for an autonomous vehicle according to road conditions, etc.

전술한 본원의 과제 해결 수단에 의하면, 안전하고 신뢰성 높은 자율주행을 지원하는 V2I 통신을 이용한 동적 자율주행 지원 시스템을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide a dynamic autonomous driving support system using V2I communication that supports safe and reliable autonomous driving.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the effects described above, and other effects may exist.

도 1은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 시스템의 개략적인 구성도이다.
도 2는 도로의 노면상태의 변화를 예측하도록 미리 학습되는 LSTM 기반 모델을 설명하기 위한 개념도이다.
도 3은 도로의 음영 정보의 변화를 예측하도록 미리 학습되는 YOLO 기반 모델을 설명하기 위한 개념도이다.
도 4는 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 장치의 개략적인 구성도이다.
도 5는 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 수행 장치의 개략적인 구성도이다.
도 6은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 방법에 대한 동작 흐름도이다.
도 7은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 방법에 대한 동작 흐름도이다.
도 8은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 시스템의 동작 방법에 대한 세부 동작 흐름도이다.
1 is a schematic configuration diagram of a dynamic autonomous driving support system using V2I communication according to an embodiment of the present invention.
2 is a conceptual diagram for explaining an LSTM-based model pre-learned to predict changes in road surface conditions.
3 is a conceptual diagram for explaining a YOLO-based model pre-learned to predict a change in shade information of a road.
4 is a schematic configuration diagram of an apparatus for supporting dynamic autonomous driving using V2I communication according to an embodiment of the present disclosure.
5 is a schematic configuration diagram of an apparatus for performing dynamic self-driving using V2I communication according to an embodiment of the present disclosure.
6 is an operational flowchart for a method for supporting dynamic autonomous driving using V2I communication according to an embodiment of the present disclosure.
7 is an operational flowchart for a dynamic autonomous driving method using V2I communication according to an embodiment of the present disclosure.
8 is a detailed operational flowchart of a method of operating a dynamic autonomous driving support system using V2I communication according to an embodiment of the present disclosure.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail so that those skilled in the art can easily practice with reference to the accompanying drawings. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. And in order to clearly describe the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout the present specification, when a part is said to be “connected” to another part, it is not only “directly connected”, but also “electrically connected” or “indirectly connected” with another element in between. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the present specification, when a member is referred to as being “on,” “above,” “on top of,” “below,” “below,” or “below” another member, this means that a member is located in relation to another member. This includes not only the case of contact but also the case of another member between the two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the present specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.

본원은 V2I 통신을 이용한 동적 자율주행 지원 시스템에 관한 것이다. 예를 들면, 본원은 V2I(Vehicle to Infrastructure) 통신을 이용한 동적 자율주행 지원 장치 및 방법과 V2I 통신을 이용한 동적 자율주행 방법에 관한 것이다.The present application relates to a dynamic autonomous driving support system using V2I communication. For example, the present disclosure relates to a dynamic autonomous driving support apparatus and method using V2I (Vehicle to Infrastructure) communication and a dynamic autonomous driving method using V2I communication.

도 1은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a dynamic autonomous driving support system using V2I communication according to an embodiment of the present invention.

도 1을 참조하면, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 시스템(10)(이하, '동적 자율주행 지원 시스템(10)'이라 한다.)은, 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 장치(100)(이하, '동적 자율주행 지원 장치(100)'라 한다.), 동적 자율주행 수행 장치(200) 및 인프라(300)를 포함할 수 있다.Referring to FIG. 1 , a dynamic autonomous driving support system 10 using V2I communication according to an embodiment of the present application (hereinafter referred to as 'dynamic autonomous driving support system 10') is may include a dynamic self-driving support device 100 using V2I communication according to the present invention (hereinafter referred to as 'dynamic self-driving support device 100'), a dynamic self-driving performance device 200, and an infrastructure 300.

동적 자율주행 지원 장치(100), 동적 자율주행 수행 장치(200) 및 인프라(300) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The dynamic self-driving support device 100 , the dynamic self-driving device 200 , and the infrastructure 300 may communicate with each other through the network 20 . The network 20 refers to a connection structure capable of exchanging information between nodes such as terminals and servers, and examples of such a network 20 include a 3rd Generation Partnership Project (3GPP) network and a Long LTE (LTE) network. Term Evolution (Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network) Network), wifi network, Bluetooth network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. are included, but are not limited thereto.

본원의 일 실시예에 따르면, 동적 자율주행 지원 장치(100) 및 동적 자율주행 수행 장치(200) 중 적어도 하나는 사용자 단말(미도시)에 탑재(설치)되거나 사용자 단말(미도시)에 연동(페어링)되는 형태로 동작하는 것일 수 있다. 사용자 단말(미도시)은 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치일 수 있다. 다른 예로, 동적 자율주행 지원 장치(100)는 차량(1) 및 인프라(300) 사이에서 V2I 통신에 기반하여 필요한 데이터를 송수신하는 서버 형태로 구현될 수 있다.According to an embodiment of the present application, at least one of the dynamic self-driving support device 100 and the dynamic self-driving device 200 is mounted (installed) on a user terminal (not shown) or linked to (not shown) a user terminal (not shown). It may be operated in the form of pairing). User terminals (not shown) include, for example, a smart phone, a smart pad, a tablet PC, and the like and PCS (Personal Communication System), GSM (Global System for Mobile communication), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may be any kind of wireless communication device such as a terminal. As another example, the dynamic self-driving support device 100 may be implemented in the form of a server that transmits and receives necessary data based on V2I communication between the vehicle 1 and the infrastructure 300 .

본원의 일 실시예에 따르면, 동적 자율주행 수행 장치(200)는 차량(1)에 대하여 설치되는 것일 수 있다. 예를 들면, 동적 자율주행 수행 장치(200)는 내비게이션 모듈, 하이패스 모듈 또는 커넥티드 카 모빌리티 서비스 모듈 등 차량(1)에 탑재되어, 차량(1)의 운행 정보를 수집할 수 있는 각종 디바이스, 전술한 디바이스 내에 탑재될 수 있는 하위 모듈 등의 형태로 다양하게 구현될 수 있다.According to an embodiment of the present disclosure, the dynamic self-driving device 200 may be installed in the vehicle 1 . For example, the apparatus 200 for performing dynamic self-driving includes various devices mounted in the vehicle 1 such as a navigation module, a high-pass module, or a connected car mobility service module and capable of collecting driving information of the vehicle 1; It can be variously implemented in the form of a sub-module that can be mounted in the above-described device.

예시적으로, 커넥티드 카 모빌리티 서비스 모듈은 예시적으로 블루링크, UVO 등 원격 시동 서비스, 원격 공조기 제어 서비스 등을 제공하기 위하여 차량 내부에 탑재되며 다른 차량이나 교통 및 통신 인프라, 보행자 단말 등과 실시간으로 통신하며 운전자의 편의와 교통 안전을 돕는 단말을 의미할 수 있다.Illustratively, the connected car mobility service module is illustratively mounted inside a vehicle to provide remote starting services such as Blue Link and UVO, remote air conditioner control services, etc. It may refer to a terminal that communicates and helps the driver's convenience and traffic safety.

또한, 동적 자율주행 수행 장치(200)는 차량의 운전석 하부 또는 차량의 대시보드에 설치되어, 차량 상태, 연비 정보, 연료 정보, 가속도 정보, 차량 고장 내역 등을 저장하는 운행기록 저장 기기인 운행기록 자가 진단 장치(미도시)와 연계된 것일 수 있다.In addition, the dynamic self-driving device 200 is a driving record storage device that is installed under the driver's seat or on the dashboard of the vehicle to store vehicle status, fuel economy information, fuel information, acceleration information, vehicle breakdown history, and the like. It may be associated with a self-diagnosis device (not shown).

또한, 본원의 일 실시예에 따르면, 인프라(300)는, 사물 인터넷(IoT) 장비, 과속 탐지기, 톨게이트 장비, 하이패스 단말, 감시 카메라 등 주행 도로 일 영역 등에 설치되어 인접 주행 차량의 운행 정보를 수집할 수 있는 각종 디바이스를 폭넓게 포함하는 개념으로 이해될 수 있다. 보다 구체적으로, 인프라(300)는 도로의 노면에 대한 영상 데이터를 획득하는 촬영 디바이스(301)를 포함할 수 있다. 예를 들면, 촬영 디바이스(301)는 도로 주변 소정의 위치에 설치되는 CCTV 단말 등일 수 있다.In addition, according to an embodiment of the present application, the infrastructure 300 is installed in an area of a driving road, such as Internet of Things (IoT) equipment, speed detectors, toll gate equipment, high-pass terminals, and surveillance cameras to detect driving information of vehicles traveling nearby. It can be understood as a concept that broadly includes various devices that can be collected. More specifically, the infrastructure 300 may include a photographing device 301 that obtains image data of a road surface. For example, the photographing device 301 may be a CCTV terminal installed at a predetermined location around a road.

또한, 본원의 일 실시예에 따르면, 인프라(300)는 도시 교통 정보 시스템(302)을 포함할 수 있다. 여기서, 도시 교통 정보 시스템(302)은 각 도시의 교통 정보를 생산 및 제공하는 교통 정보 시스템 또는 그와 연계된 서버를 의미할 수 있으며, 구체적으로 주요 도시 각각에 마련된 교통 정보 센터, 수집 제공 장치, 감시 카메라, 가변 전광 표지판(VMS) 등의 도로기반 시설과 연계하여 각종 교통 정보를 생산, 가공 및 제공하는 시스템 또는 서버를 의미할 수 있다.Additionally, according to an embodiment of the present disclosure, infrastructure 300 may include a city traffic information system 302 . Here, the city traffic information system 302 may refer to a traffic information system that produces and provides traffic information for each city or a server associated therewith, and specifically, a traffic information center provided in each major city, a collection and provision device, It may refer to a system or server that produces, processes, and provides various traffic information in connection with road-based facilities such as surveillance cameras and variable electric signage (VMS).

이하에서는, 동적 자율주행 지원 장치(100) 및 동적 자율주행 수행 장치(200)의 기능 및 동작에 대해 상세히 서술하도록 한다.Hereinafter, functions and operations of the dynamic self-driving support device 100 and the dynamic self-driving device 200 will be described in detail.

동적 자율주행 지원 장치(100)는 차량(1)의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 차량(1)에 설치된 센서에 의해 수집된 센서 데이터를 수신할 수 있다. 예를 들어, 동적 자율주행 지원 장치(100)는 동적 자율주행 수행 장치(200)로부터 주행 데이터 및 센서 데이터를 수신하는 것일 수 있다. 다른 예로, 동적 자율주행 지원 장치(100)는 동적 자율주행 수행 장치(200)로부터는 주행 데이터를, 차량(1)에 설치된 센서로부터는 센서 데이터를 각각 수신하도록 동작할 수 있다.The dynamic autonomous driving support device 100 may receive driving data including an Operation Design Domain (ODD) and a driving route of the vehicle 1 and sensor data collected by a sensor installed in the vehicle 1. there is. For example, the dynamic self-driving support device 100 may receive driving data and sensor data from the dynamic self-driving device 200 . As another example, the apparatus 100 for supporting dynamic autonomous driving may operate to receive driving data from the apparatus 200 for performing autonomous driving and sensor data from sensors installed in the vehicle 1 .

참고로, 자율주행차량은 운전자의 개입 없이 스스로 주행하거나 또는 운전자의 개입을 최소로 하면서 주행하기 때문에, 운행 중 도로종류, 날씨 등의 여러 제약 사항 발생시 어떤 기능들이 실행되어야 하는지를 사전에 정의한 운행설계영역(ODD)를 참조하여 주행을 하게 된다. 즉, 본원에서의 운행설계영역(ODD)는 유사 케이스, 주행 시나리오 등을 바탕으로 해당 차량(1)에 대한 제어성능과 안전의 한계성을 사전에 설정한 개념으로 이해될 수 있다.For reference, since an autonomous vehicle drives on its own without driver intervention or with minimal driver intervention, a driving design area predefined which functions should be executed when various constraints such as road types and weather occur during operation. (ODD) to drive. That is, the operation design area (ODD) in the present application may be understood as a concept in which limits of control performance and safety of the vehicle 1 are set in advance based on similar cases, driving scenarios, and the like.

또한, 본원의 일 실시예에 따르면, 센서 데이터를 획득하기 위해 차량(1)에 설치되는 센서는 예를 들어 레이더 센서, 라이다(LiDAR) 센서, 비전 센서, 장애물 감지 센서, 차선 감지 센서, 속도 센서, 압력 센서, 가속도 센서 등을 포함할 수 있다.In addition, according to an embodiment of the present disclosure, sensors installed in the vehicle 1 to obtain sensor data include, for example, a radar sensor, a LiDAR sensor, a vision sensor, an obstacle detection sensor, a lane detection sensor, and a speed sensor. It may include a sensor, a pressure sensor, an acceleration sensor, and the like.

또한, 동적 자율주행 지원 장치(100)는 차량(1)의 주행 경로와 연계된 주행환경 데이터를 수집할 수 있다. 예를 들어, 동적 자율주행 지원 장치(100)는 인프라(300)로부터 주행환경 데이터를 미리 설정된 단위 시간마다 획득하고, 획득된 주행환경 데이터 중에서 차량(1)의 주행 경로와 연계된 주행환경 데이터를 선별하는 방식으로 필요한 주행환경 데이터를 수집하는 것일 수 있다.In addition, the apparatus 100 for supporting dynamic autonomous driving may collect driving environment data associated with a driving route of the vehicle 1 . For example, the dynamic self-driving support device 100 acquires driving environment data from the infrastructure 300 at preset unit time intervals, and among the acquired driving environment data, driving environment data associated with the driving path of the vehicle 1 is selected. It may be to collect necessary driving environment data in a screening method.

또한, 본원의 일 실시예에 따르면, 동적 자율주행 지원 장치(100)는 주행환경 데이터를 제공한 인프라(300)의 세부 유형(예를 들면, 촬영 디바이스(301), 도로 교통 정보 시스템(302) 등)에 대응하는 신뢰도 정보를 보유할 수 있다. 또한, 동적 자율주행 지원 장치(100)는 복수의 주체(인프라 단말)로부터 동일한 도로(링크)에 대한 주행환경 데이터가 수신된 경우 보유한 신뢰도 정보에 기초하여 수집 주체에 따라 불일치하는 주행환경 데이터를 어느 하나의 수집 주체에 대응하는 데이터로 할당할 수 있다. 예시적으로, 신뢰도 정보는 촬영 디바이스(301)의 경우, 촬영 디바이스(301)에 의해 촬영되는 도로(노면)의 면적 정보, 해상도 정보 등에 기초하여 설정되는 것일 수 있다. 이해를 돕기 위해 예시하면, 도로(노면)을 보다 넓은 면적으로 촬영하도로 설치되는 촬영 디바이스(301)에 대하여는 해당 촬영 디바이스(301)보다 작은 면적으로 해당 도로(노면)을 촬영하는 촬영 디바이스(301) 대비 높은 신뢰도가 부여되는 것일 수 있다.In addition, according to an embodiment of the present application, the dynamic self-driving support apparatus 100 includes detailed types of the infrastructure 300 that provided driving environment data (eg, the photographing device 301 and the road traffic information system 302). etc.) may have reliability information corresponding to In addition, when driving environment data for the same road (link) is received from a plurality of subjects (infrastructure terminals), the apparatus 100 for supporting dynamic self-driving determines which driving environment data is inconsistent according to the collection subject based on the reliability information possessed. It can be allocated as data corresponding to one collection entity. Illustratively, in the case of the photographing device 301 , the reliability information may be set based on area information and resolution information of a road (road surface) photographed by the photographing device 301 . For better understanding, with respect to the photographing device 301 installed to photograph a road (road surface) in a wider area, the photographing device 301 photographs the road (road surface) in a smaller area than the corresponding photographing device 301. ) may be given high reliability.

또한, 본원의 일 실시예에 따르면, 인프라(300)에 의해 획득되어 동적 자율주행 지원 장치(100)로 전송되는 주행환경 데이터는 도로(노면)의 온도 정보, 도로(노면)의 상태 정보, 도로(노면)에 대한 이미지(영상) 정보, 장애물 정보, 도로 시설물 정보, 교통량 정보, 사고 발생 지역 정보 등을 포함할 수 있다. 달리 말해, 인프라(300)를 통해 수집되는 주행환경 데이터는 차량(1)의 주행에 영향을 미칠 수 있으나 차량(1)에 설치되는 차량 센서만으로는 획득하기 어려운 각종 정보를 포함할 수 있다. 특히, 도로(노면)의 상태 정보는 건조 상태, 습윤 상태, 결빙 상태 등 차량(1)의 주행 및 제동에 큰 영향을 미칠 수 있는 도로(노면)의 상태를 분석한 결과를 포함할 수 있다. 특히, 도로(노면)의 상태 정보는 해당 도로에서의 결빙 구간의 위치 정보를 포함할 수 있다.In addition, according to an embodiment of the present application, the driving environment data obtained by the infrastructure 300 and transmitted to the dynamic self-driving support apparatus 100 include temperature information of the road (road surface), condition information of the road (road surface), road It may include image (video) information on (road surface), obstacle information, road facility information, traffic volume information, accident area information, and the like. In other words, the driving environment data collected through the infrastructure 300 may affect the driving of the vehicle 1 but may include various types of information that are difficult to obtain using only vehicle sensors installed in the vehicle 1 . In particular, the road (road surface) condition information may include a result of analyzing a road (road surface) condition that may greatly affect driving and braking of the vehicle 1, such as a dry state, a wet state, and an icy state. In particular, the condition information of the road (road surface) may include location information of an icy section on the corresponding road.

또한, 동적 자율주행 지원 장치(100)는 수신한 주행 데이터, 센서 데이터 및 주행환경 데이터에 기초하여 차량(1)에 대하여 미리 설정된 운행설계영역(ODD)을 동적으로 변경할 수 있다. 보다 구체적으로, 동적 자율주행 지원 장치(100)는 주행 데이터, 센서 데이터 및 주행환경 데이터에 기초하여 차량(1)의 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성할 수 있다. 참고로, 본원의 실시예에 관하 설명에서 주행 경로를 분할하는 단위인 주행 경로의 구간은 교차로와 교차로 사이의 도로를 의미하는 '링크'를 단위로 할 수 있다. 달리 말해, 본원의 구현예에 따라 주행 경로의 구간 각각은 적어도 하나의 링크를 포함하도록 분할될 수 있다.In addition, the apparatus 100 for supporting dynamic autonomous driving may dynamically change the driving design area ODD preset for the vehicle 1 based on the received driving data, sensor data, and driving environment data. More specifically, the apparatus 100 for supporting dynamic autonomous driving may generate information for determining autonomous driving for each section of a driving route of the vehicle 1 based on driving data, sensor data, and driving environment data. For reference, in the description of the embodiment of the present application, a section of a driving route, which is a unit for dividing a driving route, may have a 'link', which means an intersection and a road between the intersections, as a unit. In other words, each section of the driving route may be divided to include at least one link according to an embodiment of the present disclosure.

또한, 동적 자율주행 지원 장치(100)는 변경된 운행설계영역(ODD)에 대한 정보를 차량(1)에 전송할 수 있다. 보다 구체적으로, 동적 자율주행 지원 장치(100)는 변경된 운행설계영역(ODD)에 대한 정보인 구간별 자율주행 가부에 대한 판단 정보를 동적 자율주행 수행 장치(200)로 전송할 수 있다. 이와 관련하여, 동적 자율주행 수행 장치(200)는 후술하는 바와 같이 수신한 변경된 운행설계영역(ODD)에 대한 정보 내지 판단 정보를 기초로 자율주행 수행(지속) 여부를 결정할 수 있다.In addition, the apparatus 100 for supporting dynamic autonomous driving may transmit information about the changed driving design area (ODD) to the vehicle 1 . More specifically, the dynamic self-driving support device 100 may transmit, to the dynamic self-driving device 200 , determination information on the availability of autonomous driving for each section, which is information about the changed driving design area (ODD). In this regard, the apparatus 200 for performing autonomous driving may determine whether or not to perform (continue) autonomous driving based on information or judgment information on the changed driving design area (ODD) received as will be described later.

또한, 본원의 일 실시예에 따르면, 동적 자율주행 지원 장치(100)에 의해 생성되는 판단 정보는 차량(1)이 센서 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단된 경우에 생성되는 제1판단 정보, 차량(1)이 센서 데이터 및 주행환경 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단된 경우에 생성되는 제2판단 정보 또는 차량(1)의 자율주행이 불가능한 상태인 것으로 판단된 경우에 생성되는 제3판단 정보를 포함할 수 있다.In addition, according to an embodiment of the present application, the determination information generated by the dynamic self-driving support apparatus 100 is first generated when it is determined that the vehicle 1 is in a state capable of self-driving based on sensor data. Determination information, second judgment information generated when it is determined that the vehicle 1 is in a state capable of autonomous driving based on sensor data and driving environment data, or when it is determined that the vehicle 1 is in a state where autonomous driving is impossible It may include third judgment information generated in .

구체적으로, 동적 자율주행 지원 장치(100)는 해당 구간(링크)에서 차량(1)이 인프라(300)에 의해 수집된 각종 정보(주행환경 데이터) 없이도 차량(1) 내에서 획득되는 센서 데이터만으로 자율주행이 가능한 것으로 판단되면, 제1판단 정보를 생성할 수 있다. 달리 말해, 제1판단 정보는 차량(1)이 자율주행 '가능' 단계인 것으로 판단되는 경우에 생성되는 것으로 이해될 수 있다.Specifically, the dynamic self-driving support apparatus 100 uses only sensor data obtained within the vehicle 1 without various information (driving environment data) collected by the infrastructure 300 for the vehicle 1 in the corresponding section (link). When it is determined that autonomous driving is possible, first determination information may be generated. In other words, it can be understood that the first determination information is generated when it is determined that the vehicle 1 is in the autonomous driving 'capable' stage.

또한, 동적 자율주행 지원 장치(100)는 해당 구간(링크)에서 차량(1)이 자체적으로 수집한 센서 데이터만으로는 자율주행이 어려우나 인프라(300)에 의해 수집된 각종 정보(주행환경 데이터)를 추가로 수신하여 센서 데이터와 주행환경 데이터를 융합(센서 퓨전)하여 자율주행이 가능한 것으로 판단되면, 제2판단 정보를 생성할 수 있다. 달리 말해, 제2판단 정보는 차량(1)이 자율주행 '보통' 단계인 것으로 판단되는 경우에 생성되는 것으로 이해될 수 있다. 또한, 본원의 구현예에 따라 제2판단 정보에 대응하는 자율주행 단계는 '인프라 협력 필요' 단계로 달리 지칭될 수 있다.In addition, the dynamic self-driving support device 100 adds various information (driving environment data) collected by the infrastructure 300 even though autonomous driving is difficult only with sensor data collected by the vehicle 1 itself in the corresponding section (link). and when it is determined that autonomous driving is possible by fusion of sensor data and driving environment data (sensor fusion), second determination information may be generated. In other words, it can be understood that the second determination information is generated when it is determined that the vehicle 1 is in the 'normal' level of autonomous driving. Also, according to an embodiment of the present disclosure, the autonomous driving step corresponding to the second determination information may be otherwise referred to as a 'infrastructure cooperation required' step.

또한, 동적 자율주행 지원 장치(100)는 해당 구간(링크)에서 차량(1)이 자체적으로 수집한 센서 데이터 및 인프라(300)에 의해 수집되는 주행환경 데이터를 함께 활용하더라도 노면상태 등에 의해 자율주행이 불가한 것으로 판단되면, 제3판단 정보를 생성할 수 있다. 달리 말해, 제3판단 정보는 차량(1)이 자율주행 '불가능' 단계인 것으로 판단되는 경우에 생성되는 것으로 이해될 수 있다.In addition, even if the dynamic self-driving support device 100 utilizes the sensor data collected by the vehicle 1 itself and the driving environment data collected by the infrastructure 300 together in the corresponding section (link), autonomous driving is performed by the road surface condition, etc. If it is determined that this is not possible, third decision information may be generated. In other words, it can be understood that the third determination information is generated when it is determined that the vehicle 1 is in an autonomous driving 'impossible' stage.

종합하면, 동적 자율주행 지원 장치(100)는 차량(1)으로부터 수신한 주행 경로를 링크 단위로 분할하고, 분할된 링크마다 또는 적어도 하나의 링크를 포함하는 단위 구간마다 자율주행 가능 여부에 대한 판단 결과를 포함하는 판단 정보를 생성할 수 있다.In summary, the apparatus 100 for supporting dynamic autonomous driving divides the driving route received from the vehicle 1 into link units, and determines whether autonomous driving is possible for each divided link or for each unit section including at least one link. Determination information including a result may be generated.

보다 구체적으로, 동적 자율주행 지원 장치(100)는 인프라(300)로부터 수신한 주행환경 데이터에 기초하여 차량(1)이 통과할 링크에 대한 노면상태 정보 및 음영 정보를 예측할 수 있다. 이하에서는, 동적 자율주행 지원 장치(100)가 미리 구축된 인공지능 모델에 기초하여 노면상태 정보 및 음영 정보를 예측하는 프로세스에 대해 상세히 설명하도록 한다.More specifically, the apparatus 100 for supporting dynamic autonomous driving may predict road surface condition information and shadow information for a link through which the vehicle 1 will pass based on the driving environment data received from the infrastructure 300 . Hereinafter, a process in which the dynamic self-driving support apparatus 100 predicts road surface condition information and shadow information based on a pre-constructed artificial intelligence model will be described in detail.

도 2는 도로의 노면상태의 변화를 예측하도록 미리 학습되는 LSTM 기반 모델을 설명하기 위한 개념도이다.2 is a conceptual diagram for explaining an LSTM-based model pre-learned to predict changes in road surface conditions.

도 2를 참조하면, 동적 자율주행 지원 장치(100)는 인프라(300)로부터 링크의 노면상태(예를 들면, 노면의 온도, 기온, 습도 등의 날씨 정보 등)에 대한 시계열 데이터를 포함하는 주행환경 데이터를 수신할 수 있다. 또한, 동적 자율주행 지원 장치(100)는 소정의 시계열 데이터가 입력되면 해당 시계열 데이터에 기초하여 노면상태의 변화(달리 말해, 다음 시간단위에 대하여 예측되는 노면상태)를 예측하도록 미리 학습된 LSTM(Long Short-Term Memory) 기반의 인공지능 모델에 기초하여 노면상태 정보를 예측할 수 있다.Referring to FIG. 2 , the apparatus 100 for supporting dynamic autonomous driving includes time-series data about the road surface condition of the link (eg, weather information such as temperature, temperature, and humidity of the road surface) from the infrastructure 300 . Environmental data can be received. In addition, when predetermined time-series data is input, the dynamic self-driving support device 100 uses an LSTM (which is pre-learned to predict a change in road surface condition (in other words, a road surface condition predicted for the next time unit) based on the corresponding time-series data) Road surface condition information can be predicted based on an artificial intelligence model based on long short-term memory.

LSTM(Long-Short Term Memory) 알고리즘은 딥러닝 분야에서 사용되는 인공 재귀 신경 네트워크(RNN) 아키텍처의 하나로, 피드 포워드 신경망과 달리 피드백 연결이 존재한다. 따라서, LSTM 알고리즘에 의하면 단일 데이터 포인트뿐만 아니라 전체 데이터 시퀀스에 대한 학습 및 처리를 수행 할 수 있다. The LSTM (Long-Short Term Memory) algorithm is one of the artificial recursive neural network (RNN) architectures used in the field of deep learning. Unlike feed-forward neural networks, feedback connections exist. Therefore, according to the LSTM algorithm, learning and processing can be performed not only for a single data point but also for an entire data sequence.

이러한 LSTM 알고리즘은 시계열 데이터를 기반으로 예측을 분류, 처리 및 예측하는 데 적합하며, LSTM은 전통적인 RNN을 통한 훈련에서 발생 가능한 Vanishing Gradient 문제를 해소하는 장점이 있다.These LSTM algorithms are suitable for classifying, processing, and predicting predictions based on time series data, and LSTM has the advantage of solving the vanishing gradient problem that can occur in training through traditional RNN.

다만, 노면상태의 변화를 예측하기 위한 인공지능 모델의 유형은 전술한 LSTM 알고리즘에만 한정되는 것은 아니며, 본원의 구현예에 따라, 동적 자율주행 지원 장치(100)는 LSTM 알고리즘 외에도, Attention 알고리즘, Transformer 알고리즘, BERT(Bidirectional Encoder Representations from Transformers) 알고리즘 등 과거부터 현재까지의 해당 링크의 노면상태를 반영하는 시계열 데이터에 대한 분석을 통해 향후의 노면상태를 예측할 수 있는 시계열 데이터 분석 기반의 인공지능 알고리즘에 기초하여 노면상태 정보를 예측할 수 있다. 즉, 본원에서는 종래에 이미 공지되었거나 향후 개발되는 다양한 시계열 데이터 분석 기반의 알고리즘 모델이 적용될 수 있다.However, the type of artificial intelligence model for predicting changes in road surface conditions is not limited to the above-described LSTM algorithm, and according to the implementation of the present application, the dynamic autonomous driving support device 100 includes an attention algorithm, a transformer, in addition to the LSTM algorithm Algorithm, BERT (Bidirectional Encoder Representations from Transformers) algorithm, etc. Based on artificial intelligence algorithm based on time series data analysis that can predict future road surface conditions through analysis of time series data reflecting the road surface condition of the link from the past to the present. Thus, road surface condition information can be predicted. That is, in the present application, algorithm models based on various time-series data analysis previously known or developed in the future may be applied.

도 3은 도로의 음영 정보의 변화를 예측하도록 미리 학습되는 YOLO 기반 모델을 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining a YOLO-based model pre-learned to predict a change in shade information of a road.

도 3을 참조하면, 동적 자율주행 지원 장치(100)는 인프라(300)로부터 링크의 노면에 대한 영상 데이터를 포함하는 주행환경 데이터를 수신할 수 있다. 또한, 동적 자율주행 지원 장치(100)는 소정의 영상 데이터(도 3의 Images)가 입력되면 해당 영상 데이터에 기초하여 노면 상의 그림자의 존부 및 그림자의 길이의 변화를 예측하도록 미리 학습된 YOLO(You Only Look Once) 기반의 모델에 기초하여 음영 정보를 예측할 수 있다.Referring to FIG. 3 , the apparatus 100 for supporting dynamic autonomous driving may receive driving environment data including image data of a road surface of a link from the infrastructure 300 . In addition, when predetermined image data (Images in FIG. 3 ) is input, the dynamic self-driving support device 100 pre-learns YOLO (You Shadow information may be predicted based on a model based on Only Look Once.

YOLO(욜로) 알고리즘은 실시간으로 영상의 의미 영역을 검출하도록 학습되는 객체 탐지 알고리즘의 일 예로, 예시적으로 의미 영역은 소정의 영상 데이터 내에 포함될 수 있는 얼굴, 자동차, 나무, 안경 등과 같은 미리 설정된 객체에 대응하는 영상 패턴일 수 있다. 특히, YOLO 알고리즘에 의할 때 영상 데이터(이미지) 내에 소정의 객체가 포함되어 있는지 여부 또는 소정의 객체가 미등장하고 배경만 단독으로 존재하는지 여부 등이 판단될 수 있다.The YOLO algorithm is an example of an object detection algorithm that is trained to detect a semantic region of an image in real time. The semantic region is exemplarily a preset object such as a face, a car, a tree, glasses, etc. that may be included in predetermined image data. It may be an image pattern corresponding to . In particular, according to the YOLO algorithm, it can be determined whether a predetermined object is included in video data (image) or whether a predetermined object does not appear and only the background exists alone.

구체적으로 YOLO 알고리즘은 교사 학습(supervised learning) 방식 기계학습 알고리즘으로써 인식할 의미 영역과 이에 대한 분류 정보(즉, 라벨링)를 쌍으로 학습 데이터를 생성하고, 다수의 학습 데이터를 입력 파라미터로 하는 학습 모델을 생성하여 임의의 영상에서 학습된 의미 영역을 추출하는 객체 분류를 수행할 수 있다.Specifically, the YOLO algorithm is a supervised learning machine learning algorithm that generates training data by pairing a semantic domain to be recognized with classification information (i.e., labeling), and is a learning model that uses a large number of training data as input parameters. It is possible to perform object classification to extract the learned semantic region from an arbitrary image by generating

또한, 본원의 일 실시예에 따르면, YOLO 알고리즘에 의해 객체 분류가 이루어지는 경우, 추출된 의미 영역이 경계 상자(Bounding Box) 형태로 제공될 수 있으며, 각각의 경계 상자(Bounding Box)에 대한 분류 정보(Object Class)가 함께 제공될 수 있다. 이러한 YOLO 알고리즘은 기계학습 영상 인식 분야에서 성능 및 정확도가 높고 수행 속도가 빠르기 때문에 자율주행 자동차, 영상 내 인물 탐지 등 실시간 사물 인지 분야 등에 활용될 수 있으며, 본원에서 개시하는 동적 자율주행 지원 장치(100)는 YOLO 알고리즘을 활용하여 노면을 촬영한 영상 데이터에서의 그림자의 존재 여부를 판단할 뿐만 아니라, 딥러닝 기법에 기초하여 해당 시점(그림자 존부 판단 시점) 이후의 그림자의 존부 변화, 그림자의 길이 변화에 대한 경향을 예측할 수 있다.In addition, according to an embodiment of the present application, when object classification is performed by the YOLO algorithm, the extracted semantic region may be provided in the form of a bounding box, and classification information for each bounding box (Object Class) can be provided together. Since this YOLO algorithm has high performance and accuracy and fast execution speed in the field of machine learning image recognition, it can be used in the field of real-time object recognition such as self-driving cars and person detection in images. The dynamic self-driving support device disclosed herein (100 ) uses the YOLO algorithm to determine the presence or absence of shadows in the image data of the road surface, as well as changes in the presence or absence of shadows and changes in the length of shadows after that point in time (the point of determining whether shadows exist) trends can be predicted.

또한, 동적 자율주행 지원 장치(100)는 예측된 노면상태 정보 및 음영 정보에 기초하여 해당 링크에 대한 판단 정보를 생성할 수 있다.In addition, the apparatus 100 for supporting dynamic self-driving may generate determination information for a corresponding link based on the predicted road surface condition information and shadow information.

또한, 동적 자율주행 지원 장치(100)는 변경된 운행설계영역(ODD)에 대한 정보를 차량(1)에 전송할 수 있다. 보다 구체적으로, 동적 자율주행 지원 장치(100)는 링크별 또는 적어도 하나의 링크를 포함하는 단위 구간별로 생성된 자율주행 가부에 대한 판단 정보(예를 들면, 제1 내지 제3판단 정보 중 어느 하나)를 차량(1)에 탑재된 동적 자율주행 수행 장치(200)로 전송할 수 있다. 또한, 링크별 또는 적어도 하나의 링크를 포함하는 단위 구간별로 생성되는 판단 정보의 유형은 상황에 따라 각각 상이할 수 있다.In addition, the apparatus 100 for supporting dynamic autonomous driving may transmit information about the changed driving design area (ODD) to the vehicle 1 . More specifically, the apparatus 100 for supporting dynamic self-driving provides determination information (for example, any one of the first to third determination information) on whether autonomous driving is permitted or not generated for each link or for each unit section including at least one link. ) may be transmitted to the dynamic self-driving apparatus 200 mounted in the vehicle 1. In addition, the type of decision information generated for each link or for each unit section including at least one link may be different according to circumstances.

다만, 동적 자율주행 지원 장치(100)는 차량(1)의 주행 경로 상의 모든 링크 또는 단위 구간에 대한 판단 정보의 유형이 제1판단 정보인 경우(달리 말해, 차량(1)이 전체 주행 경로에서 자체적인 자율주행이 가능한 자율주행 '가능' 상태로 판단되는 경우) 전체 주행 경로에 대한 판단 정보를 제1판단 정보로 통합하여 동적 자율주행 수행 장치(200)로 전송할 수 있다.However, the dynamic self-driving support apparatus 100 determines if the type of determination information for all links or unit sections on the driving route of the vehicle 1 is the first determination information (in other words, the vehicle 1 is on the entire driving route). When self-driving is determined to be in an autonomous driving 'enabled' state), determination information on the entire driving route may be integrated as first determination information and transmitted to the dynamic self-driving apparatus 200 .

또한, 본원의 일 실시예에 따르면, 동적 자율주행 지원 장치(100)는 제2판단 정보가 생성된 링크에 대하여 수집되는 주행환경 데이터를 차량(1)으로 전송할 수 있다.In addition, according to an embodiment of the present application, the apparatus 100 for supporting dynamic self-driving may transmit driving environment data collected with respect to a link in which the second determination information is generated to the vehicle 1 .

이와 관련하여, 동적 자율주행 지원 장치(100)로부터 변경된 운행설계영역(ODD)에 대한 정보를 수신한 동적 자율주행 수행 장치(200)가 최종적으로 제2판단 정보가 생성된 링크에 대하여 자율주행을 수행(달리 말해, 차량(1)의 자율주행 기능을 활성화)하는 것으로 결정한 경우, 동적 자율주행 지원 장치(100)는 동적 자율주행 수행 장치(200)로부터 제2판단 정보가 생성된 링크에 대한 주행환경 데이터 요청 신호를 수신할 수 있다. 또한, 동적 자율주행 지원 장치(100)는 수신한 주행환경 데이터 요청 신호에 대응하여 제2판단 정보가 생성된 링크에 대하여 수집된 주행환경 데이터 중 차량(1)의 자율주행에 필요한 정보를 동적 자율주행 수행 장치(200)로 전송함으로써, 차량(1)이 센서 데이터 및 인프라(300)를 통해 수집되는 인프라 협력 정보인 주행환경 데이터를 통합하여 자율주행을 수행하도록 지원할 수 있다.In this regard, the dynamic self-driving device 200 receiving the information on the changed operation design area (ODD) from the dynamic self-driving support device 100 performs autonomous driving on the link where the second determination information is finally generated. When it is determined to perform (in other words, to activate the self-driving function of the vehicle 1), the dynamic self-driving support device 100 drives on the link for which the second determination information is generated from the dynamic self-driving performance device 200. An environment data request signal may be received. In addition, the dynamic autonomous driving support apparatus 100 transmits information necessary for autonomous driving of the vehicle 1 among driving environment data collected for a link in which second determination information is generated in response to the received driving environment data request signal. By transmitting to the driving performance device 200 , the vehicle 1 may support autonomous driving by integrating sensor data and driving environment data, which is infrastructure cooperation information collected through the infrastructure 300 .

또한, 본원의 일 실시예에 따르면, 주행환경 데이터 요청 신호에 대응하여 차량(1)(구체적으로, 동적 자율주행 수행 장치(200)를 의미할 수 있다.)으로 전송되는 주행환경 데이터에는 해당 링크의 노면 상의 장애물의 위치 정보, 전술한 음영 정보에 기초하여 판단되는 해당 링크에서의 그림자의 위치 정보, 전술한 노면상태 정보에 기초하여 판단되는 해당 링크의 노면 상에서의 결빙 위치 정보 등이 포함될 수 있다.In addition, according to an embodiment of the present application, the driving environment data transmitted to the vehicle 1 (specifically, the device 200 for performing dynamic autonomous driving) in response to the driving environment data request signal includes a corresponding link. Information on the location of obstacles on the road, location information of the shadow on the link determined based on the above-described shadow information, and information on the location of icing on the road of the corresponding link determined based on the above-described road surface condition information may be included. .

도 4는 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 장치의 개략적인 구성도이다.4 is a schematic configuration diagram of an apparatus for supporting dynamic autonomous driving using V2I communication according to an embodiment of the present disclosure.

도 4를 참조하면, 동적 자율주행 지원 장치(100)는 통신부(110), 수집부(120) 및 판단부(130)를 포함할 수 있다.Referring to FIG. 4 , the apparatus 100 for supporting dynamic autonomous driving may include a communication unit 110 , a collection unit 120 and a determination unit 130 .

통신부(110)는 차량(1)의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 차량(1)에 설치된 센서에 의해 수집된 센서 데이터를 수신할 수 있다. 또한, 통신부(110)는 변경된 운행설계영역(ODD)에 대한 정보를 차량(1)에 전송할 수 있다.The communication unit 110 may receive driving data including an Operation Design Domain (ODD) and a driving route of the vehicle 1 and sensor data collected by sensors installed in the vehicle 1 . Also, the communication unit 110 may transmit information on the changed driving design area ODD to the vehicle 1 .

수집부(120)는 차량(1)의 주행 경로와 연계된 주행환경 데이터를 수집할 수 있다.The collecting unit 120 may collect driving environment data associated with the driving route of the vehicle 1 .

판단부(130)는 주행 데이터, 센서 데이터 및 주행환경 데이터에 기초하여 차량(1)의 운행설계영역(ODD)을 동적으로 변경할 수 있다. 구체적으로, 판단부(130)는 수신 및 수집한 주행 데이터, 센서 데이터 및 주행환경 데이터에 기초하여 차량(1)의 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성할 수 있다. 특히, 판단부(130)에 의해 생성되는 판단 정보는 차량(1)이 센서 데이터에 기초하여 자율주행이 가능한 상태인 제1판단 정보, 차량(1)이 센서 데이터 및 주행환경 데이터에 기초하여 자율주행이 가능한 상태인 제2판단 정보 또는 차량(1)의 자율주행이 불가능한 상태인 제3판단 정보를 포함할 수 있다.The determination unit 130 may dynamically change the driving design area ODD of the vehicle 1 based on driving data, sensor data, and driving environment data. In detail, the determination unit 130 may generate determination information on autonomous driving per section of the driving route of the vehicle 1 based on the received and collected driving data, sensor data, and driving environment data. In particular, the determination information generated by the determination unit 130 includes first determination information indicating that the vehicle 1 is in a state in which autonomous driving is possible based on sensor data, and the vehicle 1 is autonomously driven based on sensor data and driving environment data. It may include second determination information in a state in which driving is possible or third determination information in a state in which autonomous driving of the vehicle 1 is impossible.

도 5는 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 수행 장치의 개략적인 구성도이다.5 is a schematic configuration diagram of an apparatus for performing dynamic self-driving using V2I communication according to an embodiment of the present disclosure.

도 5를 참조하면, 동적 자율주행 수행 장치(200)는 센서부(210), 통신부(220) 및 결정부(230)를 포함할 수 있다.Referring to FIG. 5 , the apparatus 200 for performing dynamic autonomous driving may include a sensor unit 210 , a communication unit 220 and a determination unit 230 .

센서부(210)는 및 차량(1)에 설치되는 각종 센서를 포함하고, 전술한 센서에 기초하여 센서 데이터를 수집할 수 있다. 예시적으로, 센서부(210)는 레이더 센서, 라이다(LiDAR) 센서, 비전 센서, 장애물 감지 센서, 차선 감지 센서, 속도 센서, 압력 센서, 가속도 센서 등을 포함할 수 있다.The sensor unit 210 may include various sensors installed in the vehicle 1 and collect sensor data based on the sensors described above. For example, the sensor unit 210 may include a radar sensor, a LiDAR sensor, a vision sensor, an obstacle detection sensor, a lane detection sensor, a speed sensor, a pressure sensor, an acceleration sensor, and the like.

통신부(220)는 차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 센서부(210)에 의해 획득된 센서 데이터를 동적 자율주행 지원 장치(100)로 전송할 수 있다.The communication unit 220 may transmit driving data including an Operation Design Domain (ODD) and a driving route of the vehicle and sensor data acquired by the sensor unit 210 to the dynamic autonomous driving support device 100. .

또한, 통신부(220)는 주행 데이터, 센서 데이터 및 주행 경로와 연계되어 수집된 주행환경 데이터에 기초하여 생성된 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 동적 자율주행 지원 장치(100)로부터 수신할 수 있다.In addition, the communication unit 220 transmits determination information on autonomous driving per section of the driving route generated based on driving data, sensor data, and driving environment data collected in association with the driving route from the dynamic autonomous driving support device 100. can receive

결정부(230)는 동적 자율주행 지원 장치(100)로부터 수신한 판단 정보에 기초하여 차량(1)의 구간별 자율주행 수행 여부를 결정할 수 있다. 특히, 판단 정보는 주행 경로에 포함된 링크 각각에 대하여 개별 생성되고, 결정부(230)는 링크 각각에 대하여 수신된 판단 정보에 기초하여 링크 각각에 대한 자율주행 수행 여부를 결정할 수 있다.The determination unit 230 may determine whether to perform autonomous driving for each section of the vehicle 1 based on the determination information received from the apparatus 100 for supporting dynamic autonomous driving. In particular, determination information is individually generated for each link included in the driving route, and the determination unit 230 may determine whether to perform autonomous driving for each link based on the determination information received for each link.

또한, 본원의 일 실시예에 따르면, 결정부(230)는 동적 자율주행 수행 장치(200)에 마련되는 표시부(미도시) 또는 동적 자율주행 수행 장치(200)와 연동되는 사용자 단말(미도시)을 통해 수신한 판단 정보를 사용자(예를 들면, 운전자)에게 시각화하여 제공하는 인터페이스를 표출하고, 표출된 인터페이스에 기초하여 수신되는 사용자 입력되는 링크별 자율주행 선택 입력에 기초하여 링크마다의 자율주행 여부를 결정하는 것일 수 있다. 예시적으로, 자율주행 선택 입력은 링크 마다 생성된 판단 정보에 대응하는 표시(예를 들면, 제1판단 정보가 생성된 구간은 녹색으로, 제2판단 정보가 생성된 구간은 황색으로, 제3판단 정보가 생성된 구간은 적색으로 구분하여 주행 경로를 표시하는 지도 형태의 인터페이스 등) 중 자율주행을 수행할 구간을 선택하는 터치 입력일 수 있다. 다른 예로, 자율주행 선택 입력은 음성 입력일 수 있다.In addition, according to an embodiment of the present application, the determination unit 230 may include a display unit (not shown) provided in the apparatus 200 for performing dynamic self-driving or a user terminal (not shown) interworking with the apparatus 200 for performing dynamic self-driving. Displays an interface that visualizes and provides the judgment information received through the user (eg, driver), and autonomous driving for each link based on the user input based on the displayed interface and the autonomous driving selection input for each link. It may be to decide whether Exemplarily, the autonomous driving selection input is a display corresponding to the determination information generated for each link (eg, a section in which the first determination information is generated is green, a section in which the second determination information is generated is yellow, and a third The section in which the determination information is generated may be a touch input for selecting a section to perform autonomous driving from among a map-type interface displaying a driving route by categorizing it in red. As another example, the autonomous driving selection input may be a voice input.

또한, 본원의 일 실시예에 따르면, 결정부(230)는 동적 자율주행 수행 장치(200) 또는 동적 자율주행 수행 장치(200)와 연동되는 사용자 단말(미도시)을 통해 미리 수신된 자율주행 설정 입력에 기초하여 수신된 판단 정보의 유형에 기초하여 자율주행 여부를 선택적으로 적용할 수 있다. 예시적으로, 미리 수신된 자율주행 설정 입력에 기초하여 해당 차량(1)이 제1판단 정보가 생성된 구간에 대하여만 자율주행을 수행하도록 사전 설정되어 있는 경우, 동적 자율주행 수행 장치(200)는 제1판단 정보가 생성된 구간(링크)에 대하여 별도의 자율주행 선택 입력을 수신하지 않고도 자율주행 기능이 활성화되도록 차량(1)을 제어할 수 있다. 다른 예로, 해당 차량(1)이 제1판단 정보 및 제2판단 정보가 생성된 구간에 대하여 모두 자율주행을 수행하도록 사전 설정되어 있는 경우, 동적 자율주행 수행 장치(200)는 제1판단 정보 또는 제2판단 정보가 생성된 구간(링크)에 대하여 별도의 자율주행 선택 입력을 수신하지 않고도 자율주행 기능이 활성화되도록 차량(1)을 제어할 수 있으며, 제2판단 정보가 생성된 구간(링크)에 대한 주행환경 데이터 요청 신호를 별도의 사용자 입력을 수신하지 않고도 동적 자율주행 지원 장치(100)로 전송하도록 동작할 수 있다.In addition, according to an embodiment of the present application, the determination unit 230 may set the autonomous driving previously received through the dynamic self-driving device 200 or a user terminal (not shown) interworking with the dynamic self-driving device 200. Based on the type of determination information received based on the input, autonomous driving may be selectively applied. Exemplarily, when the vehicle 1 is preset to perform autonomous driving only for the section in which the first determination information is generated based on the previously received autonomous driving setting input, the apparatus 200 for performing dynamic autonomous driving can control the vehicle 1 so that the autonomous driving function is activated without receiving a separate autonomous driving selection input for the section (link) in which the first determination information is generated. As another example, when the vehicle 1 is preset to perform autonomous driving for both sections in which the first determination information and the second determination information are generated, the dynamic self-driving apparatus 200 performs the first determination information or The vehicle 1 can be controlled so that the autonomous driving function is activated without receiving a separate autonomous driving selection input for the section (link) where the second decision information is generated, and the section (link) where the second decision information is generated. It is possible to operate to transmit the driving environment data request signal to the dynamic self-driving support device 100 without receiving a separate user input.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, based on the details described above, the operation flow of the present application will be briefly reviewed.

도 6은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 방법에 대한 동작 흐름도이다.6 is an operational flowchart for a method for supporting dynamic autonomous driving using V2I communication according to an embodiment of the present disclosure.

도 6에 도시된 V2I 통신을 이용한 동적 자율주행 지원 방법은 앞서 설명된 동적 자율주행 지원 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 동적 자율주행 지원 장치(100)에 대하여 설명된 내용은 V2I 통신을 이용한 동적 자율주행 지원 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for supporting dynamic autonomous driving using V2I communication shown in FIG. 6 may be performed by the apparatus 100 for supporting dynamic autonomous driving described above. Therefore, even if the content is omitted below, the description of the dynamic self-driving support device 100 can be equally applied to the description of the dynamic self-driving support method using V2I communication.

도 6을 참조하면, 단계 S11에서 통신부(110)는, 차량(1)의 운행설계영역(ODD) 및 주행 경로를 포함하는 주행 데이터 및 차량(1)에 설치된 센서에 의해 수집된 센서 데이터를 수신할 수 있다.Referring to FIG. 6 , in step S11, the communication unit 110 receives driving data including the driving design area (ODD) and driving route of the vehicle 1 and sensor data collected by sensors installed in the vehicle 1. can do.

다음으로, 단계 S12에서 수집부(120)는, 차량(1)의 주행 경로와 연계된 주행환경 데이터를 수집할 수 있다. 구체적으로, 단계 S12에서 수집부(120)는 인프라(300)로부터 차량(1)이 주행 경로에 해당하는 도로에 대하여 수집된 주행환경 데이터를 수신할 수 있다.Next, in step S12 , the collection unit 120 may collect driving environment data associated with the driving route of the vehicle 1 . Specifically, in step S12 , the collecting unit 120 may receive collected driving environment data about a road corresponding to a driving route of the vehicle 1 from the infrastructure 300 .

다음으로, 단계 S13에서 판단부(130)는, 수신한 주행 데이터, 센서 데이터 및 수집된 주행환경 데이터에 기초하여 운행설계영역(ODD)을 동적으로 변경할 수 있다. 구체적으로, 단계 S13에서 판단부(130)는, 수신한 주행 데이터, 센서 데이터 및 수집된 주행환경 데이터에 기초하여 차량(1)의 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성할 수 있다.Next, in step S13, the determination unit 130 may dynamically change the driving design area ODD based on the received driving data, sensor data, and collected driving environment data. Specifically, in step S13, the determination unit 130 may generate determination information on whether autonomous driving is permitted for each section of the driving route of the vehicle 1 based on the received driving data, sensor data, and collected driving environment data. there is.

본원의 일 실시예에 따르면, 단계 S13에서 판단부(130)는 주행 경로를 링크 단위로 분할할 수 있다. 또한, 단계 S13에서 판단부(130)는 분할된 링크마다 판단 정보를 생성할 수 있다.According to an embodiment of the present application, in step S13, the determination unit 130 may divide the driving route into link units. Also, in step S13, the determination unit 130 may generate determination information for each divided link.

또한, 단계 S13에서 판단부(130)는 주행환경 데이터에 기초하여 차량(1)이 통과할 링크에 대한 노면상태 정보 및 음영 정보를 예측할 수 있다. 또한, 단계 S13에서 판단부(130)는 예측된 노면상태 정보 및 음영 정보에 기초하여 해당 링크에 대한 상기 판단 정보를 생성할 수 있다.Also, in step S13, the determination unit 130 may predict road surface condition information and shadow information for a link through which the vehicle 1 will pass based on the driving environment data. Also, in step S13, the determination unit 130 may generate the determination information for the corresponding link based on the predicted road surface condition information and shade information.

다음으로, 단계 S14에서 통신부(110)는, 변경된 운행설계영역(ODD)에 대한 정보를 차량(1)에 전송할 수 있다.Next, in step S14 , the communication unit 110 may transmit information on the changed driving design area ODD to the vehicle 1 .

상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the foregoing description, steps S11 to S14 may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed.

도 7은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 방법에 대한 동작 흐름도이다.7 is an operational flowchart for a dynamic autonomous driving method using V2I communication according to an embodiment of the present disclosure.

도 7에 도시된 V2I 통신을 이용한 동적 자율주행 방법은 앞서 설명된 동적 자율주행 수행 장치(200)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 동적 자율주행 수행 장치(200)에 대하여 설명된 내용은 V2I 통신을 이용한 동적 자율주행 방법에 대한 설명에도 동일하게 적용될 수 있다.The dynamic self-driving method using V2I communication shown in FIG. 7 may be performed by the dynamic self-driving apparatus 200 described above. Therefore, even if the content is omitted below, the description of the dynamic self-driving device 200 can be equally applied to the description of the dynamic self-driving method using V2I communication.

도 7을 참조하면, 단계 S21에서 통신부(220)는 차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 차량(1)에 설치된 적어도 하나의 센서를 포함하는 센서부(210)를 통해 수집된 차량(1)의 주행과 연계된 센서 데이터를 동적 자율주행 지원 장치(100)로 전송할 수 있다.Referring to FIG. 7 , in step S21, the communication unit 220 transmits driving data including an Operation Design Domain (ODD) and a driving route of the vehicle, and a sensor unit including at least one sensor installed in the vehicle 1. Sensor data associated with the driving of the vehicle 1 collected through 210 may be transmitted to the dynamic self-driving support device 100 .

다음으로, 단계 S22에서 통신부(220)는 주행 데이터, 센서 데이터 및 주행 경로와 연계되어 수집된 주행환경 데이터에 기초하여 생성된 차량(1)의 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 동적 자율주행 지원 장치(100)로부터 수신할 수 있다.Next, in step S22, the communication unit 220 transmits information for determining autonomous driving for each section of the driving route of the vehicle 1 generated based on the driving data, sensor data, and driving environment data collected in association with the driving route. It can be received from the dynamic self-driving support device 100 .

다음으로, 단계 S23에서 결정부(230)는 수신한 판단 정보에 기초하여 차량(1)의 구간별 자율주행 수행 여부를 결정하고, 차량(1)의 자율주행 관련 기능을 구간에 따라 선택적으로 활성화 또는 비활성화할 수 있다.Next, in step S23, the determination unit 230 determines whether to perform autonomous driving for each section of the vehicle 1 based on the received determination information, and selectively activates functions related to autonomous driving of the vehicle 1 according to the section. Or you can disable it.

상술한 설명에서, 단계 S21 내지 S23은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the foregoing description, steps S21 to S23 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present application. Also, some steps may be omitted if necessary, and the order of steps may be changed.

도 8은 본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 시스템의 동작 방법에 대한 세부 동작 흐름도이다.8 is a detailed operational flowchart of a method of operating a dynamic autonomous driving support system using V2I communication according to an embodiment of the present disclosure.

도 8에 도시된 V2I 통신을 이용한 동적 자율주행 지원 시스템의 동작 방법은 앞서 설명된 동적 자율주행 지원 시스템(10)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 동적 자율주행 지원 시스템(10)에 대하여 설명된 내용은 도 8에 대한 설명에도 동일하게 적용될 수 있다.The operation method of the dynamic self-driving support system using V2I communication shown in FIG. 8 may be performed by the dynamic self-driving support system 10 described above. Therefore, even if omitted below, the description of the dynamic self-driving support system 10 can be equally applied to the description of FIG. 8 .

도 8을 참조하면, 단계 S31에서 통신부(110)는 차량(1)의 주행 데이터를 수신할 수 있다.Referring to FIG. 8 , in step S31 , the communication unit 110 may receive driving data of the vehicle 1 .

다음으로, 단계 S32에서 수집부(120)는 인프라(300)로부터 수집된 주행환경 데이터 중 차량(1)의 주행경로에 해당(대응)하는 정보를 추출할 수 있다.Next, in step S32, the collection unit 120 may extract information corresponding to (corresponding to) the driving route of the vehicle 1 from among the driving environment data collected from the infrastructure 300.

다음으로, 단계 S33에서 판단부(130)는 주행 데이터, 센서 데이터 및 주행환경 데이터에 기초하여 차량(1)의 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성할 수 있다.Next, in step S33, the determination unit 130 may generate determination information on whether autonomous driving is permitted for each section of the driving route of the vehicle 1 based on the driving data, sensor data, and driving environment data.

다음으로, 단계 S34에서 판단부(130)는 차량(1)의 주행 경로 상의 모든 링크(또는 적어도 하나의 링크를 포함하는 단위 구간)에서 차량(1)이 센서 데이터만으로 자율주행이 가능한지 여부(자율주행 '가능' 상태인지 여부)를 판단할 수 있다.Next, in step S34, the determination unit 130 determines whether the vehicle 1 is capable of autonomous driving only with sensor data in all links (or unit sections including at least one link) on the driving route of the vehicle 1 (autonomous driving). whether or not driving is 'available') can be determined.

다음으로, 단계 S35에서 통신부(110)는 판단부(130)에 의해 차량(1)의 주행 경로 상의 모든 링크(또는 적어도 하나의 링크를 포함하는 단위 구간)에서 차량(1)이 자율주행이 가능한 것으로 판단되면, 판단 결과를 포함하는 제1판단 정보를 동적 자율주행 수행 장치(200)로 전송할 수 있다.Next, in step S35, the communication unit 110 determines that the vehicle 1 is capable of autonomous driving in all links (or unit sections including at least one link) on the driving route of the vehicle 1 by the determination unit 130. If determined to be true, first determination information including the determination result may be transmitted to the dynamic self-driving device 200 .

반대로, 단계 S34의 판단 결과, 차량(1)의 주행 경로 상의 전체 링크(또는 적어도 하나의 링크를 포함하는 단위 구간)에서 자율주행이 가능하지 않은 것으로 판단된 경우, 단계 S36에서 판단부(130)는 자율주행이 차량(1) 단독으로 가능하지 않은 링크(구간) 및 해당 링크(구간)에서의 자율주행 불가능 원인을 도출할 수 있다.Conversely, as a result of the determination in step S34, when it is determined that autonomous driving is not possible in all links (or unit sections including at least one link) on the driving route of the vehicle 1, the determination unit 130 in step S36 may derive a link (section) in which autonomous driving is not possible by the vehicle 1 alone and a cause of unavailability of autonomous driving in the corresponding link (section).

다음으로, 단계 S37에서 판단부(130)는 자율주행이 차량(1) 단독으로 가능하지 않은 것으로 판단된 링크(구간)에 대하여 파악된 자율주행 불가능 원인에 기초하여 링크(구간) 각각이 인프라(300)의 정보 지원을 통해 센서 데이터 및 주행환경 데이터를 통해 자율주행이 가능한지 여부(자율주행 '보통' 상태인지 여부)를 판단할 수 있다.Next, in step S37, the determination unit 130 determines that each link (section) is an infrastructure (section) based on the identified cause of autonomous driving impossibility for the link (section) for which it is determined that autonomous driving is not possible with the vehicle 1 alone. 300), it is possible to determine whether autonomous driving is possible (whether autonomous driving is in a 'normal' state) through sensor data and driving environment data.

만일, 단계 S37의 판단 결과, 자율주행 '보통' 상태에 대응하는 링크(구간)가 존재하는 경우, 단계 S38에서 통신부(110)는 해당 링크에 대한 제2판단 정보가 동적 자율주행 수행 장치(200) 또는 동적 자율주행 수행 장치(200)와 연동된 사용자 단말(미도시)을 통해 표출되도록 할 수 있다.If, as a result of the determination in step S37, if there is a link (section) corresponding to the autonomous driving 'normal' state, in step S38, the communication unit 110 determines that the second determination information for the corresponding link is the dynamic autonomous driving device 200 ) or through a user terminal (not shown) linked with the dynamic self-driving device 200.

반대로, 단계 S37의 판단 결과, 자율주행 '보통' 상태에 대응하는 링크(구간)가 미존재하는 경우, 단계 S39에서 통신부(110)는 모든 링크(또는 적어도 하나의 링크를 포함하는 단위 구간)에서 차량(1)이 자율주행이 불가능한 것으로 판단된 판단 결과를 포함하는 제3판단 정보를 동적 자율주행 수행 장치(200)로 전송할 수 있다.Conversely, as a result of the determination in step S37, if the link (section) corresponding to the autonomous driving 'normal' state does not exist, in step S39, the communication unit 110 operates in all links (or unit sections including at least one link). The vehicle 1 may transmit third determination information including a determination result that it is determined that autonomous driving is impossible to the dynamic autonomous driving performance device 200 .

상술한 설명에서, 단계 S31 내지 S39는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the foregoing description, steps S31 to S39 may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the present invention. Also, some steps may be omitted if necessary, and the order of steps may be changed.

본원의 일 실시예에 따른 V2I 통신을 이용한 동적 자율주행 지원 방법 및/또는 V2I 통신을 이용한 동적 자율주행 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The dynamic self-driving support method using V2I communication and/or the dynamic self-driving method using V2I communication according to an embodiment of the present application may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. can The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be those specially designed and configured for the present invention or those known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 V2I 통신을 이용한 동적 자율주행 지원 방법 및/또는 V2I 통신을 이용한 동적 자율주행 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described dynamic autonomous driving support method using V2I communication and/or dynamic autonomous driving method using V2I communication may be implemented in the form of a computer program or application stored in a recording medium and executed by a computer.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustrative purposes, and those skilled in the art will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present application.

10: V2I 통신을 이용한 동적 자율주행 지원 시스템
100: 동적 자율주행 지원 장치
110: 통신부
120: 수집부
130: 판단부
200: 동적 자율주행 수행 장치
210: 센서부
220: 통신부
230: 결정부
300: 인프라
20: 네트워크
10: Dynamic autonomous driving support system using V2I communication
100: Dynamic autonomous driving support device
110: communication department
120: collection unit
130: judgment unit
200: dynamic self-driving device
210: sensor unit
220: communication department
230: decision unit
300: infrastructure
20: Network

Claims (16)

V2I 통신을 이용한 동적 자율주행 지원 방법에 있어서,
차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 상기 차량에 설치된 센서에 의해 수집된 센서 데이터를 수신하는 단계;
상기 주행 경로와 연계된 주행환경 데이터를 수집하는 단계;
상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 운행설계영역을 동적으로 변경하는 단계; 및
상기 변경된 운행설계영역에 대한 정보를 상기 차량에 전송하는 단계,
를 포함하고,
상기 운행설계영역을 동적으로 변경하는 단계는,
상기 주행 경로를 링크 단위로 분할하는 단계; 및
상기 분할된 링크를 고려하여 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성하는 단계,
를 포함하고,
상기 판단 정보를 생성하는 단계는,
상기 차량이 상기 주행환경 데이터 없이 상기 센서 데이터만으로 자율주행이 가능한 것으로 판단되는 링크에 대하여, 상기 차량이 상기 센서 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단하는 제1판단 정보를 생성하고,
상기 차량이 상기 센서 데이터만으로 자율주행이 불가하나, 상기 센서 데이터와 상기 주행환경 데이터를 융합하여 자율주행이 가능한 것으로 판단되는 링크에 대하여, 상기 차량이 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단하는 제2판단 정보를 생성하고,
상기 차량이 상기 센서 데이터 및 상기 주행환경 데이터를 융합하여도 자율주행이 불가한 것으로 판단되는 링크에 대하여, 상기 차량의 자율주행이 불가능한 상태인 것으로 판단하는 제3판단 정보를 생성하되,
상기 제1판단 정보 내지 상기 제3판단 정보는,
상기 링크 또는 적어도 하나의 링크를 포함하는 단위 구간별로 개별 생성되는 것을 특징으로 하고,
상기 주행환경 데이터를 수집하는 단계는,
인프라로부터 획득한 상기 주행환경 데이터 중에서 상기 차량의 주행 경로와 연계된 주행환경 데이터를 선별하되, 하나의 링크에 대하여 복수의 인프라로부터 상기 주행환경 데이터가 중복 수신되면, 상기 복수의 인프라 각각의 신뢰도 정보에 기초하여 상기 복수의 인프라 중 어느 하나의 인프라에 대응하는 데이터를 상기 주행환경 데이터로 할당하되, 상기 신뢰도 정보는 상기 인프라가 촬영 디바이스 유형이면, 상기 링크에 대응하는 도로를 상대적으로 넓은 면적으로 촬영하도록 설치되는 촬영 디바이스일수록 높게 부여되는 것을 특징으로 하고,
상기 제1판단 정보 내지 상기 제3판단 정보를 시각화 한 인터페이스가, 상기 차량에 구비되는 동적 자율주행 수행 장치에 마련되는 표시부 또는 상기 동적 자율주행 수행 장치와 연동하는 사용자 단말을 통해 시각화되고, 상기 인터페이스에 기초하여 수신되는 링크별 자율주행 선택 입력에 기초하여 상기 링크마다의 자율 주행 여부가 결정되는 것이되,
상기 제1판단 정보 내지 상기 제3판단 정보 중 특정 유형의 판단 정보가 생성되는 구간에 대하여 자율주행을 수행하도록 사전 설정하는 자율주행 설정 입력이 미리 수신되면, 상기 특정 유형의 판단 정보가 생성된 상기 링크 및 상기 단위 구간 중 적어도 하나에 대하여 상기 자율주행 선택 입력이 미수신되어도 자율주행 기능이 활성화되는 것인, 동적 자율주행 지원 방법.
In the dynamic autonomous driving support method using V2I communication,
Receiving driving data including an Operation Design Domain (ODD) and a driving route of the vehicle and sensor data collected by a sensor installed in the vehicle;
collecting driving environment data associated with the driving route;
dynamically changing the driving design area based on the driving data, the sensor data, and the driving environment data; and
Transmitting information about the changed driving design area to the vehicle;
including,
The step of dynamically changing the driving design area,
Dividing the travel path into link units; and
Generating determination information on autonomous driving availability for each section of the driving route based on the driving data, the sensor data, and the driving environment data in consideration of the divided links;
including,
Generating the determination information,
For a link in which it is determined that the vehicle is capable of autonomous driving only with the sensor data without the driving environment data, first determination information for determining that the vehicle is capable of autonomous driving based on the sensor data is generated;
For a link in which the vehicle cannot perform autonomous driving only with the sensor data, but is determined to be capable of autonomous driving by fusing the sensor data and the driving environment data, the vehicle performs autonomous driving based on the sensor data and the driving environment data. generating second determination information for determining that the vehicle is in a driving state;
Third determination information for determining that autonomous driving of the vehicle is impossible is generated for a link in which autonomous driving is determined to be impossible even when the vehicle fuses the sensor data and the driving environment data;
The first decision information to the third decision information,
Characterized in that it is individually generated for each unit section including the link or at least one link,
Collecting the driving environment data,
Among the driving environment data acquired from the infrastructure, driving environment data associated with the driving path of the vehicle is selected, but if the driving environment data is repeatedly received from a plurality of infrastructures for one link, the reliability information of each of the plurality of infrastructures. Allocate data corresponding to any one of the plurality of infrastructures as the driving environment data based on, and if the reliability information is a photographing device type, the road corresponding to the link is photographed over a relatively large area. It is characterized in that the higher the shooting device installed to be,
An interface visualizing the first determination information to the third determination information is visualized through a display unit provided in a dynamic self-driving device provided in the vehicle or a user terminal interworking with the dynamic self-driving device, and the interface Whether or not autonomous driving for each link is determined based on an autonomous driving selection input for each link received based on
When an autonomous driving setting input is received in advance to perform autonomous driving for a section in which a specific type of determination information is generated among the first to third determination information, the determination information of the specific type is generated. wherein an autonomous driving function is activated even if the autonomous driving selection input is not received for at least one of a link and the unit section.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 전송하는 단계 이후에,
상기 제2판단 정보가 생성된 링크에 대하여 수집되는 상기 주행환경 데이터를 상기 차량으로 전송하는 단계,
를 더 포함하는 것인, 동적 자율주행 지원 방법.
According to claim 1,
After the sending step,
Transmitting the driving environment data collected for the link in which the second determination information is generated to the vehicle;
To further include, dynamic self-driving support method.
제1항에 있어서,
상기 판단 정보를 생성하는 단계는,
상기 주행환경 데이터에 기초하여 상기 차량이 통과할 링크에 대한 노면상태 정보 및 음영 정보를 예측하는 단계; 및
상기 예측된 노면상태 정보 및 음영 정보에 기초하여 해당 링크에 대한 상기 판단 정보를 생성하는 단계,
를 포함하는 것인, 동적 자율주행 지원 방법.
According to claim 1,
Generating the determination information,
predicting road surface condition information and shadow information for a link through which the vehicle will pass based on the driving environment data; and
Generating the determination information for a corresponding link based on the predicted road surface condition information and shade information;
To include, dynamic self-driving support method.
제6항에 있어서,
상기 주행환경 데이터는,
상기 링크의 노면상태에 대한 시계열 데이터를 포함하고,
상기 예측하는 단계는,
상기 시계열 데이터가 입력되면 상기 노면상태의 변화를 예측하도록 미리 학습된 LSTM(Long Short-Term Memory) 기반의 모델에 기초하여 상기 노면상태 정보를 예측하는 것인, 동적 자율주행 지원 방법.
According to claim 6,
The driving environment data,
Including time series data on the road surface condition of the link,
The predicting step is
When the time series data is input, the road surface condition information is predicted based on a long short-term memory (LSTM)-based model learned in advance to predict a change in the road surface condition.
제6항에 있어서,
상기 주행환경 데이터는,
상기 링크의 노면에 대한 영상 데이터를 포함하고,
상기 예측하는 단계는,
상기 영상 데이터가 입력되면 상기 노면 상의 그림자 존부 및 그림자 길이의 변화를 예측하도록 미리 학습된 YOLO(You Only Look Once) 기반의 모델에 기초하여 상기 음영 정보를 예측하는 것인, 동적 자율주행 지원 방법.
According to claim 6,
The driving environment data,
Including image data for the road surface of the link,
The predicting step is
When the image data is input, the shadow information is predicted based on a You Only Look Once (YOLO)-based model pre-learned to predict the existence of a shadow on the road surface and a change in shadow length.
V2I 통신을 이용한 동적 자율주행 방법에 있어서,
차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 상기 차량에 설치된 센서에 의해 수집된 센서 데이터를 동적 자율주행 지원 장치로 전송하는 단계;
상기 주행 데이터, 상기 센서 데이터 및 상기 주행 경로와 연계되어 수집된 주행환경 데이터에 기초하여 생성된 상기 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 상기 동적 자율주행 지원 장치로부터 수신하는 단계; 및
상기 판단 정보에 기초하여 상기 차량의 구간별 자율주행 수행 여부를 결정하는 단계,
를 포함하고,
상기 동적 자율주행 지원 장치는,
상기 주행 경로를 링크 단위로 분할하고, 상기 분할된 링크를 고려하여 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성하고,
상기 동적 자율주행 지원 장치는,
상기 차량이 상기 주행환경 데이터 없이 상기 센서 데이터만으로 자율주행이 가능한 것으로 판단되는 링크에 대하여, 상기 차량이 상기 센서 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단하는 제1판단 정보를 생성하고,
상기 차량이 상기 센서 데이터만으로 자율주행이 불가하나, 상기 센서 데이터와 상기 주행환경 데이터를 융합하여 자율주행이 가능한 것으로 판단되는 링크에 대하여, 상기 차량이 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단하는 제2판단 정보를 생성하고,
상기 차량이 상기 센서 데이터 및 상기 주행환경 데이터를 융합하여도 자율주행이 불가한 것으로 판단되는 링크에 대하여, 상기 차량의 자율주행이 불가능한 상태인 것으로 판단하는 제3판단 정보를 생성하되,
상기 제1판단 정보 내지 상기 제3판단 정보는,
상기 링크 또는 적어도 하나의 링크를 포함하는 단위 구간별로 개별 생성되는 것을 특징으로 하고,
상기 동적 자율주행 지원 장치는,
인프라로부터 획득한 상기 주행환경 데이터 중에서 상기 차량의 주행 경로와 연계된 주행환경 데이터를 선별하되, 하나의 링크에 대하여 복수의 인프라로부터 상기 주행환경 데이터가 중복 수신되면, 상기 복수의 인프라 각각의 신뢰도 정보에 기초하여 상기 복수의 인프라 중 어느 하나의 인프라에 대응하는 데이터를 상기 주행환경 데이터로 할당하되, 상기 신뢰도 정보는 상기 인프라가 촬영 디바이스 유형이면, 상기 링크에 대응하는 도로를 상대적으로 넓은 면적으로 촬영하도록 설치되는 촬영 디바이스일수록 높게 부여되는 것을 특징으로 하고,
상기 수신하는 단계 이후에,
상기 차량에 구비되는 동적 자율주행 수행 장치에 마련되는 표시부 또는 상기 동적 자율주행 수행 장치와 연동하는 사용자 단말을 통해 상기 제1판단 정보 내지 상기 제3판단 정보를 시각화하는 인터페이스를 표출하는 단계; 및
상기 인터페이스에 기초하여 링크별 자율주행 선택 입력 및 자율주행 설정 입력을 수신하는 단계,
를 더 포함하고,
상기 자율주행 수행 여부를 결정하는 단계는,
상기 링크별 자율주행 선택 입력에 기초하여 상기 링크마다의 자율주행 여부를 결정하는 것이되,
상기 제1판단 정보 내지 상기 제3판단 정보 중 특정 유형의 판단 정보가 생성되는 구간에 대하여 자율주행을 수행하도록 사전 설정하는 자율주행 설정 입력이 미리 수신되면, 상기 특정 유형의 판단 정보가 생성된 상기 링크 및 상기 단위 구간 중 적어도 하나에 대하여 상기 자율주행 선택 입력이 미수신되어도 자율주행 기능이 활성화되도록 하는 것인, 동적 자율주행 방법.
In the dynamic autonomous driving method using V2I communication,
Transmitting driving data including an Operation Design Domain (ODD) and a driving route of the vehicle and sensor data collected by a sensor installed in the vehicle to a dynamic autonomous driving support device;
receiving, from the dynamic autonomous driving support device, determination information on whether or not autonomous driving is allowed for each section of the driving route, which is generated based on the driving data, the sensor data, and driving environment data collected in association with the driving route; and
Determining whether to perform autonomous driving for each section of the vehicle based on the determination information;
including,
The dynamic autonomous driving support device,
Dividing the driving route into link units, and generating determination information on autonomous driving availability for each section of the driving route based on the driving data, the sensor data, and the driving environment data in consideration of the divided links;
The dynamic autonomous driving support device,
For a link in which it is determined that the vehicle is capable of autonomous driving only with the sensor data without the driving environment data, first determination information for determining that the vehicle is capable of autonomous driving based on the sensor data is generated;
For a link in which the vehicle cannot perform autonomous driving only with the sensor data, but is determined to be capable of autonomous driving by fusing the sensor data and the driving environment data, the vehicle performs autonomous driving based on the sensor data and the driving environment data. generating second determination information for determining that the vehicle is in a driving state;
Third determination information for determining that autonomous driving of the vehicle is impossible is generated for a link in which autonomous driving is determined to be impossible even when the vehicle fuses the sensor data and the driving environment data;
The first decision information to the third decision information,
Characterized in that it is individually generated for each unit section including the link or at least one link,
The dynamic autonomous driving support device,
Among the driving environment data acquired from the infrastructure, driving environment data associated with the driving path of the vehicle is selected, but if the driving environment data is repeatedly received from a plurality of infrastructures for one link, the reliability information of each of the plurality of infrastructures. Allocate data corresponding to any one of the plurality of infrastructures as the driving environment data based on, and if the reliability information is a photographing device type, the road corresponding to the link is photographed over a relatively large area. It is characterized in that the higher the shooting device installed to be,
After the receiving step,
displaying an interface for visualizing the first to third determination information through a display unit provided in a device for performing dynamic self-driving provided in the vehicle or a user terminal interworking with the device for performing dynamic self-driving; and
Receiving an autonomous driving selection input and an autonomous driving setting input for each link based on the interface;
Including more,
The step of determining whether to perform autonomous driving,
Based on the autonomous driving selection input for each link, whether or not autonomous driving is determined for each link,
When an autonomous driving setting input is received in advance to perform autonomous driving for a section in which a specific type of determination information is generated among the first to third determination information, the determination information of the specific type is generated. The dynamic self-driving method, wherein an autonomous driving function is activated even when the autonomous driving selection input is not received for at least one of a link and the unit section.
삭제delete 제9항에 있어서,
상기 판단 정보는,
상기 주행 경로에 포함된 링크 각각에 대하여 개별 생성되고,
상기 결정하는 단계는,
상기 링크 각각에 대하여 수신된 상기 판단 정보에 기초하여 상기 링크 각각에 대한 자율주행 수행 여부를 결정하는 것인, 동적 자율주행 방법.
According to claim 9,
The judgment information,
Individually generated for each link included in the driving route,
The determining step is
And determining whether or not to perform autonomous driving for each link based on the determination information received for each link.
제11항에 있어서,
상기 제2판단 정보가 생성된 링크에 대한 주행환경 데이터 요청 신호를 상기 동적 자율주행 지원 장치에 전송하는 단계;
상기 동적 자율주행 지원 장치로부터 상기 주행환경 데이터를 수신하는 단계; 및
상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 해당 링크에 대한 자율주행을 수행하는 단계,
를 더 포함하는 것인, 동적 자율주행 방법.
According to claim 11,
transmitting a driving environment data request signal for a link where the second determination information is generated to the dynamic autonomous driving support device;
receiving the driving environment data from the dynamic autonomous driving support device; and
Performing autonomous driving for a corresponding link based on the sensor data and the driving environment data;
To further include, a dynamic self-driving method.
V2I 통신을 이용한 동적 자율주행 지원 장치에 있어서,
차량의 운행설계영역(Operation Design Domain, ODD) 및 주행 경로를 포함하는 주행 데이터 및 상기 차량에 설치된 센서에 의해 수집된 센서 데이터를 수신하는 통신부;
상기 주행 경로와 연계된 주행환경 데이터를 수집하는 수집부; 및
상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 운행설계영역을 동적으로 변경하는 판단부,
를 포함하고,
상기 판단부는,
상기 주행 경로를 링크 단위로 분할하고, 상기 분할된 링크를 고려하여 상기 주행 데이터, 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 상기 주행 경로의 구간별 자율주행 가부에 대한 판단 정보를 생성하고,
상기 판단부는,
상기 차량이 상기 주행환경 데이터 없이 상기 센서 데이터만으로 자율주행이 가능한 것으로 판단되는 링크에 대하여, 상기 차량이 상기 센서 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단하는 제1판단 정보를 생성하고,
상기 차량이 상기 센서 데이터만으로 자율주행이 불가하나, 상기 센서 데이터와 상기 주행환경 데이터를 융합하여 자율주행이 가능한 것으로 판단되는 링크에 대하여, 상기 차량이 상기 센서 데이터 및 상기 주행환경 데이터에 기초하여 자율주행이 가능한 상태인 것으로 판단하는 제2판단 정보를 생성하고,
상기 차량이 상기 센서 데이터 및 상기 주행환경 데이터를 융합하여도 자율주행이 불가한 것으로 판단되는 링크에 대하여, 상기 차량의 자율주행이 불가능한 상태인 것으로 판단하는 제3판단 정보를 생성하되,
상기 제1판단 정보 내지 상기 제3판단 정보는,
상기 링크 또는 적어도 하나의 링크를 포함하는 단위 구간별로 개별 생성되는 것을 특징으로 하고,
상기 통신부는,
상기 변경된 운행설계영역에 대한 정보를 상기 차량에 전송하는 것이고,
상기 수집부는,
인프라로부터 획득한 상기 주행환경 데이터 중에서 상기 차량의 주행 경로와 연계된 주행환경 데이터를 선별하되, 하나의 링크에 대하여 복수의 인프라로부터 상기 주행환경 데이터가 중복 수신되면, 상기 복수의 인프라 각각의 신뢰도 정보에 기초하여 상기 복수의 인프라 중 어느 하나의 인프라에 대응하는 데이터를 상기 주행환경 데이터로 할당하되,
상기 신뢰도 정보는 상기 인프라가 촬영 디바이스 유형이면, 상기 링크에 대응하는 도로를 상대적으로 넓은 면적으로 촬영하도록 설치되는 촬영 디바이스일수록 높게 부여되는 것을 특징으로 하고,
상기 제1판단 정보 내지 상기 제3판단 정보를 시각화 한 인터페이스가 상기 차량에 구비되는 동적 자율주행 수행 장치에 마련되는 표시부 또는 상기 동적 자율주행 수행 장치와 연동하는 사용자 단말을 통해 시각화되고, 상기 인터페이스에 기초하여 수신되는 링크별 자율주행 선택 입력에 기초하여 상기 링크마다의 자율 주행 여부가 결정되는 것이되,
상기 제1판단 정보 내지 상기 제3판단 정보 중 특정 유형의 판단 정보가 생성되는 구간에 대하여 자율주행을 수행하도록 사전 설정하는 자율주행 설정 입력이 미리 수신되면, 상기 특정 유형의 판단 정보가 생성된 상기 링크 및 상기 단위 구간 중 적어도 하나에 대하여 상기 자율주행 선택 입력이 미수신되어도 자율주행 기능이 활성화되는 것인, 동적 자율주행 지원 장치.
In the dynamic self-driving support device using V2I communication,
A communication unit for receiving driving data including an Operation Design Domain (ODD) and a driving route of the vehicle and sensor data collected by a sensor installed in the vehicle;
a collection unit that collects driving environment data associated with the driving route; and
a determination unit that dynamically changes the driving design area based on the driving data, the sensor data, and the driving environment data;
including,
The judge,
Dividing the driving route into link units, and generating determination information on autonomous driving availability for each section of the driving route based on the driving data, the sensor data, and the driving environment data in consideration of the divided links;
The judge,
For a link in which it is determined that the vehicle is capable of autonomous driving only with the sensor data without the driving environment data, first determination information for determining that the vehicle is capable of autonomous driving based on the sensor data is generated;
For a link in which the vehicle cannot perform autonomous driving only with the sensor data, but is determined to be capable of autonomous driving by fusing the sensor data and the driving environment data, the vehicle performs autonomous driving based on the sensor data and the driving environment data. generating second determination information for determining that the vehicle is in a driving state;
Third determination information for determining that autonomous driving of the vehicle is impossible is generated for a link in which autonomous driving is determined to be impossible even when the vehicle fuses the sensor data and the driving environment data;
The first decision information to the third decision information,
Characterized in that it is individually generated for each unit section including the link or at least one link,
The communication department,
Transmitting information on the changed driving design area to the vehicle;
The collection unit,
Among the driving environment data acquired from the infrastructure, driving environment data associated with the driving path of the vehicle is selected, but if the driving environment data is repeatedly received from a plurality of infrastructures for one link, the reliability information of each of the plurality of infrastructures. Allocating data corresponding to any one of the plurality of infrastructures as the driving environment data based on
The reliability information is characterized in that, if the infrastructure is a type of photographing device, the higher the photographing device installed to photograph the road corresponding to the link in a relatively wide area,
An interface visualizing the first determination information to the third determination information is visualized through a display unit provided in a device for performing dynamic self-driving provided in the vehicle or a user terminal interworking with the device for performing dynamic self-driving, and displayed on the interface. Based on the autonomous driving selection input for each link received based on the basis, whether or not autonomous driving is determined for each link,
When an autonomous driving setting input is received in advance to perform autonomous driving for a section in which a specific type of determination information is generated among the first to third determination information, the determination information of the specific type is generated. wherein an autonomous driving function is activated even when the autonomous driving selection input is not received for at least one of a link and the unit section.
삭제delete 제13항에 있어서,
상기 판단부는,
상기 분할된 링크마다 상기 판단 정보를 생성하고,
상기 통신부는,
상기 제2판단 정보가 생성된 링크에 대하여 수집되는 상기 주행환경 데이터를 상기 차량으로 전송하는 것인, 동적 자율주행 지원 장치.
According to claim 13,
The judge,
generating the determination information for each of the divided links;
The communication department,
and transmitting the driving environment data collected with respect to the link in which the second determination information is generated to the vehicle.
제15항에 있어서,
상기 판단부는,
상기 주행환경 데이터에 기초하여 상기 차량이 통과할 링크에 대한 노면상태 정보 및 음영 정보를 예측하고, 상기 예측된 노면상태 정보 및 음영 정보에 기초하여 해당 링크에 대한 상기 판단 정보를 생성하는 것인, 동적 자율주행 지원 장치.
According to claim 15,
The judge,
Predicting road surface condition information and shade information for a link through which the vehicle will pass based on the driving environment data, and generating the determination information for the corresponding link based on the predicted road surface condition information and shade information, Dynamic autonomous driving support device.
KR1020200154607A 2020-11-18 2020-11-18 Dynamic autonomous driving assistant system using v2i communication KR102505533B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200154607A KR102505533B1 (en) 2020-11-18 2020-11-18 Dynamic autonomous driving assistant system using v2i communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200154607A KR102505533B1 (en) 2020-11-18 2020-11-18 Dynamic autonomous driving assistant system using v2i communication

Publications (2)

Publication Number Publication Date
KR20220067874A KR20220067874A (en) 2022-05-25
KR102505533B1 true KR102505533B1 (en) 2023-03-02

Family

ID=81800423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200154607A KR102505533B1 (en) 2020-11-18 2020-11-18 Dynamic autonomous driving assistant system using v2i communication

Country Status (1)

Country Link
KR (1) KR102505533B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102523600B1 (en) * 2022-11-09 2023-04-20 재단법인 지능형자동차부품진흥원 Autonomous driving safety system capable of sharing a risk-based operational design area and the method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139316A (en) 2018-02-06 2019-08-22 国立大学法人 東京大学 Discrimination system, discrimination device, discrimination method, and discrimination program
KR102167291B1 (en) 2020-04-24 2020-10-20 한국건설기술연구원 System and method for providing road status information

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102360154B1 (en) * 2016-05-17 2022-02-09 현대자동차주식회사 Apparatus and Method which considers User Setting
KR20190057501A (en) * 2017-11-20 2019-05-29 디토닉 주식회사 System and Method for Predicting Riskness of Road According to Weather Conditions
KR20200058272A (en) * 2018-11-19 2020-05-27 건국대학교 산학협력단 Method and system for providing road driving situation through preprocessing of road driving image
KR102303716B1 (en) * 2019-01-30 2021-09-23 한국자동차연구원 Method for autonomous cooperative driving based on vehicle-road infrastructure information fusion and apparatus for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139316A (en) 2018-02-06 2019-08-22 国立大学法人 東京大学 Discrimination system, discrimination device, discrimination method, and discrimination program
KR102167291B1 (en) 2020-04-24 2020-10-20 한국건설기술연구원 System and method for providing road status information

Also Published As

Publication number Publication date
KR20220067874A (en) 2022-05-25

Similar Documents

Publication Publication Date Title
US11776279B2 (en) Method and apparatus for providing unknown moving object detection
US20200336541A1 (en) Vehicle Sensor Data Acquisition and Distribution
CN111357258B (en) System and method for vehicle application programming interface
KR20210035296A (en) System and method for detecting and recording anomalous vehicle events
KR20210070273A (en) Determining Road Segment Similarity
JP2023533225A (en) Methods and systems for dynamically curating autonomous vehicle policies
JP2019022205A (en) Sensing data processing system, edge server therefor, method for reducing transmission traffic and program
US11076022B2 (en) Systems and methods for implementing robotics frameworks
US11398150B2 (en) Navigation analysis for a multi-lane roadway
US20210300359A1 (en) Systems and methods for modeling pedestrian activity
US11587366B1 (en) Systems and methods for selecting locations to validate automated vehicle data transmission
US11875680B2 (en) Systems and methods for augmenting perception data with supplemental information
KR102390813B1 (en) Apparatus and method for information collection and intelligent signal control using object recognition camera
KR102505533B1 (en) Dynamic autonomous driving assistant system using v2i communication
EP4020427A1 (en) Transportation environment data service
EP4256536A1 (en) Autonomous vehicle high-priority data offload system
US20220157178A1 (en) Disaster and emergency surveillance using a distributed fleet of autonomous robots
Agarwal et al. Sensing and monitoring of smart transportation systems
Velasco-Hernandez et al. Intersection management systems and internet of things: A review
Šarić et al. Smart parking system in the city of Dubrovnik
Prasada et al. Novel approach in IoT-based smart road with traffic decongestion strategy for smart cities
Haider et al. Road crack avoidance: a convolutional neural network-based smart transportation system for intelligent vehicles
US20230195970A1 (en) Estimating object kinematics using correlated data pairs
US20230192133A1 (en) Conditional mode anchoring
US20230192092A1 (en) Interaction Auto-Labeling Using Spatial Overlap of Track Footprints For Mining Interactions

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)