KR102105007B1 - Edge-cloud system for collecting and providing data of connected car - Google Patents

Edge-cloud system for collecting and providing data of connected car Download PDF

Info

Publication number
KR102105007B1
KR102105007B1 KR1020180095597A KR20180095597A KR102105007B1 KR 102105007 B1 KR102105007 B1 KR 102105007B1 KR 1020180095597 A KR1020180095597 A KR 1020180095597A KR 20180095597 A KR20180095597 A KR 20180095597A KR 102105007 B1 KR102105007 B1 KR 102105007B1
Authority
KR
South Korea
Prior art keywords
data
information
target vehicle
vehicle
situation
Prior art date
Application number
KR1020180095597A
Other languages
Korean (ko)
Other versions
KR20200020193A (en
Inventor
이장훈
이재홍
Original Assignee
(주)유비벨록스모바일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유비벨록스모바일 filed Critical (주)유비벨록스모바일
Priority to KR1020180095597A priority Critical patent/KR102105007B1/en
Publication of KR20200020193A publication Critical patent/KR20200020193A/en
Application granted granted Critical
Publication of KR102105007B1 publication Critical patent/KR102105007B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers

Abstract

커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템이 제공된다. 엣지 컴퓨팅 장치는 타겟 차량으로부터 수신되는 차량 센싱데이터와, 클라우드 컴퓨팅 시스템으로부터 수신되는 타겟 차량이 운행 중인 주변과 관련된 주변 운행 정보를 분석하여 돌발 상황 징후의 여부를 판단하고, 돌발 상황 징후가 있는 것으로 판단되면, 돌발 상황 징후를 판단한 판단 근거 데이터를 차량 센싱데이터 및 주변 운행 정보로부터 추출하여 타겟 차량에 대한 돌발 상황 징후 데이터를 생성하고, 클라우드 컴퓨팅 시스템은 엣지 컴퓨팅 장치로부터 돌발 상황 징후 데이터가 수신되면, 돌발 상황 징후 데이터를 기반으로 타겟 차량의 주행 상황 정보를 예측하고, 타겟 차량의 주행 상황 정보와 주변 차량들의 주행 상황 정보를 연계하여 돌발 상황 징후를 심층 분석한 후, 심층 분석된 결과를 포함하는 돌발 상황에 대한 운행 정보를 생성하여 엣지 컴퓨팅 장치로 전송하고, 엣지 컴퓨팅 장치는 돌발 상황 운행 정보를 타겟 차량으로 전송할 수 있다.An edge-cloud system for collecting connected car data and providing unexpected information is provided. The edge computing device analyzes vehicle sensing data received from the target vehicle and surrounding operation information related to the surroundings of the target vehicle received from the cloud computing system to determine whether there is an unexpected situation indication, and determines that there is an unexpected situation indication. When it is determined, the data based on the determination of the sudden situation indication is extracted from the vehicle sensing data and the surrounding driving information to generate the sudden situation indication data for the target vehicle, and the cloud computing system suddenly receives the sudden situation indication data from the edge computing device. Predicting the driving situation information of the target vehicle based on the situation indication data, and in-depth analysis of the sudden situation signs by linking the driving situation information of the target vehicle with the driving situation information of the surrounding vehicles, and then an unexpected situation including an in-depth analysis result. To generate driving information for Sent to the computing device and an edge, the edge computing device may transmit the irregularity vehicle management information to the target vehicle.

Figure R1020180095597
Figure R1020180095597

Description

커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템{Edge-cloud system for collecting and providing data of connected car}Edge-cloud system for collecting and providing data of connected car

본 발명은 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템에 관한 것으로서, 보다 상세하게는, 차량의 운행 경로 중 발생할 수 있는 돌발 상황 정보를 제공하여 안전 운행이 가능하도록 할 수 있는 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템에 관한 것이다.The present invention relates to an edge-cloud system for collecting connected car data and providing sudden situation information, and more specifically, it is possible to provide safe situation information by providing unexpected situation information that may occur during a vehicle driving route. It relates to an edge-cloud system for collecting connected car data and providing unexpected information.

최근에 출시되는 차량은 운전자에게 속도와 엔진 회전수부터 엔진오일의 수명 등 차량과 관련된 다양한 정보를 알려주는 기능을 제공한다. 일 예로, 운전자는 OBD(On-Board Diagnostics)로부터의 정보를 스마트폰으로 확인하는 것이 가능하다. OBD는 차량의 자가 진단을 위해 제조사에서 만들어 놓은 진단 시스템이다.The recently released vehicle provides the driver with a function to inform various information related to the vehicle, such as speed and engine speed, and the life of the engine oil. For example, it is possible for the driver to check information from the On-Board Diagnostics (OBD) with a smartphone. OBD is a diagnostic system made by manufacturers for self-diagnosis of vehicles.

또한, 최근의 차량은 안전운전을 위한 충돌 감지 기능을 제공하여 운전자가 충돌에 의한 교통사고를 사전에 예방하도록 한다.In addition, recent vehicles provide a collision detection function for safe driving, so that the driver can prevent a traffic accident caused by a collision in advance.

그러나, 기존의 차량에서 발생하는 각종 데이터는 운전자에게만 제공되며, OBD로부터의 데이터는 주로 차량에 결함이 발생할 경우 진단할 수 있도록 이력데이터를 제공하므로 실시간으로 제공되는 데는 한정적이다. However, various data generated in the existing vehicle is provided only to the driver, and the data from the OBD is limited to being provided in real time since it mainly provides history data to diagnose when a vehicle has a defect.

따라서, 운전자가 차량의 상태를 보다 객관적 및 직관적으로 파악하거나 주행 도중 발생할 수 있는 돌발 상황과 관련된 징후를 판단하는 데 한계가 있다.Therefore, there is a limit for the driver to more objectively and intuitively grasp the state of the vehicle or to determine signs related to an unexpected situation that may occur while driving.

국내 공개특허 제10-2018-0063789호 (2018.06.12)Domestic Published Patent No. 10-2018-0063789 (2018.06.12)

전술한 문제점을 해결하기 위하여 본 발명이 이루고자 하는 기술적 과제는, 차량으로부터 센싱되는 다양한 데이터를 엣지 컴퓨팅 시스템과 클라우드에서 실시간으로 공유하여 차량 또는 주행과 관련된 돌발 상황 징후를 판단하고, 판단된 돌발 상황에 대한 운행 정보를 운전자에게 제공하여 운전자가 보다 신속하면서 정확히 차량의 상태 또는 돌발 상황에 대처할 수할 수 있도록 하는 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템을 제시하는 데 있다.The technical problem to be achieved by the present invention in order to solve the above-mentioned problems is to share various data sensed from a vehicle in real time in an edge computing system and the cloud to determine signs of an unexpected situation related to a vehicle or driving, and to determine the unexpected situation. The present invention is to provide an edge-cloud system for collecting connected car data and providing unexpected information to provide drivers with driving information about the vehicle so that the driver can more quickly and accurately respond to vehicle conditions or emergencies.

본 발명의 해결과제는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 해결과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to those mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 기술적 과제를 해결하기 위한 수단으로서, 본 발명의 실시 예에 따르면, 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템은, 타겟 차량으로부터 수신되는 차량 센싱데이터와, 클라우드 컴퓨팅 시스템으로부터 수신되는 상기 타겟 차량이 운행 중인 주변과 관련된 주변 운행 정보를 분석하여 돌발 상황 징후의 여부를 판단하고, 돌발 상황 징후가 있는 것으로 판단되면, 상기 돌발 상황 징후를 판단한 판단 근거 데이터를 상기 차량 센싱데이터 및 상기 주변 운행 정보로부터 추출하여 상기 타겟 차량에 대한 돌발 상황 징후 데이터를 생성하는 엣지 컴퓨팅 장치; 및 상기 엣지 컴퓨팅 장치로부터 돌발 상황 징후 데이터가 수신되면, 상기 수신된 돌발 상황 징후 데이터를 기반으로 상기 타겟 차량의 주행 상황 정보를 예측하고, 상기 타겟 차량의 주행 상황 정보와 주변 차량들의 주행 상황 정보를 연계하여 상기 돌발 상황 징후를 심층 분석한 후, 상기 심층 분석된 결과를 포함하는 돌발 상황에 대한 운행 정보(이하, '돌발 상황 운행 정보'라 함)를 생성하여 상기 엣지 컴퓨팅 장치로 전송하는 클라우드 컴퓨팅 시스템;을 포함하고, 상기 엣지 컴퓨팅 장치는 상기 클라우드 컴퓨팅 시스템으로부터 수신되는 돌발 상황 운행 정보를 상기 타겟 차량으로 전송할 수 있다. As a means for solving the above-described technical problem, according to an embodiment of the present invention, the edge-cloud system for collecting connected car data and providing unexpected situation information, vehicle sensing data received from a target vehicle, and a cloud computing system By analyzing surrounding driving information related to the surroundings in which the target vehicle is being operated from, it is determined whether there is an unexpected situation sign, and when it is determined that there is an unexpected situation sign, the vehicle sensing data determines the basis data for determining the unexpected situation sign And an edge computing device that extracts from the surrounding driving information and generates unexpected situation indication data for the target vehicle. And when the sudden situation indication data is received from the edge computing device, predicts the driving situation information of the target vehicle based on the received sudden situation indication data, and displays the driving situation information of the target vehicle and the driving situation information of surrounding vehicles. Cloud computing that generates, in conjunction with the in-depth analysis of the sudden situation indications in connection, operation information (hereinafter, referred to as 'explosion situation operation information') for the unexpected situation including the in-depth analysis result and transmits it to the edge computing device. System; and the edge computing device may transmit sudden situation driving information received from the cloud computing system to the target vehicle.

상기 엣지 컴퓨팅 장치는, 상기 타겟 차량의 차량 센싱데이터와 상기 주변 운행 정보를 분석하여 사고 발생 여부, 공사 진행 여부, 악천후 정보 및 장애물 여부 중 적어도 하나를 포함하는 돌발 상황 징후의 여부를 판단하고, 상기 타겟 차량 및 주변 차량들에서 센싱되는 차량 센싱데이터는 영상데이터, 속도데이터, 가속도 데이터, 급감속 데이터, 충돌 감지 데이터, 레이저 송수신 데이터 중 적어도 하나를 포함하고, 상기 주변 운행 정보는 상기 주변 차량들에서 센싱된 차량 센싱데이터와, 공공 기관에서 제공하는 기상 데이터 및 도로 공상 중인 구간 정보를 포함할 수 있다.The edge computing device analyzes vehicle sensing data of the target vehicle and the surrounding driving information to determine whether there is an unexpected situation sign including at least one of whether an accident has occurred, whether a construction is in progress, bad weather information, or an obstacle, and The vehicle sensing data sensed by the target vehicle and surrounding vehicles includes at least one of image data, speed data, acceleration data, rapid deceleration data, collision detection data, and laser transmission / reception data, and the surrounding operation information is obtained from the surrounding vehicles. It may include sensed vehicle sensing data, weather data provided by public institutions, and section information on the road.

상기 엣지 컴퓨팅 장치는, 상기 돌발 상황 징후가 있는 것으로 판단되면, 상기 돌발 상황 징후와 관련된 위치 정보, 영상 정보, 가감속 정보, 충돌 감지 정보, 레이저 송수신 데이터로부터 분석된 기상 상태 정보 중 적어도 하나를 상기 판단 근거 데이터로서 상기 차량 센싱데이터 및 상기 주변 운행 정보로부터 추출할 수 있다. The edge computing device, when it is determined that there is an unexpected situation indication, the at least one of location information related to the unexpected situation indication, image information, acceleration / deceleration information, collision detection information, and meteorological state information analyzed from laser transmission / reception data It can be extracted from the vehicle sensing data and the surrounding driving information as judgment basis data.

상기 클라우드 컴퓨팅 시스템은, 상기 돌발 상황 징후 데이터가 수신되면, 상기 타겟 차량의 전방 및 후방 중 적어도 하나에 위치하는 객체와 상기 타겟 차량의 주행 상황 정보를 포함하는 상기 타겟 차량의 주행 정보를 생성하고, 상기 생성된 타겟 차량의 주행 정보와 상기 타겟 차량의 주변에서 운행 중인 주변 차량들에 대해 생성된 주행 정보를 연계하여 돌발 상황 징후를 심층 분석할 수 있다. The cloud computing system, when the sudden situation indication data is received, generates driving information of the target vehicle including an object located in at least one of front and rear of the target vehicle and driving situation information of the target vehicle, The occurrence information of the unexpected situation may be in-depth analysis by linking the generated driving information of the target vehicle with the generated driving information for surrounding vehicles operating in the vicinity of the target vehicle.

상기 클라우드 컴퓨팅 시스템은, 상기 돌발 상황 징후를 심층 분석한 결과와 외부 공공 데이터를 연계 및 분석하여 사고 발생 여부, 공사 진행 여부, 악천후 정보 및 장애물 여부를 판별하고, 상기 판별된 결과를 포함하는 돌발 상황 운행 정보를 생성하여 상기 엣지 컴퓨팅 장치로 전송할 수 있다. The cloud computing system determines whether an accident occurs, whether construction is in progress, bad weather information, and an obstacle by linking and analyzing the result of in-depth analysis of the unexpected condition signs and external public data, and an unexpected situation including the determined result Driving information may be generated and transmitted to the edge computing device.

본 발명에 따르면, 차량으로부터 센싱되는 다양한 데이터를 엣지 컴퓨팅 시스템과 클라우드에서 실시간으로 공유하여 차량 또는 주행과 관련된 돌발 상황 징후를 판단하고, 판단된 돌발 상황에 대한 운행 정보를 운전자에게 제공하여 운전자가 보다 신속하면서 정확히 차량의 상태 또는 돌발 상황에 대처할 수 있다.According to the present invention, by sharing a variety of data sensed from the vehicle in real time on the edge computing system and the cloud to determine signs of an unexpected situation related to the vehicle or driving, and providing the driver with the driving information for the determined unexpected situation, the driver can see more It can quickly and accurately respond to vehicle conditions or sudden situations.

또한, 본 발명에 따르면 엣지 컴퓨팅 시스템과 클라우드 시스템에서 차량에서 분석된 돌발 상황 징후(사고 여부, 날씨 등)를 기반으로 자동차의 상태를 예측하고, 주변 자동차와의 상태와 연계하여 지속적으로 돌발 상황에 대한 보정작업을 수행하여 차량의 안전 운행에 필요한 데이터를 생성 및 제공할 수 있다. In addition, according to the present invention, in the edge computing system and the cloud system, the state of the car is predicted based on the signs of an unexpected situation (accident, weather, etc.) analyzed in the vehicle, and continuously in an unexpected situation in connection with the state with surrounding cars. By performing the correction work for the vehicle, it is possible to generate and provide data necessary for safe operation of the vehicle.

또한, 본 발명에 따르면, 돌발 상황 징후가 예측된 후 차량에서 사고가 발생한 경우, 클라우드에서 사고 처리에 필요한 정보(위치, 사고 종류 등)를 경찰청 서버, 병원, 보험사 등에 제공할 수도 있다.In addition, according to the present invention, when an accident occurs in a vehicle after a sign of an unexpected situation is predicted, information necessary for handling an accident (location, type of accident, etc.) in the cloud may be provided to a police agency server, a hospital, an insurance company, and the like.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시 예에 의한 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템을 도시한 도면,
도 2는 도 1에 도시된 엣지 컴퓨팅 장치와 클라우드 컴퓨팅 시스템을 자세히 도시한 블록도,
도 3은 영상인식기반 전방 차량 검출 알고리즘의 개요도,
도 4는 일반적인 Tenser Flow 구조를 도시한 도면,
도 5는 일반적인 CNN 구조를 도시한 도면,
도 6은 ROI pooling의 예시도,
도 7은 MultiNet의 물체 검출 알고리즘 구조를 도시한 도면,
도 8은 HSV 색상 모델을 이용한 중앙선 식별 결과의 예시도와 중앙선 식별 알고리즘을 적용한 차량 주행방향 판단 결과를 보여주는 도면,
도 9는 본 발명의 실시 예에 따른 엣지-클라우드 시스템의 돌발 상황 정보 제공 방법을 설명하기 위한 흐름도, 그리고,
도 10은 S950단계 내지 S970단계를 자세히 도시한 흐름도이다.
1 is a diagram illustrating an edge-cloud system for collecting connected car data and providing unexpected information according to an embodiment of the present invention;
FIG. 2 is a block diagram showing in detail the edge computing device and the cloud computing system shown in FIG. 1;
3 is a schematic diagram of an image recognition-based front vehicle detection algorithm,
4 is a view showing a general Tenser Flow structure,
5 is a view showing a general CNN structure,
6 is an exemplary view of ROI pooling,
7 is a diagram showing the structure of an object detection algorithm of MultiNet,
8 is a view showing an example of a center line identification result using the HSV color model and a vehicle driving direction determination result using the center line identification algorithm;
9 is a flow chart for explaining a method for providing unexpected information of an edge-cloud system according to an embodiment of the present invention, and
10 is a flowchart illustrating steps S950 to S970 in detail.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments related to the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided to ensure that the disclosed contents are thorough and complete and that the spirit of the present invention is sufficiently conveyed to those skilled in the art.

또한, 제1 엘리먼트 (또는 구성요소)가 제2 엘리먼트(또는 구성요소) 상(ON)에서 동작 또는 실행된다고 언급될 때, 제1 엘리먼트(또는 구성요소)는 제2 엘리먼트(또는 구성요소)가 동작 또는 실행되는 환경에서 동작 또는 실행되거나 또는 제2 엘리먼트(또는 구성요소)와 직접 또는 간접적으로 상호 작용을 통해서 동작 또는 실행되는 것으로 이해되어야 할 것이다.Also, when it is said that the first element (or component) is operated or executed on the second element (or component), the first element (or component) is the second element (or component). It should be understood that the operation or execution is performed or executed in an environment in which the operation or execution is performed, or through an interaction directly or indirectly with the second element (or component).

어떤 엘리먼트, 구성요소, 장치, 또는 시스템이 프로그램 또는 소프트웨어로 이루어진 구성요소를 포함한다고 언급되는 경우, 명시적인 언급이 없더라도, 그 엘리먼트, 구성요소, 장치, 또는 시스템은 그 프로그램 또는 소프트웨어가 실행 또는 동작하는데 필요한 하드웨어(예를 들면, 메모리, CPU 등)나 다른 프로그램 또는 소프트웨어(예를 들면 운영체제나 하드웨어를 구동하는데 필요한 드라이버 등)를 포함하는 것으로 이해되어야 할 것이다.When an element, component, device, or system is mentioned to include a component consisting of a program or software, the element, component, device, or system is executed or operated by the program or software, even if not explicitly stated. It should be understood that it includes hardware (for example, memory, CPU, etc.) necessary to do so, or other programs or software (for example, drivers required to drive an operating system or hardware).

또한, 어떤 엘리먼트(또는 구성요소)가 구현됨에 있어서 특별한 언급이 없다면, 그 엘리먼트(또는 구성요소)는 소프트웨어, 하드웨어, 또는 소프트웨어 및 하드웨어 어떤 형태로도 구현될 수 있는 것으로 이해되어야 할 것이다.In addition, it should be understood that an element (or component) may be implemented in software, hardware, or in any form of software and hardware, unless otherwise stated in the implementation of any element (or component).

또한, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, the terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, 'comprises' and / or 'comprising' does not exclude the presence or addition of one or more other components.

이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시 예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. Hereinafter, the present invention will be described in detail with reference to the drawings. In describing the following specific embodiments, various specific contents have been prepared to more specifically describe and understand the invention. However, a reader who has knowledge in this field to understand the present invention can recognize that it can be used without these various specific contents.

어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 별 이유 없이 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. It should be noted that, in some cases, parts that are commonly known in describing the invention and that are not significantly related to the invention are not described in order to prevent chaos from coming into account in explaining the present invention for no apparent reason.

도 1에 도시된 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템의 각각의 구성은 기능 및 논리적으로도 분리될 수 있음을 나타내는 것이며, 반드시 각각의 구성이 별도의 물리적 장치로 구분되거나 별도의 코드로 작성됨을 의미하는 것은 아님을 본 발명의 기술분야의 평균적 전문가는 용이하게 추론할 수 있을 것이다. Each configuration of the edge-cloud system for providing connected car data collection and unexpected situation information shown in FIG. 1 is functionally and logically separated, and each configuration is divided into separate physical devices. The average expert in the technical field of the present invention can easily infer that it does not mean that it is or is written in a separate code.

또한, 본 명세서에서 DB라 함은, 각각의 DB에 대응되는 정보를 저장하는 소프트웨어 및 하드웨어의 기능적 구조적 결합을 의미할 수 있다. DB는 적어도 하나의 테이블로 구현될 수도 있으며, 상기 DB에 저장된 정보를 검색, 저장, 및 관리하기 위한 별도의 DBMS(Database Management System)를 더 포함할 수도 있다. 또한, 링크드 리스트(linked-list), 트리(Tree), 관계형 DB의 형태 등 다양한 방식으로 구현될 수 있으며, 상기 DB에 대응되는 정보를 저장할 수 있는 모든 데이터 저장매체 및 데이터 구조를 포함한다또한, 엣지 컴퓨팅은 네트워크 상의 엣지 부분에 데이터 처리를 위한 컴퓨팅 시스템을 구축하여, 클라우드까지 가기 전에 1차적으로 데이터를 가공하는 시스템 구조로서, 포그(fog) 컴퓨팅 또는 클라우드렛(Cloudlet)이라고도 한다. 엣지 컴퓨팅 시스템에는 다수의 엣지 컴퓨팅 장치들이 존재하고, 각 엣지 컴퓨팅 장치(100~300)는 개별 차량에 대한 데이터를 처리하며, 클라우드 컴퓨팅 시스템(200)은 다수의 엣지 컴퓨팅 장치들의 컴퓨팅 파워 문제, 수집된 데이터의 통계 및 이후 비슷한 지역의 사용자들 또는 차량들에게 자동으로 매크로를 노출시켜 소비하도록 할 수 있다.In addition, in the present specification, DB may mean a functional structural combination of software and hardware that stores information corresponding to each DB. The DB may be implemented as at least one table, and may further include a separate Database Management System (DBMS) for retrieving, storing, and managing information stored in the DB. In addition, it may be implemented in various ways such as a linked list, a tree, a relational DB, and includes all data storage media and data structures capable of storing information corresponding to the DB. Edge computing is a system structure that primarily processes data before going to the cloud by constructing a computing system for processing data at the edge portion of the network, and is also called fog computing or cloudlet. There are a number of edge computing devices in the edge computing system, each of the edge computing devices 100 to 300 processes data for individual vehicles, and the cloud computing system 200 collects computing power problems and collections of multiple edge computing devices. The statistics of the data and the macros can then be automatically exposed to users or vehicles in a similar area for consumption.

상기 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템을 위한 다수의 프로그램은 소정의 데이터 프로세싱 장치에 설치되어 본 발명의 기술적 사상을 구현할 수 있다.The plurality of programs for the edge-cloud system for providing the unexpected information may be installed in a predetermined data processing apparatus to implement the technical idea of the present invention.

도 1은 본 발명의 실시 예에 따른 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템을 도시한 도면이다.1 is a diagram illustrating an edge-cloud system for collecting connected car data and providing unexpected information according to an embodiment of the present invention.

도 1을 참조하면, 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템은 다수의 엣지 컴퓨팅 장치들(100, 200, 300) 및 클라우드 컴퓨팅 시스템(600)을 포함할 수 있다.Referring to FIG. 1, an edge-cloud system for collecting connected car data and providing unexpected information may include a plurality of edge computing devices 100, 200, and 300 and a cloud computing system 600.

먼저, 타겟 차량(10)은 타겟 차량(10) 내외부에 장착된 다수의 센서들로부터 타겟 차량(10)의 상태를 센싱한 차량 센싱데이터를 수신하여 엣지 컴퓨팅 장치(100)로 전송할 수 있다. 각 센서들이 직접 센싱데이터를 엣지 컴퓨팅 장치(100)로 전송하도록 각 센서에 통신 모듈이 구비될 수도 있다. First, the target vehicle 10 may receive vehicle sensing data sensing the state of the target vehicle 10 from a plurality of sensors mounted inside and outside the target vehicle 10 and transmit the received vehicle sensing data to the edge computing device 100. A communication module may be provided in each sensor so that each sensor directly transmits sensing data to the edge computing device 100.

'차량 센싱데이터'는 차량에서 센싱가능한 모든 종류(자동차 상태, 성능, 고장 여부, 위치, 운행 정보 등)의 데이터를 포함하고, 예를 들어, 블랙박스가 촬영한 차량의 전방 또는 후방 영상데이터, 속도 센서에 의한 속도데이터, 가속도 센서에 의한 가속도 데이터, 급감속 데이터, 충돌 감지 센서에 의한 충돌 감지 데이터, GPS에서 획득한 차량 위치정보, OBD(On-Board Diagnostics)에서 획득한 OBD 데이터, 레이저 송수신 데이터, 라이더에 의한 데이터 중 적어도 하나와, 타겟 차량(10)의 식별 정보와 타겟 차량(10)의 운행 경로 정보 또는 목적지 정보를 포함할 수 있다. 'Vehicle sensing data' includes data of all types (vehicle status, performance, failure status, location, driving information, etc.) that can be sensed by the vehicle, for example, front or rear image data of a vehicle captured by a black box, Velocity data by speed sensor, acceleration data by acceleration sensor, sudden deceleration data, collision detection data by collision detection sensor, vehicle location information obtained from GPS, OBD data obtained from On-Board Diagnostics (OBD), laser transmission / reception It may include at least one of data and data by a rider, identification information of the target vehicle 10 and driving route information or destination information of the target vehicle 10.

타겟 차량(10)의 주변에 위치한 주변 차량들 중 주변 엣지 컴퓨팅 장치(200,300)가 장착된 주변 차량들(20, 30) 역시 타겟 차량(10)과 동일하게 차량 센싱데이터를 수집하여 각각 주변 엣지 컴퓨팅 장치들(200, 300)에게 전송한다. Among the surrounding vehicles located around the target vehicle 10, the surrounding vehicles 20 and 30 equipped with the peripheral edge computing devices 200 and 300 also collect vehicle sensing data in the same manner as the target vehicle 10, thereby computing the surrounding edge, respectively. It transmits to the devices (200, 300).

기상청 서버(400) 및 도로공사 서버(500)와 같은 공공기관 서버들 또 는중 3RD PART Gateway 서버(미도시)는 외부 공공데이터, 즉, 기상데이터나 도로 내 공사가 진행 중인 구간 정보 등 도로와 관련된 정보를 제공한다. 3 RD PART Gateway servers (not shown) among public institution servers, such as the Meteorological Agency server 400 and the road construction server 500, are roads such as external public data, that is, weather data or section information in progress on the road. Related information.

엣지 컴퓨팅 장치(100)는 타겟 차량(10)에 장착되어 엣지 컴퓨팅 시스템을 구축한다. 본 발명의 실시 예에서, 엣지 컴퓨팅 장치(100)는 타겟 차량(10)으로부터 수신되는 차량 센싱데이터와, 클라우드 컴퓨팅 시스템(600)으로부터 수신되는 타겟 차량이 운행 중인 주변과 관련된 주변 운행 정보를 분석하여 돌발 상황 징후의 여부를 판단하고, 돌발 상황 징후가 있는 것으로 판단되면, 돌발 상황 징후를 판단한 판단 근거 데이터를 차량 센싱데이터 및 주변 운행 정보로부터 추출하여 타겟 차량에 대한 돌발 상황 징후 데이터를 생성할 수 있다.The edge computing device 100 is mounted on the target vehicle 10 to construct an edge computing system. In an embodiment of the present invention, the edge computing device 100 analyzes vehicle sensing data received from the target vehicle 10 and surrounding driving information related to surroundings in which the target vehicle received from the cloud computing system 600 is operating. If it is determined whether there is an unexpected situation sign, and if it is determined that there is an unexpected situation sign, data for determining the unexpected situation sign may be extracted from vehicle sensing data and surrounding driving information to generate unexpected situation sign data for the target vehicle. .

클라우드 컴퓨팅 시스템(600)은 타겟 차량(10)과 주변 차량들(20, 30)로부터 차량 센싱데이터를 수신하여 저장할 수 있다. 또한, 클라우드 컴퓨팅 시스템(600)은 타겟 차량(10)의 운행 위치를 기준으로 사전에 정해진 반경 Nkm 내에 위치하는 차량, 또는 타겟 차량(10)의 운행 위치를 기준으로 목적지까지 사용가능한 운행 경로들 중에서 전방 Nkm 내에 위치하는 차량을 타겟 차량(10)의 주변 차량으로 선별하고, 선별된 주변 차량들(20, 30)의 차량 센싱데이터를 포함하는 주변 운행 정보를 엣지 컴퓨팅 장치(100)로 전송할 수 있다. 예를 들어, 클라우드 컴퓨팅 시스템(600)은 표준 노드 링크 기반의 GPS 상의 비슷한 위치의 차량을 주변 차량으로 선별한다.The cloud computing system 600 may receive and store vehicle sensing data from the target vehicle 10 and surrounding vehicles 20 and 30. In addition, the cloud computing system 600 is a vehicle located within a predetermined radius Nkm based on the driving position of the target vehicle 10, or a driving route available to a destination based on the driving position of the target vehicle 10 A vehicle located in the front Nkm may be selected as a surrounding vehicle of the target vehicle 10, and surrounding driving information including vehicle sensing data of the selected surrounding vehicles 20 and 30 may be transmitted to the edge computing device 100. . For example, the cloud computing system 600 selects vehicles of similar locations on the GPS based on the standard node link as surrounding vehicles.

'주변 운행 정보'는 주변 차량들(20, 30)의 센서들이 센싱한 차량 센싱데이터와, 타겟 차량(10)이 운행 중인 지역(또는 주변)의 날씨 정보, 운행 중인 도로 또는 운행 예정인 도로의 공사 구간 정보 등 주행에 영향을 주는 모든 정보를 포함할 수 있다. 'Ambient operation information' refers to vehicle sensing data sensed by sensors of surrounding vehicles 20 and 30, weather information of an area (or surrounding) in which the target vehicle 10 is operating, construction of a running road or a planned road. It may include all information that affects driving, such as section information.

또한, 클라우드 컴퓨팅 시스템(600)은 엣지 컴퓨팅 장치(100)로부터 돌발 상황 징후 데이터가 수신되면, 수신된 돌발 상황 징후 데이터를 기반으로 타겟 차량(10)의 주행 상황 정보를 예측하고, 타겟 차량(10)의 주행 상황 정보와 주변 차량들(20, 30)의 주행 상황 정보를 연계하여 1차적으로 판단된 돌발 상황 징후를 심층 분석한 후, 심층 분석된 결과를 포함하는 돌발 상황에 대한 운행 정보(이하, '돌발 상황 운행 정보'라 함)를 생성하여 엣지 컴퓨팅 장치(100)로 전송할 수 있다. In addition, the cloud computing system 600 predicts driving situation information of the target vehicle 10 based on the received unexpected situation indication data when the unexpected situation indication data is received from the edge computing device 100, and the target vehicle 10 ) After in-depth analysis of the unexpected situation signs determined by linking the driving situation information of the surrounding vehicles with the driving situation information of the surrounding vehicles 20 and 30, the driving information for the sudden situation including the deeply analyzed results (hereinafter, , 'Suspension situation operation information') may be generated and transmitted to the edge computing device 100.

엣지 컴퓨팅 장치(100)는 클라우드 컴퓨팅 시스템(600)으로부터 수신되는 돌발 상황 운행 정보를 타겟 차량(10)으로 전송한다. The edge computing device 100 transmits the unexpected driving information received from the cloud computing system 600 to the target vehicle 10.

타겟 차량(10)은 수신된 돌발 상황 운행 정보를 운전자가 인식가능하도록 외부로 표출하며, 이로써, 운전자는 운행 경로 중 돌발 상황 징후가 있는 위치를 인식하고 안전 운행에 집중할 수 있다.The target vehicle 10 displays the received sudden situation driving information to the outside so that the driver can recognize it, whereby the driver can recognize the location of the sudden situation indication in the driving route and focus on safe driving.

이하에서는 도 2 내지 도 8을 참조하여 본 발명의 실시예를 보다 자세히 설명한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to FIGS. 2 to 8.

도 2는 도 1에 도시된 엣지 컴퓨팅 장치(100)와 클라우드 컴퓨팅 시스템(600)을 자세히 도시한 블록도이다.2 is a block diagram illustrating in detail the edge computing device 100 and the cloud computing system 600 shown in FIG. 1.

도 2를 참조하면, 본 발명의 실시 예에 따른 엣지 컴퓨팅 장치(100)는 버스(110), 엣지 통신부(120), 데이터 수집부(130), 엣지 메모리(140) 및 엣지 프로세서(150)를 포함한다.Referring to FIG. 2, the edge computing device 100 according to an embodiment of the present invention includes a bus 110, an edge communication unit 120, a data collection unit 130, an edge memory 140, and an edge processor 150. Includes.

버스(110)는 엣지 통신부(120), 데이터 수집부(130), 엣지 메모리(140) 및 엣지 프로세서(150)를 서로 연결하고, 제어 메시지, 상태정보, 및/또는 데이터와 같은 각종 신호를 전달하는 회로를 포함할 수 있다.The bus 110 connects the edge communication unit 120, the data collection unit 130, the edge memory 140, and the edge processor 150 to each other, and transmits various signals such as control messages, status information, and / or data It may include a circuit.

엣지 통신부(120)는 타겟 차량(10)과 클라우드 컴퓨팅 시스템(600)과의 통신을 위한 인터페이스 회로를 포함한다. 예를 들어, 엣지 통신부(120)는 타겟 차량(10)으로부터 차량 센싱데이터를 수신하고, 수신된 차량 센싱데이터를 클라우드 컴퓨팅 시스템(600)으로 전송하며, 클라우드 컴퓨팅 시스템(600)으로부터 주변 운행 정보를 수신할 수 있다.The edge communication unit 120 includes an interface circuit for communication between the target vehicle 10 and the cloud computing system 600. For example, the edge communication unit 120 receives the vehicle sensing data from the target vehicle 10, transmits the received vehicle sensing data to the cloud computing system 600, and transmits surrounding driving information from the cloud computing system 600. I can receive it.

데이터 수집부(130)는 타겟 차량(10)으로부터 수신되는 차량 센싱데이터를 수집 및 저장할 수 있다. 또한, 데이터 수집부(130)는 클라우드 컴퓨팅 시스템(600)으로부터 수신되는 주변 차량들(20, 30)의 주변 운행 정보를 수집 저장할 수 있다. The data collection unit 130 may collect and store vehicle sensing data received from the target vehicle 10. In addition, the data collection unit 130 may collect and store surrounding driving information of surrounding vehicles 20 and 30 received from the cloud computing system 600.

엣지 메모리(140)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 엣지 메모리(140)에는 엣지 컴퓨팅 장치(100)가 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.The edge memory 140 may include volatile memory and / or non-volatile memory. In order to implement and / or provide operations and functions provided by the edge computing device 100 in the edge memory 140, instructions or data related to components, one or more programs and / or software, an operating system, and the like may be stored. You can.

엣지 메모리(140)에 저장되는 프로그램은 수집되는 차량 센싱데이터와 주변 운행 정보를 분석하여 타겟 차량(10)의 운전자가 설정한 운행 경로 상에서 발생할 수 있는 돌발 상황 징후를 1차적으로 판단하는 돌발 상황 판단 프로그램을 포함할 수 있다. The program stored in the edge memory 140 analyzes the collected vehicle sensing data and surrounding driving information to determine an unexpected situation that primarily determines an unexpected situation indication that may occur on the driving route set by the driver of the target vehicle 10. It may include programs.

엣지 프로세서(150)는 엣지 메모리(140)에 저장된 하나 이상의 프로그램을 실행하여 엣지 컴퓨팅 장치(100)의 전반적인 동작을 제어할 수 있다.The edge processor 150 may execute one or more programs stored in the edge memory 140 to control the overall operation of the edge computing device 100.

이를 위하여, 엣지 프로세서(150)는 돌발상황징후 판단부(152), 돌발상황징후 데이터 생성부(154) 및 정상데이터 생성부(156)를 포함할 수 있다.To this end, the edge processor 150 may include an unexpected situation symptom determination unit 152, an unexpected situation data generation unit 154, and a normal data generation unit 156.

돌발상황징후 판단부(152)는 돌발 상황 판단 프로그램을 실행하여 타겟 차량(10)으로부터 수신된 차량 센싱데이터와 클라우드 컴퓨팅 시스템(600)으로부터 수신된 주변 운행 정보를 분석하여 운행 경로 상에서 사고가 발생하였는지의 여부, 사고 발생 가능성, 진행 중인 공사가 있는지의 여부, 주변 지역의 악천후 정보, 기타 장애물이 있는지의 여부 중 적어도 하나를 포함하는 돌발 상황 징후가 있는지를 1차적으로 판단할 수 있다. 즉, 돌발 상황은 사고, 도로 공사, 악천후, 장애물을 포함한다.The unexpected situation determination unit 152 analyzes the vehicle sensing data received from the target vehicle 10 and the surrounding operation information received from the cloud computing system 600 by executing an unexpected situation determination program to determine whether an accident has occurred on the driving route. Whether or not, there is a possibility of an accident, whether there is a construction in progress, bad weather information in the surrounding area, or whether there are any obstacles, it is possible to primarily determine whether there are signs of an unexpected situation. In other words, unexpected situations include accidents, road construction, bad weather, and obstacles.

예를 들어, 돌발상황징후 판단부(152)는 타겟 차량(10)의 차량 센싱데이터 중 충돌 감지 데이터나 급감속 정보를 통해 돌발 상황 징후를 판단하거나, 주변 차량(20)의 영상 데이터를 통해 운행 경로 상에 장애물이 존재하는지 판단하거나, 외부 공공 데이터 중 한국도로공사에서 제공하는 도로 공사 구간에 대한 정보로부터 공사 여부 또는 사고 여부를 판단할 수 있다. For example, the sudden situation sign determination unit 152 determines a sudden situation indication through collision detection data or sudden deceleration information among vehicle sensing data of the target vehicle 10, or operates through image data of the surrounding vehicle 20 It is possible to determine whether there is an obstacle on the path or to determine whether there is a construction or an accident from information on the road construction section provided by the Korea Highway Corporation among external public data.

돌발상황징후 데이터 생성부(154)는 돌발상황징후 판단부(152)에서 돌발 상황 징후가 있는 것으로 판단되면, 돌발 상황 징후와 관련된 위치 정보, 영상 정보, 가감속 정보, 충돌 감지 정보, 레이저 송수신 데이터로부터 분석된 기상 상태 정보 중 적어도 하나를 판단 근거 데이터로서 차량 센싱데이터 및 주변 운행 정보로부터 추출할 수 있다. If it is determined that there is a sudden situation indication in the sudden situation symptom determination unit 152, the sudden situation symptom data generation unit 154, location information, image information, acceleration / deceleration information, collision detection information, laser transmission / reception data related to the sudden situation symptom At least one of the weather condition information analyzed from may be extracted from vehicle sensing data and surrounding driving information as judgment-based data.

예를 들어, 돌발상황징후 데이터 생성부(154)는 타겟 차량(10)의 차량 센싱데이터를 분석한 결과 급감속 이후 충돌 감지가 되면 타겟 차량(10)의 사고라고 판단하여 급감속 데이터와 충돌 감지데이터를 판단 근거 데이터로서 추출할 수 있다. 또한, 돌발상황징후 데이터 생성부(154)는 주변 차량(30)의 라이더 및 영상을 통해 수집되는 정보를 분석한 결과 라이더로 앞의 물체와의 거리가 계속적으로 줄어들 경우 영상을 통해 장애물이 있는 것으로 판단하고, 라이더가 센싱한 데이터와 영상데이터를 판단 근거 데이터로서 추출할 수 있다. 또한, 돌발상황징후 데이터 생성부(154)는 주변 차량(20)에 설치된 레이저를 내보내는 기기 두 개가 레이저를 송신 및 수신할 때 전달되는 데이터 형태로 기상 상태를 구분하고, 해당하는 레이저의 송수신 데이터를 악천후의 판단근거데이터로서 추출할 수 있다. 또한, 돌발상황징후 데이터 생성부(154)는 한국도로공사 교통정보센터의 정보와 타겟 차량(10)의 GPS 센서를 연계하여 운행 경로 상에서 진행 중인 공사를 판단하고, 공사가 진행 중인 위치 정보를 판단근거데이터로서 추출할 수 있다.For example, when the sudden situation sign data generation unit 154 analyzes the vehicle sensing data of the target vehicle 10 and detects a collision after the rapid deceleration, it determines that it is an accident of the target vehicle 10 and detects the sudden deceleration data and the collision Data can be extracted as judgment basis data. In addition, as a result of analyzing the information collected through the rider and the image of the surrounding vehicle 30, the unexpected situation data generation unit 154 indicates that there is an obstacle through the image when the distance to the object in front of the rider continues to decrease. It is possible to judge and extract data and image data sensed by the rider as the basis of the judgment. In addition, the unexpected situation data generation unit 154 classifies weather conditions in the form of data transmitted when two devices that emit lasers installed in the surrounding vehicle 20 transmit and receive lasers, and transmit and receive data of the corresponding lasers. It can be extracted as the basis of judgment in bad weather. In addition, the unexpected condition data generation unit 154 determines the construction in progress on the driving route by linking the information of the Korea Highway Corporation Traffic Information Center with the GPS sensor of the target vehicle 10, and determines the location information of the construction in progress. It can be extracted as supporting data.

그리고, 돌발상황징후 데이터 생성부(154)는 돌발 상황 징후의 종류와 이를 추출한 판단 근거 데이터와 판단 근거 데이터를 추출하는데 사용된 타겟 차량(10)의 차량 센싱데이터와 주변 운행 정보를 포함하는 돌발 징후 데이터를 생성하고, 돌발 징후 데이터가 클라우드 컴퓨팅 시스템(600)으로 전송되도록 처리한다.In addition, the sudden situation symptom data generation unit 154 includes the type of the unexpected situation indication, the judgment ground data extracting it, and the vehicle sensing data of the target vehicle 10 used to extract the judgment ground data, and the unexpected signs including surrounding driving information. Data is generated and processed so that the outbreak indication data is transmitted to the cloud computing system 600.

정상데이터 생성부(156)는 돌발상황징후 판단부(152)에서 돌발 상황 징후가 없는 것으로 판단되면, 타겟 차량(10)의 차량 센싱데이터와 수신된 주변 운행 정보를 정상데이터로 분류하고 차량 센싱데이터와 주변 운행 정보를 포함하는 정상데이터를 생성한 후 클라우드 컴퓨팅 시스템(600)으로 전송되도록 처리한다.The normal data generating unit 156 classifies the vehicle sensing data of the target vehicle 10 and the received surrounding driving information into normal data when it is determined that there is no unexpected condition indication in the sudden condition sign determining unit 152, and the vehicle sensing data. After generating normal data including and surrounding operation information, it is processed to be transmitted to the cloud computing system 600.

한편, 본 발명의 실시 예에 따른 클라우드 컴퓨팅 시스템(600)은 버스(610), 클라우드 통신부(620), 클라우드 DB(630), 클라우드 메모리(640) 및 클라우드 프로세서(650)를 포함한다.Meanwhile, the cloud computing system 600 according to an embodiment of the present invention includes a bus 610, a cloud communication unit 620, a cloud DB 630, a cloud memory 640, and a cloud processor 650.

버스(610)는 클라우드 통신부(620), 클라우드 DB(630), 클라우드 메모리(640) 및 클라우드 프로세서(650)를 서로 연결하고, 제어 메시지, 상태정보, 및/또는 데이터와 같은 각종 신호를 전달하는 회로를 포함할 수 있다.The bus 610 connects the cloud communication unit 620, the cloud DB 630, the cloud memory 640, and the cloud processor 650 to each other, and transmits various signals such as control messages, status information, and / or data. Circuitry.

클라우드 통신부(620)는 엣지 컴퓨팅 장치들(100~300), 공공 기관들(400, 500)과의 통신을 위한 인터페이스 회로를 포함한다. The cloud communication unit 620 includes interface circuits for communication with edge computing devices 100 to 300 and public institutions 400 and 500.

클라우드 DB(630)는 엣지 컴퓨팅 장치들(100~300)로부터 수신되는 차량 센싱데이터와 공공 기관들(400, 500)들로부터 수신되는 외부 공공 데이터를 저장한다.The cloud DB 630 stores vehicle sensing data received from edge computing devices 100 to 300 and external public data received from public institutions 400 and 500.

클라우드 메모리(640)는 휘발성 메모리 및/또는 비휘발성 메모리를 포함할 수 있다. 클라우드 메모리(640)에는 클라우드 컴퓨팅 시스템(600)이 제공하는 동작, 기능 등을 구현 및/또는 제공하기 위하여, 구성요소들에 관계된 명령 또는 데이터, 하나 이상의 프로그램 및/또는 소프트웨어, 운영체제 등이 저장될 수 있다.The cloud memory 640 may include volatile memory and / or non-volatile memory. In order to implement and / or provide operations, functions, etc. provided by the cloud computing system 600, the cloud memory 640 may store instructions or data related to components, one or more programs and / or software, an operating system, and the like. You can.

클라우드 메모리(640)에 저장되는 프로그램은 엣지 컴퓨팅 장치(100)로부터 수신된 데이터가 돌발상황징후 데이터이면, 돌발상황징후 데이터에 포함된 차량 센싱데이터와 영상데이터를 이용하여 돌발 상황을 심층 분석하고, 수신된 데이터가 정상데이터이면 정상 운행 정보를 생성하는 심층 분석 프로그램을 포함할 수 있다.If the program stored in the cloud memory 640 is data received from the edge computing device 100, the situation is analyzed in-depth by using the vehicle sensing data and image data included in the event data, If the received data is normal data, an in-depth analysis program that generates normal operation information may be included.

클라우드 프로세서(650)는 클라우드 메모리(640)에 저장된 하나 이상의 프로그램을 실행하여 클라우드 컴퓨팅 시스템(600)의 전반적인 동작을 제어할 수 있다.The cloud processor 650 may execute one or more programs stored in the cloud memory 640 to control the overall operation of the cloud computing system 600.

이를 위하여, 클라우드 프로세서(650)는 정상운행정보 생성부(652), 돌발상황 심층 분석부(654), 판별부(656), 돌발상황 운행 정보 생성부(658) 및 최종 운행정보 생성부(659)를 포함할 수 있다.To this end, the cloud processor 650 includes a normal operation information generation unit 652, an in-depth in-depth analysis unit 654, a determination unit 656, an emergency operation information generation unit 658, and a final operation information generation unit 659 ).

정상운행정보 생성부(652)는 엣지 컴퓨팅 장치(100)로부터 수신된 돌발 상황 분석 결과의 데이터가 정상데이터이면, 수신된 정상 데이터로부터 정상 운행 정보를 생성하여 메모리에 저장한 후 정상 운행 정보를 최종 운행정보 생성부(659)로 전달한다.The normal operation information generation unit 652 generates normal operation information from the received normal data and stores it in the memory when the data of the result of the analysis of the unexpected situation received from the edge computing device 100 is normal data, and then finalizes the normal operation information. It is transmitted to the driving information generating unit 659.

돌발상황 심층 분석부(654)는 엣지 컴퓨팅 장치(100)로부터 돌발 상황 징후로 분류된 돌발 상황 징후 데이터가 수신되면, 타겟 차량(10)의 전방 및 후방 중 적어도 하나에 위치하는 객체와 타겟 차량(10)의 주행 상황 정보를 포함하는 타겟 차량(10)의 주행 정보를 생성하고, 생성된 타겟 차량(10)의 주행 정보와 타겟 차량(10)의 주변에서 운행 중인 주변 차량들(20, 30)에 대해 생성된 주행 정보를 연계하여 돌발 상황 징후를 심층 분석할 수 있다. 이로써 돌발상황 심층 분석부(654)는 영상데이터로부터 장애물이 있는지 타겟 차량(10)의 앞에서 사고가 발생했는지, 날씨 상태가 어떠한지를 추출할 수 있다.When the sudden situation in-depth analysis unit 654 receives the sudden situation symptom data classified as the sudden situation symptoms from the edge computing device 100, the target vehicle and the object located in at least one of the front and rear of the target vehicle 10 The driving information of the target vehicle 10 including the driving condition information of 10) is generated, and the driving information of the generated target vehicle 10 and surrounding vehicles 20 and 30 operating in the vicinity of the target vehicle 10 It is possible to in-depth analysis of signs of an unexpected situation by linking driving information generated for. Accordingly, the in-depth analysis unit 654 can extract whether there is an obstacle or an accident in front of the target vehicle 10 from the image data and what the weather conditions are.

먼저, 돌발상황 심층 분석부(654)는 심층 분석 프로그램을 실행하여 타겟 차량(10)으로부터 수신된 차량 센싱데이터 중 영상데이터를 이용하여 딥러닝 알고리즘 기반의 객체를 검출하고, 목표물 분류 알고리즘에 의한 주행 상황 정보를 추출하여 돌발 상황 징후를 심층 분석할 수 있다. First, the in-depth analysis unit 654 executes an in-depth analysis program to detect an object based on a deep learning algorithm using image data among vehicle sensing data received from the target vehicle 10 and drive by the target classification algorithm By extracting contextual information, it is possible to further analyze the signs of an unexpected situation.

다시 말하면, 돌발상황 심층 분석부(654)는 타겟 차량(10)이 운행 도중 돌발 상황이 발생할 징후가 1차적으로 판별되었으면, 타겟 차량(10)에서 촬영된 영상데이터와 영상인식기반의 차량 검출 알고리즘을 이용하여 타겟 차량(10)의 전방 및 후방 중 적어도 하나에 위치하는 객체(예를 들어, 차량 또는 보행자)를 검출하고, 타겟 차량(10)에서 촬영된 영상데이터와 중앙선 식별 알고리즘을 이용하여 차량의 주행 방향을 검출한 후, 검출된 객체와 차량의 주행 방향을 분석하여 타겟 차량(10)의 돌발 상황 징후를 심층 분석할 수 있다.In other words, the in-depth in-depth analysis unit 654, when the target vehicle 10 is firstly identified as a sign that an unexpected situation occurs while the vehicle is in operation, is based on image data captured by the target vehicle 10 and image recognition-based vehicle detection algorithm Detects an object (for example, a vehicle or a pedestrian) located in at least one of the front and rear of the target vehicle 10 using, and uses the image data captured by the target vehicle 10 and the centerline identification algorithm After detecting the driving direction of, it is possible to analyze the detected object and the driving direction of the vehicle to deeply analyze signs of an unexpected situation of the target vehicle 10.

또한, 돌발상황 심층 분석부(654)는 주변 차량들(20, 30)의 운행 중 돌발 상황이 발생할 징후가 1차적으로 판별된 경우에도, 주변 차량들(20, 30)에 대하여 딥러닝 알고리즘 기반의 객체를 검출하고, 목표물 분류 알고리즘에 의한 주행 상황 정보를 추출하여 돌발 상황 징후를 각 주변 차량(20, 30) 별로 심층 분석할 수 있다. 장애물 인식 알고리즘은 'https://prezi.com/qzzqwryahnuy/opencv/ 또는 https://blog.naver.com/windowsub0406/220503344281'를 참조할 수 있다.In addition, the in-depth analysis unit 654 is based on a deep learning algorithm for the surrounding vehicles 20 and 30 even when the signs of occurrence of the unexpected situation during the operation of the surrounding vehicles 20 and 30 are primarily determined. By detecting the object, and extracting the driving situation information by the target classification algorithm, it is possible to in-depth analysis of the unexpected situation signs for each vehicle (20, 30). The obstacle recognition algorithm may refer to 'https://prezi.com/qzzqwryahnuy/opencv/' or https://blog.naver.com/windowsub0406/220503344281.

먼저, 도 3 내지 도 7을 참조하여 딥러닝 기반의 객체를 검출하는 동작에 대해 설명한다.First, an operation of detecting an object based on deep learning will be described with reference to FIGS. 3 to 7.

도 3은 영상인식기반 전방 차량 검출 알고리즘의 개요도, 도 4는 일반적인 Tenser Flow 구조를 도시한 도면, 도 5는 일반적인 CNN 구조를 도시한 도면, 도 6은 ROI pooling의 예시도, 도 7은 MultiNet의 물체 검출 알고리즘 구조를 도시한 도면이다.3 is a schematic diagram of an image recognition-based front vehicle detection algorithm, FIG. 4 is a diagram showing a general Tenser Flow structure, FIG. 5 is a diagram showing a general CNN structure, FIG. 6 is an example of ROI pooling, and FIG. 7 is MultiNet It is a diagram showing the structure of an object detection algorithm.

먼저, 본 발명의 실시 예에서, 객체 검출은 전방 차량 또는 후방 차량 검출을 의미하고, 딥러닝 알고리즘과 차량 검출 알고리즘과 멀티넷의 물체 검출 알고리즘은 동일한 알고리즘을 의미하며, 설명의 편의를 위해 혼용될 수 있다. First, in an embodiment of the present invention, object detection means detection of a front vehicle or a rear vehicle, deep learning algorithm, vehicle detection algorithm, and object detection algorithm of multinet mean the same algorithm, and may be used for convenience of explanation. have.

도 3 내지 도 7을 참조하면, 딥러닝 알고리즘은 물체의 특징 추출 단계가 포함되어 있어, 영상 전처리 과정과 특징 추출 단계를 별도로 진행하지 않고, 딥러닝 알고리즘이 학습 목적에 맞춰 스스로 특징 추출 단계를 계산할 수 있는 장점이 있다. 도 5에 도시된 CNN(Convolution Neural Network) 구조는 컴퓨터가 스스로 특징표현을 학습하여 결과를 도출하는 특징표현 학습 알고리즘의 네트워크 구조로서, 영상의 위상학적 구조를 학습할 수 있도록 신경망의 구조를 새롭게 설계해 영상 처리에 적합한 신경망이다. Referring to FIGS. 3 to 7, the deep learning algorithm includes a feature extraction step of an object, so that the image preprocessing process and the feature extraction step are not separately performed, and the deep learning algorithm calculates the feature extraction step in accordance with the learning purpose. There are advantages. The CNN (Convolution Neural Network) structure shown in FIG. 5 is a network structure of a feature expression learning algorithm in which a computer learns feature expressions and derives results, and newly designed a neural network structure to learn the topological structure of an image. It is a neural network suitable for image processing.

CNN은 특징을 추출하는 convolution과 pooling 레이어 단계와 추출된 특징을 학습하여 결과를 예측하는 Fully Connected 레이어 단계로 구성되어 있다. Convolution 레이어는 CNN을 이루는 핵심 레이어로, 입력 이미지로부터 특징을 추출하는 필터와 이 필터의 값을 비선형 값으로 변경하는 Activiation 함수로 구성된다. 또한, Pooling 레이어는 convolution 레이어에 의해 추출된 특징을 서브 샘플링하는 과정으로 convolution 레이어와 함께 특징을 추출하는 단계에 속한다. Fully Connected 레이어는 추출된 특징 값을 기존의 인공 신경망으로 분류하는 단계로 이 단계를 통해 예측 결과 값이 출력되는 구조이며, Softmax 함수와 같은 Activiation 함수를 추가로 사용하여 분류의 다양성을 확장시킬 수 있다. CNN consists of convolution and pooling layer steps to extract features, and a Fully Connected layer step to learn the extracted features and predict the results. The Convolution layer is the core layer of the CNN, and consists of a filter that extracts features from the input image and an Activiation function that changes the value of this filter to a nonlinear value. In addition, the pooling layer is a process of subsampling the features extracted by the convolution layer and belongs to the step of extracting features together with the convolution layer. The Fully Connected layer is a step of classifying the extracted feature values into an existing artificial neural network, and is a structure in which prediction result values are output through this step.It is possible to expand the diversity of classification by additionally using Activiation functions such as the Softmax function. .

한편, MultiNet 알고리즘은, YOLO(You only look once) 알고리즘의 장점인 fast regression design과 Fast-RCNN(Fast Recurrent Convolution Neural Network)알고리즘의 장점인 ROI-Pooling 기능을 결합한 알고리즘이다. Meanwhile, the MultiNet algorithm is a combination of the fast regression design, which is an advantage of the YOLO (You only look once) algorithm, and the ROI-Pooling function, which is an advantage of the Fast-Recurrent Convolution Neural Network (Fast-RCNN) algorithm.

YOLO 알고리즘은 한 번에 물체의 종류와 위치를 찾는 알고리즘으로, 이미지 내의 Bounding Box와 class probability를 single regression 문제로 간주하며, 실시간 처리가 가능하지만 정확도가 비교적 낮다. Fast-RCNN 알고리즘은 Region proposal 단계를 진행한 이미지를 CNN 알고리즘으로 특징 맵을 추출한 후, ROI pooling 레이어 단계를 거쳐 softmax classifier와 Bounding Box Regressor 단계를 진행하는 알고리즘으로 정확도는 높지만, Region proposal 단계의 처리 속도가 느려 실시간에 적합하지 못하다. ROI pooling은 도 6에 도시된 것처럼 ROI크기에 상관없이 내가 원하는 N*M feature가 나오도록 ROI 내 영역을 나누는 방법이다. The YOLO algorithm is an algorithm that finds the type and location of an object at a time. It considers the bounding box and class probability in the image as a single regression problem, and it can be processed in real time, but its accuracy is relatively low. The Fast-RCNN algorithm is a algorithm that extracts the feature map from the region proposal stage using the CNN algorithm, and then proceeds through the ROI pooling layer stage to perform the softmax classifier and the bounding box regressor stage. It is not suitable for real time because it is slow. ROI pooling is a method of dividing an area within an ROI so that an N * M feature that I want appears regardless of the size of the ROI, as shown in FIG. 6.

이러한 MultiNet 알고리즘은 딥러닝 알고리즘을 이용해 실시간으로 분류(classification), 검출(detection), 분할(segmentation)하기 위한 알고리즘으로, 분류 단계는 도로와 사이드 도로를 구분하는 역할을 하고, 검출 단계에서는 차량을 검출하고, 분할단계에서는 빈 공간을 구별하는 역할을 한다. 본 발명의 경우, 블랙박스 영상에서 전방 차량 또는 후방 차량을 확인할 때, 분류와 분할 단계는 불필요하므로 검출 단계만 적용할 수 있다. 이는 본 발명에서는 중앙선 식별 알고리즘을 이용하여 중앙선을 식별하고 차량 주행방향을 추출하기 때문에, 분류와 분할 단계를 제외할 수 있다.These MultiNet algorithms are algorithms for real-time classification, detection, and segmentation using deep learning algorithms, and the classification step serves to distinguish roads and side roads, and the detection step detects vehicles. In the partitioning step, it plays a role of distinguishing the empty space. In the case of the present invention, when checking the front vehicle or the rear vehicle in the black box image, the classification and division steps are unnecessary, so only the detection step can be applied. In the present invention, since the center line is identified using the center line identification algorithm and the vehicle driving direction is extracted, the classification and segmentation steps can be excluded.

한편, 기존의 물체 검출 알고리즘은 region propasals 단계를 진행한 후 convolution 네트워크를 사용해 점수에 따라 물체를 검출하는 기법을 주로 사용하였다. 본 발명에서 사용하는 MultiNet의 검출 알고리즘은 end-to-end trainable 검출 방법을 제안하여, 크기에 적응적인 features를 가질 수 있는 장점이 있어, 다양한 크기의 차량 또는 보행자와 같은 객체를 실시간으로 검출할 수 있다. On the other hand, in the existing object detection algorithm, after the region propasals step, the method of detecting objects according to the score using the convolution network was mainly used. The detection algorithm of MultiNet used in the present invention proposes an end-to-end trainable detection method, which has the advantage of having features that are adaptive to size, so that objects such as vehicles or pedestrians of various sizes can be detected in real time. have.

도 7을 참조하면, 입력된 이미지는 CNN Encoder 단계와 Detection Decoder 단계를 거쳐 영상에서 물체를 검출한다. CNN Encoder 단계는 상술한 것처럼 VGG16(Very Deep Convolution Network)의 convolution 레이어와 Max pooling(5단계의 pooling 레이어) 단계를 거쳐 특징 맵을 추출하는 단계이다. Referring to FIG. 7, the input image detects an object from an image through a CNN Encoder step and a Detection Decoder step. As described above, the CNN Encoder step is a step of extracting the feature map through the convolution layer of the VGG16 (Very Deep Convolution Network) and the Max pooling (pooling layer in 5 steps) step.

MultiNet의 Detection decoder는 FastBox라고 하며, Hidden, Prediction, Rezoom Layers, Delta Prediction의 4단계를 포함한다. Hidden 단계는 특징 맵을 500개의 filter로 1x1 convolution한 결과이며, 이를 1x1 convolution으로 특정 위치에 물체가 있는지에 대한 confidence와 해당 cell 주변 Bounding Box의 좌표를 찾는 과정을 prediction 과정이라 한다. Prediction 단계의 낮은 결과 정확도 향상을 위해 높은 차원(VGG)에 ROI pooling을 적용해 grid(39x12) 크기로 특징 추출하고, 1x1 convolution을 진행하는 Rezoom Layer 단계를 거쳐 해당 Bounding Box가 차량인지 아닌지를 판별할 수 있으며, 이로써 차량)의 전방 차량 또는 후방 차량이 판별된다. MultiNet's Detection decoder is called FastBox and includes 4 steps: Hidden, Prediction, Rezoom Layers, and Delta Prediction. The Hidden step is the result of 1x1 convolution of the feature map with 500 filters, and the process of finding the confidence of whether there is an object at a specific location with the 1x1 convolution and the coordinates of the bounding box around the cell is called a prediction process. ROI pooling is applied to the high dimension (VGG) to improve the accuracy of the low result of the prediction stage, feature extraction is performed at the size of the grid (39x12), and it is determined whether the corresponding bounding box is a vehicle or not through the Rezoom Layer stage that performs 1x1 convolution. In this way, the front vehicle or the rear vehicle of the vehicle) is determined.

상술한 영상인식기반의 물체 검출 알고리즘, 즉, 차량 검출 알고리즘은 영상데이터에서 운전자의 전방 또는 후방에 위치한 차량을 검출하여 교통 상황을 파악하며, 영상 내 차량 검출 크기는 (40x40)pixels 이상이고, 바퀴 2개 및 차량의 60% 이상이 식별가능할 경우 차량으로서 검출될 수 있다.The above-described image recognition-based object detection algorithm, that is, the vehicle detection algorithm, detects a traffic situation by detecting a vehicle located in the front or rear of the driver from the image data, and the vehicle detection size in the image is (40x40) pixels or more, and wheels If two and more than 60% of the vehicles are identifiable, they can be detected as vehicles.

다음으로, 도 8을 참조하여 중앙선 식별 알고리즘에 의해 차량의 주행 방향을 판단하는 동작에 대해 설명한다.Next, the operation of determining the driving direction of the vehicle by the center line identification algorithm will be described with reference to FIG. 8.

도 8은 HSV 색상 모델을 이용한 중앙선 식별 결과의 예시도와 중앙선 식별 알고리즘을 적용한 차량 주행방향 판단 결과를 보여주는 도면이다.8 is a view showing an example of a centerline identification result using the HSV color model and a vehicle driving direction determination result using the centerline identification algorithm.

먼저, 본 발명의 실시 예에서, 중앙선을 검출하여 타겟 차량(10)의 주행 방향 및/또는 차량 대수를 검출하는 동작은 주행상황정보를 추출하는 동작 또는 도로상황을 인식하는 동작과 동일한 의미로 사용될 수 있으며, 설명의 편의를 위해 혼용될 수 있다. First, in an embodiment of the present invention, the operation of detecting the center line and detecting the driving direction and / or the number of vehicles of the target vehicle 10 is used in the same sense as the operation of extracting the driving situation information or the operation of recognizing the road situation. It may be used interchangeably for convenience of explanation.

중앙선 식별 알고리즘은 도로에서 주로 노란색 실선으로 표현된 중앙선을 검출하기 위한 알고리즘으로서, 컬러모델을 RGB 색상 모델에서 HSV 색상 모델로 변경하여 명암에 관계없이 색상을 추출하여 차선을 검출할 수 있다. HSV 색상 모델은 모든 색상을 색상(Hue), 채도(Saturation), 명도(Value) 채널로 표현하는 방식으로 모든 채널을 확인해야 하는 RGB 색상 모델과 달리 색상 채널만 확인하여 노란색을 기준으로 하는 이진화 영상을 추출할 수 있다. The center line identification algorithm is an algorithm for detecting a center line mainly represented by a solid yellow line on a road, and it is possible to detect a lane by extracting color regardless of contrast by changing a color model from an RGB color model to an HSV color model. HSV color model expresses all colors as Hue, Saturation, and Value channels. Unlike the RGB color model, which requires all channels to be checked, it is a binary image based on yellow by checking only the color channels. Can be extracted.

돌발상황 심층분석부(654)는 노란색인 영역과 노란색이 아닌 영역으로 이진화된 영상에서 직선 성분을 찾아 중앙선을 판별하며, 이로써 단순히 직선 성분을 찾던 기존의 알고리즘보다 중앙선 식별 시간이 빠르고 정확하다. 특히, 도 8의 아래에 도시된 예시도에서, 돌발상황 심층분석부(654)는 우측에 도시된 것처럼 중앙선(파란선)을 기준으로 양쪽의 차량의 주행 방향이 다름(노랑 사각형과 초록 사각형으로 구분)을 정확히 판단한다. The in-depth depth analysis unit 654 determines the center line by finding the linear component in the image binarized into the yellow and non-yellow regions, thereby making the centerline identification time faster and more accurate than the existing algorithm that simply found the linear component. In particular, in the example shown below in FIG. 8, the in-depth analysis unit 654 has different driving directions of both vehicles based on the center line (blue line) as shown on the right side (yellow square and green square). Classification).

그리고, 돌발상황 심층분석부(654)는 검출된 객체, 즉, 검출된 전방 차량 또는 후방 차량과 주행 방향을 종합 분석하여 돌발 상황 징후를 보다 심층적으로 분석할 수 있다. 예를 들어, 타겟 차량(10)과 동일한 경로로 운행 중인 주변 차량(20)이 같은 방향의 옆차선으로 이탈한 경우 타겟 차량(10)의 주행방향의 차량 복잡도가 올라갈 수 있으며, 이러한 경우 타겟 차량(10)의 주행 방향에 대해 돌발 상황 징후가 있는 것으로 판단하고, 돌발 상황에 대한 가중치를 상향조정할 수 있다.In addition, the in-depth analysis unit 654 may analyze the detected object, that is, the detected front vehicle or the rear vehicle and the driving direction, to analyze the unexpected situation in-depth. For example, when the surrounding vehicle 20 operating in the same path as the target vehicle 10 deviates into a side lane in the same direction, the vehicle complexity in the driving direction of the target vehicle 10 may increase, and in this case, the target vehicle It is determined that there are signs of an unexpected situation with respect to the driving direction of (10), and the weight for the unexpected situation can be adjusted upward.

한편, 판별부(656)는 돌발 상황 징후를 심층 분석한 결과와 외부 공공 데이터를 연계 및 분석하여 타겟 차량(10)의 운행 경로를 기준으로 사고 발생 여부, 공사 진행 여부, 악천후 정보 및 장애물 여부 즉, 돌발 상황 징후의 타입을 심층 분석 및 판별할 수 있다. 판별부(656)에서 고려되는 타겟 차량(10)의 운행 경로는 타겟 차량(10)의 운전자가 네비게이션 장치를 통해 설정된 목적지까지의 운행 경로, 또는 돌발상황 심층 분석부(654)에서 예측가능한 다른 운행 경로들을 포함한다.On the other hand, the discrimination unit 656 connects and analyzes the results of in-depth analysis of the unexpected situation signs and external public data to determine whether an accident has occurred, whether to proceed with the construction, whether there is bad weather information and obstacles, based on the driving route of the target vehicle 10, , In-depth analysis and discrimination of the types of emergencies are possible. The driving route of the target vehicle 10 considered in the determining unit 656 is a driving route to a destination set by a driver of the target vehicle 10 through a navigation device, or other driving predictable by the in-depth analysis unit 654 Includes paths.

예를 들어, 돌발상황 심층분석부(654)의 심층 분석 결과와 주변 차량(20)이 전복된 도로의 전방에서 공사도 진행 중이라면, 판별부(656)는 돌발 상황 징후의 타입을 사고와 공사로 판별하며, 사고와 공사의 정도에 따라 가중치를 다르게 줄 수 있다.돌발상황 운행정보 생성부(658)는 판별부(656)에서 판별된 결과를 포함하는 돌발 상황 운행 정보를 생성하여 클라우드 DB(630)에 저장하고, 최종 운행정보 생성부(659)로 전달한다. 또는, 판별부(656)는 타겟 차량(10)의 위치를 판별하여 해당 위치의 기상데이터와 매핑하여 악천후를 판별할 수 있다.For example, if the in-depth analysis result of the in-depth analysis unit 654 and the construction of the surrounding vehicle 20 are in front of the road overturned, the discrimination unit 656 determines the type of the unexpected situation accident and construction. It can be determined as, and the weight can be differently given according to the degree of accident and construction. The accident situation driving information generating unit 658 generates an unexpected situation driving information including the result determined by the determining unit 656 and generates a cloud DB ( 630), and transmits it to the final driving information generating unit 659. Alternatively, the determination unit 656 may determine the location of the target vehicle 10 and map the weather data of the corresponding location to determine bad weather.

최종 운행정보 생성부(659)는 돌발상황 운행정보 생성부(658)로부터 전달받은 돌발상황 운행정보를 분석하여 돌발 상황 징후가 발생한 지역의 위치 정보와 예측된 돌발 상황 징후의 종류와 예측된 시간, 돌발 상황에 의한 목적지까지의 도착 예정 시간, 추천 경로 등을포함하는 최종 운행 정보를 생성할 수 있다. 여기서, 돌발상황 운행정보 생성부(658)에서 생성되는 돌발상황 운행 정보와 최종 운행정보 생성부(659)에서 생성되는 돌발상황 운행정보는 데이터 필드의 형태는 동일하며, 다만, 돌발 징후에 관련된 값들이 NONE 값으로 초기화 된 값이냐 아니냐의 차이가 있을 수 있다. 데이터의 정보로는 타겟 차량(10)에서 수집된 차량 센싱데이터, 엣지 컴퓨팅 장치(100)에서 분석된 1차 돌발 징후의 판단 근거 데이터, 그리고, 클라우드 컴퓨팅 시스템(600)에서 자체적으로 돌발 징후를 판단한 2차 도발 징후의 값들이 가진 데이터 형태(예를 들면, 사고, 공사, 악천후, 장애물 중 하나 이상)를 포함할 수 있다.The final operation information generation unit 659 analyzes the operation information of the unexpected situation received from the sudden situation operation information generation unit 658, the location information of the region where the unexpected situation indication occurred, and the type and predicted time of the predicted unexpected situation indication, The final operation information including the estimated time of arrival to the destination due to an unexpected situation and a recommended route may be generated. Here, the data of the data field is the same in the form of the data field, but the value related to the unexpected sign is the same as that of the data field between the sudden situation driving information generated by the unexpected driving information generating unit 658 and the final driving information generating unit 659. There may be a difference between whether these are initialized with NONE values or not. As data information, the vehicle sensing data collected from the target vehicle 10, the basis data for the determination of the primary sudden signs analyzed by the edge computing device 100, and the cloud computing system 600 determined the sudden signs by itself It may include data types (eg, one or more of accidents, construction, bad weather, obstacles) with values of the secondary provocation signs.

또한, 최종 운행정보 생성부(659)는 정상운행정보 생성부(652)로부터 전달받은 정상 운행 정보에 대해서도 현재 시간을 포함하는 최종 운행 정보를 생성할 수 있다.In addition, the final driving information generating unit 659 may generate final driving information including the current time for the normal driving information received from the normal driving information generating unit 652.

최종 운행정보 생성부(659)는 생성된 최종 운행 정보를 엣지 컴퓨팅 장치(100)로 전송하고, 엣지 컴퓨팅 장치(100)는 최종 운행 정보를 저장하고, 타겟 차량(10)에 노출하도록 지시할 수 있다. The final driving information generating unit 659 may transmit the generated final driving information to the edge computing device 100, and the edge computing device 100 may store the final driving information and instruct the target vehicle 10 to be exposed. have.

도 9는 본 발명의 실시 예에 따른 엣지-클라우드 시스템의 돌발 상황 정보 제공 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a method for providing unexpected situation information of an edge-cloud system according to an embodiment of the present invention.

도 9 및 도 10에 도시된 타겟 차량(10), 엣지 컴퓨팅 장치(100), 주변 차량들(20, 30), 공공기관 서버(400, 500) 및 클라우드 컴퓨팅 시스템(600)은 도 1 내지 도 8을 참조하여 설명하였으므로 상세한 설명은 생략한다. 주변 엣지 컴퓨팅 장치들(200, 300) 역시 설명의 편의를 위해 생략한다The target vehicle 10, the edge computing device 100, peripheral vehicles 20, 30, public institution servers 400, 500, and cloud computing system 600 shown in FIGS. 9 and 10 are shown in FIGS. Since it was described with reference to 8, detailed description is omitted. Peripheral edge computing devices 200 and 300 are also omitted for convenience of explanation.

도 9를 참조하면, 엣지 컴퓨팅 장치(100)는 타겟 차량(10)으로 차량 센싱데이터를 수신하여 수집 및 저장한 후, 클라우드 컴퓨팅 시스템(600)으로 전송한다(S905, S910, S915).Referring to FIG. 9, the edge computing device 100 receives and collects and stores vehicle sensing data to the target vehicle 10 and transmits it to the cloud computing system 600 (S905, S910, S915).

주변 차량들(20, 30)도 차량 센싱데이터를 클라우드 컴퓨팅 시스템(600)으로 전송하고, 공공기관 서버(400, 500) 또는 3RD PART G/W 서버(미도시)는 외부 공공데이터를 가동하여 클라우드 컴퓨팅 시스템(600)으로 전송한다(920, S925).The surrounding vehicles 20, 30 also transmit vehicle sensing data to the cloud computing system 600, and the public institution server 400, 500, or 3RD PART G / W server (not shown) operates external public data to the cloud. It transmits to the computing system 600 (920, S925).

클라우드 컴퓨팅 시스템(600)은 수신된 타겟 차량(10)과 주변 차량들(20, 30)의 차량 센싱 데이터, 외부 공공데이터를 클라우드 DB(630)에 저장한다(S930).The cloud computing system 600 stores the vehicle sensing data and external public data of the received target vehicle 10 and surrounding vehicles 20 and 30 in the cloud DB 630 (S930).

클라우드 컴퓨팅 시스템(600)은 타겟 차량(10)의 현재 위치와 운행 경로를 기준으로 타겟 차량(10)의 주변 차량을 선별하고, 선별된 주변 차량들(20, 30)의 차량 센싱데이터와 타겟 차량(10)의 운행 경로와 관련된 외부 공공데이터를 클라우드 DB(630)에서 추출하여 주변 운행 정보를 생성하고, 생성된 주변 운행 정보를 엣지 컴퓨팅 장치(100)로 전송한다(S935, S940).The cloud computing system 600 selects the surrounding vehicles of the target vehicle 10 based on the current location and the driving route of the target vehicle 10, and the vehicle sensing data and target vehicles of the selected surrounding vehicles 20, 30 External public data related to the driving route of (10) is extracted from the cloud DB 630 to generate surrounding driving information, and the generated surrounding driving information is transmitted to the edge computing device 100 (S935, S940).

엣지 컴퓨팅 장치(100)는 수신되는 주변 운행 정보를 저장한다(S945).The edge computing device 100 stores the received surrounding driving information (S945).

엣지 컴퓨팅 장치(100)는 S915단계 및 S945단계에서 저장된 타겟 차량(10)의 차량 센싱데이터와 주변 운행 정보를 분석하여 돌발 상황 징후의 여부를 1차적으로 판단할 수 있다(S950).The edge computing device 100 may primarily determine whether there is an unexpected situation indication by analyzing vehicle sensing data and surrounding driving information of the target vehicle 10 stored in steps S915 and S945 (S950).

엣지 컴퓨팅 장치(100)는 S950의 판단 결과에 따라 S950단계에서 사용된 차량 센싱데이터와 주변 운행 정보를 돌발 상황 데이터 또는 정상 데이터로 분류하여 클라우드 컴퓨팅 시스템(600)으로 전송한다(S955).According to the determination result of S950, the edge computing device 100 classifies the vehicle sensing data and surrounding driving information used in step S950 into sudden situation data or normal data, and transmits it to the cloud computing system 600 (S955).

클라우드 컴퓨팅 시스템(600)은 S950단계에서 수신된 데이터가 돌발 상황 데이터이면(S960-Yes), 타겟 차량(10)의 센싱데이터를 주변 차량들(20, 30)의 센싱데이터와 외부 공공데이터와 연계하여 1차적으로 판단된 돌발 상황을 심층 분석한다(S965).The cloud computing system 600 links the sensing data of the target vehicle 10 with the sensing data of the surrounding vehicles 20 and 30 and external public data if the data received in step S950 is an unexpected situation data (S960-Yes). By doing so, the unexpected situation that is primarily determined is analyzed in depth (S965).

클라우드 컴퓨팅 시스템(600)은 S950단계에서 수신된 데이터가 정상 데이터이면(S960-No), 정상데이터에 대해 정상 운행 정보를 생성한다(S970).If the data received in step S950 is normal data (S960-No), the cloud computing system 600 generates normal operation information for the normal data (S970).

그리고, 클라우드 컴퓨팅 시스템(600)은 S965단계의 심층 분석 결과 또는 S970단계에서 생성된 정상 운행 정보를 최종 분석하여 최종 분석된 운행 정보를 생성한 후 엣지 컴퓨팅 장치(100)로 전송한다(S975, S980).Then, the cloud computing system 600 finally analyzes the in-depth analysis result of step S965 or the normal operation information generated in step S970 to generate the final analyzed operation information and transmits it to the edge computing device 100 (S975, S980) ).

엣지 컴퓨팅 장치(100)는 수신된 최종 분석된 운행 정보를 저장하고, 타겟 차량(10)으로 전송한다(S985, S990). 이로써 타겟 차량(10)은 현재 주행 중인 운행 경로 상에서 돌발 상황 징후가 있는지 또는 정상적인지를 운전자가 인식가능한 형태로 변환하여 외부로 출력한다.The edge computing device 100 stores the received finally analyzed driving information and transmits it to the target vehicle 10 (S985, S990). Accordingly, the target vehicle 10 converts whether there is an indication of an unexpected situation on the driving route currently being driven or normal to the driver's recognizable form and outputs it to the outside.

도 10은 S950단계 내지 S970단계를 자세히 도시한 흐름도이다.10 is a flowchart illustrating steps S950 to S970 in detail.

도 10을 참조하면, 엣지 컴퓨팅 장치(100)는 S915단계 및 S945단계에서 저장된 타겟 차량(10)의 차량 센싱데이터와 주변 운행 정보를 분석하여 돌발 상황 징후가 있는지를 1차적으로 판단한다(S1010).Referring to FIG. 10, the edge computing device 100 primarily analyzes vehicle sensing data and surrounding driving information of the target vehicle 10 stored in steps S915 and S945 to determine whether there is an unexpected situation sign (S1010). .

돌발 상황 징후가 있으면(S1010-Yes), 엣지 컴퓨팅 장치(100)는 돌발 징후를 나타내는 판단 근거 데이터를 S1010단계에서 사용된 차량 센싱데이터와 주변 운행 정보에서 추출하고, 현재 상황을 돌발 상황으로 분류한다(S1030). If there is an unexpected situation indication (S1010-Yes), the edge computing device 100 extracts the judgment-based data representing the unexpected indication from the vehicle sensing data and surrounding driving information used in step S1010, and classifies the current situation as an unexpected situation. (S1030).

그리고, 엣지 컴퓨팅 장치(100)는 S1010단계에서 사용된 차량 센싱데이터와 주변 운행 정보를 돌발 상황 징후 데이터로 생성하여 클라우드 컴퓨팅 시스템(600)으로 전송한다(S1040, S955).Then, the edge computing device 100 generates vehicle sensing data and surrounding driving information used in step S1010 as sudden situation indication data and transmits them to the cloud computing system 600 (S1040, S955).

반면, 돌발 상황 징후가 없는 것으로 판단되면(S1010-No), 엣지 컴퓨팅 장치(100)는 현재 상황을 정상으로 분류하고, S1010단계에서 사용된 차량 센싱데이터와 주변 운행 정보를 정상데이터로 생성하여 클라우드 컴퓨팅 시스템(600)으로 전송한다(S1050, S955).On the other hand, if it is determined that there are no unexpected situation indications (S1010-No), the edge computing device 100 classifies the current situation as normal, and generates vehicle sensing data and surrounding driving information used in step S1010 as normal data to the cloud. It transmits to the computing system 600 (S1050, S955).

클라우드 컴퓨팅 시스템(600)은 S955단계로부터 수신되는 데이터가 돌발 상황 징후 데이터이면(S1050-Yes), 타겟 차량(10)의 영상데이터로부터 전방 및 후방 중 적어도 하나에 위치하는 객체를 딥러닝 기반으로 학습한 AI(인공지능)를 통해 검출하고, 목표물 분류 알고리즘을 통해 타겟 차량(10)의 주행 상황 정보를 추출한다(S1060).The cloud computing system 600 learns an object located in at least one of the front and rear from the image data of the target vehicle 10 based on deep learning if the data received from the step S955 is an unexpected situation indication data (S1050-Yes). It detects through one AI (Artificial Intelligence) and extracts driving status information of the target vehicle 10 through a target classification algorithm (S1060).

클라우드 컴퓨팅 시스템(600)은 추출된 객체와 주행 상황 정보를 포함하는 타겟 차량(10)의 주행 정보와 주변 차량들(20, 30)의 상황 정보와 외부 공공데이터를 연계하여 돌발 상황 징후를 심층 분석할 수 있다(S1070). 주변 차량들(20, 30)의 상황 정보는, 돌발 상황 징후의 여부, 주변 차량들(20, 30)에서 센싱된 센싱데이터와 주변 차량들(20, 30) 각각에 대해 1차로 판단된 돌발 상황 징후 데이터(또는 정상 데이터)와 종류, 주변 차량들(20, 30)의 주행 정보(객체와 주행 방향 정보)를 포함한다.The cloud computing system 600 in-depth analysis of unexpected situation signs by linking the driving information of the target vehicle 10 including the extracted object and the driving situation information with the situation information of the surrounding vehicles 20 and 30 and external public data. It can be done (S1070). The situation information of the surrounding vehicles (20, 30), whether there is an unexpected situation indication, the sensing data sensed by the surrounding vehicles (20, 30) and the unexpected situation determined as the primary for each of the surrounding vehicles (20, 30) It includes indication data (or normal data) and types, and driving information (object and driving direction information) of surrounding vehicles 20 and 30.

클라우드 컴퓨팅 시스템(600)은 돌발 상황 징후의 심층 분석 결과와 외부 공공 데이터를 연계하고 수집된 영상데이터를 딥러닝 기반으로 학습한 AI(인공지능)를 통해 판독하여 타겟 차량(10)의 운행 경로를 기준으로 돌발 상황 징후의 타입을 판별할 수 있다(S1080). 예를 들어, 외부 공공데이터가 기상과 관련된 악천후 여부의 판별에 사용될 외부 기상데이터인 경우, S1080단계는 운전자의 위치를 판별하여 해당 위치의 지역을 기상데이터와 매핑하여 악천후를 판별할 수 있다. 또는 주변 차량(20)에서 전송된 차량 센싱데이터 중 기상과 관련된 레이더 데이터를 분석하여 저장된 데이터에 해당 위치의 기상 상태를 나타내는 값이 있고, 이 값들과 기상청으로부터의 기상데이터를 연계하여 악천후 여부를 최종 판별할 수 있다. The cloud computing system 600 connects the result of in-depth analysis of an unexpected situation sign with external public data, and reads the collected image data through AI (Artificial Intelligence) learned based on deep learning to determine the driving path of the target vehicle 10 As a criterion, the type of an indication of an unexpected situation may be determined (S1080). For example, when the external public data is external weather data to be used to determine whether or not weather-related bad weather occurs, step S1080 may determine a driver's location and map an area of the location with weather data to determine bad weather. Or, among the vehicle sensing data transmitted from the surrounding vehicle 20, radar data related to the weather is analyzed, and there is a value indicating the weather condition of the corresponding location in the stored data. Can discriminate.

S1080단계에서 사용되는 외부 공공데이터는 타겟 차량(10)의 운행 경로를 기준으로 사전에 정해진 주변에서 발생하는 공공데이터일 수 있다.The external public data used in step S1080 may be public data generated in a predetermined environment based on the driving route of the target vehicle 10.

클라우드 컴퓨팅 시스템(600)은 S1070단계의 심층 분석 결과와 S1080단계의 판별 결과를 포함하는 돌발 상황 운행 정보를 생성하고(S1090), 돌발 상황 징후가 발생한 지역의 위치 정보와 예측된 돌발 상황 징후의 종류와 예측된 시간을 포함하는 최종 운행 정보를 생성할 수 있다(S980).The cloud computing system 600 generates unexpected situation operation information including an in-depth analysis result in step S1070 and a determination result in step S1080 (S1090), and the location information of the region where the unexpected situation indication occurs and the type of the predicted unexpected situation indication. And may generate final driving information including the predicted time (S980).

반면, 클라우드 컴퓨팅 시스템(600)은 S955단계로부터 수신되는 데이터가 정상데이터이면(S1050-No), 전송가능한 형태의 정상데이터를 이용하여 정상 운행 정보를 생성하고(S1095), 정상데이터로 판별된 현재 시간과 날씨, 가장 안전한 경로로 예상되는 추천 경로 등을 포함하는 최종 운행 정보를 생성할 수 있다(S980). On the other hand, if the data received from step S955 is normal data (S1050-No), the cloud computing system 600 generates normal operation information using normal data in a transmittable form (S1095), and is determined as normal data. Final driving information including time and weather, a recommended route predicted as the safest route, and the like may be generated (S980).

한편, 이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.On the other hand, in the above described and illustrated in connection with a preferred embodiment for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as described above, deviating from the scope of the technical idea It will be understood by those skilled in the art that many changes and modifications are possible to the present invention. Accordingly, all such suitable changes and modifications and equivalents should be considered within the scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

10: 타겟 차량 20, 30: 주변 차량
100, 200, 300: 엣지 컴퓨팅 장치들
400, 500: 공공기관 서버
600: 클라우드 컴퓨팅 시스템
10: target vehicle 20, 30: surrounding vehicle
100, 200, 300: edge computing devices
400, 500: public institution server
600: cloud computing system

Claims (5)

타겟 차량으로부터 수신되는 차량 센싱데이터와, 클라우드 컴퓨팅 시스템으로부터 수신되는 상기 타겟 차량이 운행 중인 주변과 관련된 주변 운행 정보를 분석하여 돌발 상황 징후의 여부를 판단하고, 돌발 상황 징후가 있는 것으로 1차적으로 판단되면, 상기 돌발 상황 징후를 판단한 판단 근거 데이터를 상기 차량 센싱데이터 및 상기 주변 운행 정보로부터 추출하여 상기 타겟 차량에 대한 돌발 상황 징후 데이터를 생성하는 엣지 컴퓨팅 장치; 및
상기 엣지 컴퓨팅 장치로부터 돌발 상황 징후 데이터가 수신되면, 상기 수신된 돌발 상황 징후 데이터를 기반으로 상기 타겟 차량의 주행 상황 정보를 예측하고, 상기 타겟 차량의 주행 상황 정보와 주변 차량들의 주행 상황 정보를 연계하여 상기 1차적으로 판단된 돌발 상황 징후를 심층 분석한 후, 상기 심층 분석된 결과를 포함하는 돌발 상황에 대한 운행 정보(이하, '돌발 상황 운행 정보'라 함)를 생성하여 상기 엣지 컴퓨팅 장치로 전송하는 클라우드 컴퓨팅 시스템;을 포함하고,
상기 엣지 컴퓨팅 장치는 상기 타겟 차량으로부터 수신되는 차량 센싱데이터와 상기 클라우드 컴퓨팅 시스템으로부터 수신되는 주변 운행 정보를 분석하여 사고 발생 여부, 공사 진행 여부, 악천후 정보 및 장애물 여부 중 적어도 하나를 포함하는 돌발 상황 징후의 여부를 판단하고, 상기 클라우드 컴퓨팅 시스템으로부터 수신되는 돌발 상황 운행 정보를 상기 타겟 차량으로 전송하고,
상기 클라우드 컴퓨팅 시스템은 상기 타겟 차량으로부터 차량 센싱데이터를 수신하는 엣지 컴퓨팅 장치, 상기 주변 차량들로부터 차량 센싱데이터를 수신하는 주변 엣지 컴퓨팅 장치들 및 공공 기관들과 통신하여 돌발 상황 징후를 심층 분석하며,
상기 타겟 차량 및 주변 차량들에서 센싱되는 차량 센싱데이터는 영상데이터, 속도데이터, 가속도 데이터, 급감속 데이터, 충돌 감지 데이터, 레이저 송수신 데이터 중 적어도 하나를 포함하고,
상기 주변 운행 정보는 상기 주변 차량들에서 센싱된 차량 센싱데이터와, 공공 기관들에서 제공하는 기상 데이터 및 도로 공사 중인 구간 정보를 포함하는 것을 특징으로 하는 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템.
By analyzing vehicle sensing data received from a target vehicle and surrounding operation information related to the surroundings in which the target vehicle is operating, received from a cloud computing system, it is determined whether there is an unexpected situation indication, and it is primarily determined that there is an unexpected situation indication An edge computing device that extracts judgment-based data for determining the unexpected situation indication from the vehicle sensing data and the surrounding driving information to generate unexpected situation indication data for the target vehicle; And
When the sudden situation indication data is received from the edge computing device, the driving situation information of the target vehicle is predicted based on the received sudden situation indication data, and the driving situation information of the target vehicle and the driving situation information of surrounding vehicles are linked. By performing an in-depth analysis of the first determined unexpected situation signs, generating operation information (hereinafter referred to as 'explosion situation operation information') for the unexpected situation including the in-depth analysis result to the edge computing device. Cloud computing system for transmitting; includes,
The edge computing device analyzes vehicle sensing data received from the target vehicle and surrounding driving information received from the cloud computing system, and indicates an unexpected situation including at least one of whether an accident has occurred, whether a construction is in progress, bad weather information, and an obstacle. To determine whether or not, and transmits the unexpected driving information received from the cloud computing system to the target vehicle,
The cloud computing system in-depth analysis of an unexpected situation sign by communicating with an edge computing device receiving vehicle sensing data from the target vehicle, surrounding edge computing devices receiving vehicle sensing data from the surrounding vehicles, and public institutions,
The vehicle sensing data sensed by the target vehicle and surrounding vehicles includes at least one of image data, speed data, acceleration data, rapid deceleration data, collision detection data, and laser transmission / reception data,
The surrounding driving information is for connecting vehicle data collection and emergency information provided by vehicle sensing data sensed by the surrounding vehicles, weather data provided by public institutions, and section information on road construction. Edge-cloud system.
삭제delete 제1항에 있어서,
상기 엣지 컴퓨팅 장치는,
상기 돌발 상황 징후가 있는 것으로 판단되면, 상기 돌발 상황 징후와 관련된 위치 정보, 영상 정보, 가감속 정보, 충돌 감지 정보, 레이저 송수신 데이터로부터 분석된 기상 상태 정보 중 적어도 하나를 상기 판단 근거 데이터로서 상기 차량 센싱데이터 및 상기 주변 운행 정보로부터 추출하는 것을 특징으로 하는 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템.
According to claim 1,
The edge computing device,
If it is determined that there is an unexpected situation indication, at least one of weather conditions information analyzed from location information, image information, acceleration / deceleration information, collision detection information, and laser transmission / reception data related to the unexpected situation indication is the vehicle as the determination basis data. Edge-cloud system for collecting connected car data and providing unexpected situation information, characterized by extracting from sensing data and the surrounding driving information.
제1항에 있어서,
상기 클라우드 컴퓨팅 시스템은,
상기 돌발 상황 징후 데이터가 수신되면, 상기 타겟 차량의 전방 및 후방 중 적어도 하나에 위치하는 객체와 상기 타겟 차량의 주행 상황 정보를 포함하는 상기 타겟 차량의 주행 정보를 생성하고, 상기 생성된 타겟 차량의 주행 정보와 상기 타겟 차량의 주변에서 운행 중인 주변 차량들에 대해 생성된 주행 정보를 연계하여 돌발 상황 징후를 심층 분석하는 것을 특징으로 하는 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템.
According to claim 1,
The cloud computing system,
When the unexpected condition indication data is received, driving information of the target vehicle including the object located in at least one of the front and rear of the target vehicle and driving situation information of the target vehicle is generated, and the generated target vehicle An edge-cloud system for collecting connected car data and providing sudden situation information by deeply analyzing an unexpected situation sign by linking driving information with driving information generated for surrounding vehicles operating in the vicinity of the target vehicle .
제4항에 있어서,
상기 클라우드 컴퓨팅 시스템은,
상기 돌발 상황 징후를 심층 분석한 결과와 외부 공공 데이터를 연계 및 분석하여 사고 발생 여부, 공사 진행 여부, 악천후 정보 및 장애물 여부를 판별하고, 상기 판별된 결과를 포함하는 돌발 상황 운행 정보를 생성하여 상기 엣지 컴퓨팅 장치로 전송하는 것을 특징으로 하는 커넥티드 카 데이터 수집 및 돌발 상황 정보 제공을 위한 엣지-클라우드 시스템.
According to claim 4,
The cloud computing system,
The result of in-depth analysis of the unexpected signs and the external public data is linked and analyzed to determine whether an accident has occurred, whether the project is in progress, bad weather information, and whether there is an obstacle, and generates unexpected driving information including the determined result. An edge-cloud system for collecting connected car data and providing unexpected situation information, which is transmitted to an edge computing device.
KR1020180095597A 2018-08-16 2018-08-16 Edge-cloud system for collecting and providing data of connected car KR102105007B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180095597A KR102105007B1 (en) 2018-08-16 2018-08-16 Edge-cloud system for collecting and providing data of connected car

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180095597A KR102105007B1 (en) 2018-08-16 2018-08-16 Edge-cloud system for collecting and providing data of connected car

Publications (2)

Publication Number Publication Date
KR20200020193A KR20200020193A (en) 2020-02-26
KR102105007B1 true KR102105007B1 (en) 2020-04-28

Family

ID=69637816

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180095597A KR102105007B1 (en) 2018-08-16 2018-08-16 Edge-cloud system for collecting and providing data of connected car

Country Status (1)

Country Link
KR (1) KR102105007B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220039172A (en) 2020-09-22 2022-03-29 (주) 엘렉스정보통신 A multi-access simultaneous transmission device for connected data and management system for connected data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102354870B1 (en) * 2021-08-20 2022-01-21 한밭대학교 산학협력단 Game Engine-based Digital Construction Safty Monitoring System

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084034A (en) 2015-10-27 2017-05-18 株式会社日立製作所 Traffic information providing device and system and method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140119471A (en) * 2013-04-01 2014-10-10 현대엠엔소프트 주식회사 System for correcting and providing real-time dangerous road-section information based on device in the car and its method
KR101735080B1 (en) * 2014-12-29 2017-05-12 재단법인대구경북과학기술원 System and method for warning danger in driving section
KR101887499B1 (en) * 2015-12-03 2018-08-10 현대오트론 주식회사 Safe driving assist apparatus
KR20180049892A (en) * 2016-11-04 2018-05-14 (주)에코브레인 A Connected car based EV platform system responsive to driver environment
KR102382185B1 (en) 2016-12-02 2022-04-04 팅크웨어(주) Server, vehicle terminal and method for providing emergency notification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084034A (en) 2015-10-27 2017-05-18 株式会社日立製作所 Traffic information providing device and system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220039172A (en) 2020-09-22 2022-03-29 (주) 엘렉스정보통신 A multi-access simultaneous transmission device for connected data and management system for connected data
KR102409052B1 (en) 2020-09-22 2022-06-15 (주)엘렉스정보통신 A multi-access simultaneous transmission device for connected data and management system for connected data

Also Published As

Publication number Publication date
KR20200020193A (en) 2020-02-26

Similar Documents

Publication Publication Date Title
US11840239B2 (en) Multiple exposure event determination
CN111712829B (en) Detecting a blocking stationary vehicle
KR102073929B1 (en) Vehicle Emergency Log system using blockchain network
EP3523155B1 (en) Method and system for detecting vehicle collisions
TWI430212B (en) Abnormal behavior detection system and method using automatic classification of multiple features
CN110866427A (en) Vehicle behavior detection method and device
CN110606093A (en) Vehicle performance evaluation method, device, equipment and storage medium
US10717442B2 (en) Method and apparatus for determining a presently existing driving situation
US11704912B2 (en) Label-free performance evaluator for traffic light classifier system
CN108960083B (en) Automatic driving target classification method and system based on multi-sensor information fusion
CN112330915B (en) Unmanned aerial vehicle forest fire prevention early warning method and system, electronic equipment and storage medium
CN113095125B (en) Diagnosing a perception system based on scene continuity
KR102105007B1 (en) Edge-cloud system for collecting and providing data of connected car
US20230419688A1 (en) Ambiguous Lane Detection Event Miner
CN111967384A (en) Vehicle information processing method, device, equipment and computer readable storage medium
CN111800508A (en) Automatic driving fault monitoring method based on big data
CN110696828A (en) Forward target selection method and device and vehicle-mounted equipment
EP4113377A1 (en) Use of dbscan for lane detection
JP7380616B2 (en) Automatic driving control device, automatic driving control method, and automatic driving control program
CN112437111B (en) Vehicle-road cooperative system based on context awareness
CN114972731A (en) Traffic light detection and identification method and device, moving tool and storage medium
US20240124002A1 (en) Method and apparatus for changing route when error occurs in autonomous driving artificial intelligence
US11922703B1 (en) Generic obstacle detection in drivable area
Juyal et al. Anomalous Activity Detection Using Deep Learning Techniques in Autonomous Vehicles
KR102551819B1 (en) Electronic device for detecting vehicle driving behavior multi-dimensionally and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant