KR102382219B1 - The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object - Google Patents

The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object Download PDF

Info

Publication number
KR102382219B1
KR102382219B1 KR1020210059797A KR20210059797A KR102382219B1 KR 102382219 B1 KR102382219 B1 KR 102382219B1 KR 1020210059797 A KR1020210059797 A KR 1020210059797A KR 20210059797 A KR20210059797 A KR 20210059797A KR 102382219 B1 KR102382219 B1 KR 102382219B1
Authority
KR
South Korea
Prior art keywords
unit
information
data
abnormal object
road
Prior art date
Application number
KR1020210059797A
Other languages
Korean (ko)
Inventor
전주천
Original Assignee
넥스터 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥스터 주식회사 filed Critical 넥스터 주식회사
Priority to KR1020210059797A priority Critical patent/KR102382219B1/en
Application granted granted Critical
Publication of KR102382219B1 publication Critical patent/KR102382219B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • G06Q20/145Payments according to the detected use or quantity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Abstract

The present invention relates to an autonomous driving service which detects FOD on a road in real time through road condition analysis for artificial intelligence-based autonomous driving and provides information on the detected FOD. An autonomous vehicle having a system comprises: a sensing unit (2) which is placed in the vehicle or mobility and obtains the FOD information of the road in real time while driving on the road; an operation unit (4) which collects raw data received from the sensing unit (2), classifies the data, extracts an object, vectorizes and processes the extracted object data, removes noise through preprocessing, detects an object by an FOD detection modeled algorithm, classifies the risk of an abnormal object into 15 levels, and infers the value of FOD information for the risk level; an output unit (11) for displaying the recognized abnormal object on a navigation system; a communication unit (10) which transmits the processed FOD information to a central control center and propagates the information to surrounding vehicles (1); and a control unit (8) which controls the components to perform autonomous artificial intelligence abnormal object recognition. The present invention prevents a safety accident and enables efficient autonomous driving.

Description

인공지능 자율주행을 위한 도로상의 이상객체 데이터를 표출하는 방법 및 이상객체 각각에 대한 위험도에 따른 정보 가치를 추론하여 정보 이용료를 과금 정산 하는 방법 및 시스템{The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object}The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object}

본 발명은 인공지능 기반의 자율주행 차량에 관한 것으로서, 보다 상세하게는 GIS 및 GPS 기반의 도로상의 실시간 위치에 대한 도로 영상 데이터를 수집하고, 이를 전처리한 후 실시간 분석하고, 도로상의 FOD(Foreign object and Debris;도로상의 이상객체) 정보를 위험도에 따라 분류함과 동시에 이를 운전자의 네비게이션 표출하고, FOD를 발견한 수집 장소에서 후방을 따르는 주변 차량 및 서비스 가입자에 FOD 정보를 공유함으로써 사고를 예방할 수 있고, 정보 제공에 따른 이용료를 과금하여 정보 제공자와 사용자가 일정 비율로 배분함으로써 수익을 창출할 수 있는 자율주행 서비스 기술에 관한 것이다.The present invention relates to an artificial intelligence-based autonomous vehicle, and more particularly, collects road image data for a real-time location on a road based on GIS and GPS, pre-processes it, and analyzes it in real time. and Debris (abnormal object on the road) information is classified according to the level of risk, and it is displayed on the driver's navigation system, and FOD information is shared with surrounding vehicles and service subscribers following the rear from the collection point where FOD was discovered, thereby preventing accidents. , it relates to an autonomous driving service technology that can generate revenue by charging a fee for information provision and distributing it in a certain ratio between the information provider and the user.

일반적으로 자율주행 자동차(autonomous car)는 운전자가 차량을 운전하지 않아도 스스로 움직이는 자동차를 의미한다.In general, an autonomous car refers to a car that moves by itself without a driver driving the vehicle.

이러한 자율주행 자동차는 다양한 센서 및 카메라가 구비되는 바, 예를 들면, RADAR(Radio detection and ranging), LIDAR(Light detection and ranging), 3D 형상인식센서, 카메라, 레이저 센서, 다축 모션센서 등이 장착된다.The autonomous vehicle is equipped with various sensors and cameras, for example, RADAR (Radio detection and ranging), LIDAR (Light detection and ranging), 3D shape recognition sensor, camera, laser sensor, multi-axis motion sensor, etc. are installed. do.

Radar는 차량 및 도로 시설물 감지용이며 2.4GHz 근거리 레이더와, 77-78GHz 중장거리 레이더가 주로 사용된다. 전후방 충돌경보, 충돌방지 시스템 등에 주로 사용된다.Radar is for vehicle and road facility detection, and 2.4GHz short-range radar and 77-78GHz mid-range radar are mainly used. It is mainly used for front and rear collision warning and collision avoidance systems.

Lidar는 레이저 펄스를 지표면과 장애물에 조사하여 반사돼 돌아오는 광 에너지를 분석하여 주변의 3차원 정보를 인식한다. Lidar irradiates a laser pulse to the ground surface and obstacles and analyzes the reflected light energy to recognize 3D information around it.

3D 형상인식센서는 LED와 인식픽셀이 적용된 이미지 센서 카메라로서, 전방위 충돌방지, 차선이탈방지, 주차 지원 등에 사용된다.The 3D shape recognition sensor is an image sensor camera with LED and recognition pixels, and is used for omnidirectional collision prevention, lane departure prevention, and parking assistance.

카메라는 렌즈를 통해 들어온 빛을 디지털 신호로 변환하며, 어라운드 뷰, 후방 카메라 뿐만 아니라 AEB(자동 긴급제동 브레이크), LKA(차선 유지 보조 시스템) 등에 적용된다.The camera converts the light coming through the lens into a digital signal, and it is applied to around view and rear camera, as well as AEB (Automatic Emergency Braking Brake) and LKA (Lane Keeping Assist System).

레이더는 트랜스미터에서 라디오 전파가 송출되어 장애물에 반사된 후 리시버로 수신되는 원리를 이용한 센서로서, 거리, 속도, 각도 등을 파악하는데 적용된다.Radar is a sensor that uses the principle that radio waves are transmitted from a transmitter, reflected off an obstacle, and then received by a receiver, and is applied to determine distance, speed, and angle.

다축 모션센서는 차량의 병진이나 회전을 감지하는 센서로서 ABS, ESP 등 자동차의 자세 제어에 사용된다.A multi-axis motion sensor is a sensor that detects the translation or rotation of a vehicle, and is used for posture control of vehicles such as ABS and ESP.

도로상의 이상객체(FOD : Foreign Object and Debris)는 차량이 도로를 주행하는 동안 주행을 방해하고 안전사고를 유발할 수 있는 다양한 객체를 의미한다. FOD: Foreign Object and Debris refers to various objects that may interfere with driving and cause safety accidents while a vehicle is traveling on a road.

예를 들면, 이상객체는, 포유류로는 인간, 고라니, 멧돼지, 개, 고양이 등을 포함하고, 객체는 자갈, 바위 등 도로위의 낙석, 타이어 조각, 범퍼 조각, 램프 조각 등 각종 차량 파편, 볼트, 너트, 피스 등 각종 차량 화물 부품, 캔, 플라스틱 비닐, 펫트병, 유리병 등 생활 쓰레기, 블랙 아이스, 물웅덩이, 포트홀 등의 자연 현상을 의미한다.For example, the ideal object includes a human, an elk, a wild boar, a dog, and a cat as mammals, and the object is a rockfall on the road such as gravel and rocks, various vehicle fragments such as tire fragments, bumper fragments, lamp fragments, bolts, etc. It refers to various vehicle cargo parts such as , nuts and pieces, household waste such as cans, plastic vinyl, PET bottles, and glass bottles, and natural phenomena such as black ice, water puddles, and potholes.

그리고, 이러한 다양한 센서들에 의하여 얻어진 도로 정보는 제어부에 의하여 분석됨으로써 위험 및 장애여부가 판단될 수 있고, 또한 이러한 빅데이터는 5G 등의 통신망을 통하여 중앙 관제소 등으로 전송될 수 있다.And, the road information obtained by these various sensors can be analyzed by the control unit to determine whether there are dangers and obstacles, and also, such big data can be transmitted to a central control center through a communication network such as 5G.

그러나, 이러한 종래의 자율주행 자동차는 전방 장애물을 감지하고, 인식하는데 시간이 오래 걸리고 부정확한 문제점이 있다.However, such a conventional autonomous vehicle has problems in that it takes a long time and is inaccurate to detect and recognize a front obstacle.

한국공개특허 제10-2016-0034719호(명칭: 라이다 시스템)Korean Patent Laid-Open Patent No. 10-2016-0034719 (Name: LiDAR system)

따라서, 본 발명은 이와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, GIS 및 GPS 기반의 도로상의 실시간 위치에 대한 도로 영상에서 도로상의 이상객체 데이터(FOD : Foreign Object and Debris)를 수집하고, 이를 전처리 한 후 실시간 분석하고, FOD와 같은 도로상의 실시간 위험상황에 대한 정보를 받기를 희망하는 주변 차량 및 서비스 가입자와 공유함으로써 안전사고를 예방하고 효율적으로 자율주행할 수 있는 기술을 제공하는 것이다.Accordingly, the present invention has been devised to solve such a problem, and an object of the present invention is to obtain foreign object and debris (FOD) data on a road from a road image for a real-time location on a road based on GIS and GPS. It collects, pre-processes, analyzes it in real time, and shares it with nearby vehicles and service subscribers who want to receive information on real-time dangerous situations on the road such as FOD, thereby preventing safety accidents and providing technology for efficient autonomous driving. will do

본 발명의 다른 목적은, 정보 제공에 따른 이용료를 과금하여 정보 제공자와 사용자가 일정 비율로 배분함으로써 수익을 창출할 수 있는 자율주행 서비스 기술을 제공하는 것이다.Another object of the present invention is to provide an autonomous driving service technology capable of generating profits by charging a usage fee according to information provision and distributing it in a certain ratio between the information provider and the user.

본 발명은 상기한 과제를 달성하기 위하여 제안된 것으로서, 본 발명의 일 실시예는,The present invention has been proposed to achieve the above object, an embodiment of the present invention,

차량 혹은 모빌리티에 배치되어 실시간 도로상의 FOD 데이터에 대한 정보를 얻는 센싱부(2)와;a sensing unit 2 disposed in a vehicle or mobility to obtain information on FOD data on a road in real time;

센싱부(2)로부터 수신된 원시데이터(Raw Data)를 수집하고, 분류 및 객체를 추출하고, 추출된 객체 데이터를 백터화하여 처리하며, 전처리를 통하여 노이즈를 제거하며, FOD 검지 모델링된 알고리즘에 의하여 객체를 검출하고, 이상객체의 위험도를 15단계로 구분하여 위험단계에 대한 FOD 정보의 가치를 추론하는 연산부(4)와; Collecting raw data received from the sensing unit 2, classifying and extracting objects, processing the extracted object data as a vector, removing noise through preprocessing, and applying the FOD detection modeled algorithm an operation unit (4) for detecting an object by means of a method, classifying the risk level of the abnormal object into 15 stages, and inferring the value of the FOD information for the risk stage;

인식된 이상 객체를 네비게이션에 표시하는 출력부(11)와; an output unit 11 for displaying the recognized abnormal object in the navigation;

처리된 FOD 정보를 중앙 관제소에 전송하여 주변 차량(1)에 전파하는 통신부(10)와; a communication unit 10 that transmits the processed FOD information to the central control station and propagates to the surrounding vehicles 1;

상기 구성요소들을 제어하여 자율주행 인공지능 이상객체 인식을 진행하는 제어부(8)를 포함하는 인공지능 기반의 자율주행 차량(1)을 제공한다.Provided is an artificial intelligence-based autonomous driving vehicle (1) including a control unit (8) that controls the above components to perform autonomous driving artificial intelligence abnormal object recognition.

상기한 바와 같이, 본 발명에 따른 인공지능 기반의 자율주행 차량은, GIS 및 GPS 기반의 도로상의 실시간 위치에 대한 도로 영상 데이터를 수집하고, 이를 전처리한 후 실시간 분석하고, 도로의 위험 상황을 주변 차량 및 서비스 가입자와 공유함으로써 안전사고를 예방하고 효율적으로 자율주행할 수 있는 효과가 있다.As described above, the AI-based autonomous vehicle according to the present invention collects road image data for a real-time location on the road based on GIS and GPS, pre-processes it, and analyzes it in real-time, Sharing with vehicle and service subscribers has the effect of preventing safety accidents and enabling efficient autonomous driving.

또한, 위험 정보를 위험도별로 차등적으로 분류하여 주위 차량에게 제공함으로써 정보 제공에 따른 이용료를 과금하여 정보 제공자와 사용자가 일정 비율로 배분함으로써 수익을 창출할 수 있는 효과가 있다.In addition, by differentially classifying risk information by risk level and providing it to surrounding vehicles, there is an effect of generating profits by charging a usage fee according to the information provision and distributing the information at a certain ratio between the information provider and the user.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 자율주행 차량의 구조를 개략적으로 보여주는 사시도이다.
도 2는 도 1에 도시된 자율주행 차량이 네트워크에 의하여 다른 자율주행 차량과 연계된 구조를 개략적으로 보여주는 도면이다.
도 3은 도 1에 도시된 자율주행 차량의 각 구성을 개략적으로 보여주는 블록도이다.
도 4는 도 3에 도시된 연산부의 구조를 개략적으로 보여주는 블록도이다.
도 5는 도 4에 도시된 이상객체 판별부에 의하여 위험도를 분석하는 구조를 개략적으로 보여주는 도면이다.
도 6은 도 4에 도시된 전처리부 및 이상객체 판별부의 연결 구조를 개략적으로 보여주는 도면이다.
도 7은 도 3에 도시된 센싱부에서 신호를 수신하여 처리하는 과정을 개략적으로 보여주는 블록도이다.
도 8은 도 3에 도시된 위험정보 과금 정산부의 구조를 개략적으로 보여주는 블록도이다.
도 9는 본 발명의 일 실시예에 따른 자율주행 차량이 센싱부에 의하여 도로 주변을 감지함으로써 주행하는 과정을 보여주는 순서도이다.
도 10은 본 발명의 일 실시예에 따른 자율주행 차량이 카메라에 의하여 도면주변의 동영상 데이터를 획득하여 주행하는 과정을 보여주는 순서도이다.
1 is a perspective view schematically showing the structure of an artificial intelligence-based autonomous driving vehicle according to an embodiment of the present invention.
FIG. 2 is a diagram schematically illustrating a structure in which the autonomous driving vehicle shown in FIG. 1 is linked with another autonomous driving vehicle through a network.
3 is a block diagram schematically showing each configuration of the autonomous vehicle shown in FIG. 1 .
FIG. 4 is a block diagram schematically showing the structure of the operation unit shown in FIG. 3 .
FIG. 5 is a diagram schematically showing a structure for analyzing the degree of risk by the abnormal object determining unit shown in FIG. 4 .
6 is a diagram schematically showing a connection structure of the preprocessing unit and the abnormal object determining unit shown in FIG. 4 .
7 is a block diagram schematically illustrating a process of receiving and processing a signal by the sensing unit shown in FIG. 3 .
FIG. 8 is a block diagram schematically showing the structure of the risk information charging and settlement unit shown in FIG. 3 .
9 is a flowchart illustrating a process in which an autonomous vehicle travels by sensing a road periphery by a sensing unit according to an embodiment of the present invention.
10 is a flowchart illustrating a process of driving an autonomous vehicle by acquiring video data around a drawing by a camera according to an embodiment of the present invention.

이하, 본 발명의 실시예에 따른 인공지능 기반의 자율주행 차량에 대하여 첨부된 도면에 의하여 상세하게 설명한다.Hereinafter, an artificial intelligence-based autonomous driving vehicle according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1 내지 도 8에 도시된 바와 같이, 본 발명이 제안하는 인공지능 기반의 자율주행 차량(1)은, 차량 혹은 모빌리티에 배치되어 도로 주변에 대한 교통정보를 얻는 센싱부(2)와;1 to 8, the artificial intelligence-based autonomous driving vehicle 1 proposed by the present invention includes: a sensing unit 2 disposed in a vehicle or mobility to obtain traffic information about a road;

센싱부(2)로부터 수신된 원시데이터(Raw Data)를 수집하고, 분류 및 보정하고, 객체를 추출하고, 추출된 객체 데이터를 백터화하여 처리하며, 전처리를 통하여 노이즈를 제거하며, 모델링된 알고리즘에 의하여 데이터를 학습함으로써 객체를 검출하고, 이상객체를 판단하는 연산부(4)와; Collecting, classifying and correcting raw data received from the sensing unit 2, extracting an object, vectorizing and processing the extracted object data, removing noise through preprocessing, and modeling algorithm an operation unit (4) for detecting an object by learning data and determining an abnormal object;

인식된 이상 객체를 네비게이션에 표시하는 출력부(11)와; an output unit 11 for displaying the recognized abnormal object in the navigation;

처리된 교통정보를 중앙 관제소에 전송하여 주변 차량(1)에 전파하는 통신부(10)와; 상기 구성요소들을 제어하여 자율주행 인공지능 이상객체 인식을 진행하는 제어부(8)와; 그리고 데이터를 저장하는 저장부(12)를 포함한다.a communication unit 10 that transmits the processed traffic information to the central control center and propagates it to the surrounding vehicles 1; a control unit (8) for controlling the components to perform autonomous driving artificial intelligence abnormal object recognition; and a storage unit 12 for storing data.

이러한 인공지능 기반의 자율주행 차량(1)에 있어서,In this artificial intelligence-based autonomous vehicle (1),

센싱부(2)는 실시간 도로 영상, 차량, 도로상의 FOD(Foreign object and Debris;이상객체) 및 도로 주변의 대상체, GIS 및 GPS 기반의 실시간 도로 위치 데이터, 속도, 차간 거리, 영상, 음향신호 등을 감지한다.The sensing unit 2 includes real-time road images, vehicles, foreign objects and debris (FODs) on the road and objects around the road, real-time road location data based on GIS and GPS, speed, inter-vehicle distance, images, sound signals, etc. to detect

이러한 자율주행 자동차는 다양한 센서 및 카메라(7)가 구비되는 바, 예를 들면, RADAR(Radio detection and ranging;5), LIDAR(Light detection and ranging;3), 3D 형상인식센서, 카메라(7), 레이저 센서, 다축 모션센서 등이 장착된다.The autonomous vehicle is provided with various sensors and cameras 7 , for example, RADAR (Radio detection and ranging; 5), LIDAR (Light detection and ranging; 3), 3D shape recognition sensor, and camera 7 , laser sensor, multi-axis motion sensor, etc. are installed.

그리고, 센서 및 카메라(7)에 의하여 얻어진 데이터는 수신모듈(30)에 의하여 전처리된 후 연산부(4)로 전송된다.And, the data obtained by the sensor and camera 7 is pre-processed by the receiving module 30 and then transmitted to the calculating unit 4 .

이러한 수신모듈(30)은 LIDAR, RADAR, 카메라로부터 전송된 신호를 수신하는 수신신호 생성모듈(32)과, 수신신호를 분류하는 분류부(34)와, 신호를 보정 및 생성하는 생성부(36)를 포함한다.The reception module 30 includes a reception signal generation module 32 for receiving signals transmitted from LIDAR, RADAR, and a camera, a classification unit 34 for classifying the reception signal, and a generation unit 36 for correcting and generating the signal. ) is included.

따라서, 이러한 수신모듈(30)에 의하여 처리된 데이터는 연산부(4)로 전송되어 처리된다.Accordingly, the data processed by the receiving module 30 is transmitted to and processed by the operation unit 4 .

이러한 연산부(4)는, 도 4에 도시된 바와 같이, 센싱부(2)에서 전송된 원시데이터(Raw Data)를 수집하는 데이터 수집부(20)와;The calculation unit 4 includes, as shown in FIG. 4 , a data collection unit 20 for collecting raw data transmitted from the sensing unit 2 ;

데이터수집부(20)를 통해 실시간 수신되는 신호데이터를 분류 및 보정하고, 입력되는 영상을 분석하여 유효한 영상을 추출하여 객체 데이터와 위치정보를 동시에 추출하고, 추출된 하나 이상의 객체 데이터를 백터화하여 함수처리 및 수신데이터를 영상하는 추출부(22)와; Classifying and correcting the signal data received in real time through the data collection unit 20, analyzing the input image to extract a valid image, extracting object data and location information at the same time, and vectorizing the extracted one or more object data an extracting unit 22 for image processing and reception data;

추출부(22)에서 처리된 이상객체 데이터에서 반사광, 화각, Dust 및 노이즈 제거를 진행하는 전처리부(24)와;a preprocessor 24 for removing reflected light, angle of view, dust, and noise from the abnormal object data processed by the extraction unit 22;

전처리부(24)에서 처리된 3차원 영상데이터와 추출된 영상 데이터로부터 모델링된 알고리즘으로 학습된 객체 데이터의 유사도를 판단함으로써 객체를 검출하는 검출부(26)와;a detection unit 26 for detecting an object by determining a degree of similarity between the 3D image data processed in the preprocessor 24 and the object data learned by an algorithm modeled from the extracted image data;

검출된 하나 이상의 객체 데이터를 데이터베이스에 등록하거나 또는 기존에 등록된 이상객체와 비교 분석하여 이상객체 여부를 판단하는 이상객체 판별부(26)를 포함한다.and an abnormal object determining unit 26 that registers the detected one or more object data in the database or compares and analyzes the detected abnormal object with the previously registered abnormal object to determine whether it is an abnormal object.

이러한 연산부(4)에 있어서,In this calculation unit 4,

데이터 수집부(20)는 다양한 센서 및 카메라(7)에 의하여 얻어진 도로 데이터, 예를 들면 시간 도로 영상, 차량, 도로상의 FOD(Foreign object and Debris;이상객체) 및 도로 주변의 대상체에 대한 데이터, GIS 및 GPS 기반의 도로상의 실시간 위치 데이터에 대한 원시데이터(Raw Data)를 수집한다.The data collection unit 20 includes road data obtained by various sensors and cameras 7, for example, time road images, vehicles, foreign objects and debris (FODs) on the road, and data on objects around the road; It collects raw data for real-time location data on the road based on GIS and GPS.

그리고, 데이터 수집부(20)에 의하여 수집된 센서 및 영상 데이터는 추출부(22)로 전송된다.In addition, the sensor and image data collected by the data collection unit 20 are transmitted to the extraction unit 22 .

이러한 추출부(22)는 데이터 수집부(20)를 통해 실시간 수신되는 센서 데이터 및 영상데이터를 분류 및 보정한다.The extraction unit 22 classifies and corrects sensor data and image data received in real time through the data collection unit 20 .

그리고, 입력되는 영상을 분석하여 유효한 영상을 추출하여 객체 데이터와 위치정보를 동시에 추출한다. 또한, 추출된 하나 이상의 객체 데이터를 백터화하여 함수처리 한다.Then, the input image is analyzed to extract a valid image, and object data and location information are simultaneously extracted. In addition, one or more extracted object data are vectorized and function-processed.

그리고, 추출된 객체 데이터는 전처리부(24)로 전송되어 전처리되는 바, 반사광, 화각, Dust 및 노이즈 제거를 진행한다.Then, the extracted object data is transmitted to the pre-processing unit 24 and pre-processed, so that reflected light, angle of view, dust, and noise are removed.

즉, 전처리부(24)에서는 추출부(22)에 의하여 얻어진 원시데이터(Raw Data)에 있어서, 분석에 부적합한 구조, 누락된 항목, 결측값 존재 등으로 인하여 전처리 과정이 필요하다.That is, in the raw data obtained by the extraction unit 22, the preprocessing unit 24 requires a preprocessing process due to a structure inappropriate for analysis, missing items, and missing values.

따라서, 이러한 전처리 과정을 통하여 노이즈 제거, 중복값 제거, 결측값 보정, 데이터 연계/통합, 데이터 구조 변경(차원 변경), 데이터 벡터화, 아웃틸리어 탐색(Outlier), 피쳐 엔지니어링(Feature engineering) 등을 진행한다.Therefore, through this preprocessing process, noise removal, duplicate value removal, missing value correction, data linkage/integration, data structure change (dimensional change), data vectorization, outlier, and feature engineering are performed. proceed

그리고, 학습된 데이터에 의하여 모델링된 알고리즘으로 인식된 이상객체의 영상 및 시각화데이터는 비, 안개, 눈과 같은 좋지 않은 기상 여건상에서도 시야를 방해하는 요소들이 제거된 상태에서 도로위의 이상객체 및 이상객체 시각화 데이터를 공유할 수 있다.And, the image and visualization data of the abnormal object recognized by the algorithm modeled by the learned data are the abnormal objects and abnormalities on the road in a state in which the elements obstructing the view are removed even in bad weather conditions such as rain, fog, and snow. You can share object visualization data.

상기 전처리부(24)에서 처리된 센서 및 영상 데이터(이하, 교통 데이터)는 검출부(26)에 전송됨으로써 모델링된 알고리즘에 의하여 유사도를 판단함으로써 객체를 검출한다.The sensor and image data (hereinafter, traffic data) processed by the pre-processing unit 24 are transmitted to the detection unit 26 and the object is detected by determining the similarity by the modeled algorithm.

이러한 검출부(26)에서는 객체를 검출하기 위하여 데이터의 예측, 분류, 회귀를 위한 작업을 진행한다. 즉, 전처리된 데이터를 관점별로 나눔으로써 객체 데이터를 얻을 수 있다.The detection unit 26 performs tasks for data prediction, classification, and regression in order to detect an object. That is, object data can be obtained by dividing the preprocessed data by viewpoint.

예를 들면, 도로를 주행하는 전,후 차량(1)의 외곽형상에 대한 데이터를 알고리즘에 의하여 분석하여 유사도를 판단함으로써 차종을 식별할 수 있다.For example, the vehicle model can be identified by analyzing the data on the outline of the vehicle 1 before and after traveling on the road by an algorithm to determine the degree of similarity.

이러한 방식으로 교통 데이터를 분석하고 유사도를 판단함으로써 도로의 노면형상, 도로 주변의 장애물 등의 객체를 식별하게 된다.In this way, by analyzing the traffic data and determining the degree of similarity, objects such as the shape of the road surface and obstacles around the road are identified.

한편, 이와 같이 검출된 객체 데이터는 이상 객체 판별부(26)에 의하여 기존에 등록된 이상객체와 비교 분석하여 이상객체 여부를 판단한다.On the other hand, the detected object data is compared and analyzed with the previously registered abnormal object by the abnormal object determination unit 26 to determine whether the object is an abnormal object.

상기 이상객체 판별부(26)는 탑재된 인공지능에 의하여 주위의 차량(1), 장애물, 차선(이하, 교통 데이터)을 인식하고 위험여부를 판단한다.The abnormal object determination unit 26 recognizes the surrounding vehicle 1, obstacles, and lanes (hereinafter, traffic data) by the built-in artificial intelligence and determines whether there is a danger.

이러한 이상객체 판별부(26)는 머신러닝, 딥러닝과 같은 AI 코어와 Tensorflow, SSD, YOLO 와 같은 AI 프레임워크, 안드로이드 혹은 리눅스 기반의 OS와, CPU, GPU, TPU와 같은 프로세서(Processor)를 포함한다.This abnormal object determination unit 26 is an AI core such as machine learning and deep learning, an AI framework such as Tensorflow, SSD, YOLO, an Android or Linux-based OS, and a processor such as CPU, GPU, and TPU. include

그리고, 이상객체 판별부(26)는 최소 8채널 이상을 지원하며, 인터페이스로는 USB, HDMI, Ethernet 2, 4G/5G의 듀얼밴드와, 블루투스 등을 구비한다.In addition, the abnormal object determination unit 26 supports at least 8 channels or more, and as an interface, USB, HDMI, Ethernet 2, 4G/5G dual-band, Bluetooth, and the like are provided.

이러한 이상객체 판별부(26)는 처리된 데이터를 분석함으로써 주위의 차량(1), 장애물, 차선 등의 교통 데이터를 인식한다. 이러한 이상객체 판별부(26)는 인공지능이 탑재된 중앙처리장치(CPU;27)에 의하여 처리될 수 있다The abnormal object determination unit 26 recognizes traffic data such as surrounding vehicles 1, obstacles, and lanes by analyzing the processed data. Such an abnormal object determination unit 26 may be processed by a central processing unit (CPU) 27 equipped with artificial intelligence.

중앙처리장치(27)는, 도 6에 도시된 바와 같이, 이상 객체분석 엔진과, GPU와, ISP(Image Signal Processor), ALSA(Advanced Linux Sound Architecture), RTSP(Real Time Streaming Protocol), 통신모듈에 의하여 신호를 송수신하게 된다. As shown in FIG. 6 , the central processing unit 27 includes an abnormal object analysis engine, a GPU, an ISP (Image Signal Processor), an ALSA (Advanced Linux Sound Architecture), an RTSP (Real Time Streaming Protocol), and a communication module. signals are transmitted and received by

이상객체 판별부(26)에서는 실시간 도로 정보를 다양한 알고리즘을 사용하여 분석할 수 있는 바, 예를 들면 딥러닝(Deep learning) 방식에 의하여 분석하는 방식이다.The abnormal object determination unit 26 may analyze real-time road information using various algorithms, for example, it is a method of analyzing by a deep learning method.

즉, 딥러닝은 컴퓨터가 여러 데이터를 이용해 인간처럼 스스로 학습할 수 있도록 심층 신경망(CNN: Convolutional neural network)을 기반으로 구축한 한 기계 학습방법이다.In other words, deep learning is a machine learning method built on the basis of a deep neural network (CNN) so that a computer can learn by itself like a human using multiple data.

심층 신경망을 이용하면 교통 데이터의 분류(classification) 및 군집화(clustering)가 가능한 바, 분류나 군집화를 원하는 데이터 위에 여러 가지 층(layer)을 얹어서 유사도 판단을 실시할 수 있다.When a deep neural network is used, classification and clustering of traffic data are possible, and similarity judgment can be performed by placing various layers on the data for which classification or clustering is desired.

즉, 인공 신경망으로 교통 데이터의 형상 특징을 추출하고 그 특징을 다시 다른 기계학습 알고리즘의 입력값으로 사용하여 형상 별로 분류나 군집화를 함으로써 유사도를 판단할 수 있다. That is, the degree of similarity can be determined by extracting shape features of traffic data with an artificial neural network and classifying or clustering them by shape using the features as input values for other machine learning algorithms.

이러한 인공 신경망은 심층 신경망을 포함하는 바, 심층 신경망은 신경망 알고리즘 중에서 여러 개의 층으로 이루어진 신경망을 의미한다. The artificial neural network includes a deep neural network, and the deep neural network refers to a neural network composed of several layers among neural network algorithms.

즉, 심층 신경망은 다층으로 구성되는 바, 각각의 층은 여러 개의 노드로 구성되고, 각 노드에서는 실제로 형상을 분류하는 연산이 일어나며, 이 연산 과정은 인간의 신경망을 구성하는 뉴런에서 일어나는 과정을 모사하도록 설계된다.That is, a deep neural network is composed of multiple layers, and each layer is composed of several nodes, and an operation to actually classify a shape occurs at each node. designed to do

노드는 일정 크기 이상의 자극을 받으면 반응을 하는데, 그 반응의 크기는 입력 값과 노드의 계수(또는 가중치, weights)를 곱한 값과 대략 비례한다. When a node receives a stimulus of a certain size or more, it responds, and the magnitude of the response is approximately proportional to the product of the input value and the node's coefficient (or weights).

일반적으로 노드는 여러 개의 입력을 받으며 입력 갯수만큼의 계수를 갖는다. 따라서, 이 계수를 조절함으로써 여러 입력에 서로 다른 가중치를 부여할 수 있다. In general, a node receives multiple inputs and has as many coefficients as the number of inputs. Therefore, different weights can be given to different inputs by adjusting this coefficient.

최종적으로 곱한 값들은 전부 더해지고 그 합은 활성 함수(activation function)의 입력으로 들어가게 된다. 활성 함수의 결과가 노드의 출력에 해당하며 이 출력값이 궁극적으로 분류나 회귀 분석에 쓰인다.Finally, all the multiplied values are added and the sum is input to the activation function. The result of the activation function corresponds to the output of the node, and this output is ultimately used for classification or regression analysis.

각 층은 여러 개의 노드로 이루어지며 입력값에 따라 각 노드의 활성화/비활성화 여부가 결정된다. 이때, 입력 데이터는 첫 번째 층의 입력이 되며, 그 이후엔 각 층의 출력이 다시 다음 층의 입력이 되는 방식이다.Each layer consists of several nodes, and whether each node is activated/deactivated is determined according to the input value. At this time, the input data becomes the input of the first layer, and after that, the output of each layer becomes the input of the next layer again.

모든 계수는 교통 데이터의 형상 학습 과정에서 계속 조금씩 변하는데, 결과적으로 각 노드가 어떤 입력을 중요하게 여기는지를 반영한다. 그리고 신경망의 학습(training)은 이 계수를 업데이트하는 과정이다.All coefficients change little by little during the shape learning process of traffic data, and as a result, reflect which input each node considers important. And training of the neural network is the process of updating this coefficient.

교통 데이터의 형상 학습 시 이러한 심층 신경망에서는 각 층마다 서로 다른 층위의 특징이 학습된다.When learning the shape of traffic data, in this deep neural network, features of different layers are learned for each layer.

즉, 낮은 층위의 특징은 단순하고 구체적인 특징이 학습되며(예: 차량(1)의 형상을 구성하는 형상), 높은 층위의 특징은 더욱 복잡하고 추상적인 특징이 학습된다.(예: 차간 거리, 주위 가드레일)That is, simple and specific features are learned for low-level features (eg, the shape constituting the shape of the vehicle 1), and more complex and abstract features are learned from high-level features (eg, inter-vehicle distance, surrounding guardrails)

이런 추상화 학습과정을 통해 심층 신경망이 고차원의 데이터를 이해하며, 이 과정에는 수 억, 수 십억 개의 계수가 관여하게 된다. (이 과정에서 비선형함수가 사용된다.)Through this abstraction learning process, the deep neural network understands high-dimensional data, and hundreds of millions of coefficients are involved in this process. (A non-linear function is used in this process.)

또한, 심층 신경망은 데이터를 이용해 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 주위 차량(1)의 형상, 차간 거리, 가드레일, 차선, 차선 도색, 보행자 등 잠재적인 구조를 파악할 수 있다. 이를 통해 데이터가 라벨링되어 있지 않아도 데이터간의 유사성을 효과적으로 파악할 수 있으며, 결과적으로 심층 신경망은 교통 데이터의 군집화에 효과적이다.In addition, deep neural networks can use the data to identify the latent structures of the data. That is, potential structures such as the shape of the surrounding vehicle 1 , the inter-vehicle distance, guard rails, lanes, paint lanes, and pedestrians can be grasped. Through this, similarity between data can be effectively identified even when data is not labeled, and as a result, deep neural networks are effective for clustering traffic data.

예를 들어, 신경망을 이용해 대량의 교통 데이터를 입력받아 비슷한 객체끼리 모아서 분류할 수 있다. 즉, 차량, 교통 신호판, 보행자 등 객체들을 유사한 객체들로 분류할 수 있다.For example, by using a neural network, a large amount of traffic data can be input, and similar objects can be grouped and classified. That is, objects such as a vehicle, a traffic signboard, and a pedestrian may be classified into similar objects.

이러한 심층 신경망이 일반적인 기계 학습과 다른 점은 특징 추출(feature extraction)이 자동적으로 이루어진다는 점이다. The difference between this deep neural network and general machine learning is that feature extraction is performed automatically.

기존에는 효과적인 특징을 추출하기 위해 관련 분야 전문가가 오랜 시간동안 직접 특징을 추출하는 수식이나 방법을 고안해서 적용해야 했다. 이 방법은 개발, 평가 및 보완에 많은 시간이 걸리는 문제점이 있다. In the past, in order to extract effective features, experts in the relevant field had to devise and apply formulas or methods for extracting features directly for a long time. This method has a problem in that it takes a lot of time to develop, evaluate, and supplement.

심층 신경망은 이런 과정을 컴퓨터가 대신 하도록 알고리즘을 짠 것으로, 사람에 비해 훨씬 빠르고 효과적으로 수행하도록 학습시킨다.A deep neural network is an algorithm designed to make a computer take over this process, and it trains it to perform much faster and more effectively than humans.

라벨링이 되어있지 않은 데이터를 학습하는 경우에도 신경망은 교통 데이터의 특징을 자동적으로 추출할 수 있다. 이 자동 추출은 여러 가지 방법이 있는데, 보통 이 과정은 신경망을 통과시켰을 때의 출력이 입력과 같아지도록 학습하게 된다. Even when learning unlabeled data, neural networks can automatically extract features of traffic data. There are several methods for this automatic extraction, and in general, this process learns to make the output equal to the input when passed through the neural network.

라벨이 어떤 종류이든지(입력을 그대로 사용/별도의 라벨을 사용) 신경망은 입력과 출력의 상관관계를 찾는다. 경우에 따라서는 라벨링된 데이터로 신경망을 어느 정도 학습시킨 뒤 라벨링이 되어있지 않은 데이터를 추가하여 계속 학습시킬 수도 있다. 이 방법을 이용하면 신경망의 성능을 극대화할 수 있다.No matter what kind of label is (use the input as it is/use a separate label), the neural network finds the correlation between the input and the output. In some cases, after training the neural network to some extent with labeled data, it is possible to continue learning by adding unlabeled data. By using this method, the performance of the neural network can be maximized.

심층 신경망의 마지막 층은 출력층이다. 출력층의 활성 함수는 로지스틱(logistic) 혹은 소프트 맥스(softmax)인 경우가 대부분이며 출력층에서는 최종적으로 특정 라벨의 확률을 구할 수 있다. 예를 들어 교통 데이터를 입력하였을 때 차량이 소형, 중형, 대형, 승합, 버스인지, 차선이 직선 혹은 곡선, 보행자의 유무 등을 각각의 확률로 구할 수 있다.The last layer of a deep neural network is the output layer. In most cases, the activation function of the output layer is logistic or softmax, and the probability of a specific label can be finally obtained from the output layer. For example, when traffic data is input, whether the vehicle is small, medium, large, van, or bus, the lane is straight or curved, the presence or absence of pedestrians, etc. can be obtained with respective probabilities.

우선 학습이 시작되기 전에 뉴럴넷의 모든 계수를 초기화한다. 그리고 교통 데이터를 반복적으로 입력하여 학습을 진행한다. 만일 학습이 원활하게 진행되었다면 계수는 적절한 값으로 업데이트되어 있을 것이고, 이 인공 신경망으로 각종 분류와 예측이 가능하다.First, all coefficients of the neural net are initialized before training starts. Then, the learning proceeds by repeatedly inputting traffic data. If the learning proceeds smoothly, the coefficients will be updated to appropriate values, and various classifications and predictions are possible with this artificial neural network.

학습 과정 내부에선 이러한 계수의 업데이트 과정이 반복적으로 일어난다.In the learning process, the updating process of these coefficients occurs repeatedly.

계수 업데이트의 원리는 우선 계수를 추정하고 그 계수를 사용했을 때 발생하는 에러를 측정한 뒤 그 에러에 기반해서 계수를 약간씩 업데이트하는 방식이다.The principle of coefficient update is to first estimate the coefficient, measure the error that occurs when the coefficient is used, and then slightly update the coefficient based on the error.

이때, 신경망의 여러 계수를 합쳐서 모델이라고 부르며, 모델은 초기화 된 상태일 수도 있고, 학습이 완료된 상태일 수도 있다.At this time, the multiple coefficients of the neural network are collectively called a model, and the model may be in an initialized state or in a state in which learning is completed.

초기화된 모델은 의미있는 작업을 못하지만 학습이 진행될수록 모델은 임의의 값이 아닌, 실제와 유사한 결과를 출력하게 된다.The initialized model does not perform meaningful work, but as the learning progresses, the model outputs results similar to the actual value rather than a random value.

이는 인공 신경망이 데이터가 입력되기 전에는 아무것도 모르는 상태이기 때문이며, 계수를 임의의 값으로 초기화하는 이유도 마찬가지이다. 그리고 데이터를 읽어가면서 계수를 조금씩 올바른 방향으로 업데이트하게 된다.This is because the artificial neural network does not know anything before data is input, and the reason for initializing coefficients to random values is also the same. And as the data is read, the coefficients are updated little by little in the correct direction.

이러한 업데이트 과정을 통하여 인공 신경망은 입력된 교통 데이터들을 분류함으로써 유사한 교통 데이터들을 군집화할 수 있다. Through this update process, the artificial neural network can group similar traffic data by classifying the input traffic data.

이와 같이 군집화된 교통 데이터는 데이터 베이스(12)에 등록된다.The traffic data clustered in this way is registered in the database 12 .

이상객체 판별부(26)는 이러한 방식에 의하여 도로상의 객체들을 인식할 수 있으며, 인식된 객체들과 본 차량(1)과의 위험여부를 판단한다.The abnormal object determining unit 26 can recognize the objects on the road in this way, and determines whether there is a danger between the recognized objects and the present vehicle 1 .

즉, 이상객체 판별부(26)는 위험 판단모듈(29)에 의하여 위험여부를 판단하는 바, 본 차량(1)과 주위 차량(1)들의 거리, 속도, 진행방향, 차선 유지 여부, 장애물 위치 등을 인식함으로써 위험여부를 판단할 수 있다. That is, the abnormal object determination unit 26 determines whether there is a danger by the risk determination module 29, and the distance, speed, travel direction, lane maintenance, and obstacle position between the present vehicle 1 and the surrounding vehicles 1 By recognizing it, it is possible to determine whether there is a risk or not.

예를 들면, 위험 판단모듈(29)은 본 차량(1)의 진행속도와 전방 차량(1) 혹은 후방 차량(1)의 속도 및 거리를 비교하고, 또한 진행방향을 비교한다.For example, the risk determination module 29 compares the traveling speed of the present vehicle 1 with the speed and distance of the front vehicle 1 or the rear vehicle 1, and also compares the traveling direction.

비교결과, 전방 차량(1)과 본 차량(1)간의 속도 차이가 일정 범위 이하이고, 또한 거리도 일정 거리 이내이고, 진행 방향도 동일한 경우, 양 차량(1)은 충돌 가능성이 높다고 판단한다.As a result of comparison, when the speed difference between the front vehicle 1 and the present vehicle 1 is less than a certain range, the distance is also within a certain distance, and the traveling direction is the same, it is determined that both vehicles 1 have a high probability of collision.

이 경우, 위험 판단모듈(29)은 차량(1)의 제어부(8)에 신호를 전송함으로써 제동장치를 작동시켜서 차량(1)을 감속시키게 된다.In this case, the risk determination module 29 operates a braking device by transmitting a signal to the control unit 8 of the vehicle 1 to decelerate the vehicle 1 .

또한, 위험 판단모듈(29)은 전방의 도로상의 장애물이 인식되면, 본 차량(1)의 진행방향, 속도, 거리를 비교한다. 비교결과, 본 차량(1)의 진행방향이 장애물과 동일 방향에 위치하고, 장애물과의 거리가 일정 범위 이내이면 위험이라고 판단하여 제어부(8)에 신호를 전송함으로써 제동장치를 작동시켜서 감속하게 된다.In addition, when the obstacle on the road ahead is recognized, the risk determination module 29 compares the traveling direction, speed, and distance of the vehicle 1 . As a result of comparison, if the traveling direction of the vehicle 1 is located in the same direction as the obstacle and the distance from the obstacle is within a certain range, it is determined that it is dangerous and transmits a signal to the control unit 8 to operate the braking device to decelerate.

이때, 이상객체 판별부(26)는 도로상의 차량(1), 장애물과 같은 객체를 구체적으로 특정하지 않고, DB화 하지도 않은 상태에서 GIS 및 GPS 기반의 위치정보와 이상객체의 위치 및 특성(모양, 크기, 종류)을 인식하여 분석한다.At this time, the abnormal object determination unit 26 does not specifically specify objects such as the vehicle 1 and obstacles on the road, and does not form a DB, and the location information based on GIS and GPS and the position and characteristics (shape) of the abnormal object , size, type) are recognized and analyzed.

또한, 이상객체의 크기 놓인 위치 등의 상황 분석을 통하여 위험도를 다수 단계, 예를 들면 15단계로 나누어 이상객체를 분류하여 단계별 정보의 가치를 연산한다.In addition, the level of risk is divided into multiple stages, for example, 15 stages, through situation analysis such as the size and location of the abnormal object, and the value of the information is calculated for each stage by classifying the abnormal object.

이때, 실시간 검지되는 이상객체에 대한 각각의 위험정보에 대한 가치 기준을 추론하여 연산한다.At this time, it is calculated by inferring the value standard for each risk information for the abnormal object detected in real time.

위험정보에 대한 가치를 추론하는 방식은 다양한 방식이 가능하며, 예를 들면, 위험한 상황에 대한 데이터를 DB에 저장하고, 이 데이터와 비교함으로써 위험에 대한 가치를 추론하는 방식이다. 이때, 딥러닝 등의 인공지능에 의하여 가치 추론이 진행되는 바, 예를 들면 의사결정 나무(Decision tree)에 의하여 수행될 수 있다.Various methods are available for inferring the value of risk information. For example, it is a method of inferring the value of risk by storing data about a dangerous situation in a DB and comparing it with this data. At this time, value inference is performed by artificial intelligence such as deep learning, and may be performed, for example, by a decision tree.

그리고, FOD 정보의 최초 발견자는 센서부를 구동시킴으로써 일정 시간, 예들 들면 15분마다 리셋하여 계속하여 실시간 업데이트하며, FOD가 제거될 때까지 반복하게 된다.In addition, the first discoverer of the FOD information resets the sensor unit for a predetermined period of time, for example, every 15 minutes to continuously update in real time, and repeats until the FOD is removed.

한편, 이상객체 판별부(26)에 의하여 인식된 FOD 객체 데이터는 네비게이션 등의 출력부(11)를 통하여 표시될 수 있다. 이때, 출력부(11)는 네비게이션 뿐만 아니라 노트북, 탭북, PC, 스마트폰 등도 포함한다.Meanwhile, the FOD object data recognized by the abnormal object determining unit 26 may be displayed through the output unit 11 such as a navigation system. In this case, the output unit 11 includes not only a navigation device, but also a laptop computer, a tabbook, a PC, a smart phone, and the like.

따라서, 사용자는 네비게이션에 표시된 도로, 차량(1), FOD와 같은 도로 주행과 관계가 있는 교통 객체를 통하여 도로의 위험 상황을 실시간으로 파악할 수 있다.Accordingly, the user can grasp the dangerous situation of the road in real time through the traffic object related to road driving, such as the road, the vehicle 1, and the FOD displayed on the navigation system.

그리고, 통신부(10)는 처리된 도로의 실시간 위험상황을 중앙 관제소에 전송하여 주변 차량(1)에 전파한다.Then, the communication unit 10 transmits the real-time dangerous situation of the processed road to the central control office and propagates it to the surrounding vehicles 1 .

즉, 중앙 관제소는 실시간 도로상황 정보를 네트워크를 통하여 해당 차량(1)의 주변의 실시간 위험정보 수신을 동의하거나 회원으로 가입된 차량에 대하여 전송함으로써 도로상의 실시간 위험정보 받기를 동의한 인근 차량(1)이 해당 구역 도로의 실시간 위험상황을 파악할 수 있다.That is, the central control office transmits real-time road condition information through the network to a nearby vehicle (1) that agrees to receive real-time risk information on the road by agreeing to receive real-time risk information around the vehicle 1 or by transmitting it to a vehicle registered as a member. ) can grasp the real-time dangerous situation of the road in the relevant area.

이때, FOD 데이터의 최초 감지차량은 데이터의 감지시간 및 중앙센터에 FOD 정보에 대한 도달 우선순서에 의하여 결정된 차량 1대이고, 감지차량이 감지한 위치기준으로 후방 일정 거리 이내, 예를 들면 2Km이내 근접하는 차량에 위험정보를 전송한다.At this time, the first detection vehicle of the FOD data is one vehicle determined by the detection time of the data and the priority order of arrival of the FOD information to the central center, and within a certain distance from the rear based on the position detected by the detection vehicle, for example, within 2Km Transmits danger information to nearby vehicles.

그리고, 위험정도가 소정 단계 이상인 경우, 예를 들면 10단계 이상으로 판단된 경우, FOD 및 FOD의 위치정보를 실시간으로 업로드 혹은 다운로드하여 주위를 따라오는 차량들중에서 정보를 제공받기 원하는 고객 또는 회원들의 차량(1)에 전파한다.In addition, when the level of risk is higher than a predetermined level, for example, when it is determined that the level is higher than 10, the location information of FOD and FOD is uploaded or downloaded in real time, so that customers or members who want to receive information from vehicles following around It propagates to the vehicle (1).

한편, 본 발명은 위험정보 과금 정산부(40)를 구비함으로써 위험정보를 주위의 다른 운전자들에게 전파하는 경우, 위험도에 따른 정보가치를 비용으로 환산하여 청구할 수 있다.On the other hand, in the present invention, when the risk information is disseminated to other surrounding drivers by providing the risk information billing and settlement unit 40, the information value according to the degree of risk can be converted into a cost and claimed.

즉, 제어부(8)에는 위험정보 과금 정산부(40)가 연결되는 바, 이 위험정보 과금 정산부(40)는 도 8에 도시된 바와 같이, 이상객체 판별부(26)에 의하여 판별된 위험을 등급화하는 위험 등급모듈(42)과; 통신부(10)로부터 주위 차량의 위치 및 식별정보를 수신하는 차량 인식모듈(44)과; 인식된 주위 차량에 위험 정보를 제공하는 정보 제공모듈(46)과; 주위 차량의 소유자에 제공된 위험정보에 따라 이용료를 청구하는 과금모듈(48)과; 과금모듈(48)에 의하여 청구된 이용료를 수익비율로 배분하는 정산모듈(50)을 포함한다.That is, the risk information billing and settlement unit 40 is connected to the control unit 8, and the risk information billing and settlement unit 40 is a risk determined by the abnormal object determining unit 26, as shown in FIG. a risk rating module 42 for grading; a vehicle recognition module 44 for receiving the location and identification information of surrounding vehicles from the communication unit 10; an information providing module 46 for providing danger information to the recognized surrounding vehicles; a charging module 48 for charging a usage fee according to the risk information provided to the owner of the surrounding vehicle; and a settlement module 50 for distributing the usage fee charged by the billing module 48 as a profit ratio.

이러한 위험정보 과금 정산부에 있어서,In this risk information billing and settlement unit,

등급모듈(42)은 이상객체 판별부(26)에 의하여 판별된 도로 상황을 위험도에 따라 복수개의 등급으로 구분하는 바, 예들 들면, 15등급으로 구분한다.The rating module 42 classifies the road conditions determined by the abnormal object determination unit 26 into a plurality of classes according to the degree of risk, for example, into 15 classes.

차량 인식모듈(44)은 통신부(10)로부터 주위에 위치한 차량들의 인식정보를 획득한다. 이때, 인식정보는 차 번호, 혹은 차별 안심코드 등을 포함한다. 물론, 이러한 식별정보는 차주들이 정보제공에 미리 동의한 경우이다.The vehicle recognition module 44 acquires recognition information of vehicles located in the vicinity from the communication unit 10 . In this case, the recognition information includes a car number or a discrimination safety code. Of course, such identification information is a case in which the borrowers have agreed in advance to provide the information.

그리고, 정보 제공모듈(46)은 인식된 주위 차량에 위험 정보를 제공한다. 이때, 위험 정보는 도로 지체 및 정체, 사고 위치, 사고 차선, 사고 차종, 사고 지점의 정체 상황, 장애물 여부 등을 포함한다. 이러한 위험정보는 실시간으로 업데이트된다.And, the information providing module 46 provides risk information to the recognized surrounding vehicles. In this case, the risk information includes road delay and congestion, accident location, accident lane, accident vehicle type, congestion situation at the accident point, whether there are obstacles, and the like. This risk information is updated in real time.

그리고, 과금모듈(48)은 위험정보를 제공받은 주위 차량에 대하여 위험정보에 따른 이용료를 청구하게 된다.Then, the charging module 48 charges a usage fee according to the risk information to the surrounding vehicles to which the risk information is provided.

즉, 사전에 회원 가입한 차주들이 위험정보를 제공받는 경우, 제공된 정보에 따라 일정 이용료가 과금된다. 이때, 각 차주들은 제공 받기를 원하는 정보를 미리 설정함으로써 본인에 적합한 위험정보만을 제공받을 수도 있다.That is, when the borrowers who have signed up for membership in advance receive risk information, a certain fee is charged according to the information provided. In this case, each borrower may be provided with only risk information suitable for the borrower by setting the information desired to be provided in advance.

그리고, 위험정보는 정보에 따라 이용료를 차등적으로 설정할 수 있다.In addition, the risk information may differentially set usage fees according to the information.

예를 들면, 일반적인 교통정보와, 사고 위치 등 구체적인 사고 정보, 장애물 출현 여부 등의 위험정보를 차등화하여 이용료를 청구하게 된다.For example, the usage fee is charged by differentiating general traffic information, specific accident information such as an accident location, and risk information such as whether obstacles appear.

그리고, 이러한 이용료는 통상적인 지불 방법에 의하여 결제될 수 있는 바, 온라인 결제, 계좌송금, 회비 납부 등의 방식으로 결제될 수 있다.In addition, the usage fee may be paid by a conventional payment method, and may be paid by online payment, account remittance, membership fee payment, or the like.

이와 같이 위험정보 과금 정산부(40)에 의하여 주위 차량에 일정한 이용료를 과금할 수 있고, 정산모듈(50)에 의하여 정산함으로써 수익을 실현할 수 있다.In this way, a certain usage fee can be charged to surrounding vehicles by the risk information billing and settlement unit 40 , and profits can be realized by settlement by the settlement module 50 .

이때, 수익의 배분비율은 다양하게 정해질 수 있는 바, 예들 들면, 서비스 운영사가 10∼40%, 위험정보를 제공하는 운전자가 60∼90%의 비율로 분배할 수 있다.At this time, the distribution ratio of the profit can be set in various ways, for example, the service operator can distribute the distribution at a rate of 10 to 40% and the driver providing risk information at a rate of 60 to 90%.

상기 연산부(4)와, 제어부(8)와, 위험 등급모듈(42)과, 차량 인식모듈(44)과, 정보 제공모듈(46)과, 과금모듈(48)과, 정산모듈(50)은 신호를 수신하여 컴퓨터의 제어, 연산, 기억처리를 순차적으로 진행하는 마이크로 프로세서를 의미한다.The calculation unit 4, the control unit 8, the risk rating module 42, the vehicle recognition module 44, the information providing module 46, the charging module 48, and the settlement module 50 are It refers to a microprocessor that receives signals and sequentially performs computer control, operation, and memory processing.

이하, 본 출원의 인공지능 기반의 자율주행 차량이 radar, lidar 및 카메라에 의하여 주행하는 과정을 보다 상세하게 설명한다.Hereinafter, the process of driving the autonomous driving vehicle based on artificial intelligence of the present application by radar, lidar and camera will be described in more detail.

도 9에 도시된 바와 같이, 자율주행 차량(1)이 주행하는 경우, 먼저 센싱부(2)에 의하여 현재 위치 데이터 및 lidar(3), radar(5)에 의하여 주위 도로환경을 스캐닝한다.As shown in FIG. 9 , when the autonomous vehicle 1 is driving, the current location data by the sensing unit 2 and the surrounding road environment are scanned by the lidar 3 and radar 5 first.

그리고, 센싱부(2)에 의하여 차간 거리, 객체와의 거리 및 도로의 객체에 대한 입체 영상을 측정한다.Then, the distance between vehicles, the distance to the object, and the stereoscopic image of the object on the road are measured by the sensing unit 2 .

이와 같이 측정된 데이터가 검출부(26)에 의하여 모델링된 데이터 범주에 속하는지 여부를 판단한다.It is determined whether the data measured in this way belongs to the data category modeled by the detector 26 .

모델링된 범주에 속하는 경우에는 3차원 모델링을 진행하고, 모델링된 인공지능에 의하여 이상객체를 판별한다.If it belongs to the modeled category, 3D modeling is performed, and abnormal objects are identified by the modeled artificial intelligence.

반면에, 모델링된 범주에 속하지 않는 경우에는 심화학습 여부를 판단한다. On the other hand, if it does not belong to the modeled category, it is determined whether or not deep learning is performed.

판단결과 심사학습을 실시한 경우에는 서버로 데이터를 전송하여 3차원 모델링 및 심화학습을 진행한다. 그리고 객체에 대하여 클래스 분류 및 DB화를 실시한다.If the judgment result is judged learning, data is transmitted to the server to perform 3D modeling and deep learning. And classify the object and make DB.

만약 심화학습을 실시하지 않은 경우에는 직접 객체의 클래스 분류 및 DB화를 실시한다.If deep learning is not carried out, class classification of objects and DB are performed directly.

상기 단계에서 이상객체를 판별한 결과, 이상 객체가 주행에 위험한지 여부를 15단계로 구분하여 판단한다. 이때,실시간 검지되는 이상객체의 정보에 대한 가치 기준을 추론하여 연산한다.As a result of determining the abnormal object in the above step, it is determined whether the abnormal object is dangerous to driving in 15 steps. At this time, it is calculated by inferring the value standard for the information of the abnormal object detected in real time.

판단결과, 위험하다고 판단된 경우에는 저속주행 혹은 우회를 실시함으로써 위험요소를 제거한다. 혹은 저속주행 혹은 우회하지 않는 경우에는 차량(1)을 정지시킴으로써 위험요소를 제거한다.As a result of the judgment, if it is determined that it is dangerous, the risk factor is removed by driving at a low speed or performing a detour. Alternatively, the risk factor is removed by stopping the vehicle 1 when driving at low speed or not detouring.

판단결과 위험단계 10단계 이상의 위험도를 나타내는 실시간 FOD 정보에 대하여는 FOD 및 FOD의 위치정보를 실시간으로 업로드 혹은 다운로드하여 주위를 따라오는 차량들 중에서 정보를 제공받기 원하는 고객 또는 회원들의 차량(1)에 전파한다.For real-time FOD information indicating the risk level of 10 or higher risk stages as a result of judgment, upload or download FOD and FOD location information in real time and disseminate it to vehicles (1) of customers or members who want to receive information from among vehicles following do.

한편, 도 10에 도시된 바와 같이, 카메라에 의하여 획득한 영상정보에 의하여 자율주행 차량(1)이 주행할 수도 있다.Meanwhile, as shown in FIG. 10 , the autonomous vehicle 1 may drive according to image information acquired by the camera.

즉, 카메라에 의하여 도로 환경을 스캐닝함으로써 실시간 도로 영상정보를 획득하고, 현재 위치 데이터를 얻는다.That is, real-time road image information is obtained by scanning the road environment by the camera, and current location data is obtained.

그리고, 영상정보가 검출부(26)에 의하여 모델링된 데이터 범주에 속하는지 여부를 판단한다.Then, it is determined whether the image information belongs to the data category modeled by the detector 26 .

모델링된 범주에 속하는 경우에는 영상 정보에 대한 전처리 과정을 실시하고, 반사광, 화각 등의 더스트(Dust)를 제거하고 보정한다.If it belongs to the modeled category, pre-processing of image information is performed, and dust such as reflected light and angle of view is removed and corrected.

그리고, 더스트가 제거된 영상정보를 모델링된 인공지능에 의하여 이상객체를 판별한다.Then, the image information from which the dust has been removed is identified by the modeled artificial intelligence as an abnormal object.

반면에, 모델링된 범주에 속하지 않는 경우에는 심화학습 여부를 판단한다. On the other hand, if it does not belong to the modeled category, it is determined whether or not deep learning is performed.

판단결과 심사학습을 실시한 경우에는 서버로 데이터를 전송하여 심화학습을 진행한다. 그리고 객체에 대하여 클래스 분류 및 DB화를 실시한다.If the judgment result is judged learning, the data is transmitted to the server and deep learning is carried out. And classify the object and make DB.

만약 심화학습을 실시하지 않은 경우에는 직접 객체의 클래스 분류 및 DB화를 실시한다.If deep learning is not carried out, class classification of objects and DB are performed directly.

상기 단계에서 이상객체를 판별한 결과, 이상 객체가 주행에 위험한지 여부를 다수 단계, 예들 들면 15단계로 구분하여 판단한다. 이때, 실시간 검지되는 이상객체에 대하여 각각 위험정보에 대한 가치 기준을 추론하여 연산한다.As a result of determining the abnormal object in the above step, it is determined whether the abnormal object is dangerous for driving by dividing it into a plurality of steps, for example, 15 steps. At this time, for each abnormal object detected in real time, the value standard for risk information is inferred and calculated.

판단결과, 위험하다고 판단된 경우에는 저속주행 혹은 우회를 실시함으로써 위험요소를 제거한다. 혹은 저속주행 혹은 우회하지 않는 경우에는 차량(1)을 정지시킴으로써 위험요소를 제거한다.As a result of the judgment, if it is determined that it is dangerous, the risk factor is removed by driving at a low speed or performing a detour. Alternatively, the risk factor is removed by stopping the vehicle 1 when driving at low speed or not detouring.

판단결과 위험단계 10단계 이상의 위험도를 나타내는 실시간 FOD 정보에 대하여는 FOD 및 FOD의 위치정보를 실시간으로 업로드 혹은 다운로드하여 주위를 따라오는 차량들 중에서 정보를 제공받기 원하는 고객 또는 회원들의 차량(1)에 전파한다.For real-time FOD information indicating the risk level of 10 or higher risk stages as a result of judgment, upload or download FOD and FOD location information in real time and disseminate it to vehicles (1) of customers or members who want to receive information from among vehicles following do.

한편, 본 발명은 위험정보 과금단계를 추가함으로써 도로상의 위험정보를 주위의 다른 운전자들에게 전파하는 경우, 위험도에 따른 정보가치를 비용으로 환산하여 이용료를 청구하으로써 수익을 실현할 수도 있다.Meanwhile, according to the present invention, when the risk information on the road is transmitted to other drivers around the road by adding the risk information charging step, the information value according to the degree of risk is converted into a cost and a user fee is charged to realize profits.

즉, 제어부(8)에는 위험정보 과금 정산부(40)이 연결되는 바, 이 위험정보 과금 정산부(40)은 이상객체 판별부(26)로부터 위험정보를 제공받는다.That is, the risk information billing and settlement unit 40 is connected to the control unit 8 , and the risk information billing and settlement unit 40 receives risk information from the abnormal object determining unit 26 .

그리고, 이상객체 판별부(26)에 의하여 판별된 도로 상황은 등급모듈(42)에 의하여 위험도에 따라 복수개의 등급으로 구분된다. 예들 들면, 15등급으로 구분한다.And, the road condition determined by the abnormal object determination unit 26 is divided into a plurality of grades according to the degree of risk by the grade module 42 . For example, it is divided into 15 grades.

그리고, 차량 인식모듈(44)이 통신부(10)로부터 주위에 위치한 차량들의 인식정보를 획득한다. 이때, 인식정보는 차 번호, 혹은 차별 안심코드 등을 포함한다. 물론, 이러한 식별정보는 차주들이 정보제공에 미리 동의한 경우이다.Then, the vehicle recognition module 44 acquires recognition information of vehicles located in the vicinity from the communication unit 10 . In this case, the recognition information includes a car number or a discrimination safety code. Of course, such identification information is a case in which the borrowers have agreed in advance to provide the information.

그리고, 정보 제공모듈(46)이 인식된 주위 차량에 위험 정보를 제공한다. 이때, 위험 정보는 도로 지체 및 정체, 사고 위치, 사고 차선, 사고 차종, 사고 지점의 정체 상황, 장애물 여부 등을 포함한다. 이러한 위험정보는 실시간으로 업데이트된다.Then, the information providing module 46 provides risk information to the recognized surrounding vehicles. In this case, the risk information includes road delay and congestion, accident location, accident lane, accident vehicle type, congestion situation at the accident point, whether there are obstacles, and the like. This risk information is updated in real time.

그리고, 과금모듈(48)은 위험정보를 제공받은 주위 차량에 대하여 위험정보에 따른 이용료를 청구하게 된다.Then, the charging module 48 charges a usage fee according to the risk information to the surrounding vehicles to which the risk information has been provided.

즉, 사전에 회원 가입한 차주들이 위험정보를 제공받는 경우, 제공된 정보에 따라 일정 이용료가 과금된다. 이때, 각 차주들은 제공 받기를 원하는 정보를 미리 설정함으로써 본인에 적합한 위험정보만을 제공받을 수도 있다.That is, when the borrowers who have signed up for membership in advance receive risk information, a certain fee is charged according to the information provided. In this case, each borrower may be provided with only risk information suitable for the borrower by setting the information desired to be provided in advance.

그리고, 위험정보는 정보에 따라 이용료를 차등적으로 설정할 수 있다.In addition, the risk information may differentially set usage fees according to the information.

예를 들면, 일반적인 교통정보와, 사고 위치 등 구체적인 사고 정보, 장애물 출현 여부 등의 위험정보를 차등화하여 이용료를 청구하게 된다.For example, a fee is charged by differentiating general traffic information, specific accident information such as an accident location, and risk information such as whether obstacles appear.

그리고, 이러한 이용료는 통상적인 지불 방법에 의하여 결제될 수 있는 바, 온라인 결제, 계좌송금, 회비 납부 등의 방식으로 결제될 수 있다.In addition, the usage fee may be paid by a conventional payment method, and may be paid by online payment, account remittance, membership fee payment, or the like.

이와 같이 위험정보 과금 정산부(40)에 의하여 주위 차량에 정보를 제공하고 일정한 이용료를 과금하며, 정산모듈(50)에 의하여 수익을 실현할 수 있다.In this way, the risk information billing and settlement unit 40 provides information to surrounding vehicles and charges a certain usage fee, and the settlement module 50 can realize profits.

이때, 수익의 배분비율은 다양하게 정해질 수 있는 바, 예들 들면, 서비스 운영사가 10∼40%, 위험정보를 제공하는 운전자가 60∼90%의 비율로 분해할 수 있다.In this case, the distribution ratio of the profit can be set in various ways, for example, the service operator can decompose it at a rate of 10 to 40% and the driver providing risk information at a rate of 60 to 90%.

Claims (9)

차량 혹은 모빌리티에 배치되어 실시간 도로상의 이상객체 데이터에 대한 정보를 얻는 센싱부(2)와;
센싱부(2)로부터 수신된 원시데이터(Raw Data)를 수집하고, 분류 및 객체를 추출하고, 추출된 객체 데이터를 백터화하여 처리하며, 전처리를 통하여 노이즈를 제거하며, 이상객체 검지 모델링된 알고리즘에 의하여 객체를 검출하고, 이상객체의 위험도를 15단계로 구분하고 위험단계에 대한 이상객체 정보의 가치를 추론하는 연산부(4)와;
인식된 이상 객체를 네비게이션에 표시하는 출력부(11)와;
처리된 이상객체 정보를 중앙 관제소에 전송하여 주변 차량(1)에 전파하는 통신부(10)와;
상기 센싱부(2)와, 연산부(4)와, 출력부(11)와, 통신부(10)를 제어하여 자율주행 인공지능 이상객체 인식을 진행하는 제어부(8)를 포함하며,
연산부(4)는, 센싱부(2)에서 전송된 원시데이터(Raw Data)를 수집하는 데이터 수집부(20)와; 데이터수집부(20)를 통해 실시간 수신되는 신호데이터를 분류 및 보정하고, 입력되는 영상을 분석하여 유효한 영상을 추출하여 객체 데이터와 위치정보를 동시에 추출하고, 추출된 하나 이상의 객체 데이터를 백터화하여 함수처리 및 수신데이터를 영상하는 추출부(22)와; 추출부(22)에서 처리된 이상객체 데이터에서 노이즈를 제거하는 전처리부(24)와; 전처리부(24)에서 처리된 3차원 영상데이터와 추출된 영상 데이터로부터 모델링된 알고리즘으로 학습된 객체 데이터의 유사도를 판단함으로써 객체를 검출하는 검출부(26)와; 검출된 하나 이상의 객체 데이터를 데이터베이스에 등록하거나 또는 기존에 등록된 이상객체와 비교 분석하여 이상객체 여부를 판단하는 이상객체 판별부(26)를 포함하고,
제어부(8)에는 위험정보 과금 정산부(40)가 연결되는 바, 이 위험정보 과금 정산부(40)는 이상객체 판별부(26)에 의하여 판별된 위험을 등급화하는 등급모듈(42)과; 통신부(10)로부터 주위 차량의 위치 및 식별정보를 수신하는 차량 인식모듈(44)과; 인식된 주위 차량에 위험 정보를 제공하는 정보 제공모듈(46)과; 주위 차량의 소유자에 제공된 위험정보에 따라 이용료를 과금하는 과금모듈(48)을 포함하는 인공지능 기반의 자율주행 차량(1).
a sensing unit (2) disposed in a vehicle or mobility to obtain information on abnormal object data on a road in real time;
Collects raw data received from the sensing unit 2, classifies and extracts objects, processes the extracted object data as vectors, removes noise through preprocessing, and detects abnormal objects Modeled algorithm an operation unit (4) for detecting an object, classifying the risk of the abnormal object into 15 stages, and inferring the value of the abnormal object information for the dangerous stage;
an output unit 11 for displaying the recognized abnormal object in the navigation;
a communication unit 10 that transmits the processed abnormal object information to the central control center and propagates it to the surrounding vehicles 1;
It includes the sensing unit (2), the calculating unit (4), the output unit (11), and the control unit (8) for controlling the communication unit (10) to proceed with autonomous driving artificial intelligence abnormal object recognition,
The calculating unit 4 includes: a data collecting unit 20 for collecting raw data transmitted from the sensing unit 2; Classifying and correcting the signal data received in real time through the data collection unit 20, analyzing the input image to extract a valid image, extracting object data and location information at the same time, and vectorizing the extracted one or more object data an extracting unit 22 for image processing and reception data; a pre-processing unit 24 for removing noise from the abnormal object data processed by the extraction unit 22; a detection unit 26 for detecting an object by determining a degree of similarity between the 3D image data processed in the preprocessor 24 and the object data learned by an algorithm modeled from the extracted image data; and an abnormal object determination unit 26 for registering one or more detected object data in the database or comparing and analyzing it with previously registered abnormal objects to determine whether an abnormal object is present,
A risk information billing and settlement unit 40 is connected to the control unit 8, and the risk information billing and settlement unit 40 includes a rating module 42 for grading the risk determined by the abnormal object determining unit 26 and ; a vehicle recognition module 44 for receiving the location and identification information of surrounding vehicles from the communication unit 10; an information providing module 46 that provides danger information to the recognized surrounding vehicles; An artificial intelligence-based autonomous driving vehicle (1) including a charging module (48) that charges a usage fee according to the risk information provided to the owner of the surrounding vehicle.
제 1항에 있어서,
센싱부(2)는 RADAR(Radio detection and ranging;5), LIDAR(Light detection and ranging;3), 3D 형상인식센서, 카메라(7), 레이저 센서, 다축 모션센서 중 하나를 포함하는 인공지능 기반의 자율주행 차량(1).
The method of claim 1,
The sensing unit 2 is based on artificial intelligence including one of a radio detection and ranging (RADAR) 5, a light detection and ranging (LIDAR) 3, a 3D shape recognition sensor, a camera 7, a laser sensor, and a multi-axis motion sensor. of autonomous vehicles (1).
삭제delete 제 1항에 있어서,
이상객체 판별부(26)는 인공지능이 탑재된 중앙처리장치(CPU;27)에 의하여 처리되며,
중앙처리장치(27)는, 도로상의 이상객체분석엔진과, GPU와, ISP(Image Signal Processor), ALSA(Advanced Linux Sound Architecture), ALVA, RTSP(Real Time Streaming Protocol), 통신모듈, RAM, LAN을 포함하는 인공지능 기반의 자율주행 차량(1).
The method of claim 1,
The abnormal object determination unit 26 is processed by a central processing unit (CPU; 27) equipped with artificial intelligence,
Central processing unit 27, an abnormal object analysis engine on the road, GPU, ISP (Image Signal Processor), ALSA (Advanced Linux Sound Architecture), ALVA, RTSP (Real Time Streaming Protocol), communication module, RAM, LAN Artificial intelligence-based autonomous vehicle (1) comprising a.
제 1항에 있어서,
추출부(22)는 lidar(3) 및 radar(5)로 스캔한 좌표값과 위치값을 카메라(7)로 입력된 실영상 데이터와 비교하여 보정하는 인공지능 기반의 자율주행 차량(1).
The method of claim 1,
The extraction unit 22 compares and corrects the coordinate values and position values scanned with lidar (3) and radar (5) with the real image data inputted by the camera (7), an artificial intelligence-based autonomous vehicle (1).
제 1항에 있어서,
이상객체 판별부(26)는 도로와 차만 객체로 인식하며, 그 외 객체는 이상객체로 인식하는 인공지능 기반의 자율주행 차량(1).
The method of claim 1,
The abnormal object determination unit 26 recognizes only roads and cars as objects, and the other objects are recognized as abnormal objects.
제 1항에 있어서,
센싱부(2)에 의하여 얻어진 데이터는 수신모듈(30)에 의하여 전처리된 후 연산부(4)로 전송되는 바,
수신모듈(30)은 LIDAR, RADAR, 카메라로부터 전송된 신호를 수신하는 수신신호 생성모듈(32)과, 수신신호를 분류하는 분류부(34)와, 신호를 보정 및 생성하는 생성부(36)를 포함하는 인공지능 기반의 자율주행 차량(1).
The method of claim 1,
The data obtained by the sensing unit 2 is pre-processed by the receiving module 30 and then transmitted to the calculating unit 4,
The reception module 30 includes a reception signal generation module 32 for receiving signals transmitted from LIDAR, RADAR, and a camera, a classification unit 34 for classifying the reception signal, and a generation unit 36 for correcting and generating the signal Artificial intelligence-based autonomous vehicle (1) comprising a.
삭제delete 제 1항에 있어서, 과금모듈(48)은 위험정보의 정보에 따라 이용료를 차등적으로 설정하여 이용료를 청구하는 인공지능 기반의 자율주행 차량(1).The autonomous driving vehicle (1) based on artificial intelligence (1) according to claim 1, wherein the charging module (48) sets the usage fee differentially according to the information of the risk information to charge the usage fee.
KR1020210059797A 2021-05-10 2021-05-10 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object KR102382219B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210059797A KR102382219B1 (en) 2021-05-10 2021-05-10 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210059797A KR102382219B1 (en) 2021-05-10 2021-05-10 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object

Publications (1)

Publication Number Publication Date
KR102382219B1 true KR102382219B1 (en) 2022-04-05

Family

ID=81181623

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210059797A KR102382219B1 (en) 2021-05-10 2021-05-10 The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object

Country Status (1)

Country Link
KR (1) KR102382219B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102637711B1 (en) * 2022-12-22 2024-02-19 한국건설기술연구원 System and method for providing road condition identification model

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3179635B2 (en) * 1993-08-05 2001-06-25 マツダ株式会社 Vehicle obstacle detection device
JP2002367092A (en) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd System for collecting and distributing traffic information
JP2005004359A (en) * 2003-06-10 2005-01-06 Nec Corp Probe car information system, collecting/providing method and collecting/providing program
KR20160034719A (en) 2014-09-22 2016-03-30 한화테크윈 주식회사 Lidar system
KR20160040911A (en) * 2014-10-06 2016-04-15 현대모비스 주식회사 Device for recognizing the surrounding environment of vehicle based on V2X communication and method thereof
KR101703773B1 (en) * 2015-10-07 2017-02-07 국방과학연구소 Method for acquiring radar image using serveillance radar and System thereof
KR102044193B1 (en) * 2013-03-28 2019-12-02 현대모비스 주식회사 System and Method for alarming collision of vehicle with support vector machine
KR20200084552A (en) * 2019-01-03 2020-07-13 현대모비스 주식회사 Apparatus and method for calibrating camera and lidar sensor of vehicle
KR102191044B1 (en) * 2020-06-15 2020-12-14 주식회사 센스비전 Advertising systems that are provided through contents analytics and recommendation based on artificial intelligence facial recognition technology

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3179635B2 (en) * 1993-08-05 2001-06-25 マツダ株式会社 Vehicle obstacle detection device
JP2002367092A (en) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd System for collecting and distributing traffic information
JP2005004359A (en) * 2003-06-10 2005-01-06 Nec Corp Probe car information system, collecting/providing method and collecting/providing program
KR102044193B1 (en) * 2013-03-28 2019-12-02 현대모비스 주식회사 System and Method for alarming collision of vehicle with support vector machine
KR20160034719A (en) 2014-09-22 2016-03-30 한화테크윈 주식회사 Lidar system
KR20160040911A (en) * 2014-10-06 2016-04-15 현대모비스 주식회사 Device for recognizing the surrounding environment of vehicle based on V2X communication and method thereof
KR101703773B1 (en) * 2015-10-07 2017-02-07 국방과학연구소 Method for acquiring radar image using serveillance radar and System thereof
KR20200084552A (en) * 2019-01-03 2020-07-13 현대모비스 주식회사 Apparatus and method for calibrating camera and lidar sensor of vehicle
KR102191044B1 (en) * 2020-06-15 2020-12-14 주식회사 센스비전 Advertising systems that are provided through contents analytics and recommendation based on artificial intelligence facial recognition technology

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102637711B1 (en) * 2022-12-22 2024-02-19 한국건설기술연구원 System and method for providing road condition identification model

Similar Documents

Publication Publication Date Title
US11794785B2 (en) Multi-task machine-learned models for object intention determination in autonomous driving
US10803328B1 (en) Semantic and instance segmentation
US11685360B2 (en) Planning for unknown objects by an autonomous vehicle
US11475351B2 (en) Systems and methods for object detection, tracking, and motion prediction
US11087628B2 (en) Using rear sensor for wrong-way driving warning
US10281920B2 (en) Planning for unknown objects by an autonomous vehicle
US10223910B2 (en) Method and apparatus for collecting traffic information from big data of outside image of vehicle
US10234864B2 (en) Planning for unknown objects by an autonomous vehicle
JP6591842B2 (en) Method and system for performing adaptive ray-based scene analysis on semantic traffic space, and vehicle comprising such a system
US20180349746A1 (en) Top-View Lidar-Based Object Detection
US20190310651A1 (en) Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
US20220358328A1 (en) End-to-end system training using fused images
CN115236694A (en) Obstacle detection method, obstacle detection device, electronic apparatus, and storage medium
KR102382219B1 (en) The settlement method and system of expressing FOD on the road for artificial intelligence autonomous driving and the information usage charge by inferring the information value according to the risk of each abnormal object
Yebes et al. Learning to automatically catch potholes in worldwide road scene images
US20210053573A1 (en) Generating a database and alerting about improperly driven vehicles
CN114694060A (en) Road shed object detection method, electronic equipment and storage medium
EP4241047A2 (en) Architecture for map change detection in autonomous vehicles
Prarthana et al. A Comparative Study of Artificial Intelligence Based Vehicle Classification Algorithms Used to Provide Smart Mobility
CN117612140B (en) Road scene identification method and device, storage medium and electronic equipment
CN117612127B (en) Scene generation method and device, storage medium and electronic equipment
Lv et al. A lane-changing decision-making model of bus entering considering bus priority based on GRU neural network
CN117601903B (en) Method and device for generating vehicle driving scene, storage medium and electronic equipment
US20220379911A1 (en) Using relevance of objects to assess performance of an autonomous vehicle perception system
US20220382284A1 (en) Perception system for assessing relevance of objects in an environment of an autonomous vehicle

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant