KR20240080044A - Unmanned car network system and vehicle control method using unmanned car network - Google Patents

Unmanned car network system and vehicle control method using unmanned car network Download PDF

Info

Publication number
KR20240080044A
KR20240080044A KR1020220173856A KR20220173856A KR20240080044A KR 20240080044 A KR20240080044 A KR 20240080044A KR 1020220173856 A KR1020220173856 A KR 1020220173856A KR 20220173856 A KR20220173856 A KR 20220173856A KR 20240080044 A KR20240080044 A KR 20240080044A
Authority
KR
South Korea
Prior art keywords
autonomous driving
vehicle
unmanned
information
data
Prior art date
Application number
KR1020220173856A
Other languages
Korean (ko)
Inventor
김민성
Original Assignee
김민성
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김민성 filed Critical 김민성
Publication of KR20240080044A publication Critical patent/KR20240080044A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

실시예에 따른 무인자동차 네트워크 시스템 및 방법은 차량 ECU(Electronic Control Unit)에서 다양한 센서 데이터를 이용하여 속도, 차간거리, 주변 환경상태, 장애물 등의 데이터 수집하고, 비콘(Beacon)을 이용하여 주변 ECU에 데이터 전송한다. 실시예에서는 데이터를 수신한 ECU에서 수신된 데이터를 이용하여 무인자동차 시스템에 전달하고, 전달된 데이터를 토대로 차간 거리 설정, 속도 설정, 차선 바꾸기 등 유연한 무인 운행을 실시한다. 실시예에서는 톨게이트, 휴게소 등 고속도로 몇몇 포인트 지점에 자동차의 목적지, 현재 속도, 주변 상황 등 주요 정보를 취합하여 관리할 수 있는 센트럴 비콘을 설치한다. 실시예에서 센트럴 비콘은 현재 차량들의 주요 이동지와 현재 도로 사고가 있는지 방해 요소가 있는지 등을 분석하여 원할한 교통을 위한 정보들을 제공한다. 또한, 실시예에서는 신호등 주변에 현재 자동차들의 목적 위치를 취득할 수 있는 센트럴 비콘을 설치하고 딥러닝을 통해 학습시켜 교통량에 맞춰 신호 체계를 유연하게 조절할 수 있도록 한다.The unmanned car network system and method according to the embodiment collects data such as speed, distance between vehicles, surrounding environmental conditions, and obstacles using various sensor data from the vehicle ECU (Electronic Control Unit), and uses a beacon to collect data from surrounding ECUs. transmit data to In the embodiment, the data received from the ECU is used to transmit the data to the unmanned car system, and flexible unmanned operation such as setting the distance between vehicles, setting speed, and changing lanes is performed based on the transmitted data. In an embodiment, central beacons that can collect and manage key information such as the car's destination, current speed, and surrounding conditions are installed at several points on the highway, such as toll gates and rest areas. In an embodiment, the central beacon provides information for smooth traffic by analyzing the main movement locations of vehicles and whether there are currently road accidents or obstructions. In addition, in the embodiment, a central beacon that can acquire the current target location of cars is installed around a traffic light and learned through deep learning to flexibly adjust the signal system according to traffic volume.

Description

무인자동차 네트워크 시스템 및 무인자동차 네트워크를 이용한 차량 제어 방법{UNMANNED CAR NETWORK SYSTEM AND VEHICLE CONTROL METHOD USING UNMANNED CAR NETWORK}Unmanned car network system and vehicle control method using unmanned car network {UNMANNED CAR NETWORK SYSTEM AND VEHICLE CONTROL METHOD USING UNMANNED CAR NETWORK}

본 개시는 무인자동차 네트워크 시스템 및 방법에 관한 것으로 구체적으로, 자동차 ECU에 비콘(Beacon)을 접목하여 자동차, 신호등 등 주변 환경과 데이터 통신이 가능한 무인 자동차 네트워크를 제공하는 시스템 및 방법에 관한 것이다. This disclosure relates to a driverless car network system and method, and more specifically, to a system and method for providing a driverless car network capable of data communication with the surrounding environment, such as cars and traffic lights, by incorporating a beacon into the car ECU.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and is not admitted to be prior art by inclusion in this section.

무인자동차(self-driving car, autonomous vehicle, AV, driverless car, robo-car) 또는 자율주행차는 운전자의 조작 없이 스스로 주행할 수 있는 자동차이다. 무인 자동차는 레이더, LIDAR (light detection and ranging), GPS, 카메라로 주위의 환경을 인식하여 목적지를 지정하는 것만으로 자율적으로 주행한다. 이미 실용화되고 있는 무인 자동차로는 이스라엘 군에서 운용되는, 미리 설정된 경로를 순찰하는 무인 차량과 국외 광산이나 건설 현장 등에서 운용되고 있는 덤프 트럭 등의 무인 운행 시스템 등이 있다.A self-driving car (autonomous vehicle, AV, driverless car, robo-car) or self-driving car is a car that can drive on its own without driver intervention. Driverless cars drive autonomously by simply recognizing the surrounding environment using radar, LIDAR (light detection and ranging), GPS, and cameras and specifying a destination. Driverless cars that are already in practical use include unmanned vehicles that patrol preset routes operated by the Israeli military and unmanned operation systems such as dump trucks that are operated in overseas mines and construction sites.

자율주행은 무인 차량의 주행방법으로, 교통수단으로 사용되는 자동차 등이 사람의 개입 없이 스스로 판단하여 운행하는 시스템이다. 자율주행은 0단계부터 5단계까지의 단계로 구분할 수 있다. 미국자동차기술회 SAE(Society of Automotive Engineers)에서 자율주행 기술을 총 6가지 단계로 세분화하여 정의했고, 현재 글로벌 기준으로 통용되고 있다.Autonomous driving is a driving method for unmanned vehicles, and is a system in which cars used as a means of transportation make their own decisions and drive without human intervention. Autonomous driving can be divided into stages from level 0 to level 5. SAE (Society of Automotive Engineers) defined autonomous driving technology by dividing it into six stages, and is currently used as a global standard.

0단계는 비자동화(No Automation) 단계로서, 운전자의 개입을 필수로 하는 자율주행 시스템의 가장 기초적인 단계이다. 쉽게 말해서 운전자가 모든 것을 통제하고 책임지며, 자율주행 시스템은 전방 충돌방지 보조(FCA), 후측방 충돌 경고(BCW) 등의 긴급상황을 알려주는 단순 보조 기능만 수행한다. 1단계는 운전자 보조(Driver Assistance) 단계로서, 자율주행 시스템이 운전자를 조금씩 도와주기 시작하는 단계이다. 자동차의 속도와 거리를 유지하고 차선 이탈을 방지하는 등의 보조 역할을 한다. 아직은 운전자가 운전대를 반드시 잡고 조종해야 한다는 것을 전제하고 있다. 2단계는 부분 자동화(Partial Automation)단계로서 마찬가지로 운전자가 운전대를 조작하고 상시 모니터링은 필수이다. 1단계에서 조금 업그레이드된 단계로 자율 주행 시스템이 1단계에서 단순히 운전자를 보조하는 역할을 했다면, 2단계에서는 자연스러운 커브에서 방향을 조종하거나 앞차와의 간격을 유지하는 등의 보조 주행이 가능하다. 현재 새롭게 출시되고 있는 자동차들이 보편적으로 적용하는 3단계는 조건부 자율주행(Conditional Automation) 단계이다. 3단계로 들어서면서부터 자율주행 시스템이 주행 제어와 주행 중 변수 감지를 할 수 있다. 고속도로처럼 특별한 방해 없이 운전 가능한 구간에서 자율주행 시스템이 주행을 담당한다. 2단계와 달리 상시 모니터링이 필요한 단계는 아니지만, 위험 요소나 변수가 발생할 시 자율주행 시스템이 운전자의 개입을 요청한다. 4단계는 고도 자율주행(High Automation) 고속도로 같은 특정 조건의 구간뿐만 아니라 대부분의 도로에서 자율주행이 가능하다. 주행 제어와 주행 책임 등 모두 자율주행 시스템에게 주어져요. 운전자의 개입은 악천후와 같은 상황을 제외하고는 불필요한 단계로 자율주행의 시스템이 점차 고도화되었음을 알려주는 단계이다.Stage 0 is the No Automation stage, which is the most basic stage of the autonomous driving system that requires driver intervention. To put it simply, the driver controls and takes responsibility for everything, and the autonomous driving system only performs simple assist functions to notify emergency situations such as forward collision-avoidance assist (FCA) and rear cross-collision warning (BCW). Stage 1 is the driver assistance stage, where the autonomous driving system begins to assist the driver little by little. It plays an auxiliary role in maintaining the car's speed and distance and preventing lane departure. It is still assumed that the driver must hold the steering wheel and steer. The second stage is the partial automation stage, where the driver operates the steering wheel and constant monitoring is essential. This is a slightly upgraded level from the first stage. If the autonomous driving system simply assisted the driver in the first stage, in the second stage, assistive driving such as steering in natural curves or maintaining the distance from the car in front is possible. The third stage that is commonly applied to newly released cars is the conditional automation stage. Starting with the third stage, the autonomous driving system can control driving and detect variables while driving. The autonomous driving system is responsible for driving in sections where it is possible to drive without special interference, such as on highways. Unlike stage 2, it does not require constant monitoring, but when risk factors or variables occur, the autonomous driving system requests driver intervention. Level 4 is High Automation, which enables autonomous driving on most roads as well as sections with specific conditions such as highways. Driving control and driving responsibility are all given to the autonomous driving system. Driver intervention is unnecessary except in situations such as bad weather, and it is a step that indicates that the autonomous driving system has gradually become more advanced.

마지막으로 5단계는 완전 자율주행(Full Automation) 단계로서, 운전자가 없어도 완전 자율주행이 가능한 단계이다. 운전자가 아닌 탑승자가 목적지를 입력하면, 어떠한 개입도 필요 없이 자율주행 시스템이 전적으로 자동차를 운행합니다. 운전석을 비롯해 모든 제어 장치도 필요하지 않는 단계이다.Lastly, stage 5 is the full automation stage, which is the stage where fully autonomous driving is possible without a driver. Passengers, rather than the driver, enter a destination and the autonomous driving system operates the car entirely without any intervention required. This is the stage where the driver's seat and all control devices are no longer needed.

현재 무인 자동차 시스템은 SAE 분류 기준으로 3단계인 조건부 자율 주행 단계에 있다. 센서를 통해 주변상황을 인지하고 이에 대응할 수 있으나 센서 범위 밖의 정보에 예외적인 상황이 있으면 운전자의 개입이 필요하다. 궁극적인 자동차 무인 시스템은(SAE 분류 기준 level 5) 운전자의 개입이 전혀 없이도 모든 상황에 대처가 가능해야 한다. 센서의 기술력이 비약적으로 상승한다고 해도 너무 멀거나, 장애물에 의해 가로막히는 등 센서의 범위 밖에 있는 정보들은 취득할 수 없다. 또한, 현재 신호등의 체계는 굉장히 세밀하고 유연하게 짜여 있지만 간혹 교통량의 변화가 큰 지역에서는 신호등이 다소 비효율적으로 작동된다고 여겨질 때가 많다. 예를 들어 운전자가 좌회전을 하려고 서있을 때에 반대편 차선에서 직진하는 차들이 압도적으로 적으나 직진 신호가 길어 필요 이상으로 신호를 대기해야 하는 상황들이다.Currently, driverless car systems are at the conditional autonomous driving stage, which is level 3 according to the SAE classification. Sensors can recognize and respond to surrounding situations, but if there are exceptional situations in which information outside the sensor range occurs, driver intervention is required. The ultimate autonomous vehicle system (level 5 according to the SAE classification standard) must be able to respond to all situations without any driver intervention. Even if sensor technology improves dramatically, information outside the sensor's range, such as when it is too far away or blocked by an obstacle, cannot be acquired. In addition, although the current traffic light system is very detailed and flexible, it is often considered that traffic lights operate somewhat inefficiently in areas where traffic volume changes are large. For example, when a driver is standing to make a left turn, there are overwhelmingly few cars going straight in the opposite lane, but the straight signal is long, so there are situations where the driver has to wait at the signal longer than necessary.

1. 한국 특허등록 제10-1526343호 (2015.06.01)1. Korean Patent Registration No. 10-1526343 (2015.06.01) 2. 한국 특허등록 제10-2324154호 (2021.11.03)2. Korean Patent Registration No. 10-2324154 (2021.11.03)

실시예에 따른 무인자동차 네트워크 시스템 및 방법은 차량 ECU(Electronic Control Unit)에서 다양한 센서 데이터를 이용하여 속도, 차간거리, 주변 환경상태, 장애물 등의 데이터 수집하고, 비콘(Beacon)을 이용하여 주변 ECU에 데이터 전송한다. 실시예에서는 데이터를 수신한 ECU에서 수신된 데이터를 이용하여 무인자동차 시스템에 전달하고, 전달된 데이터를 토대로 차간 거리 설정, 속도 설정, 차선 바꾸기 등 유연한 무인 운행을 실시한다.The unmanned car network system and method according to the embodiment collects data such as speed, distance between vehicles, surrounding environmental conditions, and obstacles using various sensor data from the vehicle ECU (Electronic Control Unit), and uses a beacon to collect data from surrounding ECUs. transmit data to In the embodiment, the data received from the ECU is transmitted to the unmanned car system, and flexible unmanned operation such as setting the distance between vehicles, setting speed, and changing lanes is performed based on the transmitted data.

실시예에서는 톨게이트, 휴게소 등 고속도로 몇몇 포인트 지점에 자동차의 목적지, 현재 속도, 주변 상황 등 주요 정보를 취합하여 관리할 수 있는 센트럴 비콘을 설치한다. 실시예에서 센트럴 비콘은 현재 차량들의 주요 이동지와 현재 도로 사고가 있는지 방해 요소가 있는지 등을 분석하여 원할한 교통을 위한 정보들을 제공한다.In an embodiment, central beacons that can collect and manage key information such as the car's destination, current speed, and surrounding conditions are installed at several points on the highway, such as toll gates and rest areas. In an embodiment, the central beacon provides information for smooth traffic by analyzing the main movement locations of vehicles and whether there are currently road accidents or obstructions.

또한, 실시예에서는 신호등 주변에 현재 자동차들의 목적 위치를 취득할 수 있는 센트럴 비콘을 설치하고 딥러닝을 통해 학습시켜 교통량에 맞춰 신호 체계를 유연하게 조절할 수 있도록 한다.In addition, in the embodiment, a central beacon that can acquire the current target location of cars is installed around a traffic light and learned through deep learning to flexibly adjust the signal system according to traffic volume.

또한, 실시예를 통해 자동차 간의 데이터 통신 시, 특정 차량의 사고 또는 도로 공사 등의 주행을 방해하는 이벤트가 발생하는 경우, 경고 신호를 주변 차량에 전송하여 다른 차량에도 주행을 방해하는 이벤트가 발생한 도로 위치와 이벤트 종류를 알 수 있도록 한다. In addition, during data communication between vehicles through an embodiment, if an event occurs that interferes with the driving of a specific vehicle, such as an accident or road construction, a warning signal is transmitted to surrounding vehicles to also transmit a warning signal to other vehicles on the road where the event that interferes with driving occurs. Lets you know the location and type of event.

또한, 실시예에서는 특정 사고발생지역 주변의 정보공유한 자동차를 그룹핑 하여 함께 이동속도를 줄이거나 함께 차선을 바꿀 수 있는 그룹이동을 수행할 수 있도록 한다. Additionally, in the embodiment, cars that share information around a specific accident area are grouped together to perform group movement where they can reduce their speed or change lanes together.

실시예에 따른 무인자동차 네트워크 시스템은 속도, 차간거리, 주변 환경상태, 장애물 정보를 포함하는 자율주행 데이터를 데이터 수집하고, 비콘(Beacon)을 이용하여 상기 자율주행 데이터를 주변 ECU(Electronic Control Unit)로 전송하는 제1자율주행 차량; 제1자율주행 차량으로부터 자율주행 데이터를 수신하고, 상기 자율주행 데이터를 자율주행 관제 서버로 전송하는 제2 자율주행 차량; 톨게이트, 휴게소를 포함하는 고속도로의 포인트 지점에 자동차의 목적지, 현재 속도, 주변 상황 정보를 포함하는 도로 주요 정보를 취합하여 관리하는 센트럴 비콘; 및 자율주행 차량으로부터 자율주행 데이터를 수신하고, 상기 센트럴 비콘으로부터 도로 주요정보를 수집하여, 차간거리, 속도, 차선 변경을 포함하는 자율주행 세부정보를 설정하는 자율주행 관제 서버; 를 포함한다. The unmanned car network system according to the embodiment collects autonomous driving data including speed, distance between vehicles, surrounding environmental conditions, and obstacle information, and transmits the autonomous driving data to a surrounding Electronic Control Unit (ECU) using a beacon. The first autonomous vehicle transmitting to; a second autonomous vehicle that receives autonomous driving data from the first autonomous vehicle and transmits the autonomous driving data to an autonomous driving control server; Central beacons that collect and manage key road information, including the car's destination, current speed, and surrounding situation information, at point points on the highway, including toll gates and rest areas; and an autonomous driving control server that receives autonomous driving data from the autonomous vehicle, collects key road information from the central beacon, and sets detailed autonomous driving information including inter-vehicle distance, speed, and lane change. Includes.

실시예에서 센트럴 비콘; 은 현재 차량들의 주요 이동지, 현재 도로 사고정보 및 도로의 장애물 정보를 감지하고, 도로 사고정보와 장애물 정보가 감지되는 경우, 감지된 사고와 장애물의 해결까지 소요되는 시간인 정체 예상시간을 예측한다. In an embodiment a central beacon; Detects the current major movement locations of vehicles, current road accident information, and road obstacle information, and when road accident information and obstacle information is detected, predicts the expected congestion time, which is the time it takes to resolve the detected accident and obstacle. .

실시예에서 자율주행 관제 서버; 는 센트럴 비콘으로부터 전송된 무인 차량의 진행방향 데이터를 딥러닝하여 구간 별 교통량을 예측하고, 예측된 교통량에 따라 구간에 설치된 신호등 및 자율주행 차량을 제어한다. In an embodiment, an autonomous driving control server; predicts the traffic volume for each section by deep learning the direction data of the unmanned vehicle transmitted from the central beacon, and controls the traffic lights and autonomous vehicles installed in the section according to the predicted traffic volume.

실시예에서 자율주행 관제 서버; 는 사고발생지역 주변의 사고발생 정보를 공유한 무인 자동차들을 그룹핑 하여 그룹핑 된 무인 자동차들이 함께 이동속도를 줄이거나 함께 차선을 변경하도록 하는 그룹이동을 하도록 제어한다. In an embodiment, an autonomous driving control server; Groups unmanned cars that share accident information around the accident area and controls group movement so that the grouped unmanned cars reduce their speed or change lanes together.

실시예에서 자율주행 관제 서버; 는 DNN(Deep Neural Network), CNN(Convolutional Neural Network) RNN(Recurrent Neural Network) 및 BRDNN(Bidirectional Recurrent Deep Neural Network) 중 적어도 하나를 포함하는 딥러닝 뉴럴 네트워크를 자율주행 데이터와 도로 주요 정보를 포함하는 트레이닝 데이터 셋으로 학습시켜 교통량 예측 모델 및 무인차량 제어 모델을 구현한다. In an embodiment, an autonomous driving control server; A deep learning neural network including at least one of a Deep Neural Network (DNN), a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), and a Bidirectional Recurrent Deep Neural Network (BRDNN) that includes autonomous driving data and key road information. A traffic prediction model and an unmanned vehicle control model are implemented by learning with a training data set.

이상에서와 같은 무인 자동차 네트워크 시스템 및 무인 자동차 네트워크를 이용한 차량 제어 방법은 센서로 수집이 힘든 먼 거리의 도로 상황, 앞차의 앞차 도로 상황 등의 데이터를 광범위하게 수집할 수 있도록 하여, 주변 상황에 대한 정보 취득 범위를 증가시켜 무인 자동차 시스템을 유연하게 운용할 수 있다. The unmanned car network system and vehicle control method using the unmanned car network as described above allows for a wide range of data to be collected, such as long-distance road conditions that are difficult to collect with sensors, and the road condition of the car ahead, providing information on surrounding situations. By increasing the information acquisition range, the unmanned vehicle system can be operated flexibly.

또한, 자동차 간의 네트워크 구축을 통해 무인 자동차 시스템의 신뢰성을 향상시킬 수 있다. Additionally, the reliability of the driverless car system can be improved by establishing a network between cars.

또한, 차량 주행을 방해하는 사고, 공사 등의 이벤트 발생 시 이벤트 발생 위치와 종류, 해결까지의 소요시간을 예측하고 이를 차량으로 알리고, 우회 경로를 안내하여 이벤트 발생 주변 지역의 교통 정체를 예방할 수 있도록 한다.In addition, when an event such as an accident or construction that interferes with vehicle driving occurs, we predict the location and type of the event and the time required to resolve it, inform the vehicle of this, and guide detour routes to prevent traffic congestion in the area around the event. do.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the effects described above, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 실시예에 따른 무인자동차 네트워크 시스템 구성을 나타낸 도면
도 2는 실시예에 따른 센트럴 비콘의 데이터 처리 구성을 나타낸 도면
도 3은 실시예에 따른 무인 차량의 데이터 처리 구성을 나타낸 도면
도 4는 실시예에 따른 자율주행 관제 서버의 데이터 처리 구성을 나타낸 도면
도 5는 실시예에 따른 신호등에 설치된 센트럴 비콘의 데이터 처리 구성을 나타낸 도면
도 6은 실시예에 따른 무인차량 네트워크 시스템의 사고상황 대처를 위한 데이터 처리 과정을 나타낸 도면
도 7은 실시예에 따른 무인 차량의 시내 주행 시 데이터 처리 흐름을 나타낸 도면
도 8은 실시예에 따른 무인차량 네트워크 시스템에서 신호등 제어를 위한 데이터 처리 과정을 나타낸 도면
도 9는 실시예에 따른 무인 차량 네트워크 시스템의 과속 차량 단속 과정을 나타낸 도면
1 is a diagram showing the configuration of an unmanned vehicle network system according to an embodiment.
Figure 2 is a diagram showing the data processing configuration of a central beacon according to an embodiment
Figure 3 is a diagram showing the data processing configuration of an unmanned vehicle according to an embodiment
Figure 4 is a diagram showing the data processing configuration of the autonomous driving control server according to an embodiment
Figure 5 is a diagram showing the data processing configuration of a central beacon installed at a traffic light according to an embodiment
Figure 6 is a diagram showing a data processing process for responding to an accident situation in an unmanned vehicle network system according to an embodiment.
Figure 7 is a diagram showing the data processing flow when driving in the city of an unmanned vehicle according to an embodiment
Figure 8 is a diagram showing a data processing process for traffic light control in an unmanned vehicle network system according to an embodiment
Figure 9 is a diagram showing the speeding vehicle enforcement process of the unmanned vehicle network system according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. The terms described below are terms defined in consideration of functions in embodiments of the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.

도 1은 실시예에 따른 무인자동차 네트워크 시스템 구성을 나타낸 도면이다.Figure 1 is a diagram showing the configuration of an unmanned vehicle network system according to an embodiment.

도 1을 참조하면, 실시예에 따른 무인자동차 네트워크 시스템은 제1자율주행 차량(101), 제2자율주행 차량(103), 센트럴 비콘(300), 자율주행 관제 서버(200), 신호등(500) 및 스마트 단말(400)을 포함하여 구성될 수 있다. Referring to FIG. 1, the unmanned car network system according to the embodiment includes a first autonomous vehicle 101, a second autonomous vehicle 103, a central beacon 300, an autonomous driving control server 200, and a traffic light 500. ) and a smart terminal 400.

제1자율주행차량(101)은 속도, 차간거리, 주변 환경상태, 장애물 정보를 포함하는 자율주행 데이터를 데이터 수집하고, 비콘(Beacon)을 이용하여 상기 자율주행 데이터를 주변 ECU로 전송한다. 제2자율주행 차량(103)은 무인 자동차로부터 자율주행 데이터를 수신하고, 자율주행 데이터를 자율주행 관제 서버(200)로 전송한다. The first autonomous vehicle 101 collects autonomous driving data including speed, distance between vehicles, surrounding environmental conditions, and obstacle information, and transmits the autonomous driving data to a surrounding ECU using a beacon. The second autonomous vehicle 103 receives autonomous driving data from the unmanned vehicle and transmits the autonomous driving data to the autonomous driving control server 200.

센트럴 비콘(300)은 톨게이트, 휴게소를 포함하는 고속도로의 포인트 지점에 자동차의 목적지, 현재 속도, 주변 상황 정보를 포함하는 도로 주요 정보를 취합하여 관리한다. The central beacon 300 collects and manages key road information, including the car's destination, current speed, and surrounding situation information, at point points on the highway, including toll gates and rest areas.

자율주행 관제 서버(200)는 자율주행 차량으로부터 자율주행 데이터를 수신하고, 센트럴 비콘으로부터 도로 주요정보를 수집하여, 차간거리, 속도, 차선 변경을 포함하는 자율주행 세부정보를 설정한다. 실시예에서 자율주행 관제 서버(200)은 설정된 자율주행 세부정보를 무인 차량으로 전송하여 무인 차량이 자율주행 관제서버에서 설정된 자율 주행 세부 정보에 따라 제어될 수 있도록 한다. The autonomous driving control server 200 receives autonomous driving data from the autonomous vehicle, collects key road information from the central beacon, and sets detailed autonomous driving information including distance between vehicles, speed, and lane change. In an embodiment, the autonomous driving control server 200 transmits the set autonomous driving details to the unmanned vehicle so that the unmanned vehicle can be controlled according to the autonomous driving details set in the autonomous driving control server.

신호등(500)은 설정된 자율주행 세부정보에 따라 신호 유지시간을 조정한다. 예컨대 신호등(500)은 신호등이 설치된 주변의 센트럴 비콘으로부터 자율주행 데이터 및 상황정보를 수신하여, 수신한 정보에 따라 신호 종류와 각 신호의 유지시간을 제어할 수 있다. 또한, 신호등(500)은 자율주행 관제 서버의 제어 신호에 따라 동작할 수 있다.The traffic light 500 adjusts the signal maintenance time according to the set autonomous driving details. For example, the traffic light 500 can receive autonomous driving data and situation information from central beacons around the traffic lights, and control the type of signal and the maintenance time of each signal according to the received information. Additionally, the traffic light 500 may operate according to a control signal from the autonomous driving control server.

스마트 단말(400)은 무인 차량에 탑승한 사용자 또는 보행자 단말로서, 단말의 위치에 따라 관제서버에 의해 설정된 자율주행 세부정보를 출력하고, 차량의 위치, 속도, 차량 실시간 상태 등 차량의 주행 정보를 출력하여 사용자에게 제공할 수 있다. The smart terminal 400 is a user or pedestrian terminal riding in an unmanned vehicle. It outputs detailed autonomous driving information set by the control server according to the location of the terminal and provides driving information such as the vehicle's location, speed, and real-time status of the vehicle. It can be printed and provided to the user.

실시예에 따른 무인자동차 네트워크 시스템 및 방법은 차량 ECU(Electronic Control Unit)에서 다양한 센서 데이터를 이용하여 속도, 차간거리, 주변 환경상태, 장애물 등의 데이터 수집하고, 비콘(Beacon)을 이용하여 주변 ECU에 데이터 전송한다. 실시예에서는 데이터를 수신한 ECU에서 수신된 데이터를 이용하여 무인자동차 시스템에 전달하고, 전달된 데이터를 토대로 차간 거리 설정, 속도 설정, 차선 바꾸기 등 유연한 무인 운행을 실시한다.The unmanned car network system and method according to the embodiment collects data such as speed, distance between vehicles, surrounding environmental conditions, and obstacles using various sensor data from the vehicle ECU (Electronic Control Unit), and uses a beacon to collect data from surrounding ECUs. transmit data to In the embodiment, the data received from the ECU is transmitted to the unmanned car system, and flexible unmanned operation such as setting the distance between vehicles, setting speed, and changing lanes is performed based on the transmitted data.

실시예에서는 톨게이트, 휴게소 등 고속도로 몇몇 포인트 지점에 자동차의 목적지, 현재 속도, 주변 상황 등 주요 정보를 취합하여 관리할 수 있는 센트럴 비콘을 설치한다. 실시예에서 센트럴 비콘은 현재 차량들의 주요 이동지와 현재 도로 사고가 있는지 방해 요소가 있는지 등을 분석하여 원할한 교통을 위한 정보들을 제공한다.In an embodiment, central beacons that can collect and manage key information such as the car's destination, current speed, and surrounding conditions are installed at several points on the highway, such as toll gates and rest areas. In an embodiment, the central beacon provides information for smooth traffic by analyzing the main movement locations of vehicles and whether there are currently road accidents or obstructions.

또한, 실시예에서는 신호등 주변에 현재 자동차들의 목적 위치를 취득할 수 있는 센트럴 비콘을 설치하고 딥러닝을 통해 학습시켜 교통량에 맞춰 신호 체계를 유연하게 조절할 수 있도록 한다.In addition, in the embodiment, a central beacon that can acquire the current target location of cars is installed around a traffic light and learned through deep learning to flexibly adjust the signal system according to traffic volume.

또한, 실시예를 통해 자동차 간의 데이터 통신 시, 특정 차량의 사고 또는 도로 공사 등의 주행을 방해하는 이벤트가 발생하는 경우, 경고 신호를 주변 차량에 전송하여 다른 차량에도 주행을 방해하는 이벤트가 발생한 도로 위치와 이벤트 종류를 알 수 있도록 한다. In addition, during data communication between vehicles through an embodiment, if an event occurs that interferes with the driving of a specific vehicle, such as an accident or road construction, a warning signal is transmitted to surrounding vehicles to also transmit a warning signal to other vehicles on the road where the event that interferes with driving occurs. Lets you know the location and type of event.

또한, 실시예에서는 특정 사고발생지역 주변의 정보공유한 자동차를 그룹핑 하여 함께 이동속도를 줄이거나 함께 차선을 바꿀 수 있는 그룹이동을 수행할 수 있도록 한다. Additionally, in the embodiment, cars that share information around a specific accident area are grouped together to perform group movement where they can reduce their speed or change lanes together.

도 2는 실시예에 따른 센트럴 비콘의 데이터 처리 구성을 나타낸 도면이다.Figure 2 is a diagram showing the data processing configuration of a central beacon according to an embodiment.

도 2를 참조하면, 실시예에 따른 센트럴 비콘은 네트워크 통신망과 연결되는 무선통신부, 중앙 처리 장치, 제어부, 비콘 통신부 및 카메라 제어장치를 포함하여 구성될 수 있다. Referring to FIG. 2, the central beacon according to the embodiment may be configured to include a wireless communication unit, a central processing unit, a control unit, a beacon communication unit, and a camera control device connected to a network communication network.

실시예에서 센트럴 비콘은 톨게이트, 휴게소 등 고속도로 몇몇 포인트 지점에 설치되어 자동차의 목적지, 현재 속도, 주변 상황 등 주요 정보를 취합한다. In an embodiment, central beacons are installed at several points on the highway, such as toll gates and rest areas, and collect key information such as the car's destination, current speed, and surrounding conditions.

무선통신부는 네트워크 통신망과 연결되어 센트럴 비콘이 설치된 영역으로 진입하는 차량과 통신하여 차량에서 생성되는 자율주행 데이터를 수신한다. 실시예에서 자율주행 데이터는 주행 중인 차량의 속도, 현재위치, 차간거리, 주변 환경상태, 장애물 정보, 속도 변화량, 조향각, 차량 상태, 이동 경로 등을 포함할 수 있다. 중앙 처리 장치는 수신한 자율주행 데이터를 기반으로, 현재 차량들의 주요 이동지, 현재 도로 사고정보 및 도로의 장애물 정보를 감지하고, 도로 사고정보와 장애물 정보가 감지되는 경우, 감지된 사고와 장애물의 해결까지 소요되는 시간인 정체 예상시간을 예측한다. 비콘 통신부는 인식한 사고정보, 장애물 정보 및 정체 예상시간 정보 등을 센트럴 비콘이 설치된 영역의 차량 및 보행자 단말로 전송한다. 제어부는 센트럴 비콘이 설치된 영역의 카메라와 신호등을 감지된 도로 사고정보, 장애물 정보 등에 따라 제어하고, 카메라 제어장치는 제어부로부터 수신한 카메라 제어 정보를 통해, 카메라의 온오프, 회전, 줌 등 세부설정을 제어한다. The wireless communication unit is connected to the network communication network and communicates with vehicles entering the area where the central beacon is installed to receive autonomous driving data generated by the vehicle. In an embodiment, autonomous driving data may include the speed of the driving vehicle, current location, distance between vehicles, surrounding environmental conditions, obstacle information, speed change, steering angle, vehicle status, movement path, etc. Based on the received autonomous driving data, the central processing unit detects the main movement location of vehicles, current road accident information, and obstacle information on the road, and when road accident information and obstacle information are detected, the detected accident and obstacle information Predict the expected congestion time, which is the time it takes to resolve. The beacon communication unit transmits recognized accident information, obstacle information, and expected congestion time information to vehicle and pedestrian terminals in the area where the central beacon is installed. The control unit controls the cameras and traffic lights in the area where the central beacon is installed according to detected road accident information, obstacle information, etc., and the camera control device sets detailed settings such as camera on/off, rotation, zoom, etc. through the camera control information received from the control unit. control.

도 3은 실시예에 따른 무인 차량의 데이터 처리 구성을 나타낸 도면이다.Figure 3 is a diagram showing the data processing configuration of an unmanned vehicle according to an embodiment.

도 3을 참조하면, 실시예에 따른 무인 차량은 비콘이 장착된 주변 차량 및 센트럴 비콘과 통신하는 비콘 및 무선통신부를 포함하고, 데이터 수집부, 중앙처리 장치, 센서부, 입출력 처리부, 중앙제어장치, 무인 차량 시스템, 운전보조 시스템 및 촬영부를 포함하여 구성될 수 있다.Referring to FIG. 3, the unmanned vehicle according to the embodiment includes a beacon and a wireless communication unit that communicates with nearby vehicles equipped with beacons and a central beacon, and includes a data collection unit, a central processing unit, a sensor unit, an input/output processing unit, and a central control unit. , can be configured to include an unmanned vehicle system, a driving assistance system, and a photography unit.

실시예에서 제1 자율주행 차량은 차량에 설치된 센서를 통해, 속도, 차간거리, 주변 환경상태, 장애물 정보를 포함하는 자율주행 데이터를 데이터 수집하고, 비콘(Beacon)을 이용하여 자율주행 데이터를 주변 ECU로 전송한다. 제1 자율주행 차량과 통신하는 제2 자율주행 차량은 무인 자동차로부터 자율주행 데이터를 수신하고, 자율주행 데이터를 자율주행 관제 서버로 전송한다. In an embodiment, the first autonomous vehicle collects autonomous driving data including speed, distance between vehicles, surrounding environmental conditions, and obstacle information through sensors installed in the vehicle, and collects autonomous driving data from surrounding areas using a beacon. Transmit to ECU. The second autonomous vehicle that communicates with the first autonomous vehicle receives autonomous driving data from the unmanned car and transmits the autonomous driving data to the autonomous driving control server.

도 4는 실시예에 따른 자율주행 관제 서버의 데이터 처리 구성을 나타낸 도면이다.Figure 4 is a diagram showing the data processing configuration of an autonomous driving control server according to an embodiment.

도 4를 참조하면, 실시예에 따른 자율주행 관제 서버(200)는 데이터 수집 모듈(210), 딥러닝 모듈(220), 제어모듈(230) 및 피드백 모듈(240)을 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈' 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.Referring to FIG. 4, the autonomous driving control server 200 according to the embodiment may be configured to include a data collection module 210, a deep learning module 220, a control module 230, and a feedback module 240. . The term 'module' used in this specification should be interpreted to include software, hardware, or a combination thereof, depending on the context in which the term is used. For example, software may be machine language, firmware, embedded code, and application software. As another example, hardware may be a circuit, processor, computer, integrated circuit, integrated circuit core, sensor, Micro-Electro-Mechanical System (MEMS), passive device, or a combination thereof.

실시예에서 데이터 수집 모듈(210)은 센트럴 비콘으로부터 전송된 무인 차량의 진행방향 데이터와 무인 차량의 자율주행 데이터를 수집한다. 딥러닝 모듈(220)은 수집된 데이터를 딥러닝하여 구간 별 교통량을 예측한다.In the embodiment, the data collection module 210 collects direction data of the unmanned vehicle and autonomous driving data of the unmanned vehicle transmitted from the central beacon. The deep learning module 220 predicts traffic volume for each section by deep learning the collected data.

실시예에서 딥러닝 모듈(220)은 DNN(Deep Neural Network), CNN(Convolutional Neural Network) RNN(Recurrent Neural Network) 및 BRDNN(Bidirectional Recurrent Deep Neural Network) 중 적어도 하나를 포함하는 딥러닝 뉴럴 네트워크를 자율주행 데이터와 도로 주요 정보를 포함하는 트레이닝 데이터 셋으로 학습시켜 교통량 예측 모델 및 무인차량 제어 모델을 구현할 수 있다. 제어모듈(230)은 예측된 교통량과 교통 상황에 따라 신호등 및 자율주행 차량을 제어한다. 예컨대, 제어모듈(230)은 예측된 교통량에 따라 구간에 설치된 신호등을 제어한다. 또한, 실시예에서 제어모듈(230)은 사고발생지역 주변의 사고발생 정보를 공유한 무인 자동차들을 그룹핑 하여 그룹핑 된 무인 자동차들이 함께 이동속도를 줄이거나 함께 차선을 변경하도록 하는 그룹이동을 하도록 무인 차량을 제어할 수 있다. In an embodiment, the deep learning module 220 operates an autonomous deep learning neural network including at least one of a Deep Neural Network (DNN), a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), and a Bidirectional Recurrent Deep Neural Network (BRDNN). Traffic volume prediction models and unmanned vehicle control models can be implemented by learning with a training data set containing driving data and key road information. The control module 230 controls traffic lights and autonomous vehicles according to predicted traffic volume and traffic conditions. For example, the control module 230 controls traffic lights installed in a section according to the predicted traffic volume. In addition, in the embodiment, the control module 230 groups unmanned cars that share accident information around the accident area and allows the unmanned cars to move as a group to reduce their speed or change lanes together. can be controlled.

또한, 실시예에서 제어모듈(230)은 차량이 주행중인 영역의 지도 속성 정보를 고려하여 무인 차량의 자율주행을 제어할 수 있다. 실시예에서 지도 속성정보는 도로 자율 주행시 고려해야하는 교통 법규 및 환경정보인 주행 지역 지도의 세부정보로서, 차선, 도로 시설, 교통 표지, 신호등, 도로 곡률, 경사, 차량제한속도, 정류장존재 여부, 정지선, 횡단보도, 좌편향, 우편향, 조심운전, 스쿨존, 보호구역, 교차로 및 V2X 통신 정보, 속도 제한 정보 등을 포함할 수 있다. 실시예에서 V2X 통신 정보는 유무선 통신망을 이용하여 주변 차량 및 도로 인프라 등과 정보를 교환하거나 공유하기 위한 정보이다. 실시예에서 V2X 통신정보에는 차량과 차량간(V2V, Vehicle to Vehicle), 차량과 인프라간(V2I, Vehicle to Infrastructure), 차량과 보행자간(V2P, Vehicle to Pedestrian), 차량과 모바일 기기간(V2N, Vehicle to Nomadic Device) 통신 정보가 포함될 수 있다. 예컨대, 제어모듈(230)은 무인 차량이 스쿨존과 같은 서행 지역을 주행 시, 스쿨존에 있는 무인차량 주변의 보행자 단말의 위치를 인식하여, 보행자 단말 위치를 고려하여 무인 차량의 속도를 조정할 수 있도록 한다. 또한, 신호등 대기 시, 녹색 신호 유지시간에 신호등을 완전히 건너지 못한 보행자 단말 또는 보행자가 인식되는 경우, 보행자가 완전히 신호등을 건넌 후 차량이 다시 출발할 수 있도록 한다. Additionally, in the embodiment, the control module 230 may control autonomous driving of the unmanned vehicle by considering map attribute information of the area in which the vehicle is driving. In the embodiment, the map attribute information is detailed information of the driving area map, which is traffic regulations and environmental information that must be considered when driving autonomously on the road, such as lanes, road facilities, traffic signs, traffic lights, road curvature, slope, vehicle speed limit, presence of a stop, and stop line. , crosswalk, left bias, right bias, careful driving, school zone, protection zone, intersection and V2X communication information, speed limit information, etc. In the embodiment, V2X communication information is information for exchanging or sharing information with surrounding vehicles and road infrastructure using a wired or wireless communication network. In an embodiment, V2X communication information includes vehicle to vehicle (V2V), vehicle to infrastructure (V2I), vehicle to pedestrian (V2P), and vehicle to mobile device (V2N). Vehicle to Nomadic Device) communication information may be included. For example, when an unmanned vehicle drives in a slow-moving area such as a school zone, the control module 230 can recognize the location of pedestrian terminals around the unmanned vehicle in the school zone and adjust the speed of the unmanned vehicle in consideration of the location of the pedestrian terminal. Let it happen. In addition, when waiting for a traffic light, if a pedestrian terminal or pedestrian that has not completely crossed the traffic light during the green signal maintenance time is recognized, the vehicle can start again after the pedestrian has completely crossed the traffic light.

피드백 모듈(240)은 자율주행 하는 무인 차량 및 신호등 제어 결과에 따른 교통상황과 각 무인 차량의 자율주행 데이터를 수집하여, 구간 별 교통상황을 파악한다. 이후, 관제 서버의 무인차량 제어 전과 제어 후의 교통 상황을 비교하여, 교통 상황 변화에 따라 교통량 예측 모델을 피드백 할 수 있다. 예컨대, 관제 서버에 의한 자율주행 차량 및 신호등 제어 후의 교통 상황에서 도로 복잡도가 일정 수준 이상 증가하고, 자율주행 차량의 이동속도 일정 비율 이상 감소한 경우, 교통량 예측 모델의 제어 과정을 피드백 할 수 있도록 한다. 즉, 실시예에서는 관제 서버에서 무인차량 제어 후 교통상황의 복잡도가 증가하거나 각 무인 차량의 주행 시간이 증가하는 경우, 인공신경망을 통해 생성된 교통량 예측 모델 및 무인차량 제어 모델을 피드백 할 수 있다. The feedback module 240 collects traffic conditions and autonomous driving data of each unmanned vehicle according to the results of controlling autonomous vehicles and traffic lights, and determines the traffic situation for each section. Afterwards, the traffic situation before and after the control server controls the unmanned vehicle can be compared, and the traffic volume prediction model can be fed back according to changes in the traffic situation. For example, in a traffic situation after control of autonomous vehicles and traffic lights by a control server, when road complexity increases above a certain level and the moving speed of autonomous vehicles decreases by more than a certain percentage, the control process of the traffic volume prediction model can be fed back. That is, in the embodiment, if the complexity of the traffic situation increases or the driving time of each unmanned vehicle increases after the control server controls the unmanned vehicle, the traffic volume prediction model and the unmanned vehicle control model generated through the artificial neural network can be fed back.

도 5는 실시예에 따른 신호등에 설치된 센트럴 비콘의 데이터 처리 구성을 나타낸 도면이다.Figure 5 is a diagram showing the data processing configuration of a central beacon installed at a traffic light according to an embodiment.

도 5를 참조하면, 신호등에 설치된 센트럴 비콘은 네트워크 통신망과 연결된 무선 통신부, 비콘 통신부, 중앙 처리 장치, 제어부 및 신호등 제어 장치를 포함하여 구성될 수 있다. 실시예에서 무선 통신부는 네트워크 통신망 및 비콘 통신부를 통해 차량과 서버로부터 수집한 자율주행 데이터와 제어 신호를 수신하고, 수신한 데이터와 신호를 중앙처리 장치로 전달한다. 중앙처리 장치는 수신한 자율주행 데이터와 제어신호를 기반으로 신호등 제어 신호를 생성하고, 제어부로 전달한다. 제어부는 신호등 제어 신호를 신호등 제어 장치로 전송하여, 신호등이 설치된 영역의 주행 상황에 따라 신호 종류와 신호 유지시간을 변경하여 제어할 수 있도록 한다.Referring to FIG. 5, the central beacon installed at the traffic light may include a wireless communication unit connected to a network communication network, a beacon communication unit, a central processing unit, a control unit, and a traffic light control device. In an embodiment, the wireless communication unit receives autonomous driving data and control signals collected from the vehicle and server through the network communication network and the beacon communication unit, and transmits the received data and signals to the central processing unit. The central processing unit generates a traffic light control signal based on the received autonomous driving data and control signals and transmits it to the control unit. The control unit transmits the traffic light control signal to the traffic light control device, allowing control by changing the signal type and signal maintenance time according to the driving situation in the area where the traffic light is installed.

도 6은 실시예에 따른 무인차량 네트워크 시스템의 사고상황 대처를 위한 데이터 처리 과정을 나타낸 도면이다.Figure 6 is a diagram showing a data processing process for responding to an accident situation in an unmanned vehicle network system according to an embodiment.

도 6을 참조하면, S10 단계에서는 자율주행 중인 무인 차량에서 고속도로 주행 중 사고가 발생하거나 사고 발생 데이터를 전송받는다. S20 단계에서는 속도제어, 교통 흐름 장애 예방을 위한 우회 경로 추천 등을 수행하는 2차 사고 방지 시스템을 동작 시킨다. S30 단계에서는 사고 발생 지역 주변에 센트럴 비콘이 있는지 확인하고, 센트럴 비콘이 없는 경우 S40 단계로 진입하여 사고가 발생한 현재 위치, 예외 상황 사진 등을 주변 차량에 전송한다. 주변에 센트럴 비콘이 있는 경우 S50 단계로 진입하여 현재 위치 및 예외상황 사진 등을 센트럴 비콘으로 전송한다. S60 단계에서는 전송된 데이터를 교통상황 수집센터 및 자율 주행 관제 서버로 전송한다. S70 단계에서는 수집된 데이터를 분석하여 상황의 심각도를 파악하고, 사고가 발생한 도로에 포함된 센트럴 비콘으로 사고 상황 심각도를 전송한다. S80 단계에서는 사고위치, 심각도 등을 신호로 변환하여 사고 위치를 포함하는 주행경로를 주행중인 차량에게 변환된 신호를 전송한다.Referring to FIG. 6, in step S10, an accident occurs while driving on the highway in an autonomous unmanned vehicle, or accident data is transmitted. In the S20 stage, a secondary accident prevention system is activated that performs speed control and recommends detour routes to prevent traffic flow disruption. In step S30, it is checked whether there is a central beacon around the area where the accident occurred. If there is no central beacon, step S40 is entered and the current location where the accident occurred and photos of exceptional situations are transmitted to surrounding vehicles. If there is a central beacon nearby, enter step S50 and transmit the current location and exception situation photos to the central beacon. In step S60, the transmitted data is transmitted to the traffic situation collection center and autonomous driving control server. In step S70, the severity of the situation is identified by analyzing the collected data, and the severity of the accident situation is transmitted to the central beacon included in the road where the accident occurred. In step S80, the accident location and severity are converted into signals and the converted signal is transmitted to the vehicle traveling on the driving path including the accident location.

도 7은 실시예에 따른 무인 차량의 시내 주행 시 데이터 처리 흐름을 나타낸 도면이다.Figure 7 is a diagram showing the data processing flow of an unmanned vehicle when driving in a city according to an embodiment.

도 7을 참조하면, S15 단계에서는 무인 차량에서 주행 중 많은 이동 인구, 많은 주차 차량 등 기준치를 초과하는 데이터량을 인식하거나 다른 무인 차량으로부터 기준치를 초과하는 데이터량을 수신한다. S25 단계에서는 주행중인 무인차량 주변에 센트럴 비콘이 존재하는지 확인한다. 센트럴 비콘이 존재하는 경우 S35 단계로 진입하여, 센트럴 비콘으로 무인 차량에서 수신한 기준치를 초과하는 데이터 및 데이터량을 전송한다. S45 단계에서는 비콘에서 수집된 데이터를 분석하여 적절한 차량 제어상태를 요구하는 신호를 다른 무인차량 및 자율주행 관제 서버로 지속적으로 전송한다. 실시예에서 적절한 차량 제어상태는 우회경로 추천, 저속주행 등을 포함할 수 있다. S55 단계에서는 센트럴 비콘 범위 내에 들어간 차량들을 우회경로 추천, 저속 주행 등의 제어 신호에 따라 제어한다.Referring to FIG. 7, in step S15, the unmanned vehicle recognizes the amount of data exceeding the standard value, such as a large moving population or many parked vehicles while driving, or receives the amount of data exceeding the standard value from another unmanned vehicle. In step S25, it is checked whether a central beacon exists around the driving unmanned vehicle. If a central beacon exists, step S35 is entered and data and data amount exceeding the standard value received from the unmanned vehicle are transmitted to the central beacon. In step S45, the data collected from the beacon is analyzed and signals requesting appropriate vehicle control status are continuously transmitted to other unmanned vehicles and autonomous driving control servers. In an embodiment, an appropriate vehicle control state may include detour recommendation, low-speed driving, etc. In step S55, vehicles within the range of the central beacon are controlled according to control signals such as detour route recommendation and low-speed driving.

도 8은 실시예에 따른 무인차량 네트워크 시스템에서 신호등 제어를 위한 데이터 처리 과정을 나타낸 도면이다.Figure 8 is a diagram showing a data processing process for traffic light control in an unmanned vehicle network system according to an embodiment.

도 8을 참조하면, S100 단계에서는 무인 차량이 주행 중 센트럴 비콘 범위에 들어가면 차량 진행방향을 센트럴 비콘으로 전송한다. S200 단계에서는 센트럴 비콘에서 데이터 센터 및 자율주행 관제 서버로 차량 진행방향 등 자율주행 데이터를 전송하고, S300 단계에서는 자율주행 관제 서버에서 수신한 데이터를 기반으로 딥러닝을 통해 교통량을 예측한다. S400 단계에서는 자율주행 관제 서버에서 계산된 교통량을 센트럴 비콘으로 전송하고, S500 단계에서는 계산된 교통량을 고려하여 신호등의 신호 종류와 유지시간을 제어한다.Referring to FIG. 8, in step S100, when the unmanned vehicle enters the range of the central beacon while driving, the vehicle's direction of travel is transmitted to the central beacon. In the S200 stage, autonomous driving data such as vehicle direction is transmitted from the central beacon to the data center and autonomous driving control server, and in the S300 stage, traffic volume is predicted through deep learning based on data received from the autonomous driving control server. In the S400 stage, the traffic volume calculated by the autonomous driving control server is transmitted to the central beacon, and in the S500 stage, the signal type and maintenance time of the traffic light are controlled by considering the calculated traffic volume.

도 9는 실시예에 따른 무인 차량 네트워크 시스템의 과속 차량 단속 과정을 나타낸 도면이다.Figure 9 is a diagram showing a speeding vehicle enforcement process of an unmanned vehicle network system according to an embodiment.

도 9를 참조하면, S11단계에서는 무인 차량이 주행 중 단속용 센트럴 비콘 범위에 진입하면, S21 단계에서는 센트럴 비콘에서 진입한 무인 차량이 해당 센트럴 비콘 영역에서 단속된 차량인지 확인한다. 단속 안된 차량인 경우 S31 단계에서는 무인 차량에서 센트럴 비콘으로 현재 속도를 전송하고, S41 단계에서는 수집된 속도가 기준속도를 초과하는지 확인한다. 수집된 속도가 기준속도를 초과하는 경우 S51 단계에서는 단속용 카메라에서 해당 무인 차량의 주행 상황을 촬영하도록 제어한다. S61 단계에서는 촬영된 무인차량 단속 사진을 자율주행 관제 서버로 전송한다. S71 단계에서는 단속된 차량의 비콘 단말기 주소에 일시적으로 브레이크 포인트를 생성하여 중복촬영을 방지한다. S81 단계에서는 해당 무인 차량이 센트럴 비콘 범위를 벗어났는지 확인한다. 벗어나지 않은 경우 S11 단계로 다시 진입하고, 무인 차량이 센트럴 비콘 범위를 벗어난 경우 과속 단속과정을 종료한다. 실시예에서는 S21 단계에서 센트럴 비콘에서 진입한 무인 차량이 해당 센트럴 비콘 영역에서 단속된 차량으로 확인된 경우, S81 단계로 진입하여 해당 무인 차량이 센트럴 비콘 범위를 벗어났는지 확인한다. 벗어나지 않은 경우 S11 단계로 다시 진입하고, 무인 차량이 센트럴 비콘 범위를 벗어난 경우 과속 단속과정을 종료한다.Referring to FIG. 9, in step S11, when an unmanned vehicle enters the range of a central beacon for enforcement while driving, in step S21, it is confirmed whether the unmanned vehicle that entered from the central beacon is a vehicle that has been regulated in the corresponding central beacon area. In the case of a vehicle that has not been regulated, the current speed is transmitted from the unmanned vehicle to the central beacon in step S31, and in step S41, it is checked whether the collected speed exceeds the standard speed. If the collected speed exceeds the standard speed, in step S51, the enforcement camera is controlled to film the driving situation of the unmanned vehicle. In step S61, the captured unmanned vehicle crackdown photo is transmitted to the autonomous driving control server. In step S71, a breakpoint is temporarily created at the beacon terminal address of the controlled vehicle to prevent duplicate shooting. In step S81, it is checked whether the unmanned vehicle has left the central beacon range. If it does not escape, it re-enters step S11, and if the unmanned vehicle leaves the central beacon range, the speed control process ends. In the embodiment, if the unmanned vehicle that entered the central beacon is confirmed to be a vehicle controlled in the central beacon area in step S21, step S81 is entered to check whether the unmanned vehicle has left the central beacon range. If it does not escape, it re-enters step S11, and if the unmanned vehicle leaves the central beacon range, the speed control process ends.

이상에서와 같은 무인 자동차 네트워크 시스템 및 무인 자동차 네트워크를 이용한 차량 제어 방법은 센서로 수집이 힘든 먼 거리의 도로 상황, 앞차의 앞차 도로 상황 등의 데이터를 광범위하게 수집할 수 있도록 하여, 주변 상황에 대한 정보 취득 범위를 증가시켜 무인 자동차 시스템을 유연하게 운용할 수 있다. The unmanned car network system and vehicle control method using the unmanned car network as described above allows for a wide range of data to be collected, such as long-distance road conditions that are difficult to collect with sensors, and the road condition of the car ahead, providing information on surrounding situations. By increasing the information acquisition range, the unmanned vehicle system can be operated flexibly.

또한, 자동차 간의 네트워크 구축을 통해 무인 자동차 시스템의 신뢰성을 향상시킬 수 있다. Additionally, the reliability of the driverless car system can be improved by establishing a network between cars.

또한, 차량 주행을 방해하는 사고, 공사 등의 이벤트 발생 시 이벤트 발생 위치와 종류, 해결까지의 소요시간을 예측하고 이를 차량으로 알리고, 우회 경로를 안내하여 이벤트 발생 주변 지역의 교통 정체를 예방할 수 있도록 한다.In addition, when an event such as an accident or construction that interferes with vehicle driving occurs, we predict the location and type of the event and the time required to resolve it, inform the vehicle of this, and guide detour routes to prevent traffic congestion in the area around the event. do.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed content is merely an example and can be modified and implemented in various ways by those skilled in the art without departing from the gist of the claims, so the scope of protection of the disclosed content is limited to the above-mentioned specific scope. It is not limited to the examples.

Claims (10)

무인자동차 네트워크 시스템에 있어서,
속도, 차간거리, 주변 환경상태, 장애물 정보를 포함하는 자율주행 데이터를 데이터 수집하고, 비콘(Beacon)을 이용하여 상기 자율주행 데이터를 주변 ECU(Electronic Control Unit)로 전송하는 제1자율주행 차량;
상기 제1자율주행 차량으로부터 자율주행 데이터를 수신하고, 상기 자율주행 데이터를 자율주행 관제 서버로 전송하는 제2 자율주행 차량;
톨게이트, 휴게소를 포함하는 고속도로의 포인트 지점에 자동차의 목적지, 현재 속도, 주변 상황 정보를 포함하는 도로 주요 정보를 취합하여 관리하는 센트럴 비콘; 및
상기 자율주행 차량으로부터 자율주행 데이터를 수신하고, 상기 센트럴 비콘으로부터 도로 주요정보를 수집하여, 차간거리, 속도, 차선 변경을 포함하는 자율주행 세부정보를 설정하는 자율주행 관제 서버; 를 포함하는 무인자동차 네트워크 시스템.
In the driverless car network system,
A first autonomous vehicle that collects autonomous driving data including speed, distance between vehicles, surrounding environmental conditions, and obstacle information, and transmits the autonomous driving data to a surrounding Electronic Control Unit (ECU) using a beacon;
a second autonomous vehicle that receives autonomous driving data from the first autonomous vehicle and transmits the autonomous driving data to an autonomous driving control server;
Central beacons that collect and manage key road information, including the car's destination, current speed, and surrounding situation information, at point points on the highway, including toll gates and rest areas; and
an autonomous driving control server that receives autonomous driving data from the autonomous vehicle, collects important road information from the central beacon, and sets detailed autonomous driving information including inter-vehicle distance, speed, and lane change; A driverless car network system including.
제1항에 있어서, 상기 센트럴 비콘; 은
현재 차량들의 주요 이동지, 현재 도로 사고정보 및 도로의 장애물 정보를 감지하고, 도로 사고정보와 장애물 정보가 감지되는 경우, 감지된 사고와 장애물의 해결까지 소요되는 시간인 정체 예상시간을 예측하는 것을 특징으로 하는 무인자동차 네트워크 시스템.
According to claim 1, The central beacon; silver
Detects the current major movement locations of vehicles, current road accident information, and road obstacle information, and when road accident information and obstacle information is detected, predicts the expected congestion time, which is the time required to resolve the detected accident and obstacle. Characterized by a driverless car network system.
제1항에 있어서, 상기 자율주행 관제 서버; 는
센트럴 비콘으로부터 전송된 무인 차량의 진행방향 데이터를 딥러닝하여 구간 별 교통량을 예측하고, 예측된 교통량에 따라 구간에 설치된 신호등 및 자율주행 차량을 제어하는 것을 특징으로 하는 무인자동차 네트워크 시스템.
The system of claim 1, further comprising: the autonomous driving control server; Is
An unmanned vehicle network system that predicts the traffic volume for each section by deep learning the direction data of the unmanned vehicle transmitted from the central beacon, and controls the traffic lights and autonomous vehicles installed in the section according to the predicted traffic volume.
제1항에 있어서, 상기 자율주행 관제 서버; 는
사고발생지역 주변의 사고발생 정보를 공유한 무인 자동차들을 그룹핑 하여 그룹핑 된 무인 자동차들이 함께 이동속도를 줄이거나 함께 차선을 변경하도록 하는 그룹이동을 하도록 제어하는 것을 특징으로 하는 무인자동차 네트워크 시스템.
The system of claim 1, further comprising: the autonomous driving control server; Is
An unmanned car network system that groups unmanned cars that share accident information around the accident area and controls the grouped unmanned cars to move together to reduce their speed or change lanes together.
제1항에 있어서, 상기 자율주행 관제 서버; 는
DNN(Deep Neural Network), CNN(Convolutional Neural Network) RNN(Recurrent Neural Network) 및 BRDNN(Bidirectional Recurrent Deep Neural Network) 중 적어도 하나를 포함하는 딥러닝 뉴럴 네트워크를 자율주행 데이터와 도로 주요 정보를 포함하는 트레이닝 데이터 셋으로 학습시켜 교통량 예측 모델 및 무인차량 제어모델을 구현하는 것을 특징으로 하는 무인자동차 네트워크 시스템.
The system of claim 1, further comprising: the autonomous driving control server; Is
Training a deep learning neural network including at least one of DNN (Deep Neural Network), CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), and BRDNN (Bidirectional Recurrent Deep Neural Network) including autonomous driving data and key road information. An unmanned vehicle network system that implements a traffic prediction model and an unmanned vehicle control model by learning from a data set.
무인자동차 네트워크를 통한 차량제어 방법에 있어서,
(A) 제1자율주행 차량에서 속도, 차간거리, 주변 환경상태, 장애물 정보를 포함하는 자율주행 데이터를 데이터 수집하고, 비콘(Beacon)을 이용하여 상기 자율주행 데이터를 주변 ECU(Electronic Control Unit)로 전송하는 단계;
(B) 제2 자율주행 차량에서 상기 제1자율주행 차량으로부터 자율주행 데이터를 수신하고, 상기 자율주행 데이터를 자율주행 관제 서버로 전송하는 단계;
(C) 센트럴 비콘에서 톨게이트, 휴게소를 포함하는 고속도로의 포인트 지점에 자동차의 목적지, 현재 속도, 주변 상황 정보를 포함하는 도로 주요 정보를 취합하여 관리하는 단계; 및
(D) 자율주행 관제 서버에서 상기 자율주행 차량으로부터 자율주행 데이터를 수신하고, 상기 센트럴 비콘으로부터 도로 주요정보를 수집하여, 차간거리, 속도, 차선 변경을 포함하는 자율주행 세부정보를 설정하고 설정된 자율주행 세부정보에 따라 무인 차량을 제어하는 단계; 를 포함하는 무인자동차 네트워크를 통한 차량 제어 방법.
In a vehicle control method through an unmanned car network,
(A) Collect autonomous driving data including speed, distance between vehicles, surrounding environmental conditions, and obstacle information from the first autonomous vehicle, and transmit the autonomous driving data to the surrounding Electronic Control Unit (ECU) using a beacon. Transferring to;
(B) receiving autonomous driving data from the first autonomous vehicle in a second autonomous vehicle and transmitting the autonomous driving data to an autonomous driving control server;
(C) collecting and managing key road information, including the car's destination, current speed, and surrounding situation information, at point points on the highway, including toll gates and rest areas, from the central beacon; and
(D) The autonomous driving control server receives autonomous driving data from the autonomous vehicle, collects key road information from the central beacon, sets autonomous driving details including inter-vehicle distance, speed, and lane changes, and sets autonomous driving data. Controlling the unmanned vehicle according to driving details; Vehicle control method through unmanned car network including.
제6항에 있어서, 상기 (C)의 단계; 는
현재 차량들의 주요 이동지, 현재 도로 사고정보 및 도로의 장애물 정보를 감지하고, 도로 사고정보와 장애물 정보가 감지되는 경우, 감지된 사고와 장애물의 해결까지 소요되는 시간인 정체 예상시간을 예측하는 것을 특징으로 하는 무인자동차 네트워크를 통한 차량 제어 방법.
The method of claim 6, wherein step (C); Is
Detects the current major movement locations of vehicles, current road accident information, and road obstacle information, and when road accident information and obstacle information is detected, predicts the expected congestion time, which is the time required to resolve the detected accident and obstacle. Characteristics of vehicle control method through unmanned car network.
제6항에 있어서, 상기 (D)의 단계; 는
센트럴 비콘으로부터 전송된 무인 차량의 진행방향 데이터를 딥러닝하여 구간 별 교통량을 예측하고, 예측된 교통량에 따라 구간에 설치된 신호등 및 자율주행 차량을 제어하는 무인자동차 네트워크를 통한 차량 제어 방법.
The method of claim 6, wherein step (D); Is
A vehicle control method through an unmanned car network that predicts traffic volume for each section by deep learning the direction data of the unmanned vehicle transmitted from the central beacon, and controls traffic lights and autonomous vehicles installed in the section according to the predicted traffic volume.
제1항에 있어서, 상기 (D)의 단계; 는
사고발생지역 주변의 사고발생 정보를 공유한 무인 자동차들을 그룹핑 하여 그룹핑 된 무인 자동차들이 함께 이동속도를 줄이거나 함께 차선을 변경하도록 하는 그룹이동을 하도록 제어하는 무인자동차 네트워크를 이용한 차량 제어 방법.
The method of claim 1, wherein step (D); Is
A vehicle control method using an unmanned car network that groups unmanned cars that share accident information around the accident area and controls the grouped unmanned cars to move together to reduce their speed or change lanes together.
제1항에 있어서, 상기 (D)의 단계; 는
DNN(Deep Neural Network), CNN(Convolutional Neural Network) RNN(Recurrent Neural Network) 및 BRDNN(Bidirectional Recurrent Deep Neural Network) 중 적어도 하나를 포함하는 딥러닝 뉴럴 네트워크를 자율주행 데이터와 도로 주요 정보를 포함하는 트레이닝 데이터 셋으로 학습시켜 교통량 예측 모델을 구현하는 것을 특징으로 하는 무인자동차 네트워크를 이용한 차량 제어 방법.














The method of claim 1, wherein step (D); Is
Training a deep learning neural network including at least one of DNN (Deep Neural Network), CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), and BRDNN (Bidirectional Recurrent Deep Neural Network) including autonomous driving data and key road information. A vehicle control method using an unmanned car network, characterized by implementing a traffic prediction model by learning from a data set.














KR1020220173856A 2022-11-28 2022-12-13 Unmanned car network system and vehicle control method using unmanned car network KR20240080044A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220161913 2022-11-28
KR20220161913 2022-11-28

Publications (1)

Publication Number Publication Date
KR20240080044A true KR20240080044A (en) 2024-06-05

Family

ID=91470277

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220173856A KR20240080044A (en) 2022-11-28 2022-12-13 Unmanned car network system and vehicle control method using unmanned car network

Country Status (1)

Country Link
KR (1) KR20240080044A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101526343B1 (en) 2014-04-03 2015-06-10 한국과학기술원 Communication link establishing method using ad-hoc network in driverless car system
KR102324154B1 (en) 2019-03-28 2021-11-16 아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드 Lane changing method, device for driverless vehicle and computer-readable storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101526343B1 (en) 2014-04-03 2015-06-10 한국과학기술원 Communication link establishing method using ad-hoc network in driverless car system
KR102324154B1 (en) 2019-03-28 2021-11-16 아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드 Lane changing method, device for driverless vehicle and computer-readable storage medium

Similar Documents

Publication Publication Date Title
AU2020203517B2 (en) Dynamic routing for autonomous vehicles
US11314253B2 (en) Providing user assistance in a vehicle based on traffic behavior models
US11498563B2 (en) Vehicle control device, vehicle control method, and storage medium
US20200307648A1 (en) Parking lot management device, parking lot management method, and storage medium
US10943133B2 (en) Vehicle control device, vehicle control method, and storage medium
US11315419B2 (en) Providing user assistance in a vehicle based on traffic behavior models
CN110603181A (en) Intelligent driving vehicle yielding method and device and vehicle-mounted equipment
WO2021075454A1 (en) In-vehicle device and driving assistance method
US20190276028A1 (en) Vehicle control device, vehicle control method, and storage medium
US11584375B2 (en) Vehicle control device, vehicle control method, and storage medium
KR20180086632A (en) Apparatus amd method of determining action of an autonomous vehicle
US20220227392A1 (en) Vehicle control device, vehicle control method, and automatic driving method
US10147324B1 (en) Providing user assistance in a vehicle based on traffic behavior models
CN113302109B (en) System for implementing rollback behavior of autonomous vehicle
US20190054922A1 (en) Systems and methods for automatically passing vehicles
JP7268433B2 (en) vehicle controller
US20230174106A1 (en) Path checking device and path checking method
CN114194186A (en) Vehicle travel control device
JP2011014097A (en) Risk determination device and risk determination system
EP4082855A1 (en) Driving assistance device
KR20240080044A (en) Unmanned car network system and vehicle control method using unmanned car network
WO2022101825A1 (en) Optimization of performance in automotive autonomous driving of recurrent low speed manoeuvres in digital road maps-free areas
JP7483529B2 (en) Control device, control method, and program
WO2022025086A1 (en) Path confirmation device, path confirmation method, and vehicle control method
JP2022015208A (en) Route checker