KR20180052811A - Method for Making Autonomous or Automated Driving System and a Driving System - Google Patents
Method for Making Autonomous or Automated Driving System and a Driving System Download PDFInfo
- Publication number
- KR20180052811A KR20180052811A KR1020160149517A KR20160149517A KR20180052811A KR 20180052811 A KR20180052811 A KR 20180052811A KR 1020160149517 A KR1020160149517 A KR 1020160149517A KR 20160149517 A KR20160149517 A KR 20160149517A KR 20180052811 A KR20180052811 A KR 20180052811A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- traveling
- vehicle
- load user
- road
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000004519 manufacturing process Methods 0.000 claims abstract description 4
- 230000002093 peripheral effect Effects 0.000 claims description 25
- 230000001133 acceleration Effects 0.000 claims description 13
- 238000010276 construction Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 10
- 206010039203 Road traffic accident Diseases 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 5
- 239000000446 fuel Substances 0.000 claims description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims 3
- 230000008569 process Effects 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G06N99/005—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Remote Sensing (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Game Theory and Decision Science (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
본 실시 예는 자율주행 시스템과 관련된다. 특히, 로드유저들의 주행정보를 포함하는 주행 경험 데이터들로부터 학습시켜 자율주행 시스템을 제작하는 방법 및 그러한 자율주행 시스템에 관한 것이다.This embodiment relates to an autonomous navigation system. Particularly, the present invention relates to a method for manufacturing an autonomous traveling system by learning from traveling experience data including traveling information of road users, and to such an autonomous traveling system.
이하에 기술되는 내용은 단순히 본 실시 예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다. The contents described below merely provide background information related to the present embodiment and do not constitute the prior art.
최근 자율주행에 대한 연구가 활발히 진행되고 있다. 자율주행을 위해서는 센서 등을 통한 외부환경의 정확한 인식과 인식된 정보에 기한 주행 방향, 속도 등 주행 조건의 결정이 필요하다.Recently, research on autonomous driving has been actively carried out. For autonomous driving, it is necessary to determine the driving conditions such as driving direction and speed based on the accurate recognition of the external environment through the sensors and the recognized information.
외부환경 인식을 위한 센서로서 레이더 등이 이용되고 있지만, 보다 많은 정보를 인식하기 위해 비젼 센서의 이용이 활발해 지고 있다. 비젼 센서는 다른 센서들에 비해 상대적으로 가격이 비싸지 않다는 점에서도 각광을 받고 있다. 관련하여, 패턴 인식이나 이미지 프로세싱에 의한 차량 외부환경 인식 기술이 크게 발전하고 있으며, 자율주행에 크게 도움이 될 것으로 기대된다.Although radar is used as a sensor for external environment recognition, the use of a vision sensor is becoming more active in order to recognize more information. Vision sensors are also popular because they are relatively inexpensive compared to other sensors. In this regard, the recognition technology of the outside environment by the pattern recognition and the image processing is greatly developed and it is expected to greatly contribute to the autonomous driving.
한편, 지능형 교통시스템 구축을 위해, 각국에서 오래 전부터 많은 관심을 가져 오고 있었으며, 관련한 국제표준도 마련되고 있다. 예컨대, 'Road Guidance Protocol (RGP)' 및 'Unified Gateway Protocol (UGP)'에 대한 Message와 관련하여 ISO/TC204에서 표준을 제정하였고, ETSI, CEN/TC278, ISO/TC204 등에서 'Local Dynamic Map (LDM)' 을 위해 'Cooperative Awareness Messages (CAMs)', 'Decentralized Environmental Notification Messages (DENMs)' 등에 대해 표준을 제정하였다.On the other hand, in order to build an intelligent transportation system, many countries have been attracting a lot of attention from many countries, and related international standards are being prepared. For example, ISO / TC 204 has established standards in relation to the Message on the Road Guidance Protocol (RGP) and Unified Gateway Protocol (UGP), and the Local Dynamic Map (LDM) in ETSI, CEN / TC278, , 'Cooperative Awareness Messages (CAMs)' and 'Decentralized Environmental Notification Messages (DENMs)'.
특히, LDM은 맵 정보와 관련하여 정보의 동적 특성에 따라 Type 1에서 Type 4까지 4가지 유형으로 분류될 수 있다. 여기서, Type 1 정보는 도로 및 건물 등에 대한 지도 정보로서 'static' 정보이며, Type 2 정보는 'quasi-staic' 정보로서 랜드마크, 교통표지판 등과 같은 정보가 이에 해당하고, Type 3 정보는 'Dynamic' 정보로서 교통정체, 신호등 정보, 교통사고 정보, 공사구간 정보, 노면상태 등에 대한 정보가 이에 해당하며, Type 4는 'Highly Dynamic' 정보로서 주변차량, 보행자 등에 대한 정보가 이에 해당한다. Type 1 정보가 수개월에서 수년에 걸쳐 변화되는 정도의 동적 특성 정보라면, Type 4 정보는 수초에 걸쳐 변화되는 매우 동적인 정보라 할 수 있다.In particular, the LDM can be classified into four types, from Type 1 to Type 4, according to the dynamic characteristics of information related to the map information. Type 2 information is' quasi-staic 'information such as landmark, traffic sign, etc., Type 3 information is' Dynamic', and ' 'Type 4 is' Highly Dynamic' information, which is information about nearby vehicles, pedestrians, etc. This information corresponds to traffic congestion, traffic light information, traffic accident information, construction section information, and road surface information. Type 1 information can be a very dynamic piece of information that changes over a period of a few seconds if Type 1 information is dynamic information that varies over months or years.
LDM이 지능형 교통 시스템과 관련하여 매우 중요하지만, 자율주행에 이용되기 위해서는 더욱 정밀한 정보를 다룰 수 있어야 하는 것으로 인식되고 있다. 예컨대, Type 1 정보만도 기존의 2차원 맵데이터 정도의 수준이 아닌 3차원 맵데이터 수준이 되어야 한다. 즉, 자율주행을 위해서는 고정밀도의 3차원 맵이 필요하다고 크게 인식되고 있는데, 그러한 맵 개발을 위해 구글, 우버, 히어(here) 등등에서 막대한 자본을 투입하고 있으며, 머지않아 상용적으로 활용될 수 있을 것으로 기대된다.Although LDM is very important for intelligent transportation systems, it is recognized that it is necessary to deal with more precise information in order to be used for autonomous driving. For example, only the Type 1 information should be the level of the three-dimensional map data, not the level of the existing two-dimensional map data. In other words, it is widely recognized that a high-precision three-dimensional map is required for autonomous driving. We are investing huge amounts of capital in Google, Uber, here and others to develop such maps. It is expected to be.
3차원의 고정밀도 맵이 개발되고, 센서에 의한 주변상황 인식의 정밀도가 더 높아짐에 따라 자율주행 기술도 크게 발전할 것으로 기대되지만, 인식된 주변상황으로부터 어떻게 안전 운전을 위한 주행 판단을 할 수 있을지, 아직 그에 대한 논의는 부족한 실정이다. 자율주행 차량에 있어서, 3차원 맵과 센서가 눈이라면 자율주행 판단을 위한 브레인에 대해서는 아직 더 논의할 필요가 있다고 할 수 있다. 즉, 디지털맵 정보 및 센서정보를 이용하여 자율주행을 수행하게 될 주행 프로그램에 대한 개발이 필요하다.As 3-dimensional high-precision maps are developed and the accuracy of recognition of the surrounding situation by sensor is higher, autonomous driving technology is expected to greatly develop. However, There is still a lack of discussion about it. If the three-dimensional map and the sensor are eyes in the autonomous vehicle, it is necessary to further discuss the brain for the autonomous driving judgment. That is, it is necessary to develop a running program that will perform autonomous driving using digital map information and sensor information.
그러한 프로그램이 개발되더라도, 현재 논의되고 있는 정도로서 지능형 교통 시스템(ITS)으로부터 받는 도로 상황 정보만을 이용하는 단순한 프로그램이라면 자율주행을 완수하기에는 부족하다.Even if such a program is developed, a simple program using only the road situation information received from the intelligent traffic system (ITS) as it is currently being discussed is not sufficient to complete autonomous driving.
그러한 정보만이 아니라 주변차량의 실 시간적 주행정보를 포함하여 기상, 도로의 노면상태 정보, 주행 도로 구간 및 그 주변 구간의 교통 상황 정보 등등을 종합적으로 고려하여야 할 뿐만 아니라, 실제 운전자들의 주행 경험 정보를 활용할 필요가 있다.It is necessary not only to comprehensively consider the weather information, the road surface state information of the road, the traffic road information of the driving road section and the surrounding sections, and the like, including the real-time driving information of the surrounding vehicles, .
특히, 인간들의 주행 경험은, 기상이나 노면 상태 등 외부 환경 상황 및 주변 차량의 주행 상황을 종합적으로 고려하여 그때그때 안전 운전을 수행한 경험이기 때문에, 그러한 경험데이터를 자율주행 프로그램에 활용할 수 있다면 매우 유용할 것이다.Particularly, since the driving experience of humans is an experience of performing safe driving at that time by comprehensively considering the external environment such as the weather or road surface condition and the driving condition of the surrounding vehicles, if such experience data can be utilized in the autonomous driving program, It will be useful.
그러한 주행 경험 데이터를 최근 활발히 연구되고 있는 인공지능(AI)과 결합한다면 매우 유용한 자율주행 프로그램이 만들어질 수 있을 것이다.Combining such experience data with artificial intelligence (AI), which is being actively researched recently, a very useful autonomous driving program can be created.
본 발명은 자율주행과 관련하여 전술한 바와 같은 부족한 점을 보충하기 위한 것이다.The present invention is intended to supplement the above-mentioned deficiencies with respect to autonomous driving.
운전자들의 주행 경험 데이터를 이용하여 자율주행 시스템을 학습시킴으로써 자율주행 알고리즘(또는 시스템)을 완성하는 방법을 제안하며, 그렇게 학습된 자율주행 알고리즘을 이용하여 자율주행을 수행하는 자율주행 시스템을 제안한다.We propose a method of completing an autonomous driving algorithm (or system) by learning autonomous driving system using driving experience data of drivers, and propose an autonomous driving system that performs autonomous driving using the learned autonomous driving algorithm.
자율주행 시스템 제작 방법의 일 실시 예는, 복수의 주행 경험 데이터를 축적하는 단계와 이를 이용하여 자율주행 알고리즘을 학습시켜 완성시키는 단계를 포함한다.One embodiment of the autonomous traveling system manufacturing method includes accumulating a plurality of traveling experience data and learning and completing an autonomous traveling algorithm using the accumulated traveling experience data.
복수의 주행 경험 데이터를 축적하는 단계는, 제1로드유저에 대해 설정된 이벤트가 발생함에 따라 제1로드유저의 주행정보와 제1로드유저의 주변 로드유저의 주행정보를 획득함으로써 수행된다.The step of accumulating the plurality of traveling experience data is performed by obtaining the traveling information of the first load user and the traveling information of the peripheral load user of the first load user as the event set for the first load user occurs.
여기서, 이벤트는 급제동, 급발진, 급감속, 급가속, 차선 급변경, 조향각 급변경, 에어백 전개, 충돌 또는 추돌 사고, 돌발상황 (예컨대, 동물 출현, 낙석, 장애물 출현, 주변 로드유저의 급제동 또는 교통사고 등) 중 적어도 하나일 수 있다.Here, the event may be an event such as sudden braking, sudden acceleration, rapid deceleration, rapid acceleration, lane change, steering angle change, airbag deployment, collision or collision accident, Accident, etc.).
이외에 이벤트는 시스템적으로 설정된 특정 조건의 만족 상황일 수도 있다. 예컨대, 설정된 주행속도 또는 가속도를 초과하거나 미만으로 되는 경우, 차선 변경, 설정시간 동안에 설정횟수 이상의 가감속 등을 이벤트로 설정할 수도 있다. 이벤트는 얻고자 하는 주행 경험 데이터의 내용에 따라 다르게 결정될 수도 있는 것이다.In addition, the event may be a satisfying condition of a specific condition set by the system. For example, when the traveling speed or the acceleration is exceeded or less than the set traveling speed, the lane change, acceleration / deceleration more than the set number of times during the set time, and the like can be set as an event. The event may be determined differently depending on the content of the driving experience data to be obtained.
주변 로드유저의 주행정보 또는 제1로드유저의 주행정보는 이벤트 발생 시점의 주행정보나, 이벤트 발생 시점 이전이나 또는 이후의 주행정보를 포함할 수 있다.The running information of the peripheral load user or the running information of the first load user may include the running information at the time of occurrence of the event or the running information before or after the occurrence time of the event.
학습 단계는 인공지능 알고리즘을 통해 수행될 수 있다. 이벤트 발생 전의 제1로드유저의 주행정보와 주변 로드유저의 주행정보를 입력데이터로 하고, 이벤트 발생 시점의 제1로드유저의 조향각 정보, 제동 정보, 가속 정보, 감속 정보, 트랜스미션 정보, 엔진 연료 공급 정보 중 적어도 하나를 출력데이터로 하여 학습을 통해 자율주행 알고리즘이 완성될 수 있다.The learning stage can be performed through artificial intelligence algorithms. The running information of the first load user before the occurrence of the event and the running information of the peripheral load user are used as input data and the steering angle information, the braking information, the acceleration information, the deceleration information, the transmission information, The autonomous traveling algorithm can be completed through learning by using at least one of the information as output data.
한편, 로드유저는 도로상을 일시적으로 점유하여 사용하고 있는 사람 또는 물체를 포함한다. 예컨대, 보행자, 사람이 탄 자전거, 낙석 등과 같은 일시적인 장애물, 모터싸이클 등의 2륜차량, 승용차, 트럭, 버스 등과 같은 4륜차량 등일 수 있다. On the other hand, the road user includes a person or an object temporarily occupying and using the road. For example, it may be a temporary obstacle such as a pedestrian, a bicycle with a person, a rockfall, a four-wheeled vehicle such as a two-wheeled vehicle such as a motorcycle, a passenger car, a truck or a bus.
주변 로드유저는 제1로드유저로부터 설정 범위 내에 존재하는 로드유저일 수 있다.The peripheral load user may be a load user existing within the setting range from the first load user.
설정범위는 제1로드유저의 직근 로드유저만을 포함하도록 설정될 수도 있지만, 그보다 넓은 범위로 설정될 수도 있으며, 이럴 경우 관련된 주변 로드유저는 더욱 많아진다.The setting range may be set to include only the rectilinear load user of the first load user, but it may be set to a wider range, so that the related peripheral load users are further increased.
예컨데, 주변 로드유저는 제1로드유저에 대해 좌 전방, 정전방, 우전방, 좌측방, 우측방, 좌후방, 정후방, 우후방에 위치하는 것 중 적어도 하나를 포함한다.For example, the peripheral load user includes at least one of a left front, an electrostatic room, a right front, a left room, a right room, a left rear, a front right, and a rear right of the first load user.
주변 로드유저는 주행정보를 자체적으로 센싱 하거나 외부로부터 받을 수 있는 것일 수 있다. 주변 로드유저가 낙석인 경우 이는 도로상의 장애물에 해당하며 그 장애물도 주변 로드유저는 될 수 있지만, 차제적으로 정보를 취득할 수 없기 때문에 이에 대해서는 다른 주변 로드유저 또는 제1로드유저가 관련 정보를 취득할 수 있다.The peripheral load user may be able to sense the travel information himself or receive it from the outside. If the surrounding load user is falling, this corresponds to an obstacle on the road, and the obstacle may also be the surrounding load user. However, since the information can not be obtained separately from the surrounding load user, the other load user or the first load user .
주행정보는 해당 로드유저의 유형, 주행방향, 주행속도, 주행도로 유형, 주행차로, GPS정보, 제동 정보, 조향각 정보 중 적어도 하나를 포함할 수 있다.The driving information may include at least one of the type of the load user, the traveling direction, the traveling speed, the type of traveling road, the driving lane, GPS information, the braking information, and the steering angle information.
주행 경험 데이터는 제1로드유저가 주행하는 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로 상의 장애물 정보 중 적어도 하나를 추가로 포함할 수 있다. 그래서, 자율주행 알고리즘은 그와 같은 정보가 함께 이용되어 학습될 수 있다.The traveling experience data may further include at least one of climatic information of a region where the first load user travels, road surface state information of the road, traffic congestion information, traffic accident information, construction section information, and road obstacle information. Thus, autonomous algorithms can be learned using such information together.
한편, 본 발명에 의한 자율주행 시스템의 일 실시 예는 전술한 방법에 의해 제작된 자율주행 시스템이다.Meanwhile, an embodiment of the autonomous driving system according to the present invention is an autonomous driving system produced by the above-described method.
또한, 자율주행 시스템은 차량에 탑재되어 사용될 수 있으며, 자차량의 GPS 정보를 수신하는 단계, 목적지까지의 경로를 설정하는 단계, 설정된 경로를 따라 자율주행을 개시하는 단계, 자차량이 주행하고 있는 도로의 차로 정보를 감지하는 단계, GPS 정보 및 차로 정보를 이용하여 설정된 경로를 따라 자율주행을 계속하는 단계, 주변 로드유저의 주행정보를 획득하는 단계, 전술한 방법에 의해 인공지능 알고리즘을 통해 학습시킨 자율주행 알고리즘을 이용하여 주변 로드유저의 주행정보에 따라 상기 자 차량의 주행상태를 변경하는 단계를 포함하여 자율주행을 수행할 수 있다.In addition, the autonomous navigation system can be mounted on the vehicle and can be used to receive GPS information of a vehicle, set a route to a destination, start autonomous travel along a set route, The method comprising the steps of sensing information by a road vehicle, continuing autonomous travel along a set route by using GPS information and lane information, acquiring travel information of a peripheral load user, learning by artificial intelligence algorithm by the above- And changing the running state of the subject vehicle according to the running information of the peripheral load user using the autonomous running algorithm.
차량에 탑재되어 자율주행을 수행함에 있어서, 주변 로드유저의 주행정보 이외에 자 차량이 주행하는 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로 상의 장애물 정보 중 적어도 하나를 추가로 이용하여 수행할 수 있으며, 이러한 정보들은 해당 정보를 취급하는 특정기관의 서버로부터 전송 받거나 또는 해당 지역의 노변 기지국으로부터 전송 받을 수도 있다.In carrying out the autonomous driving carried out on the vehicle, in addition to the traveling information of the surrounding road users, information on the climate of the area where the vehicle is traveling, road surface state information, traffic congestion information, traffic accident information, construction section information, , And this information may be received from a server of a specific organization that handles the information, or may be transmitted from a roadside base station in the corresponding area.
주변 차량의 주행 상태에 실시간으로 대응하며 안전 운전을 달성할 수 있는 자율주행 시스템을 얻을 수 있다.It is possible to obtain an autonomous running system capable of realizing safe operation in real time in response to the running state of the surrounding vehicles.
인간의 주행 경험 데이터를 이용하여 인공지능 알고리즘을 통해 학습시킴에 따라 다양한 상황에서의 안전 운전 대처가 가능한 자율주행 시스템을 얻을 수 있다.An autonomous driving system that can cope with safe driving in various situations can be obtained by learning through artificial intelligence algorithm using human driving experience data.
또한, 인간의 주행 경험 데이터를 이용하므로 인간의 주행 습관에 매우 유사한 자율주행을 달성할 수 있으며, 따라서, 위화감이 없는 친숙한 주행을 수행하는 자율주행 시스템을 얻을 수 있다.Further, since the human experience data is used, an autonomous run very similar to a human running habit can be achieved, and therefore, an autonomous running system that performs familiar running without discomfort can be obtained.
도 1은 제1로드유저와 그 주변의 로드유저들로부터 주행정보를 획득하여 주행 경험 데이터를 확보하는 모습을 개략적으로 나타낸 도면이다.
도 2는 주행 경험 데이터를 확보하는 과정을 설명하기 위한 플로우차트이다.
도 3은 주행 경험 데이터를 이용하여 자율주행 알고리즘을 학습시키는 모습을 개략적으로 나타낸 도면이다.
도 4는 자차량이 탑재된 자율주행 시스템을 이용하여 자율주행 되는 상황을 개략적으로 나타낸 도면이다.1 is a view schematically showing a state in which traveling information is acquired from a first load user and load users around the first load user to secure traveling experience data.
Fig. 2 is a flowchart for explaining the process of obtaining travel experience data.
FIG. 3 is a diagram schematically showing how an autonomous driving algorithm is learned using traveling experience data. FIG.
4 is a view schematically showing a state in which the vehicle is autonomously driven using an autonomous vehicle on which the autonomous vehicle is mounted.
이하, 본 발명의 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '…부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. Throughout the specification, when an element is referred to as being "comprising" or "comprising", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise . In addition, '... Quot ;, " module ", and " module " refer to a unit that processes at least one function or operation, and may be implemented by hardware or software or a combination of hardware and software.
먼저, 도 1을 통해, 제1로드유저와 그 주변의 로드유저들로부터 주행정보를 획득하여 주행 경험 데이터를 확보하는 방법을 설명한다.First, a method for acquiring travel information from the first load user and the load users around the first load user to secure travel experience data will be described with reference to FIG.
제1차량(210)은 이벤트 감지부(110), 주변차량정보 수신부(120)를 포함한다. 서버(130)는 주행정보 수신부(132) 및 데이터베이스 구축부(134)를 포함한다.The
제1차량(210)의 이벤트 감지부(110)는 제1차량(210)에 대해 설정된 이벤트가 발생했는지 여부를 감지한다.The
여기서, 이벤트는 급제동, 급발진, 급감속, 급가속, 차선 급변경, 조향각 급변경, 에어백 전개, 충돌 또는 추돌 사고, 돌발상황 (예컨대, 동물 출현, 낙석, 장애물 출현, 주변 로드유저의 급제동 또는 교통사고 등) 중 적어도 하나일 수 있다.Here, the event may be an event such as sudden braking, sudden acceleration, rapid deceleration, rapid acceleration, lane change, steering angle change, airbag deployment, collision or collision accident, Accident, etc.).
또한, 이벤트는 시스템적으로 설정된 특정 조건의 만족 상황일 수도 있다. 예컨대, 설정된 주행속도 또는 가속도를 초과하거나 미만으로 되는 경우, 차선 변경, 설정시간 동안에 설정횟수 이상의 가감속 등을 이벤트로 설정할 수도 있다. 이벤트는 얻고자 하는 주행 경험 데이터의 내용에 따라 다르게 결정될 수 있다.In addition, an event may be a satisfying condition of a specific condition set by a system. For example, when the traveling speed or the acceleration is exceeded or less than the set traveling speed, the lane change, acceleration / deceleration more than the set number of times during the set time, and the like can be set as an event. The event can be determined differently depending on the contents of the traveling experience data to be obtained.
주행정보는 해당 차량의 유형, 주행방향, 주행속도, 주행차선, GPS정보, 제동 정보, 조향각 정보 중 적어도 하나를 포함한다.The traveling information includes at least one of the type of the vehicle, the traveling direction, the traveling speed, the driving lane, the GPS information, the braking information, and the steering angle information.
주변차량정보 수신부(122)는 제1차량(210)의 주변차량(220, N1, N2, N3, N4, N5, N6, N7 이하, 220으로 표기함)에 대한 주행정보를 전송 받는다. 여기서, 주변차량(220)은 제1차량(210)으로부터 설정 범위 내에 존재하며, 제1차량(210)에 대해 좌 전방, 정전방, 우전방, 좌측방, 우측방, 좌후방, 정후방, 우후방에 위치하는 것 중 적어도 하나를 포함한다. 또한, 주변차량(220)은 4륜차량, 3륜차량, 또는 2륜차량이다. 주변차량 주행정보는 해당 차량의 유형, 주행방향, 주행속도, 주행도로 유형, 주행차선, GPS정보, 제동 정보, 조향각 정보 중 적어도 하나를 포함한다.The neighboring vehicle information receiving unit 122 receives driving information for the neighboring
주행정보 수신부(132)는 서버(130)에 포함되며, 주변차량정보 수신부(122)로부터 주변차량(220)에 대한 주행정보를 전송 받는다. 반면에, 주행정보 수신부(132)는 도 1에 도시 된 대로 복수의 주변차량(220) 각각으로부터 주행정보를 전송 받을 수도 있다.The traveling
또한, 주행정보 수신부(132)는 주변차량정보 수신부(122)로부터 이벤트 정보 및 제1차량(210)의 주행정보를 전송 받는다. 여기서, 제1차량(210)의 주행정보는 해당 차량의 유형, 주행방향, 주행속도, 주행차선, GPS정보, 제동 정보, 조향각 정보 중 적어도 하나를 포함한다.In addition, the
여기서, 주변차량의 주행정보 또는 제1차량의 주행정보는 이벤트 발생 시점 이전의 주행정보, 이벤트 발생시점의 주행정보, 이벤트 발생시점 이후의 주행정보 중 적어도 하나의 정보를 포함한다.Here, the running information of the nearby vehicle or the running information of the first vehicle includes at least one of running information before the occurrence of the event, running information at the time of occurrence of the event, and running information after the occurrence of the event.
또한, 주행정보 수신부(132)는 제1차량(210)이 주행하는 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로상의 장애물 정보 중 적어도 하나를 전송 받는다. 이러한 데이터의 전송은 해당 데이터를 취급하는 기관 또는 노변 기지국으로부터 전송 받는다.Also, the
데이터베이스 구축부(134)는 전송 받은 주변차량 주행정보 및 제1차량 주행정보를 이벤트에 관한 정보와 연계 저장하여 데이터베이스를 구축한다.The
네트워크(미도시)는 유무선 통신 기술을 이용하여 통신 프로토콜로 데이터를 송수신하는 통신망을 의미한다. 네트워크는 이벤트 감지부(110), 주변차량정보 수신부(120) 및 서버(130)의 데이터를 송수신한다.The network (not shown) refers to a communication network that transmits and receives data using a communication protocol using wired / wireless communication technology. The network transmits and receives data of the
도 2를 통해 주행 경험 데이터를 확보하는 과정을 보다 자세히 설명한다.The process of securing the running experience data through FIG. 2 will be described in more detail.
먼저, 주변차량(220)의 주행정보 또는 제1차량(210)의 주행정보를 수신한다(S410).First, the travel information of the neighboring
주행정보의 수신은 주변차량(220) 주행정보의 경우 제1차량(210)에서 수신하여 서버(130)로 전송할 수도 있고, 또는 주변차량(220)으로부터 서버(130)로 직접 송신될 수도 있다.The reception of the driving information may be received by the
제1차량(210)에 대해 설정된 이벤트가 발생했는지 여부를 감지한다(S420). 예컨대, 제1차량(210)이 급제동을 한 경우, 이벤트가 발생한 것으로 감지한다.It is detected whether an event set for the
이러한 이벤트의 발생 여부의 감지는 제1차량(210) 내의 시스템에서 이루어질 수도 있지만, 반드시 이에 한정하는 것은 아니다.The detection of the occurrence of such an event may be made in the system in the
제1차량(210)이 주행하는 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로상의 장애물 정보 중 적어도 하나를 전송 받는다(S430).(At step S430) at least one of climatic information of the area where the
이벤트가 발생하지 않은 경우, 이벤트 발생시까지 지속하여 주변차량(220)의 주행정보 또는 제1차량(210)의 주행정보를 수신하는 S410의 단계로 돌아간다(S440). 예컨대, 제1차량(210)은 주변차량(220)들로부터 주행정보를 계속 수신하면서 이벤트가 발생하는지 여부를 지속적으로 체크한다.If the event does not occur, the process returns to step S410 in which the driving information of the neighboring
이벤트가 발생한 경우, 서버(130)는 제1차량(210)의 주변차량(220)에 대한 주행정보를 전송 받는다(S450). 주변차량(220) 주행정보는 제1차량(210)으로 송신되어 제1차량(210)으로부터 서버(130)로 송신될 수도 있고, 또는 주변차량(220)에서 서버(130)로 직접 송신할 수도 있다. When the event occurs, the
주변차량(220) 주행정보가 주변차량(220)에서 서버(130)로 직접 송신되는 경우, 예컨대, 서버(130)은 제1차량(210) 및/또는 주변차량(220)의 주행정보를 지속적으로 수신 받고 있는 상태에서 제1차량(210)으로부터 이벤트가 발생했다는 신호가 접수됨에 따라 주변차량(220)의 주행정보를 메모리에 저장하는 방식으로 데이터를 확보할 수 있다.When the traveling information of the neighboring
또한, 서버(130)는 이벤트 정보 및 제1차량주변차량(220)에서 서버(130)로 직접 송신의 주행정보를 전송 받는다(S460).In addition, the
그리고, 전송받은 주변차량(220) 주행정보 및 제1차량(210) 주행정보를 이벤트 정보와 연계 저장하여 데이터베이스를 구축한다(S470).In step S470, the transmitted vehicle navigation information and the running information of the
도 2에서는 단계 S410 내지 단계 S470을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 2에 기재된 순서를 변경하여 실행하거나 단계 S410 내지 단계 S470 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 2는 시계열적인 순서로 한정되는 것은 아니다.Although it is described in FIG. 2 that steps S410 to S470 are sequentially performed, it is only described as an example of the technical idea of the present embodiment. If a person skilled in the art is familiar with the present invention, It will be understood that various modifications and changes may be made to the present invention without departing from the essential characteristics thereof, such as by changing the order described in FIG. 2 or by executing one or more of steps S410 through S470 in parallel, But is not limited thereto.
전술한 방법에 의해 구축된 주행 경험 데이터들은 도 3에 보이는 바와 같이, 자율주행 프로그램 또는 시스템을 학습시키는데 이용된다.The traveling experience data constructed by the above-described method is used for learning an autonomous driving program or system, as shown in FIG.
즉, 각종 상황에서 발생하는 다양한 변수의 주변차량 주행정보 및 제1차량 주행정보를 학습자료로 활용하여 인공지능 알고리즘을 통해 자율주행 알고리즘을 학습시켜 완성한다.In other words, by using the surrounding vehicle driving information and the first vehicle driving information of various variables occurring in various situations as learning data, the autonomous driving algorithm is learned through the artificial intelligence algorithm.
이때, 이벤트 발생 전의 제1차량(210) 주행정보 및 주변차량(220) 주행정보를 입력데이터로 하고, 이벤트 발생 시점의 제1차량(210)의 주행 거동으로서 조향각 정보, 제동 정보, 가속 정보, 감속 정보, 트랜스미션 정보, 엔진 연료 공급 정보 중 적어도 하나를 출력데이터로 하여 딥러닝을 통해 자율주행 알고리즘을 학습시킬 수 있다.The steering angle information, the braking information, the acceleration information, and the steering angle information are used as the running behavior of the
이때, 이벤트가 발생한 때의 제1차량(210)이 주행하는 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로상의 장애물 정보 중 적어도 하나가 자율주행 알고리즘을 학습시키는 자료로 함께 이용된다. 기후정보 등과 같은 이러한 주행 환경정보는 해당 데이터를 취급하는 기관 또는 노변 기지국 서버로부터 확보할 수 있다.At this time, at least one of the climate information of the area where the
도 4를 통해 전술한 방법에 의해 만들어진 자율주행 시스템에 의해 자율주행이 수행되는 과정을 설명한다.The process of autonomous traveling performed by the autonomous traveling system created by the method described above with reference to FIG. 4 will be described.
먼저, 자율주행 시스템은 자 차량인 제1차량(210)에 설치되어 있다.First, the autonomous traveling system is installed in the
제1차량(210) 주변으로는 주변차량이 함께 주행하고 있는데, 전방에 3대의 4륜차량(211~213)이 주행하고 있으며, 좌측에는 2륜차량(214)이, 우측에는 4륜차(215)량이, 그리고 후방에는 2대의 4륜차량(216, 217)과 1대의 2륜차량(218)이 주행하고 있는 상황을 나타낸다.Three cars are running on the front side of the
제1차량은(210) 주변차량(211~218)과 V2V 통신 상태에 있으며, 통신을 통해 주변차량(211~218)의 주행정보를 전송 받는다. 또한, 주변차량(211~218) 주행정보의 일부 또는 전부는 통신을 통한 수신 이외에도 제1차량(210)에 탑재된 센서(미도시)를 통해 확보될 수도 있다.The
제1차량(210)은 환경정보 서버(300)와 통신 상태에 있으며, 환경정보 서버(300)로부터 주행 환경 정보로서 주행 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로상의 장애물 정보 중 적어도 하나의 정보를 수신한다.The
한편, 전방의 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로상의 장애물 정보 등은 환경정보 서버(300)만이 아니라 전방을 주행하고 있는 다른 차량들로부터 V2V를 통해 전송 받을 수도 있다. 타차량과의 V2V 통신에 의한 정보 교환을 통해 센서의 한계를 극복할 수 있으며, 또한, 서버(300)를 통하는 경우보다 더욱 실 시간적으로 정보를 취득할 수 있다.On the other hand, forward traffic congestion information, traffic accident information, construction section information, road obstacle information, and the like may be received not only from the
제1차량(210)에 탑재된 자율주행 시스템은 주변차량(211~218)의 주행정보 및/또는 주행 환경정보를 입력데이터로 하여 제1차량(210)의 주행 제어를 위한 데이터를 출력한다. 예컨대, 주행 거동 제어 데이터로서, 조향각 데이터, 제동 데이터, 가속 데이터, 감속 데이터, 트랜스미션 데이터, 엔진 연료 공급 데이터 중 적어도 하나를 출력한다.The autonomous vehicle traveling system mounted on the
그리고, 이렇게 출력된 데이터는 해당 시스템 또는 부품의 제어 데이터로 이용되어 제1차량(210)의 주행이 제어된다. 예컨대, 주행 거동 제어 데이터로서 출력된 조향각 데이터는 제1차량(210)의 조향을 제어하는데 이용되며, 제동 데이터는 제1차량(210)의 브레이크를 제어하는데 이용된다.Then, the data thus outputted is used as control data of the system or part so that the running of the
이러한 과정을 반복하면서 자율주행 시스템은 제1차량(210)에 대해 자율주행을 수행하게 된다.The autonomous traveling system performs autonomous traveling with respect to the
자율주행 시스템은 주변차량들의 주행정보 및 주행 환경정보들에 대해 안전 운전을 달성하는 인간의 주행 경험 데이터로부터 딥러닝 등을 통해 학습한 알고리즘을 포함하기 때문에, 자율주행 시에 발생하는 다양한 상황에서 적절한 대처를 가능하게 할 뿐만 아니라, 인간의 주행 습관과 유사한 주행 거동을 달성할 수 있으므로 위화감 없는 자율주행을 달성할 수 있다.Since the autonomous driving system includes an algorithm learned through deep running or the like from human driving experience data for achieving safe driving with respect to driving information and driving environment information of nearby vehicles, It is possible not only to make coping possible, but also to achieve a driving behavior similar to a human driving habit, thereby achieving an autonomous driving without discomfort.
전술한 실시 예에서는 로드유저가 차량인 경우에 대한 것이지만, 본 발명은 이에 한정되는 것은 아니다.In the above-described embodiment, the load user is a vehicle, but the present invention is not limited thereto.
또한, 이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시 예가 속하는 기술 분야에서 통산의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시 예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것을 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하면, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It is to be understood that the above description is only illustrative of the technical idea of the present embodiment and that various modifications and changes may be made by those skilled in the art without departing from the essential characteristics of the embodiments . Therefore, the present embodiments are to be construed as illustrative rather than limiting, and the scope of the technical idea of the present embodiment is not limited by these embodiments. It is to be understood that the scope of the present invention is to be construed as being limited only by the scope of the appended claims.
110: 이벤트 감지부
120: 주변차량정보 수신부
130: 서버
132: 주행정보 수신부
134: 데이터베이스 구축부
210: 제1차량 (또는 자차량)
211: 제1 주변차량
212: 제2 주변차량
213: 제3 주변차량
214: 제4 주변차량
215: 제5 주변차량
216: 제6 주변차량
217: 제7 주변차량
218: 제8 주변차량
300: 주행 환경정보 서버110: Event detection unit
120: nearby vehicle information receiver
130: Server
132:
134: Database construction part
210: a first vehicle (or a child vehicle)
211: First peripheral vehicle
212: second surrounding vehicle
213: Third neighboring vehicle
214: fourth peripheral vehicle
215: the fifth neighboring vehicle
216: 6th peripheral vehicle
217: Seventh neighboring vehicle
218: the eighth peripheral vehicle
300: travel environment information server
Claims (13)
상기 복수의 주행 경험 데이터를 이용한 학습을 통해 자율주행 알고리즘을 완성하는 단계
를 포함하는 자율주행 시스템 제작 방법.
Accumulating the traveling information of the first load user and the traveling information of the peripheral load user of the first load user in accordance with the occurrence of the event set for the first load user and accumulating the plurality of traveling experience data; And
Completing an autonomous traveling algorithm through learning using the plurality of traveling experience data
Wherein the method comprises the steps of:
상기 이벤트는 상기 제1로드유저의 급제동, 급발진, 급감속, 급가속, 차선 급변경, 조향각 급변경, 에어백 전개, 충돌 또는 추돌 사고, 돌발상황 중 적어도 하나이거나,
또는, 상기 이벤트는 상기 제1로드유저의 시스템적으로 설정된 특정 조건의 만족 상황인 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
Wherein the event is at least one of sudden braking, sudden acceleration, rapid deceleration, sudden acceleration, lane change, steering angle change, airbag deployment, crash or collision,
Alternatively, the event is a satisfaction of a systematically set specific condition of the first load user.
상기 주변 로드유저의 주행정보 또는 상기 제1로드유저의 주행정보는 상기 이벤트 발생 시점 이전의 주행정보 및 상기 이벤트 발생 시점 이후의 주행정보 중 적어도 하나를 포함하는 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
Wherein the running information of the peripheral load user or the running information of the first load user includes at least one of the running information before the occurrence of the event and the running information after the occurrence of the event.
상기 학습단계는 인공지능 알고리즘을 통해 수행되는 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
Wherein the learning step is performed through an artificial intelligence algorithm.
상기 학습단계는 상기 이벤트 발생 전의 상기 제1로드유저의 상기 주행정보와 상기 주변 로드유저의 상기 주행정보를 입력데이터로 하고, 상기 이벤트 발생 시점의 상기 제1로드유저의 조향각 정보, 제동 정보, 가속 정보, 감속 정보, 트랜스미션 정보, 엔진 연료 공급 정보 중 적어도 하나를 출력데이터로 하여 상기 인공지능 알고리즘을 학습시켜 수행되는 것을 특징으로 하는 자율주행 시스템 제작 방법.
5. The method of claim 4,
Wherein the learning step sets, as input data, the running information of the first load user before the occurrence of the event and the running information of the neighboring load users as input data, and calculates steering angle information, braking information, Wherein at least one of information, deceleration information, transmission information, and engine fuel supply information is used as output data to learn the artificial intelligence algorithm.
상기 주변 로드유저는 상기 제1로드유저로부터 설정 범위 내에 존재하는 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
Wherein the peripheral load user is within a setting range from the first load user.
상기 주변 로드유저는 상기 제1로드유저에 대해 좌전방, 정전방, 우전방, 좌측방, 우측방, 좌후방, 정후방, 우후방에 위치하는 것 중 적어도 하나를 포함하는 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
Wherein the peripheral load user includes at least one of a left front, an electrostatic front, a right front, a left room, a right room, a left rear, a forward rear, and a rear right with respect to the first load user How to make a traveling system.
상기 주변 로드유저는, 자신의 주행정보를 무선통신을 통해 다른 시스템으로 전송할 수 있는 것, 자신의 주행정보를 자체적으로 획득하지 못하는 것, 자신의 주행정보를 무선통신을 통해 다른 시스템으로 전송하지 못하는 것 중 적어도 하나를포함하거나,
또는, 보행자, 자전거, 4륜차량, 3륜차량, 또는 2륜차량 중 적어도 하나를 포함하는 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
The peripheral load user can transmit his / her travel information to another system via wireless communication, can not obtain his / her own travel information, can not transmit his / her travel information to another system via wireless communication Or at least one of < RTI ID = 0.0 >
Or at least one of a pedestrian, a bicycle, a four-wheeled vehicle, a three-wheeled vehicle, or a two-wheeled vehicle.
상기 제1로드유저 주행정보 또는 상기 주변 로드유저 주행정보는 해당 차량의 유형, 주행방향, 주행속도, 주행도로 유형, 주행차로, GPS정보, 제동 정보, 조향각 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
Wherein the first load user travel information or the surrounding road user travel information includes at least one of a type of the vehicle, a traveling direction, a traveling speed, a type of traveling road, a driving lane, GPS information, braking information, A method of manufacturing an autonomous traveling system.
상기 주행 경험 데이터는 상기 제1로드유저가 주행하는 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로상의 장애물 정보 중 적어도 하나를 추가로 포함하는 것을 특징으로 하는 자율주행 시스템 제작 방법.
The method according to claim 1,
The traveling experience data may further include at least one of climate information of a region where the first load user travels, road surface state information of a road, traffic congestion information, traffic accident information, construction section information, Wherein said method comprises the steps of:
An autonomous traveling system produced by any one of claims 1 to 10.
목적지까지의 경로를 설정하는 단계;
상기 설정된 경로를 따라 자율주행을 개시하는 단계;
자차량이 주행하고 있는 도로의 차로 정보를 감지하는 단계;
상기 GPS 정보 및 차로 정보를 이용하여 상기 설정된 경로를 따라 자율주행을 계속하는 단계;
주변 로드유저의 주행정보를 획득하는 단계;
제1로드유저에 대해 설정된 이벤트가 발생함에 따라 상기 제1로드유저의 주행정보와 상기 제1로드유저의 주변 로드유저의 주행정보를 획득하여 복수의 주행 경험 데이터를 축적하고, 상기 복수의 주행 경험 데이터를 이용하여 인공지능 알고리즘을 통해 학습시킨 자율주행 알고리즘을 이용하여 상기 주변 로드유저의 주행정보에 따라 상기 자차량의 주행상태를 변경하는 단계
를 포함하는 자율주행 시스템.
Receiving GPS information of the vehicle;
Setting a path to a destination;
Starting autonomous travel along the set route;
Sensing information by a vehicle on the road on which the vehicle is traveling;
Continuing autonomous travel along the set route using the GPS information and lane information;
Acquiring travel information of a peripheral load user;
Accumulating the traveling information of the first load user and the traveling information of the peripheral load users of the first load user in accordance with the occurrence of the event set for the first load user to accumulate a plurality of traveling experience data, A step of changing a running state of the subject vehicle according to running information of the peripheral load user using an autonomous driving algorithm learned through an artificial intelligence algorithm using data
And an autonomous drive system.
상기 자차량의 주행상태를 변경하는 단계는, 상기 주변 로드유저의 주행정보에 더하여 상기 제1로드유저가 주행하는 지역의 기후정보, 도로의 노면 상태 정보, 교통혼잡 정보, 교통사고 정보, 공사구간 정보, 도로상의 장애물 정보 중 적어도 하나를 추가로 고려하여 수행되는 것을 특징으로 하는 자율주행 시스템.13. The method of claim 12,
The step of changing the traveling state of the subject vehicle further includes, in addition to the traveling information of the user of the surrounding road, the weather information of the area where the first load user travels, the road surface state information of the road, the traffic congestion information, Information on the road, and obstacle information on the road.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160149517A KR20180052811A (en) | 2016-11-10 | 2016-11-10 | Method for Making Autonomous or Automated Driving System and a Driving System |
US15/794,952 US20180129205A1 (en) | 2016-11-10 | 2017-10-26 | Automatic driving system and method using driving experience database |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160149517A KR20180052811A (en) | 2016-11-10 | 2016-11-10 | Method for Making Autonomous or Automated Driving System and a Driving System |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180052811A true KR20180052811A (en) | 2018-05-21 |
Family
ID=62453185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160149517A KR20180052811A (en) | 2016-11-10 | 2016-11-10 | Method for Making Autonomous or Automated Driving System and a Driving System |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180052811A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196593A (en) * | 2019-05-16 | 2019-09-03 | 济南浪潮高新科技投资发展有限公司 | A kind of more scene environments detections of automatic Pilot and decision system and method |
CN112639907A (en) * | 2020-10-14 | 2021-04-09 | 驭势(上海)汽车科技有限公司 | Traffic jam sensing method and device, electronic equipment and storage medium |
KR102275017B1 (en) * | 2020-04-24 | 2021-07-12 | 한국철도기술연구원 | Diagnosis system and control apparatus for autonomous vehicles, control device and operating method thereof |
-
2016
- 2016-11-10 KR KR1020160149517A patent/KR20180052811A/en not_active Application Discontinuation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110196593A (en) * | 2019-05-16 | 2019-09-03 | 济南浪潮高新科技投资发展有限公司 | A kind of more scene environments detections of automatic Pilot and decision system and method |
CN110196593B (en) * | 2019-05-16 | 2022-03-01 | 山东浪潮科学研究院有限公司 | Automatic driving multi-scene environment detection and decision making system and method |
KR102275017B1 (en) * | 2020-04-24 | 2021-07-12 | 한국철도기술연구원 | Diagnosis system and control apparatus for autonomous vehicles, control device and operating method thereof |
CN112639907A (en) * | 2020-10-14 | 2021-04-09 | 驭势(上海)汽车科技有限公司 | Traffic jam sensing method and device, electronic equipment and storage medium |
CN112639907B (en) * | 2020-10-14 | 2024-04-02 | 驭势(上海)汽车科技有限公司 | Traffic jam sensing method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102446518B1 (en) | Position-dependent support for autonomous vehicle control systems | |
CN109472975B (en) | Driving support system, driving support device, and driving support method | |
JP7440324B2 (en) | Vehicle control device, vehicle control method, and program | |
RU2671457C1 (en) | Device and method of traffic control | |
CN106573618A (en) | Travel control device and method for vehicle | |
JP6811308B2 (en) | Vehicle control systems, vehicle control methods, and vehicle control programs | |
JP2019089516A (en) | Vehicle control device, vehicle control method, and program | |
JP6586685B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7369078B2 (en) | Vehicle control device, vehicle control method, and program | |
CN113085852A (en) | Behavior early warning method and device for automatic driving vehicle and cloud equipment | |
JPWO2018179359A1 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
JP2019185112A (en) | Vehicle control device, vehicle control method, and program | |
JPWO2019064490A1 (en) | Vehicle control device, vehicle control method, and program | |
JP7170637B2 (en) | Vehicle control system, vehicle control method, and program | |
JP2019064538A (en) | Vehicle control device, vehicle control method, and program | |
JP2019147486A (en) | Vehicle control system, vehicle control method, and program | |
US20180129205A1 (en) | Automatic driving system and method using driving experience database | |
KR20180052811A (en) | Method for Making Autonomous or Automated Driving System and a Driving System | |
JP7080091B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP7464425B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7465705B2 (en) | Vehicle control device, vehicle control method, and program | |
KR20190069962A (en) | Autonomous vehicle and method for changing traveling line | |
JP2021149390A (en) | Vehicle control apparatus, vehicle control method, and program | |
JP7503921B2 (en) | Vehicle control device, vehicle control method, and program | |
US20230065339A1 (en) | Autonomous vehicle post-action explanation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |