KR20150071419A - Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment - Google Patents

Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment Download PDF

Info

Publication number
KR20150071419A
KR20150071419A KR1020130158448A KR20130158448A KR20150071419A KR 20150071419 A KR20150071419 A KR 20150071419A KR 1020130158448 A KR1020130158448 A KR 1020130158448A KR 20130158448 A KR20130158448 A KR 20130158448A KR 20150071419 A KR20150071419 A KR 20150071419A
Authority
KR
South Korea
Prior art keywords
information
algorithm
environment
service
result
Prior art date
Application number
KR1020130158448A
Other languages
Korean (ko)
Other versions
KR101551701B1 (en
Inventor
김종희
안성용
이영일
주상현
박용운
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020130158448A priority Critical patent/KR101551701B1/en
Publication of KR20150071419A publication Critical patent/KR20150071419A/en
Application granted granted Critical
Publication of KR101551701B1 publication Critical patent/KR101551701B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions

Abstract

The present invention relates to an unmanned autonomous vehicle. The unmanned autonomous vehicle includes: a sensor module (10) which collects the environment information regarding the surrounding terrain of a running vehicle; a location estimation module (20) which estimates the current location around the running vehicle; a driving information module (30) which selects an algorithm appropriate to recognize the environment of the road on which a vehicle currently runs from the various information collected by the vehicle and keep updating and maintaining the latest driving information; a terrain detection processing module (80) which derives the result of the environment recognition process. The present invention selects the quality of service (QoSour) according to the environment recognition result derived from the location information (a) and the quality of service (QoSmax) according to the algorithm appropriateness derived from the terrain detection information (b) as well as the best driving algorithm by sequencially applying the conditions which can be represented as as Δ = QoSmax - QoSour and Δ > a. Accordingly, the present invention can select the optimal algorithm by using the degree of service quality and algorithm bank, thereby updating the environmental awareness performance measure.

Description

무인자율차량 및 이의 동적환경기반 자율주행방법{Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous vehicle,

본 발명은 무인자율차량에 관한 것으로, 특히 주변 환경의 지식 정보로부터 구축된 알고리즘 은행(Bank)과 다수 센서 정보의 처리 결과에 따른 서비스 품질척도(Degree of Service Quality)로부터 최적 주행 알고리즘이 선택되고, 이로부터 주행정보 지도의 환경인식 성능 척도를 갱신함으로써 자율주행 성능 향상이 도모되는 무인자율차량 및 이의 동적환경기반 자율주행방법에 관한 것이다.In particular, the present invention relates to an unmanned autonomous vehicle, and more particularly, it relates to an unmanned autonomous vehicle in which an optimal traveling algorithm is selected from an algorithm bank constructed based on knowledge information of the surrounding environment and a degree of service quality according to a result of processing multiple sensor information, The present invention relates to an autonomous vehicle and an autonomous navigation method based on the dynamic environment.

일반적으로 무인차량이 자율주행(Autonomous Navigation)하기 위해선 주행하게 될 환경에 대한 인식 및 인식 결과로부터 주행 가능한 영역을 판단하고, 판단의 결과로부터 주행해야 할 경로와 함께 주행방법이 결정되는 과정이 필요하다.Generally, in order for an unmanned vehicle to autonomously navigate, it is necessary to determine a travelable area from the recognition and recognition result of the environment to be driven, and to determine a travel route along with a route to be traveled from the result of the determination .

이를 위해, 무인차량에는 레이저거리측정기와 카메라 및 레이다와 같은 다양한 센서가 설치되어 주변 환경 정보를 수집하고, 탑재된 자율주행 컨트롤러가 센서의 수집된 주변 환경 정보를 처리 및 인식한 다음, 그 인식 결과로부터 주행 가능한 영역의 판단 및 주행 경로점이 선정되는 방식으로 운영된다.For this purpose, a variety of sensors such as a laser range finder, a camera, and a radar are installed on the unmanned vehicle to collect information on the surrounding environment, and the mounted autonomous drive controller processes and recognizes the collected environment information of the sensor, And the traveling route point is selected.

국내특허공개 10-2010-0102815(2010년09월27일)Korean Patent Publication No. 10-2010-0102815 (September 27, 2010)

상기 특허문헌은 카메라로부터 인식된 랜드 마크를 통하여 주행로가 결정되고, 자기위치 인식과 조향 및 속도 제어되는 무인 주행 차량 제어 기술의 예를 나타낸다.The patent document shows an example of an unmanned vehicle control technique in which a traveling route is determined through a landmark recognized from a camera, and self position recognition, steering and speed control are performed.

하지만, 상기 특허문헌은 카메라로부터 인식된 랜드 마크를 통하여 주행로를 인식함으로써 별도의 랜드 마크 설치가 어려운 야지와 같은 환경에서는 적용하기 불가할 수밖에 없다.However, the above-described patent document can not be applied to an environment such as a road where it is difficult to install a separate landmark by recognizing a traveling route through a landmark recognized from a camera.

특히, 야지 환경 특성상, 환경의 다양성과 함께 센서 성능에 영향을 미치는 조도 변화와 같은 외부적 환경 요인 변화가 일어날 수밖에 없고, 이러한 주변 환경 변화로부터 보다 높은 환경인식이 이루어질 필요성이 있게 된다.In particular, due to the environmental characteristics of the field environment, external environmental factors such as the variation of the environment affecting the sensor performance as well as the diversity of the environment are inevitably required.

이를 위해, 야지에서 운용되는 무인차량 특히 군사목적의 무인차량은 주변 환경에 대해 상대적으로 높은 인식이 수행되도록 다중 센서를 적용하고, 특히 운용하고자 하는 환경에 가장 적합한 주행알고리즘과 융합되어 서로의 단점이 보완될 수 있는 환경 인식 절차가 더 수행됨으로써 최적화를 추구하게 된다.For this purpose, the unmanned vehicle operated in the field, especially the military-purpose unmanned vehicle, is applied with the multi-sensor so as to perceive the surrounding environment relatively highly, The optimization process is further pursued through an environment recognition procedure that can be supplemented.

그러나, 다중 센서 적용과 운용환경 및 알고리즘의 융합이 수행되더라도 자율주행 요구 성능에 도달하기에 한계를 가질 수밖에 없다.However, even if the application of multiple sensors and the convergence of the operating environment and the algorithm are performed, there is a limit to reach the autonomous traveling demand performance.

이에 상기와 같은 점을 감안하여 발명된 본 발명은 기지 주변 환경에 대한 지식 정보를 활용하여 생성된 주행정보를 기반으로 각 센서 별로 구축되어 있는 알고리즘 은행(Bank)과 각 센서의 처리 결과에 대한 서비스 품질척도(Degree of Service Quality)를 이용함으로써 환경을 인식하기 위한 최선의 운용 센서 조합 및 운용 센서 별 처리 알고리즘이 선정되고, 특히 선택 정보의 융합으로 주행정보 지도의 환경인식 성능 척도가 갱신됨으로써 자율주행 성능이 향상되는 무인자율차량 및 이의 동적환경기반 자율주행방법을 제공하는데 목적이 있다.The present invention has been made in view of the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for providing a service to an algorithm bank, which is constructed for each sensor based on running information generated using knowledge information about a base surrounding environment, By using the quality measure (Degree of Service Quality), the optimal operating sensor combination and operating sensor-specific processing algorithms are selected, and in particular, the convergence of the selection information updates the environment recognition performance metric of the driving information map, And an object of the present invention is to provide an autonomous vehicle having improved performance and an autonomous driving method based on the dynamic environment.

상기와 같은 목적을 달성하기 위한 본 발명의 무인자율차량은 주행중인 주변 지형에 대한 환경 정보 수집으로 환경데이터가 생성되는 센서모듈과; 주행중인 현재위치 추정으로부터 위치데이터가 생성되는 위치추정모듈과; 주행을 위해 각각 다른 다수의 알고리즘이 구비되고, 상기 환경데이터와 상기 위치데이터로부터 현재 속한 주행로의 환경인식에 적합하게 선택된 알고리즘을 주행에 적용함과 더불어 갱신과 저장을 위한 결과수행이 이루어지는 주행정보모듈과; 상기 결과수행으로부터 환경인식 결과를 도출해주는 지형감지처리모듈; 이 포함된 것을 특징으로 한다.According to another aspect of the present invention, there is provided an autonomous vehicle including: a sensor module for generating environmental data by collecting environmental information about a surrounding terrain during operation; A position estimation module for generating position data from current position estimation during running; A plurality of different algorithms for driving are provided, and an algorithm selected from the environment data and the position data to suit the environment recognition of the current traveling path is applied to the driving, and the driving information A module; A terrain sensing processing module for deriving an environment recognition result from the resultant performance; Is included.

상기 센서모듈은 주행중인 주변 지형에 대한 거리정보 수집을 위한 레이저 거리측정기와, 주행중인 주변 지형에 대한 영상정보수집을 위한 카메라와, 주행중인 주변 지형으로부터 위험요소에 대한 물체정보수집을 위한 레이다와, 주행중인 주변 지형에 관련된 온도와 조도 및 습도 정보수집을 위한 환경센서로 구성된다.The sensor module includes a laser range finder for collecting distance information about the surrounding terrain during operation, a camera for collecting image information about the surrounding terrain during operation, a radar for collecting object information on the dangerous elements from the surrounding terrain, And an environmental sensor for collecting temperature, illuminance and humidity information related to the surrounding terrain while driving.

상기 주행정보모듈에는 상기 환경데이터로부터 상기 다수의 알고리즘의 QoS(Quality of Service)중 최대인 QoSmax(Quality of Service)가 선정되는 QoS(Quality of Service)판단블록과; 상기 위치데이터로부터 주행로에 포함된 주행정보를 검색하여 주행정보검색결과가 생성되는 주행정보 선정블록과; 상기 주행정보검색결를 이용한 환경인식으로부터 주행에 적용중인 알고리즘의 QoSour(Quality of Service)가 산출되고, 상기 QoSmax(Quality of Service)와 상기 QoSour(Quality of Service)로부터 상기 다수의 알고리즘중 주행환경 인식에 적합한 알고리즘의 재선정을 위한 정보갱신결과가 생성되는 알고리즘선정블록과; 상기 정보갱신결과로부터 주행로 정보를 최신화 유지시키는 주행정보갱신블록; 으로 구성된다.A QoS (Quality of Service) determination block in which QoS information (Quality of Service) which is the maximum QoS among the plurality of algorithms is selected from the environment data; A travel information selection block for searching travel information included in the travel route from the location data and generating a travel information search result; (Quality of Service) of the algorithm being applied to the running is calculated from the environment recognition using the driving information retrieval result and the driving environment recognition is performed from the QoSmax (Quality of Service) and the QoSour An algorithm selection block for generating an information update result for re-selection of an appropriate algorithm; A travel information update block for keeping the travel route information updated from the information update result; .

상기 QoS(Quality of Service)판단블록은 상기 환경데이터중 거리정보가 처리되는 거리기반 판단부와, 상기 환경데이터중 영상정보가 처리되는 영상기반 판단부와, 상기 환경데이터중 물체정보가 처리되는 레이더기반 판단부로 구성된다.The quality of service (QoS) determination block includes a distance-based decision unit for processing distance information among the environment data, an image-based decision unit for processing image information of the environment data, Based decision unit.

상기 알고리즘선정블록은 상기 환경데이터중 거리정보 처리결과로부터 알고리즘을 선정하는 거리기반 선정부와, 상기 환경데이터중 영상정보 처리결과로부터 알고리즘을 선정하는 영상기반 선정부와, 상기 환경데이터중 물체정보 처리결과로부터 알고리즘을 선정하는 레이더기반 선정부와, 상기 환경데이터의 처리 결과에 대한 가중치가 부여되는 융합가중치선정부로 구성된다.Wherein the algorithm selection block includes a distance-based selection unit that selects an algorithm from the distance information processing result among the environment data, an image-based selection unit that selects an algorithm from the image information processing result among the environment data, A radar-based selection unit for selecting an algorithm from the result, and a fusion weight selection unit for weighting the processing result of the environment data.

상기 지형감지처리모듈은 상기 환경데이터의 거리정보 처리에 따른 알고리즘에 대한 처리 결과로부터 환경인식결과를 도출하는 거리기반 인식부와, 상기 환경데이터의 영상정보 처리에 따른 알고리즘에 대한 처리 결과로부터 환경인식결과를 도출하는 영상기반 인식부와, 상기 환경데이터의 물체정보 처리에 따른 알고리즘에 대한 처리 결과로부터 환경인식결과를 도출하는 레이더기반 인식부와, 상기 환경데이터의 처리 결과에 대한 가중치 부여 결과로부터 환경인식결과를 도출하는 융합 인식부로 구성된다.
Wherein the terrain detection processing module comprises: a distance-based recognition unit for deriving an environment recognition result from the processing result of the algorithm according to the distance information processing of the environment data; Based recognition unit for deriving an environment recognition result from a processing result of an algorithm according to the object information processing of the environmental data; And a fusion recognition section for deriving recognition results.

또한, 상기와 같은 목적을 달성하기 위한 본 발명의 무인자율차량의 동적환경기반 자율주행방법은 무인자율차량이 주행중인 주변에 대한 위치정보가 인식되고, 상기 위치정보를 이용한 환경인식으로부터 주행에 적용중인 알고리즘의 QoSour(Quality of Service)가 산출되는 환경인식모드; 상기 무인자율차량이 주행중인 주변에 대한 지형감지정보가 인식되고, 상기 지형감지정보로부터 다수의 알고리즘에 대한 QoS(Quality of Service)가 비교되고, 최대로 적합한 QoSmax(Quality of Service)가 선정되는 지형감지모드; 상기 QoSmax(Quality of Service)와 상기 QoSour(Quality of Service)로부터 상기 다수의 알고리즘중 현재 주행환경 인식에 적합한 최적의 알고리즘이 선택되고, 선택된 알고리즘이 상기 무인자율차량의 주행에 적용되면서 기록 및 저장되는 알고리즘갱신모드; 로 수행되는 것을 특징으로 한다.In order to achieve the above object, according to the present invention, there is provided an autonomous navigation system based on dynamic environment of an autonomous vehicle, wherein position information about a periphery of the autonomous vehicle is recognized, An environment recognition mode in which QoSour (Quality of Service) of an algorithm is calculated; The method of claim 1, wherein the terrain sensing information for the periphery of the unmanned autonomous vehicle is recognized, the QoS (Quality of Service) for a plurality of algorithms is compared from the terrain sensing information, Detection mode; An optimal algorithm suitable for recognition of the current driving environment among the plurality of algorithms is selected from the QoS a and a QoS a and the selected algorithm is recorded and stored while being applied to the running of the autonomous vehicle Algorithm update mode; As shown in FIG.

상기 지형감지모드는 상기 환경인식모드가 수행되는 과정에서 수행된다.The terrain sensing mode is performed during the environment recognition mode.

상기 환경인식모드에서, 상기 QoSour(Quality of Service)의 산출은 상기 위치정보를 기반으로 주행정보 데이터베이스를 검색하는 DB검색단계; 상기 데이터베이스의 검색 결과로부터 기주행 결과를 근거로 선정된 알고리즘으로부터 환경인식 결과가 도출되고, 상기 환경인식 결과로 상기 QoS(Quality of Service)가 선정되는 환경인식단계; 로 수행된다.In the environment recognition mode, the calculation of the QoS (Quality of Service) may include a DB search step of searching a travel information database based on the location information; An environment recognition step of deriving an environment recognition result from a predetermined algorithm based on a result of the search from the database, and selecting the quality of service (QoS) as a result of the environment recognition; Lt; / RTI >

상기 환경인식 결과는 상기 기 주행 결과가 없는 경우 초기 설정값을 이용하여 도출된다.The environment recognition result is derived using an initial setting value in the case where there is no previous running result.

상기 지형감지모드에서, 상기 QoSmax(Quality of Service)의 선정은 상기 지형감지정보로부터 적합한 알고리즘의 QoS(Quality of Service)가 산출되는 QoS산출단계; 상기 QoS(Quality of Service)가 다수의 알고리즘별로 각각 산출 완료되고 나면, 각각의 상기 QoS(Quality of Service)중 최대값을 갖는 하나의 QoSmax(Quality of Service)가 선정되는 QoS선정단계; 로 수행된다.In the terrain sensing mode, the selection of the quality of service (QoS) may include: a QoS calculation step of calculating a quality of service (QoS) of an appropriate algorithm from the terrain sensing information; A QoS selection step of selecting one QoSmax (Quality of Service) having a maximum value among the QoSs when the QoS is calculated for each of a plurality of algorithms; Lt; / RTI >

상기 알고리즘갱신모드에서, 상기 최적의 알고리즘 선택은 상기 QoSmax(Quality of Service; 서비스 품질)와 상기 QoSour(Quality of Service)가 비교된 결과로 차이값이 결정되고, 상기 차이값이 설정 기준값과 비교처리된 후, 상기 비교처리결과로부터 구해진다.In the algorithm update mode, the optimal algorithm selection is performed such that a difference value is determined as a result of comparing the Quality of Service (QoS) and the Quality of Service (QoS), and the difference value is compared with a setting reference value And is then obtained from the above comparison processing result.

상기 차이값은 QoSmax(Quality of Service) - QoSour(Quality of Service)으로부터 구해지고, 상기 비교처리결과는 상기 차이값 > 상기 설정 기준값으로부터 구해진다.The difference value is obtained from Quality of Service (QoS) - QoSour (Quality of Service), and the comparison result is obtained from the difference reference value.

상기 차이값 > 상기 설정 기준값이 만족될 때 상기 최적의 알고리즘이 선택되고, 상기 차이값 > 상기 설정 기준값이 만족되지 않을 때 현재 적용중인 알고리즘이 계속 유지된다.The optimal algorithm is selected when the difference value> the set reference value is satisfied, and the currently applied algorithm is continuously maintained when the difference value> the set reference value is not satisfied.

상기 알고리즘갱신모드에서, 상기 기록 및 저장되는 정보는 상기 최적의 알고리즘과, 선택된 시점의 QoS정보, 온도와 조도 및 습도이다.In the algorithm update mode, the information to be recorded and stored is the optimal algorithm and the QoS information at the selected time, temperature, illumination and humidity.

이러한 본 발명은 주변 환경의 지식 정보로부터 구축된 알고리즘 은행(Bank)과 다수 센서 정보의 처리 결과에 따른 서비스 품질척도(Degree of Service Quality)로부터 최적 주행 알고리즘이 선택된 후, 이를 융합해 주행정보 지도의 환경인식 성능 척도가 갱신됨으로써 무인 차량의 자율주행 성능이 향상되는 효과가 있다.In the present invention, an optimal driving algorithm is selected from an algorithm bank constructed from knowledge information of the surrounding environment and a service quality scale according to a result of processing a plurality of sensor information, There is an effect that the autonomous driving performance of the unmanned vehicle is improved by updating the environment recognition performance measure.

또한, 본 발명은 주변 환경을 기반으로 주행정보 지도의 환경인식 성능 척도가 갱신됨으로써 주행정보 데이터베이스가 확장 및 최신정보로 유지되는 효과가 있다.In addition, the present invention has the effect that the driving information database is updated and updated information by updating the environment recognition performance measure of the driving information map based on the surrounding environment.

또한, 본 발명은 다양한 환경 및 환경 정보를 수집하는 센서에 영향을 주는 환경요인을 센서의 서비스 품질을 기반으로 판단하여 최적의 알고리즘을 선정할 수 있도록 주행정보 데이터베이스를 확장 및 최신화가 유지됨으로써 특히 기지의 환경에서 반복적으로 운용되는 군사용 무인차량의 자율주행 성능을 크게 향상시킬 수 있는 효과가 있다.In addition, the present invention maintains the expansion and update of the travel information database so as to select the optimal algorithm based on the service quality of the sensor based on the environmental factors affecting the sensors collecting various environmental and environmental information, It is possible to greatly improve the autonomous driving performance of the military unmanned vehicle repeatedly operated in the environment of the vehicle.

도 1은 본 발명에 따른 본 발명에 따른 무인자율차량의 블록구성도이고, 도 2는 본 발명에 따른 무인자율차량의 동적환경기반 자율주행을 위한 동작흐름이며, 도 3은 본 발명에 따른 무인자율차량의 동적환경기반 자율주행시 실시간성 유지를 위한 시분할 QoS 산출 개념도이다.FIG. 1 is a block diagram of an autonomous vehicle according to the present invention, FIG. 2 is an operation flow for autonomous driving based on a dynamic environment of an autonomous vehicle according to the present invention, FIG. This is a conceptual diagram of time-sharing QoS calculation for maintaining real-time performance in autonomous vehicle based on dynamic environment.

이하 본 발명의 실시예를 첨부된 예시도면을 참조로 상세히 설명하며, 이러한 실시예는 일례로서 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 여러 가지 상이한 형태로 구현될 수 있으므로, 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which illustrate exemplary embodiments of the present invention. The present invention is not limited to these embodiments.

도 1은 본 실시예에 따른 본 발명에 따른 무인자율차량의 블록구성을 나타낸다.FIG. 1 shows a block configuration of an autonomous vehicle according to the present invention, according to the present invention.

도시된 바와 같이, 무인자율차량에는 주행중인 주변 지형에 대한 환경 정보를 수집하는 센서모듈(10)과, 주행중인 현재위치를 추정하는 위치추정모듈(20)과, 수집한 각종 정보로부터 현재 속한 주행로의 환경인식에 적합한 알고리즘을 선정하고 주행정보를 최신화하여 유지하는 주행정보모듈(30)과, 처리되어진 환경인식 결과를 도출하는 지형감지처리모듈(80)이 포함된다.As shown in the figure, the autonomous vehicle includes a sensor module 10 for collecting environmental information about the surrounding terrain during running, a position estimation module 20 for estimating the current position during running, A travel information module 30 that selects an algorithm suitable for the environment recognition of the vehicle and maintains and maintains the travel information, and a terrain sensing processing module 80 that derives the processed environment recognition result.

상기 센서모듈(10)은 적어도 1가지 이상의 방식으로 주행중인 주변 지형에 대한 환경 정보를 수집하도록 구성된다.The sensor module 10 is configured to collect environmental information about surrounding terrain in at least one or more ways.

일례로, 상기 센서모듈(10)에는 무인자율차량에 설치되어 전후방이나 좌우 방향으로 레이저를 발사함으로써 주행중인 주변 지형에 대한 거리정보가 수집될 수 있는 레이저 거리측정기(11)가 포함될 수 있다.For example, the sensor module 10 may include a laser range finder 11 installed in the autonomous vehicle and capable of collecting distance information about the surrounding terrain by emitting laser beams in the front and rear directions or in the left and right directions.

상기 센서모듈(10)에는 무인자율차량에 설치되어 전후방이나 좌우 방향에 대한 영상을 촬영함으로써 주행중인 주변 지형에 대한 영상정보가 수집될 수 있는 카메라(12)가 포함될 수 있다.The sensor module 10 may include a camera 12 installed in the autonomous vehicle and capable of collecting image information about the surrounding terrain during the running by photographing the images in the forward and backward directions and the left and right direction.

상기 센서모듈(10)에는 무인자율차량에 설치되어 전후방이나 좌우 방향으로 전파를 발사함으로써 주행중인 주변 지형으로부터 위험요소에 대한 물체정보가 수집될 수 있는 레이다(13)가 포함될 수 있다.The sensor module 10 may include a radar 13 installed in the autonomous vehicle and capable of collecting object information on a dangerous element from the surrounding terrain by emitting radio waves in the front and rear directions or in the left and right directions.

상기 센서모듈(10)에는 무인자율차량에 설치되어 주행중인 주변 지형에 관련된 온도와 조도 및 습도 정보도 수집될 수 있는 환경센서(14)가 포함될 수 있다.The sensor module 10 may include an environmental sensor 14 installed in the autonomous vehicle and capable of collecting temperature, illuminance and humidity information related to the surrounding terrain during traveling.

그리고, 상기 위치추정모듈(20)은 무인자율차량에 설치되어 주행중인 무인자율차량의 현재 위치가 파악될 수 있도록 GPS가 포함될 수 있다.In addition, the position estimation module 20 may include a GPS so that the current position of the unmanned autonomous vehicle installed in the autonomous vehicle may be grasped.

한편, 상기 주행정보모듈(30)은 수집된 데이터 처리에 활용 될 수 있는 각각의 알고리즘에 대해 QoS(Quality of Service; 서비스 품질)를 판단하는 QoS(Quality of Service)판단블록(40)과, 무인자율차량이 속해있는 주행로에 포함된 주행정보를 검색하여 제공하는 주행정보 선정블록(50)과, 주행환경 인식에 적합한 알고리즘을 선정하는 알고리즘선정블록(60)과, 주행환경 인식에 적합하게 선택된 결과를 근거로 주행로 정보를 최신화 유지시키는 주행정보갱신블록(70)으로 구성된다.The travel information module 30 includes a quality of service (QoS) determination block 40 for determining QoS (Quality of Service) for each algorithm that can be utilized in the collected data processing, A traveling information selecting block 50 for searching and providing traveling information included in a traveling route to which the autonomous vehicle belongs; an algorithm selecting block 60 for selecting an algorithm suitable for the traveling environment recognition; And a travel information updating block 70 for keeping the travel route information updated based on the result.

상기 QoS(Quality of Service)판단블록(40)은 센서모듈(10)에서 수집된 모든 정보가 제공됨으로써 센서모듈(10)의 구성요소와 연계되도록 구성된다.The quality of service (QoS) decision block 40 is configured to be associated with the components of the sensor module 10 by providing all the information collected by the sensor module 10.

일례로, 상기 QoS(Quality of Service)판단블록(40)에는 거리기반 판단부(41)가 구비되고, 상기 거리기반 판단부(41)가 레이저 거리측정기(11)와 연계됨으로써 레이저 거리측정기(11)에서 수집된 모든 데이터가 처리된다.For example, the quality-of-service (QoS) decision block 40 is provided with a distance-based decision unit 41. The distance-based decision unit 41 is associated with the laser distance measurer 11, ) Are processed.

상기 QoS(Quality of Service)판단블록(40)에는 영상기반 판단부(42)가 구비되고, 상기 영상기반 판단부(42)가 카메라(12)와 연계됨으로써 카메라(12)에서 수집된 모든 데이터가 처리된다.The quality-of-service (QoS) determination block 40 includes an image-based determination unit 42. The image-based determination unit 42 associates the camera 12 with the camera 12, .

상기 QoS(Quality of Service)판단블록(40)에는 레이더기반 판단부(43)가 구비되고, 상기 레이더기반 판단부(43)가 레이다(13)와 연계됨으로써 레이다(13)에서 수집된 모든 데이터가 처리된다.The quality of service (QoS) decision block 40 is provided with a radar-based decision unit 43. The radar-based decision unit 43 is associated with the radar 13, .

또한, 상기 주행정보 선정블록(50)에는 위치추정모듈(20)에서 수집된 모든 데이터가 제공됨으로써 위치추정모듈(20)과 연계시켜 구성된다. 이를 통해 상기 주행정보 선정블록(50)에서는 위치추정모듈(20)에서 수집된 데이터를 근거로 주행정보 데이터베이스 검색하고, 현재 주행중인 무인자율차량이 속해있는 주행로에 포함된 주행정보 데이터를 결과물로 제공한다.The traveling information selection block 50 is configured to be linked to the position estimation module 20 by providing all the data collected by the position estimation module 20. In the traveling information selection block 50, the traveling information database is searched based on the data collected by the position estimation module 20, and the traveling information data included in the traveling route to which the unmanned autonomous vehicle to provide.

그리고, 상기 알고리즘선정블록(60)에는 QoS(Quality of Service)판단블록(40)에서 처리된 모든 데이터가 제공됨으로써 QoS(Quality of Service)판단블록(40)과 연계시키고, 또한 주행정보 선정블록(50)에서 검색된 모든 데이터가 제공됨으로써 주행정보 선정블록(50)과 연계시켜 구성한다.In the algorithm selection block 60, all the data processed in the QoS (Quality of Service) decision block 40 is provided, thereby linking with the QoS (quality of service) decision block 40, 50 and the navigation data selection block 50 are provided.

일례로, 상기 알고리즘선정블록(60)에는 거리기반 선정부(61)가 구비되고, 상기 거리기반 선정부(61)가 거리기반 판단부(41)와 연계됨으로써 거리기반 판단부(41)에서 처리된 모든 데이터가 이용된다.For example, the algorithm selection block 60 is provided with a distance-based preference unit 61, and the distance-based preference unit 61 is associated with the distance-based decision unit 41, All the data is used.

상기 알고리즘선정블록(60)에는 영상기반 선정부(62)가 구비되고, 상기 영상기반 선정부(62)가 영상기반 판단부(42)와 연계됨으로써 영상기반 판단부(42)에서 처리된 모든 데이터가 이용된다.The algorithm selection block 60 is provided with an image-based selection unit 62. The image-based selection unit 62 is associated with the image-based determination unit 42 so that all data processed by the image- Is used.

상기 알고리즘선정블록(60)에는 레이더기반 선정부(63)가 구비되고, 상기 레이더기반 선정부(63)가 레이더기반 판단부(43)와 연계됨으로써 레이더기반 판단부(43)에서 처리된 모든 데이터가 이용된다.Based selection section 63 is provided in the algorithm selection block 60 and the radar based selection section 63 is associated with the radar based decision section 43 so that all the data processed in the radar based decision section 43 Is used.

특히, 상기 알고리즘선정블록(60)에는 융합가중치선정부(64)가 구비되고, 상기 융합가중치선정부(64)가 처리 결과에 필요한 가중치를 부여함으로써 주행환경 인식에 적합한 최적의 알고리즘이 선정될 수 있게 한다.In particular, the algorithm selection block 60 is provided with a convergence weight selection section 64, and the convergence weight selection section 64 assigns necessary weights to the processing results, so that an optimal algorithm suitable for recognition of the travel environment can be selected Let's do it.

그리고, 상기 주행정보갱신블록(70)은 알고리즘선정블록(60)과 연계되도록 구성됨으로써 알고리즘선정블록(60)에서 처리된 모든 데이터를 제공받고, 이를 이용해 무인자율차량이 주행하는 주행로 정보가 최신 정보로 갱신되고 유지될 수 있다.The traveling information updating block 70 is configured to be linked to the algorithm selecting block 60 so that all data processed in the algorithm selecting block 60 is received and the traveling route information on which the unmanned vehicle travels is updated to the latest Information can be updated and maintained.

한편, 상기 지형감지처리모듈(80)은 알고리즘선정블록(60)에서 처리된 모든 정보가 제공됨으로써 알고리즘선정블록(60)과 연계시켜 구성된다.The terrain sensing processing module 80 is configured in association with the algorithm selection block 60 by providing all the information processed in the algorithm selection block 60.

이를 위해, 상기 지형감지처리모듈(80)에는 거리기반 인식부(81)와, 영상기반 인식부(82), 레이더기반 인식부(83) 및 융합 인식부(84)가 포함된다.The terrain sensing processing module 80 includes a distance based recognition unit 81, an image based recognition unit 82, a radar based recognition unit 83, and a fusion recognition unit 84.

상기 거리기반 인식부(81)는 알고리즘선정블록(60)에서 처리된 후 제공된 정보로부터 거리에 기반한 환경인식이 처리되고, 상기 영상기반 인식부(82)는 알고리즘선정블록(60)에서 처리된 후 제공된 정보로부터 영상에 기반한 환경인식이 처리되며, 상기 레이더기반 인식부(83)는 알고리즘선정블록(60)에서 처리된 후 제공된 정보로부터 레이더에 기반한 환경인식이 처리되고, 상기 융합 인식부(84)는 알고리즘선정블록(60)에서 처리된 후 제공된 정보로부터 융합에 기반한 환경인식이 처리된다.The distance-based recognition unit 81 processes the environment recognition based on the distance from the information provided after the processing in the algorithm selection block 60, and the image-based recognition unit 82 processes the distance- Based on the information provided, the environment recognition based on the image is processed. The radar-based recognition unit 83 processes the environment recognition based on the radar from the information provided after being processed in the algorithm selection block 60, Is processed in the algorithm selection block 60 and the environment recognition based on fusion is processed from the provided information.

한편, 도 2는 본 실시예에 따른 무인자율차량의 동적환경기반 자율주행을 위한 동작흐름을 나타낸다.FIG. 2 shows an operation flow for autonomous driving based on a dynamic environment of the autonomous vehicle according to the present embodiment.

S10은 주행중인 무인자율차량의 실시간 동적환경기반 자율주행 제어를 위해 정보가 인식되는 과정이고, 상기 정보는 위치정보(a)와 지형감지정보(b)로 구분된다. 상기 지형감지정보(b)는 도 1의 센서모듈(10)에서 제공되고, 상기 위치정보(a)는 도 1의 위치추정모듈(20)에서 제공된다.S10 is a process in which information is recognized for autonomous driving control based on a real-time dynamic environment of an unmanned autonomous vehicle under running, and the information is divided into position information (a) and terrain sensing information (b). The terrain sensing information b is provided in the sensor module 10 of Fig. 1, and the position information a is provided in the position estimation module 20 of Fig.

상기 위치정보(a)의 처리과정에서는 S20내지 S22를 거침으로써 환경인식결과로 알고리즘으로부터 하나의 QoS(Quality of Service)가 선정되고, 상기 지형감지정보(b)의 처리과정에서는 S30내지 S33을 거침으로써 알고리즘 처리 결과로 다른 하나의 QoS(Quality of Service)가 선정된다. In the process of the location information a, one QoS (Quality of Service) is selected from the algorithm as a result of the environment recognition by passing through S20 to S22, and in the processing of the terrain sensing information b, S30 to S33 And another QoS (Quality of Service) is selected as a result of the algorithm processing.

본 실시예에서 위치정보(a)의 처리과정이 먼저 수행되고, 위치정보(a)의 처리과정중 지형감지정보(b)의 처리과정이 수행되는 방식이 적용된다. In this embodiment, the processing of the position information (a) is performed first and the processing of the terrain sensing information (b) is performed during the processing of the position information (a).

이러한 방식은 도 3에서 시분할 QoS(Quality of Service)가 산출될 때 실시간성 유지가 이루어지는 개념으로 예시되며, 특히 무인자율차량이 자율주행을 수행하면서 알고리즘 뱅크를 구성하는 알고리즘별 QoS 산출을 수행하는 자원 할당이 예시된다.This method is illustrated in FIG. 3 as a concept that real-time property maintenance is performed when a time-divisional QoS (Quality of Service) is calculated. In particular, when a self-driving vehicle runs an autonomous vehicle, Assignment is illustrated.

도시된 바와 같이, 기 선정된 알고리즘을 근거로 환경인식은 실시간으로 정해진 시간마다 수행을 하고, 여유 시간으로 알고리즘 뱅크를 구성하는 알고리즘 별로 순차적인 QoS 산출을 함으로써 환경인식의 실시간 성이 저해되지 않게 된다.As shown in the figure, based on a predetermined algorithm, the environment recognition is performed at a predetermined time in real time, and the real-time performance of the environment recognition is not hindered by sequential QoS calculation for each algorithm constituting the algorithm bank with the spare time .

이는, 단위 시간 동안 이동 가능한 무인차량의 이동거리는 크지 않기 때문에 환경의 변화가 급격히 일어나지 않음에 기인된다.This is because the moving distance of the unmanned vehicle that can be moved during the unit time is not large, and the change of the environment does not occur rapidly.

그러므로, 순차적 수행을 통해 n번째 알고리즘까지 QoS 산출 되고, 이어 알고리즘 선정부에서 알고리즘 뱅크를 구성하는 알고리즘별 QoS를 근거로 주행환경의 인식에 적합한 알고리즘이 정해진 규칙에 의거 선정될 수 있다.Therefore, the QoS is calculated up to the nth algorithm through sequential execution, and then an algorithm suitable for recognition of the traveling environment based on the QoS for each algorithm constituting the algorithm bank in the algorithm selection section can be selected according to the predetermined rule.

한편, 상기 위치정보(a)의 처리과정은 다음과 같이 이루어진다.The process of the position information (a) is performed as follows.

S20에서 위치정보(a)를 기반으로 주행정보 데이터베이스를 검색하면, S21에서 주행정보 데이터베이스 검색 결과로부터 기주행 결과를 근거로 선정된 알고리즘을 이용하여 환경인식이 수행되고, S22에서 환경인식 결과로 하나의 QoS(Quality of Service)가 선정된다.When the driving information database is searched in S20 based on the position information (a), the environment recognition is performed using the algorithm selected based on the result of the driving information database search result in S21, and the environment recognition is performed in S22 (Quality of Service) is selected.

본 실시예에서, S21에서는 기주행 결과가 없는 경우 초기 설정값을 이용하여 환경인식이 수행되고, S22에서는 선정된 하나의 QoS(Quality of Service)는 QoSour로 정의한다.In the present embodiment, the environment recognition is performed using the initial set values in S21 if there is no previous running result, and the selected one QoS (Quality of Service) is defined as QoSour in S22.

그리고, 상기 지형감지정보(b)의 처리과정은 다음과 같이 이루어진다.The processing of the terrain sensing information (b) is performed as follows.

S30에서 지형감지정보(b)에 기반한 알고리즘의 QoS(Quality of Service)가 산출되고, S31에서 알고리즘별 QoS(Quality of Service)가 각각 산출 완료되고 나면, S33에서 각각의 QoS(Quality of Service)로부터 최대값을 갖는 하나의 QoS(Quality of Service)가 선정된다.After the QoS (Quality of Service) of the algorithm based on the terrain sensing information b is calculated in S30 and the QoS (Quality of Service) of each algorithm is calculated in S31, the respective Quality of Service One QoS (Quality of Service) having a maximum value is selected.

본 실시예에서, S32에서는 선정된 하나의 QoS(Quality of Service)는 QoSmax로 정의한다.In this embodiment, a selected QoS (Quality of Service) is defined as QoSmax in S32.

한편, S40은 위치정보(a)를 기반으로 하여 산출된 QoSour와 지형감지정보(b)를 기반으로 하여 선정된 QoSmax를 서로 비교함으로써 현재 수행 중인 알고리즘과의 QoS 차이가 계산된다.Meanwhile, in S40, the QoS difference between the currently executed algorithm and the selected QoS information is calculated based on the QoS information calculated based on the location information (a) and the selected QoS information based on the terrain information (b).

이러한 계산은 QoSmax와 QoSour의 차이(Δ)로 판단되며, Δ = QoSmax - QoSour 로 정의된다.This calculation is judged as a difference (Δ) between QoSmax and QoSour, and is defined as Δ = QoSmax - QoSour.

S50은 무인자율차량에 적용하여야 할 알고리즘을 변경할지 여부가 판단되도록 계산된 차이(Δ)가 설정기준(a)과 비교되는 과정이다. 이를 위해 Δ > α가 적용되며, 상기 α는 무인자율차량의 사양에 따라 적용되므로 구체적인 한정이 예시되지 않는다.S50 is a process in which the calculated difference? Is compared with the setting criterion (a) so as to determine whether to change the algorithm to be applied to the autonomous vehicle. For this,?>? Is applied, and? Is applied according to the specification of the autonomous vehicle, so that a specific limitation is not exemplified.

S60은 S50의 체크 결과 Δ > α을 만족할 때로서, 이 경우 현재 적용하고 있는 주행 알고리즘은 QoSmax로 선정된 알고리즘으로 대체되고, 이를 통해 무인자율차량은 주변환경에 최적으로 적응한 상태로 주행이 이루어질 수 있다.S60 is the time when Δ> α is satisfied as a result of the check in S50. In this case, the current running algorithm is replaced with the algorithm selected by QoSmax, so that the unmanned autonomous vehicle travels in a state optimally adapted to the surrounding environment .

S70은 S60에서 선택된 새로운 주행 알고리즘과 함께 그 시점의 QoS(시간, DOP)와 환경정보(온도, 조도, 습도)를 갱신하는 과정이고, 상기 QoS(시간, DOP)는 도 1의 위치추정모듈(20)로부터 획득되며, 상기 환경정보(온도, 조도, 습도)는 도 1의 센서모듈(10)의 환경센서(14)로부터 획득된다.S70 is a process of updating QoS (time, DOP) and environment information (temperature, illuminance, humidity) at that time along with the new traveling algorithm selected in S60. The QoS (time, DOP) 20), and the environmental information (temperature, illuminance, humidity) is obtained from the environmental sensor 14 of the sensor module 10 of Fig.

반면, S100은 S50의 체크 결과 Δ > α을 만족하지 않을 때로서, 이 경우 현재 적용하고 있는 주행 알고리즘이 계속 유지된다.On the other hand, S100 does not satisfy Δ> α as a result of the check in S50. In this case, the current running algorithm is maintained.

전술된 바와 같이, 본 실시예에 따른 무인자율차량에는 주행중인 주변 지형에 대한 환경 정보를 수집하는 센서모듈(10)과, 주행중인 현재위치를 추정하는 위치추정모듈(20)과, 수집한 각종 정보로부터 현재 속한 주행로의 환경인식에 적합한 알고리즘을 선정하고 주행정보를 최신화하여 유지하는 주행정보모듈(30)과, 처리되어진 환경인식 결과를 도출하는 지형감지처리모듈(80)이 포함되고, 위치정보(a)로부터 환경인식결과에 따른 QoSour(Quality of Service)의 선정과 지형감지정보(b)로부터 알고리즘 적합도결과에 따른 QoSmax(Quality of Service)의 선정이 이루어지고, 이에 Δ = QoSmax - QoSour 조건과 Δ > a 조건을 순차적으로 적용해 최적의 주행 알고리즘이 선택됨으로써 알고리즘 은행(Bank)과 서비스 품질척도(Degree of Service Quality)로부터 최적의 알고리즘이 선정되고, 특히 이로부터 환경인식 성능 척도 갱신될 수 있다.As described above, the autonomous vehicle according to the present embodiment includes the sensor module 10 for collecting environmental information about the surrounding terrain during running, the position estimation module 20 for estimating the current position during running, A traveling information module 30 for selecting an algorithm suitable for the environment recognition of the current traveling route from the information and keeping the traveling information up to date, and a terrain sensing processing module 80 for deriving the processed environment recognition result, From the location information (a), we select QoSour (Quality of Service) according to the environment recognition result and QoSmax (Quality of Service) according to the algorithm fitness result from the terrain sensing information (b) The optimum algorithm is selected from the algorithm bank and the degree of service quality by sequentially applying the condition and the Δ> a condition, Hi there from which it can be renewed environmental awareness performance measure.

10 : 센서모듈 11 : 레이저 거리측정기
12 : 카메라 13 : 레이다
14 : 환경센서
20 : 위치추정모듈 30 : 주행정보모듈
40 : QoS(Quality of Service)판단블록
41 : 거리기반 판단부 42 : 영상기반 판단부
43 : 레이더기반 판단부 50 : 주행정보 선정블록
60 : 알고리즘선정블록 61 : 거리기반 선정부
62 : 영상기반 선정부 63 : 레이더기반 선정부
64 : 융합가중치선정부 70 : 주행정보갱신블록
80 : 지형감지처리모듈 81 : 거리기반 인식부
82 : 영상기반 인식부 83 : 레이더기반 인식부
84 : 융합 인식부
10: Sensor module 11: Laser range finder
12: camera 13: radar
14: Environmental sensor
20: position estimation module 30: travel information module
40: Quality of Service (QoS) decision block
41: distance-based determination unit 42:
43: Radar-based determination unit 50: Driving information selection block
60: algorithm selection block 61: distance-based selection
62: image-based preference 63: radar-based preference
64: Convergence weight selection section 70: Travel information update block
80: terrain detection processing module 81: distance-based recognition unit
82: image-based recognition unit 83: radar-based recognition unit
84: fusion recognition section

Claims (16)

주행중인 주변 지형에 대한 환경 정보 수집으로 환경데이터가 생성되는 센서모듈과;
주행중인 현재위치 추정으로부터 위치데이터가 생성되는 위치추정모듈과;
주행을 위해 각각 다른 다수의 알고리즘이 구비되고, 상기 환경데이터와 상기 위치데이터로부터 현재 속한 주행로의 환경인식에 적합하게 선택된 알고리즘을 주행에 적용함과 더불어 갱신과 저장을 위한 결과수행이 이루어지는 주행정보모듈과;
상기 결과수행으로부터 환경인식 결과를 도출해주는 지형감지처리모듈;
이 포함된 것을 특징으로 하는 무인자율차량.
A sensor module for generating environmental data by collecting environment information about the surrounding terrain while driving;
A position estimation module for generating position data from current position estimation during running;
A plurality of different algorithms for driving are provided, and an algorithm selected from the environment data and the position data to suit the environment recognition of the current traveling path is applied to the driving, and the driving information A module;
A terrain sensing processing module for deriving an environment recognition result from the resultant performance;
And an unmanned vehicle.
청구항 1에 있어서, 상기 센서모듈은 주행중인 주변 지형에 대한 거리정보 수집을 위한 레이저 거리측정기와, 주행중인 주변 지형에 대한 영상정보수집을 위한 카메라와, 주행중인 주변 지형으로부터 위험요소에 대한 물체정보수집을 위한 레이다와, 주행중인 주변 지형에 관련된 온도와 조도 및 습도 정보수집을 위한 환경센서로 구성된 것을 특징으로 하는 무인자율차량.

[Claim 2] The method according to claim 1, wherein the sensor module comprises: a laser distance measurer for collecting distance information about the surrounding terrain during running; a camera for collecting image information about the surrounding terrain in operation; And an environment sensor for collecting temperature, illuminance and humidity information related to the surrounding terrain while the vehicle is running.

청구항 1에 있어서, 상기 주행정보모듈에는 상기 환경데이터로부터 상기 다수의 알고리즘의 QoS(Quality of Service)중 최대인 QoSmax(Quality of Service)가 선정되는 QoS(Quality of Service)판단블록과;
상기 위치데이터로부터 주행로에 포함된 주행정보를 검색하여 주행정보검색결과가 생성되는 주행정보 선정블록과;
상기 주행정보검색결를 이용한 환경인식으로부터 주행에 적용중인 알고리즘의 QoSour(Quality of Service)가 산출되고, 상기 QoSmax(Quality of Service)와 상기 QoSour(Quality of Service)로부터 상기 다수의 알고리즘중 주행환경 인식에 적합한 알고리즘의 재선정을 위한 정보갱신결과가 생성되는 알고리즘선정블록과;
상기 정보갱신결과로부터 주행로 정보를 최신화 유지시키는 주행정보갱신블록;
으로 구성된 것을 특징으로 하는 무인자율차량.
The method of claim 1, wherein the travel information module includes a Quality of Service (QoS) determination block in which QoSmax (Quality of Service) that is the maximum of QoS (Quality of Service) of the plurality of algorithms is selected from the environment data;
A travel information selection block for searching travel information included in the travel route from the location data and generating a travel information search result;
(Quality of Service) of the algorithm being applied to the running is calculated from the environment recognition using the driving information retrieval result and the driving environment recognition is performed from the QoSmax (Quality of Service) and the QoSour An algorithm selection block for generating an information update result for re-selection of an appropriate algorithm;
A travel information update block for keeping the travel route information updated from the information update result;
Wherein the vehicle is an unmanned autonomous vehicle.
청구항 3에 있어서, 상기 QoS(Quality of Service)판단블록은 상기 환경데이터중 거리정보가 처리되는 거리기반 판단부와, 상기 환경데이터중 영상정보가 처리되는 영상기반 판단부와, 상기 환경데이터중 물체정보가 처리되는 레이더기반 판단부로 구성된 것을 특징으로 하는 무인자율차량.
4. The apparatus of claim 3, wherein the Quality of Service (QoS) determination block comprises: a distance based decision unit for processing distance information of the environment data; an image based decision unit for processing image information of the environment data; And a radar-based determination unit for processing information.
청구항 3에 있어서, 상기 알고리즘선정블록은 상기 환경데이터중 거리정보 처리결과로부터 알고리즘을 선정하는 거리기반 선정부와, 상기 환경데이터중 영상정보 처리결과로부터 알고리즘을 선정하는 영상기반 선정부와, 상기 환경데이터중 물체정보 처리결과로부터 알고리즘을 선정하는 레이더기반 선정부와, 상기 환경데이터의 처리 결과에 대한 가중치가 부여되는 융합가중치선정부로 구성된 것을 특징으로 하는 무인자율차량.
The image processing apparatus according to claim 3, wherein the algorithm selection block includes: a distance-based selection unit that selects an algorithm from the distance information processing result among the environment data; an image-based selection unit that selects an algorithm from the image information processing result among the environment data; A radar-based selection unit for selecting an algorithm from the object information processing result of the data, and a fusion weight selection unit for assigning a weight to the processing result of the environment data.
청구항 1에 있어서, 상기 지형감지처리모듈은 상기 환경데이터의 거리정보 처리에 따른 알고리즘에 대한 처리 결과로부터 환경인식결과를 도출하는 거리기반 인식부와, 상기 환경데이터의 영상정보 처리에 따른 알고리즘에 대한 처리 결과로부터 환경인식결과를 도출하는 영상기반 인식부와, 상기 환경데이터의 물체정보 처리에 따른 알고리즘에 대한 처리 결과로부터 환경인식결과를 도출하는 레이더기반 인식부와, 상기 환경데이터의 처리 결과에 대한 가중치 부여 결과로부터 환경인식결과를 도출하는 융합 인식부로 구성된 것을 특징으로 하는 무인자율차량.
The method according to claim 1, wherein the terrain detection processing module comprises: a distance-based recognition unit for deriving an environment recognition result from the processing result of the algorithm according to the distance information processing of the environment data; An image recognition unit for deriving an environment recognition result from the processing result; a radar-based recognition unit for deriving an environment recognition result from the processing result of the algorithm according to the object information processing of the environmental data; And a fusion recognition unit for deriving an environment recognition result from the weighting result.
무인자율차량이 주행중인 주변에 대한 위치정보가 인식되고, 상기 위치정보를 이용한 환경인식으로부터 주행에 적용중인 알고리즘의 QoSour(Quality of Service)가 산출되는 환경인식모드;
상기 무인자율차량이 주행중인 주변에 대한 지형감지정보가 인식되고, 상기 지형감지정보로부터 다수의 알고리즘에 대한 QoS(Quality of Service)가 비교되고, 최대로 적합한 QoSmax(Quality of Service)가 선정되는 지형감지모드;
상기 QoSmax(Quality of Service)와 상기 QoSour(Quality of Service)로부터 상기 다수의 알고리즘중 현재 주행환경 인식에 적합한 최적의 알고리즘이 선택되고, 선택된 알고리즘이 상기 무인자율차량의 주행에 적용되면서 기록 및 저장되는 알고리즘갱신모드;
로 수행되는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
An environment recognition mode in which position information about the periphery of the autonomous vehicle is being recognized and QoSour (Quality of Service) of the algorithm being applied to the travel is calculated from the environment recognition using the position information;
The method of claim 1, wherein the terrain sensing information for the periphery of the unmanned autonomous vehicle is recognized, the QoS (Quality of Service) for a plurality of algorithms is compared from the terrain sensing information, Detection mode;
An optimal algorithm suitable for recognition of the current driving environment among the plurality of algorithms is selected from the QoS a and a QoS a and the selected algorithm is recorded and stored while being applied to the running of the autonomous vehicle Algorithm update mode;
Wherein the step of performing the autonomous navigation is based on the dynamic environment of the autonomous vehicle.
청구항7에 있어서, 상기 지형감지모드는 상기 환경인식모드가 수행되는 과정에서 수행되는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
8. The method of claim 7, wherein the terrain sensing mode is performed in the course of performing the environment recognition mode.
청구항7에 있어서, 상기 환경인식모드에서, 상기 QoSour(Quality of Service)의 산출은 상기 위치정보를 기반으로 주행정보 데이터베이스를 검색하는 DB검색단계;
상기 데이터베이스의 검색 결과로부터 기주행 결과를 근거로 선정된 알고리즘으로부터 환경인식 결과가 도출되고, 상기 환경인식 결과로 상기 QoS(Quality of Service)가 선정되는 환경인식단계; 로 수행되는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
8. The method of claim 7, wherein, in the environment recognition mode, the calculation of the QoS (Quality of Service) includes a DB search step of searching a travel information database based on the location information;
An environment recognition step of deriving an environment recognition result from a predetermined algorithm based on a result of the search from the database, and selecting the quality of service (QoS) as a result of the environment recognition; Wherein the step of performing the autonomous navigation is based on the dynamic environment of the autonomous vehicle.
청구항 9에 있어서, 상기 환경인식 결과는 상기 기 주행 결과가 없는 경우 초기 설정값을 이용하여 도출되는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
[12] The method of claim 9, wherein the environment recognition result is derived using an initial set value in the absence of the preliminary running result.
청구항 7에 있어서, 상기 지형감지모드에서, 상기 QoSmax(Quality of Service)의 선정은 상기 지형감지정보로부터 적합한 알고리즘의 QoS(Quality of Service)가 산출되는 QoS산출단계;
상기 QoS(Quality of Service)가 다수의 알고리즘별로 각각 산출 완료되고 나면, 각각의 상기 QoS(Quality of Service)중 최대값을 갖는 하나의 QoSmax(Quality of Service)가 선정되는 QoS선정단계;
로 수행되는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.

8. The method according to claim 7, wherein in the terrain sensing mode, the selection of the quality of service (QoS) is performed by calculating a quality of service (QoS) of an appropriate algorithm from the terrain sensing information;
A QoS selection step of selecting one QoSmax (Quality of Service) having a maximum value among the QoSs when the QoS is calculated for each of a plurality of algorithms;
Wherein the step of performing the autonomous navigation is based on the dynamic environment of the autonomous vehicle.

청구항 7에 있어서, 상기 알고리즘갱신모드에서, 상기 최적의 알고리즘 선택은 상기 QoSmax(Quality of Service)와 상기 QoSour(Quality of Service)가 비교된 결과로 차이값이 결정되고, 상기 차이값이 설정 기준값과 비교처리된 후, 상기 비교처리결과로부터 구해지는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
8. The method of claim 7, wherein in the algorithm update mode, the optimal algorithm selection is such that a difference value is determined as a result of comparing the Quality of Service (QoS) and Quality of Service (QoS) And the comparison result is obtained from the result of the comparison process.
청구항 12에 있어서, 상기 차이값은 QoSmax(Quality of Service) - QoSour(Quality of Service)으로부터 구해지는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
13. The method of claim 12, wherein the difference value is obtained from a Quality of Service (QoS) - QoSour (Quality of Service).
청구항 12에 있어서, 상기 비교처리결과는 상기 차이값 > 상기 설정 기준값으로부터 구해지는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
13. The method of claim 12, wherein the comparison result is obtained from the set reference value.
청구항 14에 있어서, 상기 차이값 > 상기 설정 기준값이 만족될 때 상기 최적의 알고리즘이 선택되고, 상기 차이값 > 상기 설정 기준값이 만족되지 않을 때 현재 적용중인 알고리즘이 계속 유지되는 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.
15. The method of claim 14, wherein the optimal algorithm is selected when the difference value > the set reference value is satisfied, and the currently applied algorithm is maintained when the difference value > Autonomous driving method based on dynamic environment of vehicle.
청구항 7에 있어서, 상기 알고리즘갱신모드에서, 상기 기록 및 저장되는 정보는 상기 최적의 알고리즘과, 선택된 시점의 QoS정보, 온도와 조도 및 습도인 것을 특징으로 하는 무인자율차량의 동적환경기반 자율주행방법.The method of claim 7, wherein in the algorithm update mode, the information to be recorded and stored is the optimal algorithm, QoS information at a selected time point, temperature, illuminance and humidity. .
KR1020130158448A 2013-12-18 2013-12-18 Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment KR101551701B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130158448A KR101551701B1 (en) 2013-12-18 2013-12-18 Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130158448A KR101551701B1 (en) 2013-12-18 2013-12-18 Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment

Publications (2)

Publication Number Publication Date
KR20150071419A true KR20150071419A (en) 2015-06-26
KR101551701B1 KR101551701B1 (en) 2015-09-10

Family

ID=53517709

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130158448A KR101551701B1 (en) 2013-12-18 2013-12-18 Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment

Country Status (1)

Country Link
KR (1) KR101551701B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106394545A (en) * 2016-10-09 2017-02-15 北京汽车集团有限公司 Driving system, unmanned vehicle and vehicle remote control terminal
KR101876063B1 (en) * 2016-10-04 2018-07-06 현대자동차주식회사 Method for deciding a road surface using vehicle data
CN108646731A (en) * 2018-04-17 2018-10-12 上海创昂智能技术有限公司 Automatic driving vehicle field end control system and its control method
CN110155231A (en) * 2019-05-20 2019-08-23 清华大学 Unmanned battery-operated motor cycle
EP3642684A4 (en) * 2018-08-24 2020-07-29 Baidu.com Times Technology (Beijing) Co., Ltd. Data transfer logic for transferring data between sensors and planning and control of autonomous driving vehicle
KR102260246B1 (en) * 2020-12-22 2021-06-04 주식회사 모빌린트 Mehod and Device of configuring deep learning algorithm for autonomous driving

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102214978B1 (en) 2017-03-24 2021-02-10 한온시스템 주식회사 Cooling device for vehicle heating element
KR102214987B1 (en) 2017-03-24 2021-02-10 한온시스템 주식회사 Electronic component cooling system for vehicle

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101876063B1 (en) * 2016-10-04 2018-07-06 현대자동차주식회사 Method for deciding a road surface using vehicle data
CN106394545A (en) * 2016-10-09 2017-02-15 北京汽车集团有限公司 Driving system, unmanned vehicle and vehicle remote control terminal
CN108646731A (en) * 2018-04-17 2018-10-12 上海创昂智能技术有限公司 Automatic driving vehicle field end control system and its control method
CN108646731B (en) * 2018-04-17 2023-09-05 上海创昂智能技术有限公司 Unmanned vehicle field end control system and control method thereof
EP3642684A4 (en) * 2018-08-24 2020-07-29 Baidu.com Times Technology (Beijing) Co., Ltd. Data transfer logic for transferring data between sensors and planning and control of autonomous driving vehicle
US11250701B2 (en) 2018-08-24 2022-02-15 Baidu Usa Llc Data transfer logic for transferring data between sensors and planning and control of an autonomous driving vehicle
CN110155231A (en) * 2019-05-20 2019-08-23 清华大学 Unmanned battery-operated motor cycle
KR102260246B1 (en) * 2020-12-22 2021-06-04 주식회사 모빌린트 Mehod and Device of configuring deep learning algorithm for autonomous driving
WO2022139009A1 (en) * 2020-12-22 2022-06-30 주식회사 모빌린트 Method and apparatus for configuring deep learning algorithm for autonomous driving

Also Published As

Publication number Publication date
KR101551701B1 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
KR101551701B1 (en) Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment
US20200269871A1 (en) Method and system for determining a driving maneuver
KR102518532B1 (en) Apparatus for determining route of autonomous vehicle and method thereof
JP6427908B2 (en) Map information generation system, method and program
JP6682833B2 (en) Database construction system for machine learning of object recognition algorithm
JP4453046B2 (en) Vehicle behavior learning apparatus and vehicle behavior learning program
US9686653B2 (en) Predictive directional antenna targeting
JP6316146B2 (en) Moving object position prediction apparatus, moving object position prediction method, and moving object position prediction computer program
US20180267544A1 (en) Systems and methods for multi-sensor fusion using permutation matrix track association
KR101409323B1 (en) Method and Apparatus for Path Planning of Unmanned Ground Vehicle in Dynamic Environment
CN107957258B (en) Road mark recognition device
KR20120022305A (en) Autonomous vehicle
JP2012118909A (en) Travel support device
JP7051366B2 (en) Information processing equipment, trained models, information processing methods, and programs
KR101797818B1 (en) Apparatus and method for providing road information based on deep learnig
CN109068278B (en) Indoor obstacle avoidance method and device, computer equipment and storage medium
CN112394725B (en) Prediction and reaction field of view based planning for autopilot
CN112432649A (en) Heuristic unmanned aerial vehicle swarm flight path planning method introducing threat factors
JP2018063476A (en) Apparatus, method and computer program for driving support
JPWO2018051399A1 (en) State prediction apparatus and state prediction method
US20210381845A1 (en) Determining landmark detectability
CN111508253B (en) Method for providing automatic driving service platform and server using the same
US20210300333A1 (en) A parking-trajectory generation method combined with offline and online solutions
WO2020121900A1 (en) Mobile body controller, mobile body and method of controlling mobile body
US11932245B2 (en) Systems and methods for improving path selection for automated driving

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180904

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190903

Year of fee payment: 5