KR101995971B1 - An autonomous augmented remote control method for unmanned ground vehicles - Google Patents

An autonomous augmented remote control method for unmanned ground vehicles Download PDF

Info

Publication number
KR101995971B1
KR101995971B1 KR1020170060914A KR20170060914A KR101995971B1 KR 101995971 B1 KR101995971 B1 KR 101995971B1 KR 1020170060914 A KR1020170060914 A KR 1020170060914A KR 20170060914 A KR20170060914 A KR 20170060914A KR 101995971 B1 KR101995971 B1 KR 101995971B1
Authority
KR
South Korea
Prior art keywords
unmanned vehicle
acceleration
remote control
autonomous
command
Prior art date
Application number
KR1020170060914A
Other languages
Korean (ko)
Other versions
KR20180126205A (en
Inventor
최덕선
심성대
안성용
곽기호
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020170060914A priority Critical patent/KR101995971B1/en
Publication of KR20180126205A publication Critical patent/KR20180126205A/en
Application granted granted Critical
Publication of KR101995971B1 publication Critical patent/KR101995971B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control

Abstract

본 발명은 무인차량에 탑재된 다양한 센서들로부터 생성된 환경정보지도 및 영상정보를 기반으로 원격통제장치에 의해 무인차량이 추종할 경로점 및 가감속 명령을 생성하는 단계 및 상기 경로점 및 가감속 명령을 획득한 무인차량의 자율판단 처리기에 의해 상기 무인차량이 실제로 추종할 조향 및 가감속 제어명령을 생성하는 단계를 포함하는 자율 증강 원격제어 방법으로서, 본 발명에 의하면, 원격제어에 있어 시간지연에 따른 문제를 극복하고, 자율주향을 함에 있어 사용자가 더욱 정확한 상황판단을 가능하게 한다.According to the present invention, there is provided a method for controlling an unmanned vehicle, the method comprising: generating a route point and an acceleration / deceleration command to be followed by a remote control device based on an environmental information map and image information generated from various sensors mounted on the unmanned vehicle, And generating an acceleration / deceleration control command to be followed by the unmanned vehicle by an autonomous determination processor of the unmanned vehicle that has acquired the command. According to the present invention, in the remote control, Overcoming the problems of the present invention, and allowing the user to make more accurate situation determination in the autonomous tendency.

Description

무인지상차량을 위한 자율 증강 원격제어 방법{AN AUTONOMOUS AUGMENTED REMOTE CONTROL METHOD FOR UNMANNED GROUND VEHICLES}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a remote control method for an unmanned ground vehicle,

본 발명은 무인지상차량을 원격으로 제어하는 방법에 관한 것이다.The present invention relates to a method for remotely controlling an unmanned ground vehicle.

종래 무인차량을 위한 원격제어 방법은 영상뿐만 아니라 다수의 다양한 센서를 활용하여 무인차량 주변 환경을 실제 탑승하고 있는 운전자가 인식하는 것과 가능한 유사하게 원격제어 운용자에게 모사해 주는 방향으로 연구(한국 등록특허 제10-1356172호 등)가 진행되고 있다.Conventionally, the remote control method for unmanned vehicles has been developed in such a way as to simulate the environment of the unmanned vehicle using a variety of sensors as well as images, 10-1356172, etc.).

하지만, 원거리에서 무선통신을 통해 획득되는 정보는 필연적으로 시간지연이 발생하고 재합성된 주변 환경정보는 실제 환경정보와 같을 수 없음으로 인해 무인차량의 운용에 있어 높은 속도를 요구하는 원격제어에 있어서는 많은 제한을 가진다.However, in the case of remote control requiring a high speed in the operation of the unmanned vehicle, the information obtained through the wireless communication at a remote location necessarily has a time delay and the reconstructed surrounding information can not be the same as the actual environment information It has many limitations.

그래서, 제한된 원격제어를 극복하기 위해 자율주행 관련 연구(한국 등록특허 제10-1669622호 등)를 활발히 진행하고 있으나 환경인식이나 자율판단에 있어서 환경이 복잡해지거나 운용 날씨 환경에 의해 현재 기술수준으로는 높은 신뢰성 확보에 제한이 있는 상황이다.Therefore, in order to overcome the limited remote control, autonomous traveling research (Korean Patent No. 10-1669622 etc.) is actively being carried out, but in the environment recognition or autonomous judgment, the environment is complicated or the current technical level There is a limit to securing high reliability.

본 발명은 무인차량을 위한 자율증강 원격제어 방법에 관한 것으로, 자율증강 원격제어 방법의 핵심은 원거리에서 무선통신을 통해 차량에서 획득되는 영상정보를 기반으로 운용자가 차량의 조향 및 가감속 제어하는 방법과 달리 차량에서 자율주행을 위해 생성되는 환경정보 지도를 주정보로 활용하고 차량에서 획득되는 영상정보(음향정보 포함) 및 차량의 위치 정보와 지도 정보를 보조정보를 활용하여 무인차량이 추종할 경로점 또는 무인차량의 자율주행을 위해 탑재된 경로계획에 활용될 경로점 및 가감속을 제어하는 방법이다.The present invention relates to a remote control method for autonomous vehicles for an unmanned vehicle, and a core of the autonomous remote control method is a method for controlling the steering and acceleration / deceleration of the vehicle based on image information obtained from the vehicle via a wireless communication at a long distance (Including acoustic information) obtained from the vehicle and the position information and the map information of the vehicle are used as the main information for the autonomous driving of the vehicle, This is a method of controlling the route point and acceleration / deceleration to be used in the route planning for the self-driving of a point or unmanned vehicle.

무인차량은 원거리에서 도 1과 같이 원격통제장치에 의해 통제된다.Unmanned vehicles are remotely controlled by a remote control device as shown in FIG.

그리고, 도 2는 기존의 원격제어 방법을 개략적으로 도시한 것으로서, 도 2를 참조하여 기존의 원격제어 방법을 살펴보기로 한다.2 is a schematic view of a conventional remote control method. Referring to FIG. 2, an existing remote control method will be described.

사용자가 전시기의 화면을 통해 로봇에서 획득되는 영상정보를 바탕으로 조향/가감속 명령을 생성한다. 원격제어의 흐름은 사용자에 의해 생성된 조향/가감속 신호를 원격제어기에서 획득하고 이를 처리하여 원격통제기로 전송한다.The user generates the steering / acceleration / deceleration command based on the image information obtained from the robot through the screen of the previous time. The flow of the remote control acquires the steering / acceleration / deceleration signal generated by the user from the remote controller, processes it, and transmits it to the remote controller.

원격통제기는 통신에 적합한 메시지를 만들어서 통제기에 탑재된 통제기 통신기를 통해 로봇으로 전송한다. 로봇에 탑재된 로봇 통신기가 전송된 제어명령을 획득하고 획득된 제어명령을 로봇에 탑재된 로봇통제기로 전송한다. 로봇통제기는 제어명령을 로봇제어기에서 처리할 수 있는 메시지로 변환하여 로봇 제어기로 전송하고 로봇제어기는 로봇의 모터들을 직접 제어하여 최종적으로 사용자가 원하는 조향 및 가감속을 수행하게 한다.The remote controller makes a message suitable for communication and transmits it to the robot through the controller communicator mounted on the controller. The robot communicator mounted on the robot acquires the transmitted control command and transmits the obtained control command to the robot controller mounted on the robot. The robot controller converts the control command into a message that can be processed by the robot controller and transmits the message to the robot controller. The robot controller directly controls the motors of the robot to finally perform the desired steering and acceleration / deceleration.

그리고, 로봇이 주행하는 환경에 대한 영상정보는 탑재된 영상센서를 통해 영상처리기에서 획득한다. 영상처리기는 적절한 처리 및 압축을 수행하여 로봇 통신기로 송신하고 로봇 통신기는 영상정보를 통제기 통신기로 전송한다. 통제기 통신기는 영상정보를 원격통제기로 전송하고 원격통제기는 적절한 처리를 수행하여 원격전시기를 통해 사용자가 볼 수 있도록 한다.The image information about the environment in which the robot travels is acquired by the image processor through the mounted image sensor. The image processor performs appropriate processing and compression and sends it to the robot communicator. The robot communicator transmits the image information to the controller communicator. The controller communicator transmits the image information to the remote controller, and the remote controller performs appropriate processing so that the user can view through the remote display.

로봇의 상태(탑재 모터의 속도 등)는 로봇제어기가 획득하여 로봇 통제기로 전송하고 로봇 통제기는 로봇 통신기 및 통제기 통신기를 통해 원격 통제기로 전송하여 사용자가 확인할 수 있도록 한다.The state of the robot (speed of the mounted motor, etc.) is acquired by the robot controller and transmitted to the robot controller, and the robot controller is transmitted to the remote controller through the robot communicator and the controller communicator so that the user can confirm the state.

따라서, 기존의 영상정보를 활용하는 원격제어 방법은 탑재 처리기들에 의해 처리에 의해 소요되는 시간지연과 통신에 의한 시간지연에 의해 필연적으로 일정 정도의 시간지연이 발생하게 되고, 이는 사용자가 로봇을 고속으로 원격주행을 수행하는데 있어서 제한이 된다.Therefore, the remote control method using the existing image information necessarily requires a certain time delay due to the time delay due to the processing and the time delay due to the communication by the on-board processors, Which is a limitation in performing remote traveling at high speed.

다음으로, 도 3은 기존의 자율주행 방법을 개략적으로 도시한 것으로서, 도 3을 참조하여 기존의 자율주행 방법을 살펴보기로 한다.Next, FIG. 3 schematically shows an existing autonomous driving method, and an existing autonomous driving method will be described with reference to FIG.

자율주행은 원격제어와 달리 사용자가 무인차량이 주행해야할 경로점들을 생성한다. 생성된 경로점들을 상황처리기가 획득하고 기확보된 지도정보와 사용자에 의해 생성된 경로점들을 바탕으로 무인차량이 주행할 수 있는 전역경로집합을 생성한다. 생성된 전역경로점 집합은 원격통제기로 전송되고 원격통제기는 원격전시기를 통해 생성된 전역경로를 사용자가 확인할 수 있도록 하며 통제기 통신기와 로봇 통신기를 통해 로봇 통제기로 전역경로집합을 송신한다.Unlike the remote control, autonomous driving generates path points for the user to travel unmanned vehicles. The generated route points are acquired by the situation handler, and based on the acquired map information and the user-generated route points, a global route set is generated that the unmanned vehicle can travel. The generated global path point set is transmitted to the remote controller, and the remote controller enables the user to confirm the global path generated by the remote display device, and transmits the global path set to the robot controller through the controller communicator and the robot communicator.

로봇통제기에서 수신한 전역경로집합은 자율판단 처리기로 전송한다. 자율판단 처리기의 지역경로계획 계산부에서 환경인식 처리기에서 무인차량의 탑재된 다양한 센서들을 활용하여 실시간으로 생성되는 무인차량 주변의 환경정보와 전역경로집합을 활용하여 실제 무인차량이 주행할 수 있는 지역경로집합을 생성한다.The set of global paths received from the robot controller is transmitted to the autonomous decision processor. In the local path planning section of the autonomous decision processor, the environment awareness processor uses the various sensors mounted on the unmanned vehicle to utilize environment information around the unmanned vehicle generated in real time and a set of global paths, Creates a set of paths.

생성된 지역경로집합은 자율판단 처리기 내부의 경로제어 계산부로 전송되고 경로제어 계산부는 무인차량이 추종할 경로점을 계산하고 추종할 경로점을 추종하기 위한 조향, 가감속 제어명령을 생성한다.The generated set of local routes is transmitted to the route control calculation unit in the autonomous determination processor, and the route control calculation unit calculates the route points to be followed by the unmanned vehicle and generates the steering and acceleration / deceleration control commands for following the route points to follow.

생성된 조향/가감속 제어명령은 다시 로봇 통제기로 전송되고 로봇 통제기는 로봇 제어기가 처리할 수 있는 메시지로 변환하여 제어명령을 로봇 제어기로 송신한다. 로봇 제어기는 수신한 제어명령을 처리하기 위한 제어 신호를 실제 모터로 송신하게 된다. 상태정보나 영상정보 수신 및 전시는 원격제어 방법과 동일하다.The generated steering / acceleration / deceleration control command is transmitted to the robot controller, and the robot controller converts the command into a message that can be processed by the robot controller, and transmits the control command to the robot controller. The robot controller transmits a control signal for processing the received control command to the actual motor. Status information and video information reception and display are the same as the remote control method.

하지만, 지도정보를 사용한 전역경로집합이 지도작성 오차나 항법 오차에 의해 갈림길에서 원래 가야할 길에 위치하지 않는 현상이나, 환경정보 생성에 있어서 잡음에 의해 갈 수 있는 영역이지만 가지 못하는 영역으로 생성되는 현상 등 현재 기술수준으로는 완벽하지 않는 제한이 있다.However, there is a phenomenon in which the global route set using map information is not located on the road to be originally traveled due to a mapping error or a navigation error, or a phenomenon that is generated as an area that can be reached by noise in the generation of environmental information, There are limitations that are not perfect at the current technology level.

이상의 배경기술에 기재된 사항은 발명의 배경에 대한 이해를 돕기 위한 것으로서, 이 기술이 속하는 분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술이 아닌 사항을 포함할 수 있다.The matters described in the background art are intended to aid understanding of the background of the invention and may include matters which are not known to the person of ordinary skill in the art.

한국 등록특허 제10-1356172호Korean Patent No. 10-1356172 한국 등록특허 제10-1669622호Korean Patent No. 10-1669622

본 발명은 상술한 문제점을 해결하고자 안출된 것으로서, 본 발명은 원격제어에 있어 시간지연에 따른 문제를 극복하고, 자율주향을 함에 있어 사용자가 더욱 정확한 상황판단을 가능하게 하는 무인지상차량을 위한 자율 증강 원격제어 방법을 제공하는 데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to overcome the problem of time delay in remote control and to provide a self- The present invention has been made to provide a remote control method for augmentation.

본 발명의 일 관점에 의한 자율 증강 원격제어 방법은, 무인차량에 탑재된 다양한 센서들로부터 생성된 환경정보지도 및 영상정보를 기반으로 원격통제장치에 의해 무인차량이 추종할 경로점 및 가감속 명령을 생성하는 단계, 상기 경로점 및 가감속 명령을 획득한 무인차량의 자율판단 처리기에 의해 상기 무인차량이 실제로 추종할 조향 및 가감속 제어명령을 생성하는 단계를 포함한다.According to an aspect of the present invention, there is provided an autonomy-enhancing remote control method for controlling an autonomous vehicle according to an environment information map and image information generated from various sensors mounted on an unmanned vehicle, Deceleration control command to be followed by the unmanned vehicle by the autonomous determination processor of the unmanned vehicle that has acquired the path point and the acceleration / deceleration command.

상기 추종할 경로점 및 감감속 명령을 생성하는 단계에 의해 생성되는 가감속 명령에 의해 상기 무인차량의 중심과 상기 추종할 경로점 사이의 거리가 가변되는 것을 특징으로 한다.And a distance between the center of the unmanned vehicle and the following route point is varied by an acceleration / deceleration command generated by the step of generating the route point to be followed and the deceleration speed command.

여기서, 가변되는 상기 무인차량의 중심과 상기 추종할 경로점 사이의 거리

Figure 112017046806826-pat00001
는 다음 수학식에 의해 계산될 수 있다.Here, the distance between the center of the unmanned vehicle and the following route point to be varied
Figure 112017046806826-pat00001
Can be calculated by the following equation.

Figure 112017046806826-pat00002
Figure 112017046806826-pat00002

(여기서,

Figure 112017046806826-pat00003
는 최소 안전거리,
Figure 112017046806826-pat00004
는 km/h 단위의 차량 속도)(here,
Figure 112017046806826-pat00003
The minimum safety distance,
Figure 112017046806826-pat00004
Is the vehicle speed in km / h)

또는, 가변되는 상기 무인차량의 중심과 상기 추종할 경로점 사이의 거리

Figure 112017046806826-pat00005
는 다음 수학식에 의해 계산될 수 있다.Or the distance between the center of the unmanned vehicle and the following route point to be varied
Figure 112017046806826-pat00005
Can be calculated by the following equation.

Figure 112017046806826-pat00006
Figure 112017046806826-pat00006

(여기서,

Figure 112017046806826-pat00007
는 추정된 도로의 마찰계수,
Figure 112017046806826-pat00008
는 중력가속도)(here,
Figure 112017046806826-pat00007
The coefficient of friction of the estimated road,
Figure 112017046806826-pat00008
Gravity acceleration)

그리고, 상기 무인차량의 중심과 추종할 경로점 사이의 거리는 상기 환경정보지도의 크기에 연동되어 경계에 근접하여 생성되는 것을 특징으로 한다.The distance between the center of the unmanned vehicle and the route point to be followed is generated in close proximity to the boundary of the environment information map.

본 발명의 무인지상차량을 위한 자율 증강 원격제어 방법에 의하면, 기존의 원격주행 방법과 자율주행 방법의 제한사항들을 극복할 수 있다.According to the autonomous increase remote control method for the unmanned ground vehicle of the present invention, the limitations of the existing remote driving method and the autonomous traveling method can be overcome.

구체적으로, 무인차량이 추종할 경로점을 제어하는 방법으로 인해 기존 원격주행 방법의 시간지연에 따른 문제들을 극복할 수 있고, 무인차량에서 다양한 센서들을 활용하여 생성되는 환경정보지도를 주정보로 활용함으로써 영상만으로 주행할 조향명령을 생성하는 기존 원격주행 방법에 비하여 사용자가 더욱 정확한 상황판단을 가능하도록 한다.In particular, it is possible to overcome the problems due to the time delay of the existing remote driving method by controlling the route points to be followed by the unmanned vehicle, and to use the environmental information map generated by using various sensors in the unmanned vehicle as the main information So that the user can more accurately determine the situation than the existing remote driving method that generates the steering command to run only by the image.

또한, 기존 자율주행 방법으로 주행할 경우 여러 가지 오류로 인해 부정확한 환경인식 및 자율판단 경우가 현재 기술수준으로는 생성될 수 있지만 이럴 경우 본 발명에서는 사용자가 적극적 또는 소극적으로 개입함으로써 제한사항들을 극복할 수 있는 효과를 가진다.In addition, in case of traveling with the existing autonomous driving method, inaccurate environment recognition and autonomous judgment cases due to various errors may be generated at the current technology level. However, in the present invention, the user can overcome limitations by actively or passively intervening .

도 1은 무인차량과 원격통제장치의 관계를 도시한 것이다.
도 2는 기존의 원격주행 방법을 개략적으로 도시한 것이다.
도 3은 기존의 자율주행 방법을 개략적으로 도시한 것이다.
도 4는 본 발명의 자율 증강 원격제어 방법의 일 실시예를 도시한 것이다.
도 5는 본 발명의 자율 증강 원격제어 방법의 다른 일 실시예를 도시한 것이다.
도 6은 본 발명의 자율 증강 원격제어 방법의 또 다른 일 실시예를 도시한 것이다.
1 shows the relationship between an unmanned vehicle and a remote control device.
2 schematically shows a conventional remote driving method.
Fig. 3 schematically shows an existing autonomous driving method.
FIG. 4 shows an embodiment of the autonomic-strength remote control method of the present invention.
FIG. 5 shows another embodiment of the autonomic enhancement remote control method of the present invention.
6 shows another embodiment of the autonomic enhancement remote control method of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.

본 발명의 바람직한 실시 예를 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지의 기술이나 반복적인 설명은 그 설명을 줄이거나 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In describing the preferred embodiments of the present invention, a description of known or repeated descriptions that may unnecessarily obscure the gist of the present invention will be omitted or omitted.

도 4는 본 발명의 자율 증강 원격제어 방법의 일 실시예를 도시한 것이고, 도 5는 본 발명의 자율 증강 원격제어 방법의 다른 일 실시예를 도시한 것이며, 도 6은 본 발명의 자율 증강 원격제어 방법의 또 다른 일 실시예를 도시한 것이다.FIG. 4 illustrates an embodiment of the autonomous-enhancement remote control method of the present invention. FIG. 5 illustrates another embodiment of the autonomous-enhancement remote control method of the present invention. Control method according to another embodiment of the present invention.

이하, 도 4 내지 도 6을 참조하여 본 발명의 일 실시예에 의한 무인지상차량을 위한 자율 증강 원격제어 방법을 설명하기로 한다.Hereinafter, a method for remote control of autonomous increase for an unmanned ground vehicle according to an embodiment of the present invention will be described with reference to FIG. 4 to FIG.

본 발명은 기존의 원격제어 방법과 자율주행 방법의 제한사항들을 극복하기 위해 새로운 자율증강 원격제어 방법들을 제시한다.The present invention proposes new autonomous remote control methods to overcome the limitations of the existing remote control method and the autonomous driving method.

그 구체적인 실시예는 도 4 내지 도 6에 도시된 세 가지 형태의 자율증강 원격제어 방법으로서, 먼저 도 4를 참조하여 본 발명의 일 실시예에 의한 자율증강 원격제어 방법을 설명하기로 한다.The specific embodiment of the present invention is the three types of autonomous enhancement remote control methods shown in FIGS. 4 to 6. First, a method of remote autonomous increase control according to an embodiment of the present invention will be described with reference to FIG.

본 발명의 일 실시예에 의한 자율증강 원격제어 방법의 핵심은 사용자가 조향장치를 통해 무인차량의 조향을 제어하지 않고 무인차량에 탑재된 환경인식 처리기에서 생성된 환경정보지도를 주정보로 활용하고 무인차량 전방에 탑재된 영상정보와 무인차량의 위치가 표시되는 지도정보를 보조정보로 활용하여 무인차량이 추종할 경로점을 조향장치를 통해 생성하는 것이다.The central point of the autonomic enhancement remote control method according to an embodiment of the present invention is that the user does not control the steering of the unmanned vehicle through the steering device and utilizes the environmental information map generated from the environment recognition processor mounted on the unmanned vehicle as the main information The navigation device generates the route point to be followed by the unmanned vehicle by utilizing the image information mounted on the front of the unmanned vehicle and the map information indicating the position of the unmanned vehicle as auxiliary information.

사용자에 의해 생성된 경로점 명령은 원격통제기, 통제기 통신기, 로봇 통신기, 로봇 통제기를 통해 경로제어 계산부로 전송되고 이후의 처리는 자율주행 방법과 동일하다.The path point command generated by the user is transmitted to the path control calculator through the remote controller, the controller communicator, the robot communicator, and the robot controller, and the subsequent processing is the same as the autonomous running method.

일 실시예에 의한 자율증강 원격제어 방법은 사용자가 원격제어와 유사한 집중도가 소요되는 방법이다. 무인차량의 전방 추종할 경로점을 사용자가 생성하는 방법이므로 시간지연에 의한 제한사항을 극복할 수 있다.The autonomic enhancement remote control method according to an embodiment is a method in which the user takes a degree of concentration similar to the remote control. Since the user creates the route point to follow the unmanned vehicle in advance, the limitation due to the time delay can be overcome.

또한, 사용자가 환경정보지도와 영상정보를 동시에 봄으로 인해 환경정보지도의 오류를 사용자가 판단할 수 있음으로해서 자율주행의 제한사항을 극복할 수 있다.In addition, since the user simultaneously views the environmental information map and the image information, the user can determine the error of the environmental information map, thereby overcoming the limitation of the autonomous driving.

추가적으로, 사용자가 생성하는 추종할 경로점의 무인차량과의 거리는 사용자가 생성하는 가감속 명령에 의해 가변적으로 변경될 수 있다. 만약 사용자가 속도 명령을 높이면 그 거리가 멀어지고 속도 명령이 낮으면 그 거리가 짧아지는 형태로 변경될 수 있다. 일례로, 사용자가 생성하는 추종할 경로점의 무인차량과의 거리 D는 다음 2가지 수식에 의해 생성될 수 있다. In addition, the distance from the unmanned vehicle at the route point to be generated by the user can be variably changed by the acceleration / deceleration command generated by the user. If the user increases the speed command, the distance becomes farther away. If the speed command is lower, the distance may be shortened. For example, the distance D from the unmanned vehicle at the path point to be generated by the user can be generated by the following two equations.

Figure 112017046806826-pat00009
Figure 112017046806826-pat00009

Figure 112017046806826-pat00010
Figure 112017046806826-pat00010

수학식 1은 포장도로 환경에서의 D 생성 방법이다.

Figure 112017046806826-pat00011
는 최소 안전거리를 의미한다.
Figure 112017046806826-pat00012
는 km/h 단위의 차량 속도를 의미한다.Equation (1) is a D generation method in a pavement environment.
Figure 112017046806826-pat00011
Means the minimum safe distance.
Figure 112017046806826-pat00012
Means the vehicle speed in km / h.

수학식 2는 비포장도로 환경에서의 D 생성 방법이다.

Figure 112017046806826-pat00013
는 추정된 도로의 마찰계수이고,
Figure 112017046806826-pat00014
는 중력가속도를 의미한다. Equation (2) is a D generation method in a non-road road environment.
Figure 112017046806826-pat00013
Is the coefficient of friction of the estimated road,
Figure 112017046806826-pat00014
Means gravitational acceleration.

다음으로, 도 5를 참조하여 본 발명의 다른 일 실시예에 의한 자율증강 원격제어 방법을 설명하기로 한다.Next, a description will be made of a method for remote control of autonomy according to another embodiment of the present invention with reference to FIG.

앞서 살펴본 일 실시예와 다른 점은 로봇 통제기에서 자율판단 처리기로 송부되는 경로점/가감속 명령이 지역경로계획으로 전송되는 것이다.The difference from the previous embodiment is that the route point / acceleration / deceleration command sent from the robot controller to the autonomous determination processor is transmitted to the local path planning.

지역경로계획 처리부는 주어진 경로점을 추종하기 위해 무인차량에 탑재된 센서정보를 활용하여 환경지도를 생성하고 생성된 환경지도를 기반으로 실시간으로 장애물을 회피하고 주어진 경로를 추종하는 상세한 지역경로집합을 생성한다.In order to follow a given route point, the regional route planning processing unit generates an environmental map using the sensor information mounted on the unmanned vehicle, avoids obstacles in real time based on the generated environment map, and provides a detailed regional route set following the given route .

경로제어 처리부는 상세한 지역경로집합을 기반으로 추종할 경로점을 선택하고 선택된 경로점을 추종하기 위핸 조향/가감속 제어명령을 생성한다.The route control processor selects a route point to be followed based on the detailed regional route set and generates a steering / acceleration / deceleration control command for following the selected route point.

두 번째 실시예에서 사용자가 생성하는 경로점 명령은 환경정보 지도에서 전방의 가장 먼 거리에 생성이 가능하게 한다.In the second embodiment, the path point command generated by the user enables generation at the farthest distance from the environment information map.

그러므로, 첫 번째 실시예에 비하여 사용자가 덜 집중하게 하는 효과를 가진다. 만약 환경정보지도가 가로 및 세로의 길이가 30미터라고 한다면 사용자는 전방 30미터 근방에 경로점 명령을 생성하게 하고 지역경로계획 처리부는 현재 속도가 20KPH이고 포장도로이며 안전거리

Figure 112017046806826-pat00015
가 5미터라고 가정했을 경우,
Figure 112017046806826-pat00016
는 9미터로 수학식 1에 의해 생성되고 시간이 지남에 따라 사용자가 30미터 근방에 설정한 경로점까지 거리가 9미터가 될 때까지 여유 시간이 생기게 되어 사용자의 집중을 덜어줄 수 있는 효과를 가진다.Therefore, the user has less effect than the first embodiment. If the environmental information map is 30 meters in length and 30 meters in length, the user will create a route point command in the vicinity of 30 meters ahead, and the local route plan processing unit is currently at a speed of 20 KPH,
Figure 112017046806826-pat00015
Is 5 meters,
Figure 112017046806826-pat00016
Is generated by Equation (1) with 9 meters, and as time goes by, the user takes up the time until the distance reaches 9 meters to the path point set by the user in the vicinity of 30 meters, thereby reducing the user's concentration I have.

마지막으로, 도 6을 참조하여 본 발명의 또 다른 일 실시예에 의한 자율증강 원격제어 방법을 설명하기로 한다.6, a description will be made of a method for remote control of autonomy according to another embodiment of the present invention.

세 번째 실시예는 임무를 수행 시 사용자가 임무점들을 지정하고 지정된 임무점들을 기반으로 자율주행 방법과 유사하게 상황처리기에서 전역경로점 집합을 생성하여 유사하게 자율주행 방법과 유사하게 동작하나, 경로제어 계산부에서 선택된 추종할 경로점이 되먹임되어 원격통제장치의 조향장치가 실제 차량에서 생성된 추종할 경로점과 동일하게 조향이 되도록 구성된다.The third embodiment is similar to the autonomous driving method in that the user designates mission points and generates a global route point set in the status processor similar to the autonomous driving method based on the designated mission points, The following route point selected in the control calculation unit is feedbacked so that the steering apparatus of the remote control apparatus is configured to be steered the same as the route point generated in the actual vehicle.

사용자는 자율주행 방법이 정상적으로 동작되는지 모니터링을 하다가 비정상적으로 동작할 때 사용자가 개입하여 조향장치를 제어하면 무인차량이 사용자의 입력을 우선으로 첫 번째 실시예와 동일하게 동작하는 개념이다.The user monitors whether the autonomous driving method is normally operated, and operates when the user intervenes and controls the steering apparatus when the autonomous driving method operates abnormally. In this case, the unmanned vehicle operates in the same manner as the first embodiment with priority given to the user's input.

이를 통해 사용자는 무인차량이 비정상 동작일 때만 개입하게 되므로 첫 번째 실시예에 비하여 사용자의 집중을 더욱 덜어 줄 수 있다.Accordingly, the user can intervene only when the unmanned vehicle is in an abnormal operation, so that the user can be more concentrated than the first embodiment.

이상과 같은 본 발명은 예시된 도면을 참조하여 설명되었지만, 기재된 실시 예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형될 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 수정 예 또는 변형 예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이며, 본 발명의 권리범위는 첨부된 특허청구범위에 기초하여 해석되어야 할 것이다.While the present invention has been described with reference to the exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It is obvious to those who have. Accordingly, it is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

Claims (5)

삭제delete 무인차량에 탑재된 다양한 센서들로부터 생성된 환경정보지도 및 영상정보를 기반으로 원격통제장치에 의해 무인차량이 추종할 경로점 및 가감속 명령을 생성하는 단계; 및
상기 경로점 및 가감속 명령을 획득한 무인차량의 자율판단 처리기에 의해 상기 무인차량이 실제로 추종할 조향 및 가감속 제어명령을 생성하는 단계를 포함하고,
사용자가 상기 무인차량의 가감속 명령을 생성하면, 상기 조향 및 가감속 제어명령을 생성하는 단계는 사용자가 생성한 가감속 명령에 따라 조향 및 가감속 제어명령을 생성하고, 상기 무인차량의 중심과 상기 추종할 경로점 사이의 거리가 가변되는 것을 특징으로 하는 자율 증강 원격제어 방법.
Generating a route point and an acceleration / deceleration command for the unmanned vehicle to follow by a remote control device based on an environmental information map and image information generated from various sensors mounted on the unmanned vehicle; And
Deceleration control command to be followed by the unmanned vehicle by the autonomous determination processor of the unmanned vehicle that has obtained the path point and the acceleration / deceleration command,
When the user generates the acceleration / deceleration command of the unmanned vehicle, the step of generating the steering and acceleration / deceleration control command generates the steering and acceleration / deceleration control commands in accordance with the acceleration / deceleration command generated by the user, Wherein the distance between the path points to be followed is variable.
청구항 2에 있어서,
가변되는 상기 무인차량의 중심과 상기 추종할 경로점 사이의 거리 D는 다음 수학식에 의해 계산되는 것을 특징으로 하는 자율 증강 원격제어 방법.
Figure 112017046806826-pat00017

(여기서,
Figure 112017046806826-pat00018
는 최소 안전거리,
Figure 112017046806826-pat00019
는 km/h 단위의 차량 속도)
The method of claim 2,
Wherein the distance D between the center of the unmanned vehicle and the following route point to be varied is calculated by the following equation.
Figure 112017046806826-pat00017

(here,
Figure 112017046806826-pat00018
The minimum safety distance,
Figure 112017046806826-pat00019
Is the vehicle speed in km / h)
청구항 2에 있어서,
가변되는 상기 무인차량의 중심과 상기 추종할 경로점 사이의 거리
Figure 112017046806826-pat00020
는 다음 수학식에 의해 계산되는 것을 특징으로 하는 자율 증강 원격제어 방법.
Figure 112017046806826-pat00021

(여기서,
Figure 112017046806826-pat00022
는 추정된 도로의 마찰계수,
Figure 112017046806826-pat00023
는 중력가속도)
The method of claim 2,
The distance between the center of the unmanned vehicle and the route point to be followed
Figure 112017046806826-pat00020
Is calculated by the following equation.
Figure 112017046806826-pat00021

(here,
Figure 112017046806826-pat00022
The coefficient of friction of the estimated road,
Figure 112017046806826-pat00023
Gravity acceleration)
청구항 2에 있어서,
상기 무인차량의 중심과 추종할 경로점 사이의 거리는 상기 환경정보지도의 크기에 연동되어 경계에 근접하여 생성되는 것을 특징으로 하는 자율증강 원격제어 방법.
The method of claim 2,
Wherein the distance between the center of the unmanned vehicle and the route point to be tracked is generated close to the boundary in association with the size of the environment information map.
KR1020170060914A 2017-05-17 2017-05-17 An autonomous augmented remote control method for unmanned ground vehicles KR101995971B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170060914A KR101995971B1 (en) 2017-05-17 2017-05-17 An autonomous augmented remote control method for unmanned ground vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170060914A KR101995971B1 (en) 2017-05-17 2017-05-17 An autonomous augmented remote control method for unmanned ground vehicles

Publications (2)

Publication Number Publication Date
KR20180126205A KR20180126205A (en) 2018-11-27
KR101995971B1 true KR101995971B1 (en) 2019-07-03

Family

ID=64603421

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170060914A KR101995971B1 (en) 2017-05-17 2017-05-17 An autonomous augmented remote control method for unmanned ground vehicles

Country Status (1)

Country Link
KR (1) KR101995971B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101040219B1 (en) * 2011-01-31 2011-06-16 국방과학연구소 Velocity determining apparatus of autonomous vehicle, autonomous vehicle having the same and velocity determining process of autonomous vehicle
US20130204465A1 (en) * 2006-07-14 2013-08-08 Irobot Corporation Autonomous Behaviors For A Remote Vehicle
KR101413475B1 (en) * 2013-02-20 2014-07-01 국방과학연구소 Path planning method for multi-robot cooperative autonomous navigation based on shared world medeling

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101356172B1 (en) 2013-01-30 2014-01-24 국방과학연구소 Apparatus and method for producing three-dimensional image for remote control
KR101669622B1 (en) 2015-07-15 2016-10-26 국방과학연구소 Method and apparatus of the optimization-based path planning for autonomous navigation of unmanned ground vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130204465A1 (en) * 2006-07-14 2013-08-08 Irobot Corporation Autonomous Behaviors For A Remote Vehicle
KR101040219B1 (en) * 2011-01-31 2011-06-16 국방과학연구소 Velocity determining apparatus of autonomous vehicle, autonomous vehicle having the same and velocity determining process of autonomous vehicle
KR101413475B1 (en) * 2013-02-20 2014-07-01 국방과학연구소 Path planning method for multi-robot cooperative autonomous navigation based on shared world medeling

Also Published As

Publication number Publication date
KR20180126205A (en) 2018-11-27

Similar Documents

Publication Publication Date Title
JP6865244B2 (en) How to generate tracks for self-driving vehicles
US10989562B2 (en) Systems and methods for annotating maps to improve sensor calibration
CN108725446B (en) Pitch angle compensation for autonomous vehicles
US10322717B2 (en) Expert mode for vehicles
KR102042945B1 (en) Lane departure check and lane keeping system with lane curb assistance for autonomous vehicles
EP3359436B1 (en) Method and system for operating autonomous driving vehicles based on motion plans
US9896101B2 (en) Autonomous driving vehicle system
US9188981B2 (en) Vehicle system, a vehicle and a method for autonomous road irregularity avoidance
EP3342670B1 (en) Method to dynamically adjusting speed control rates of autonomous vehicles
CN111775933B (en) Method for autonomously driving vehicle based on movement locus of obstacle around vehicle
US20190304310A1 (en) Perception assistant for autonomous driving vehicles (advs)
US20160272203A1 (en) Vehicle control device
US20150057835A1 (en) Driver assistance system, motor vehicle having a driver assistance system, and a method for operating a driver assistance system
CA2987079A1 (en) Vehicle stop position setting apparatus and method
US11613254B2 (en) Method to monitor control system of autonomous driving vehicle with multiple levels of warning and fail operations
CN111044057A (en) Real-time map generation scheme based on previous driving trajectories for autonomous vehicles
US11702087B2 (en) Autonomous driving monitoring system
KR102359497B1 (en) A vehicle-platoons implementation under autonomous driving system designed for single vehicle
KR20240035960A (en) Autonomous driving apparatus and method
JP2023541322A (en) Annotation and mapping for vehicle behavior in low confidence object detection conditions
KR101995971B1 (en) An autonomous augmented remote control method for unmanned ground vehicles
JP2017165358A (en) Vehicle control information creation device and vehicle control information creation method
US20220258732A1 (en) Cooperative driving system and method
US11242057B2 (en) Method for optimizing three-point turn of autonomous driving vehicles
TWI715221B (en) Adaptive trajectory generation method and system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant