KR20240046095A - Safe remote control system for unmanned vehicles using edge computing and artificial intelligence - Google Patents

Safe remote control system for unmanned vehicles using edge computing and artificial intelligence Download PDF

Info

Publication number
KR20240046095A
KR20240046095A KR1020230132042A KR20230132042A KR20240046095A KR 20240046095 A KR20240046095 A KR 20240046095A KR 1020230132042 A KR1020230132042 A KR 1020230132042A KR 20230132042 A KR20230132042 A KR 20230132042A KR 20240046095 A KR20240046095 A KR 20240046095A
Authority
KR
South Korea
Prior art keywords
driving
unmanned vehicle
artificial intelligence
information
remote
Prior art date
Application number
KR1020230132042A
Other languages
Korean (ko)
Inventor
이덕진
Original Assignee
전북대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전북대학교산학협력단 filed Critical 전북대학교산학협력단
Publication of KR20240046095A publication Critical patent/KR20240046095A/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0055Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템에 관한 것으로, 보다 상세하게는 엣지컴퓨팅 모듈 위에 인공지능 기술을 탑재하여 원격으로 지상에서 무인이동체 주행 및 운행을 안전하게 제어할 수 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템에 관한 것이다.
본 발명에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템은, 모터를 동력원으로 주행이 가능한 무인이동체; 상기 무인이동체의 주행 정보 및 상기 무인이동체 주변의 환경 정보를 획득할 수 있는 다수의 센서가 구비된 센서부; 상기 센서부로부터 각종 정보를 입력 받고, 제어신호에 따라 상기 무인이동체를 제어할 수 있는 인터페이스; 및 클라우드 네트워크 또는 무선통신을 이용하여 원격에서 상기 인터페이스부와 정보를 송수신하되, 상기 인터페이스로부터 수신된 정보를 분석 및 모니터링하고, 상기 무인이동체의 주행을 제어할 수 있는 제어신호를 상기 인터페이스부로 송신하는 원격제어부;를 포함하되, 상기 원격제어부는, 지상서버 또는 엣지컴퓨터로 구성되고, 상기 인터페이스로부터 수신된 정보로부터 장애물, 사물, 차선, 주행영역 및 노면상태를 포함하는 주행환경을 인식하고, 인식된 주행환경에 따라 인공지능 기법을 활용하여 충돌회피, 긴급상황 대응 및 정해진 특수목적작업 구현을 포함한 상황대처를 판단하며, 판단된 상황대처에 대응되는 제어신호를 생성하는 것을 특징으로 한다.
The present invention relates to an unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology. More specifically, it is possible to safely control the driving and operation of an unmanned vehicle on the ground remotely by installing artificial intelligence technology on an edge computing module. This is about a remote driving control system for unmanned vehicles based on computing and artificial intelligence convergence technology.
The remote driving control system for an unmanned vehicle based on edge computing and artificial intelligence convergence technology according to the present invention includes an unmanned vehicle capable of driving with a motor as a power source; A sensor unit equipped with a plurality of sensors capable of obtaining driving information of the unmanned vehicle and environmental information around the unmanned vehicle; an interface capable of receiving various information from the sensor unit and controlling the unmanned vehicle according to control signals; And transmitting and receiving information to the interface unit remotely using a cloud network or wireless communication, analyzing and monitoring the information received from the interface, and transmitting a control signal capable of controlling the driving of the unmanned vehicle to the interface unit. Includes a remote control unit, wherein the remote control unit is composed of a ground server or an edge computer, and recognizes the driving environment including obstacles, objects, lanes, driving areas, and road surface conditions from the information received from the interface, and recognizes the driving environment. Depending on the driving environment, artificial intelligence techniques are used to determine situational response, including collision avoidance, response to emergency situations, and implementation of designated special purpose tasks, and generate control signals corresponding to the determined situational response.

Description

엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템{Safe remote control system for unmanned vehicles using edge computing and artificial intelligence}Safe remote control system for unmanned vehicles using edge computing and artificial intelligence}

본 발명은 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템에 관한 것으로, 보다 상세하게는 엣지컴퓨팅 모듈 위에 인공지능 기술을 탑재하여 원격으로 지상에서 무인이동체 주행 및 운행을 안전하게 제어할 수 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템에 관한 것이다.The present invention relates to an unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology. More specifically, it is possible to safely control the driving and operation of an unmanned vehicle on the ground remotely by installing artificial intelligence technology on an edge computing module. This is about a remote driving control system for unmanned vehicles based on computing and artificial intelligence convergence technology.

최근 운전자가 없거나 운전자가 있더라도 차량을 직접 조작하지 않고 주행되는 자율주행 차량이나 원격제어 차량에 관한 연구가 활발하게 이루어지고 있다.Recently, research has been actively conducted on autonomous vehicles or remote control vehicles that run without a driver or without directly operating the vehicle even if there is a driver.

특히, 무인배송차, 특수목적 무인차량(건설기계, 청소차 등), 로봇의 수요가 최근 코로나 시기 및 인구감소, 전문가 숙달 인력부족, 안전이슈 등으로 급격하게 증가되고 있다.In particular, the demand for unmanned delivery vehicles, special-purpose unmanned vehicles (construction machinery, cleaning trucks, etc.), and robots is rapidly increasing due to the recent COVID-19 period, population decline, lack of skilled manpower, and safety issues.

자율주행 차량은 대한민국 공개특허공보 제10-2016-0050957호, 제10-2019-0135390호에 개시되는 바와 같이, 컴퓨터 등에 의해 주행, 정지, 회전, 가속 또는 감속 등의 운전이 자동으로 이루어지는 차량이고, 원격제어 주행 차량은 대한민국 공개특허공보 제10-2012-0076830호에 개시되는 바와 같이 이격된 위치에서 주행이 제어되는 차량이다.As disclosed in Korean Patent Publication Nos. 10-2016-0050957 and 10-2019-0135390, an autonomous vehicle is a vehicle in which driving, stopping, turning, acceleration or deceleration are automatically performed by a computer. , A remote control driving vehicle is a vehicle whose driving is controlled from a distant location, as disclosed in Republic of Korea Patent Publication No. 10-2012-0076830.

자율주행 차량은 주변지형이나 위치를 포함하는 주변 환경을 인식하는 센서가 설치되어 주행 차선의 유지, 인접 차량과의 안전거리 확보와 근접 장애물의 검출과 충돌회피, 교통상황이나 도로환경에 따른 차량속도 제어 등이 자동으로 수행되며, 원격제어 차량은 이격된 위치에서 통신망으로 전송되는 제어명령에 의해 속도나 조향 등이 제어된다.Self-driving vehicles are equipped with sensors that recognize the surrounding environment, including the surrounding terrain and location, to maintain driving lanes, secure a safe distance from adjacent vehicles, detect nearby obstacles and avoid collisions, and determine vehicle speed according to traffic conditions or road conditions. Control is performed automatically, and the speed and steering of the remote control vehicle are controlled by control commands transmitted through a communication network from a remote location.

하지만, 기존 특수목적 작업차량은 운전자의 경험 및 시각에 의존하거나, 무인이동체의 경우 온보드(Onboard) 상의 컴퓨팅 기법에 의존하게 되어 경험자의 경험 부족이나, 무인이동체의 컴퓨팅 파워 부족 및 센서 에러(Error)의 경우 오작동 및 대응 미숙으로 사고로 이어질 수 있는 경우가 많았다.However, existing special-purpose work vehicles rely on the driver's experience and vision, or in the case of unmanned vehicles, rely on onboard computing techniques, resulting in lack of experience of the experienced person, lack of computing power of the unmanned vehicle, and sensor errors. In many cases, malfunctions and poor response could lead to accidents.

이러한 원격 주행 제어 기술에는 다중 센서, 원격제어 속도, 원격제어 주행정밀도, 관제를 위한 통신 속도, 긴급 정지 등을 위한 안전기능, 거리인식 정밀도, 시멘틱 지도 생성 등 다수의 미션이 충족될 수 있도록 종합되어 고려되어야 하는 것으로, 본 발명의 목적은 엣지컴퓨팅 모듈 위에 인공지능 기술을 탑재하여 원격으로 지상에서 무인이동체 주행 및 운행을 안전하게 제어할 수 있는 시스템을 제공하는 데에 있다.These remote driving control technologies are integrated to fulfill multiple missions such as multiple sensors, remote control speed, remote control driving precision, communication speed for control, safety functions for emergency stops, distance recognition precision, and semantic map generation. To be considered, the purpose of the present invention is to provide a system that can safely control the driving and operation of an unmanned vehicle on the ground remotely by mounting artificial intelligence technology on an edge computing module.

상기한 목적을 달성하기 위하여 본 발명에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템은, 모터를 동력원으로 주행이 가능한 무인이동체; 상기 무인이동체의 주행 정보 및 상기 무인이동체 주변의 환경 정보를 획득할 수 있는 다수의 센서가 구비된 센서부; 상기 센서부로부터 각종 정보를 입력 받고, 제어신호에 따라 상기 무인이동체를 제어할 수 있는 인터페이스; 및 클라우드 네트워크 또는 무선통신을 이용하여 원격에서 상기 인터페이스부와 정보를 송수신하되, 상기 인터페이스로부터 수신된 정보를 분석 및 모니터링하고, 상기 무인이동체의 주행을 제어할 수 있는 제어신호를 상기 인터페이스부로 송신하는 원격제어부;를 포함하되, 상기 원격제어부는, 지상서버 또는 엣지컴퓨터로 구성되고, 상기 인터페이스로부터 수신된 정보로부터 장애물, 사물, 차선, 주행영역 및 노면상태를 포함하는 주행환경을 인식하고, 인식된 주행환경에 따라 인공지능 기법을 활용하여 충돌회피, 긴급상황 대응 및 정해진 특수목적작업 구현을 포함한 상황대처를 판단하며, 판단된 상황대처에 대응되는 제어신호를 생성하는 것을 특징으로 한다.In order to achieve the above object, an unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to the present invention includes an unmanned vehicle capable of traveling with a motor as a power source; A sensor unit equipped with a plurality of sensors capable of obtaining driving information of the unmanned vehicle and environmental information around the unmanned vehicle; an interface capable of receiving various information from the sensor unit and controlling the unmanned vehicle according to control signals; And transmitting and receiving information to the interface unit remotely using a cloud network or wireless communication, analyzing and monitoring the information received from the interface, and transmitting a control signal capable of controlling the driving of the unmanned vehicle to the interface unit. Includes a remote control unit, wherein the remote control unit is composed of a ground server or an edge computer, and recognizes the driving environment including obstacles, objects, lanes, driving areas, and road surface conditions from the information received from the interface, and recognizes the driving environment. Depending on the driving environment, artificial intelligence techniques are used to determine situational response, including collision avoidance, response to emergency situations, and implementation of designated special purpose tasks, and generate control signals corresponding to the determined situational response.

여기서, 상기 원격제어부는, 충돌회피에 대한 상황대처 판단에 활용되는 인공지능 기법으로 딥러닝 기반의 맵리스 로컬 모션 계획 기법을 적용하되, 상기 딥러닝 기반의 맵리스 로컬 모션 계획 기법은, 의미론적 분할을 사용하여 상기 무인이동체의 주행 가능 영역을 추정하고, 전이 학습 기술을 사용하여 인코더-디코더 모델을 훈련하며, 상기 인코더-디코더 모델을 이용하여 상기 의미론적 분할을 통해 추정된 주행 가능 영역으로부터 여유 공간을 분할하고, 비선형 모델 예측 제어(NMPC) 방식을 사용하여 동적 및 정적 충돌을 회피할 수 있는 상황대처 판단을 하도록 구성된 것을 특징으로 한다.Here, the remote control unit applies a deep learning-based mapless local motion planning technique as an artificial intelligence technique used to determine situational response for collision avoidance, and the deep learning-based mapless local motion planning technique is a semantic and Estimating the drivable area of the unmanned vehicle using segmentation, training an encoder-decoder model using transfer learning technology, and using the encoder-decoder model to estimate the drivable area of the unmanned vehicle using the semantic segmentation. It is characterized by being configured to divide the space and make situational response decisions to avoid dynamic and static collisions using a nonlinear model predictive control (NMPC) method.

여기서, 상기 센서부는, 주행정보의 획득이 가능한 GPS, 상기 무인이동체 주변 영상을 촬영할 수 있는 어라운드뷰 모니터(AVM), 상기 무인이동체 주변의 주변 장애물 정보의 획득이 가능한 3D 라이다(LiDAR) 센서 또는 레이더(RADAR) 센서를 포함하는 것을 특징으로 한다.Here, the sensor unit may include a GPS capable of acquiring driving information, an Around View Monitor (AVM) capable of capturing images around the unmanned vehicle, a 3D LiDAR sensor capable of acquiring information on surrounding obstacles around the unmanned vehicle, or It is characterized by including a RADAR sensor.

여기서, 상기 원격제어부는, 상기 GPS로부터 획득된 주행정보를 기준으로 지도 상에 현 위치 및 오버레이 된 주행경로, 주행속도, 고도, 방위 정보를 표시하고, 상기 어라운드뷰 모니터(AVM)에서 촬영된 영상과, 상기 3D 라이다(LiDAR) 센서 또는 레이더(RADAR) 센서를 통해 획득된 주변 장애물 정보를 표시하는 모니터링 장치가 구비된 것을 특징으로 한다.Here, the remote control unit displays the current location, overlaid driving path, driving speed, altitude, and direction information on the map based on driving information obtained from the GPS, and images captured by the around view monitor (AVM). And, a monitoring device that displays information on surrounding obstacles obtained through the 3D LiDAR sensor or RADAR sensor is provided.

여기서, 상기 원격제어부는, 상기 센서부를 통해 획득된 현 위치 및 주행경로를 포함한 주행정보를 기준으로 경로점(Waypoints)을 이용하여 목표 경로를 설정하는 목표 설정 기능과, 상기 센서부를 통해 획득된 주행속도를 포함한 주행정보를 기준으로 목표 속도를 설정하는 목표 속도 설정 기능과, 상기 센서부를 통해 획득된 주변 장애물 정보를 통해 주행 안전 여부를 판단하되 안전하지 않다고 판단된 경우 상기 무인이동체의 주행을 정지시키는 긴급 정지 기능을 포함하는 것을 특징으로 한다.Here, the remote control unit includes a goal setting function for setting a target route using waypoints based on driving information including the current location and driving route acquired through the sensor unit, and a driving function obtained through the sensor unit. A target speed setting function that sets the target speed based on driving information including speed, and a function that determines whether driving is safe through surrounding obstacle information acquired through the sensor unit and stops the driving of the unmanned vehicle if it is determined to be unsafe. It is characterized by including an emergency stop function.

여기서, 상기 원격제어부는, 사용자에 의한 상기 무인이동체의 수동 주행 제어 또는 상기 무인이동체가 정해진 주행 경로를 자율적으로 이동할 수 있는 자율 주행 제어가 가능한 것을 특징으로 한다.Here, the remote control unit is characterized in that it is capable of manual driving control of the unmanned vehicle by a user or autonomous driving control that allows the unmanned vehicle to autonomously move along a determined travel path.

상기와 같은 구성에 의하여 본 발명에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템은 다중 센서, 원격제어 속도, 원격제어 주행정밀도, 관제를 위한 통신 속도, 긴급 정지 등을 위한 안전기능, 거리인식 정밀도, 시멘틱 지도 생성 등 무인이동체의 원격주행제어에 요구되는 다수의 미션이 충족될 수 있는 장점이 있다.With the above configuration, the unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to the present invention has multiple sensors, remote control speed, remote control driving precision, communication speed for control, and safety functions for emergency stop, etc. , it has the advantage of being able to satisfy a number of missions required for remote driving control of unmanned vehicles, such as distance recognition precision and semantic map generation.

도 1은 본 발명의 일실시예에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템의 구성도
도 2는 본 발명의 일실시예에 따른 무인이동체에 센서부가 장착되는 상태를 도시한 예시도
도 3은 본 발명의 일실시예에 따른 원격제어를 위한 통신 및 클라우드 구성 예시도
도 4는 본 발명의 일실시예에 따른 원격제어를 위한 무인이동체 운영시스템 및 인터페이스 구성도
도 5는 본 발명의 일실시예에 따른 원격제어부의 모니터 장치 예시도
도 6은 본 발명의 일실시예에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템의 전력 및 데이터 흐름도
도 7은 본 발명의 일실시예에 따른 원격제어부의 소프트웨어 환경구성도
도 8은 본 발명의 일실시예에 따른 무인이동체의 자율주행 알고리즘 예시도
도 9는 본 발명의 일실시예에 따른 센서부에서 획득된 주행정보 및 환경정보를 통해 무인이동체의 주행상태를 판단하는 예시도
도 10은 본 발명의 일실시예에 따른 무인이동체의 속도 및 조향 제어 예시도
도 11은 본 발명의 일실시예에 따른 원격제어부에서 의미론적 분할을 사용하여 무인이동체의 주행 가능 영역을 추정하는 예시도
도 12는 본 발명의 일실시예에 따른 원격제어부에서 사용하는 전이 학습 기술의 개념도
도 13은 본 발명의 일실시예에 따른 원격제어부의 인공지능 알고리즘의 전체 블록 다이어그램
Figure 1 is a configuration diagram of an unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to an embodiment of the present invention.
Figure 2 is an example diagram showing a state in which a sensor unit is mounted on an unmanned mobile device according to an embodiment of the present invention.
Figure 3 is an exemplary communication and cloud configuration for remote control according to an embodiment of the present invention.
Figure 4 is a configuration diagram of an unmanned vehicle operating system and interface for remote control according to an embodiment of the present invention.
Figure 5 is an exemplary monitor device of the remote control unit according to an embodiment of the present invention.
Figure 6 is a power and data flow diagram of an unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to an embodiment of the present invention.
Figure 7 is a software environment configuration diagram of the remote control unit according to an embodiment of the present invention.
Figure 8 is an example of an autonomous driving algorithm for an unmanned vehicle according to an embodiment of the present invention.
Figure 9 is an example of determining the driving state of an unmanned vehicle through driving information and environmental information obtained from the sensor unit according to an embodiment of the present invention.
Figure 10 is an example of speed and steering control of an unmanned vehicle according to an embodiment of the present invention.
Figure 11 is an example of estimating the drivable area of an unmanned vehicle using semantic segmentation in a remote control unit according to an embodiment of the present invention.
Figure 12 is a conceptual diagram of transfer learning technology used in the remote control unit according to an embodiment of the present invention.
Figure 13 is an overall block diagram of the artificial intelligence algorithm of the remote control unit according to an embodiment of the present invention.

이하에서는 도면에 도시된 실시예를 참조하여 본 발명에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템을 보다 상세하게 설명하기로 한다.Hereinafter, the unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to the present invention will be described in more detail with reference to the embodiments shown in the drawings.

도 1은 본 발명의 일실시예에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템의 구성도이고, 도 2는 본 발명의 일실시예에 따른 무인이동체에 센서부가 장착되는 상태를 도시한 예시도이며, 도 3은 본 발명의 일실시예에 따른 원격제어를 위한 통신 및 클라우드 구성 예시도이고, 도 4는 본 발명의 일실시예에 따른 원격제어를 위한 무인이동체 운영시스템 및 인터페이스 구성도이며, 도 5는 본 발명의 일실시예에 따른 원격제어부의 모니터링 장치 예시도이고, 도 6은 본 발명의 일실시예에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템의 전력 및 데이터 흐름도이며, 도 7은 본 발명의 일실시예에 따른 원격제어부의 소프트웨어 환경구성도이고, 도 8은 본 발명의 일실시예에 따른 무인이동체의 자율주행 알고리즘 예시도이며, 도 9는 본 발명의 일실시예에 따른 센서부에서 획득된 주행정보 및 환경정보를 통해 무인이동체의 주행상태를 판단하는 예시도이고, 도 10은 본 발명의 일실시예에 따른 무인이동체의 속도 및 조향 제어 예시도이며, 도 11은 본 발명의 일실시예에 따른 원격제어부에서 의미론적 분할을 사용하여 무인이동체의 주행 가능 영역을 추정하는 예시도이고, 도 12는 본 발명의 일실시예에 따른 원격제어부에서 사용하는 전이 학습 기술의 개념도이며, 도 13은 본 발명의 일실시예에 따른 원격제어부의 인공지능 알고리즘의 전체 블록 다이어그램이다.Figure 1 is a configuration diagram of a remote driving control system for an unmanned vehicle based on edge computing and artificial intelligence fusion technology according to an embodiment of the present invention, and Figure 2 shows a state in which a sensor unit is mounted on an unmanned vehicle according to an embodiment of the present invention. It is an example diagram, and Figure 3 is an example diagram of communication and cloud configuration for remote control according to an embodiment of the present invention, and Figure 4 is an unmanned vehicle operating system and interface for remote control according to an embodiment of the present invention. It is a configuration diagram, and Figure 5 is an exemplary diagram of a monitoring device of a remote control unit according to an embodiment of the present invention, and Figure 6 is a diagram of an unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to an embodiment of the present invention. It is a power and data flow diagram, Figure 7 is a software environment configuration diagram of the remote control unit according to an embodiment of the present invention, Figure 8 is an example diagram of an autonomous driving algorithm of an unmanned vehicle according to an embodiment of the present invention, and Figure 9 is It is an example diagram of determining the driving state of an unmanned vehicle through driving information and environmental information obtained from a sensor unit according to an embodiment of the present invention, and Figure 10 shows speed and steering control of an unmanned vehicle according to an embodiment of the present invention. It is an exemplary diagram, and FIG. 11 is an exemplary diagram of estimating the drivable area of an unmanned vehicle using semantic segmentation in a remote control unit according to an embodiment of the present invention, and FIG. 12 is a remote control unit according to an embodiment of the present invention. This is a conceptual diagram of the transfer learning technology used in, and Figure 13 is an overall block diagram of the artificial intelligence algorithm of the remote control unit according to an embodiment of the present invention.

도 1을 살펴보면, 본 발명의 일실시예에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템은 무인이동체(10)와, 센서부(20)와, 인터페이스부(30)와, 클라우드 네트워크 또는 무선통신(40)과, 원격제어부(50)를 포함한다.Looking at Figure 1, the unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to an embodiment of the present invention includes an unmanned vehicle 10, a sensor unit 20, an interface unit 30, and a cloud. It includes a network or wireless communication (40) and a remote control unit (50).

본 제안 기술은 인공지능 머신러닝기법의 한 분류인 실시간 사물인식, 차선인식, 주행영역인식, 노면상태인식과 더불어 특수 목적 작업 환경 정보 데이터를 원격으로 지상작업이 가능한 엣지컴퓨팅(GPU, NPU) 플랫폼 전달하고 탑재된 인공지능 기법을 통하여 불확실하고 위험한 작업환경을 사전에 인지하고, 도 3에 도시된 바와 같이 원격으로 인지된 환경 정보를 활용하여 작업차량이나 무인이동체의 자동주행제어(Automatic Motion Control) 및 수동원격제어(Manual Control) 모두 가능한 클라우드(Cloud)와 원격통신 기반으로 구현될 수 있는 기술이다.This proposed technology is an edge computing (GPU, NPU) platform that allows remote ground work on special-purpose work environment information data in addition to real-time object recognition, lane recognition, driving area recognition, and road surface condition recognition, which are a class of artificial intelligence machine learning techniques. Uncertain and dangerous work environments are recognized in advance through transmitted and installed artificial intelligence techniques, and automatic motion control of work vehicles or unmanned vehicles is performed using remotely recognized environmental information, as shown in Figure 3. It is a technology that can be implemented based on cloud and telecommunication, where both manual and remote control are possible.

원격안전주행기술은 클라우드 환경과 연동하여 멀리 떨어져 있는 장소에서도 제어가능하고 동시에 작업공간 근처의 환경에서 작업차량에 탑승하지 않아도 되며, 화면에 표시되는 내용을 기반으로 자동으로 또는 수동으로 전체 임무를 수행할 수 있도록 설계되어 업무 효율성을 증대시키는 장점을 가지고 있다.Remote safe driving technology is linked to the cloud environment and can be controlled from a remote location. At the same time, there is no need to board a work vehicle in an environment near the work space, and the entire mission is performed automatically or manually based on the content displayed on the screen. It is designed to do this and has the advantage of increasing work efficiency.

본 발명에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템은 다중 센서, 원격제어 속도, 원격제어 주행정밀도, 관제를 위한 통신 속도, 긴급 정지 등을 위한 안전기능, 거리인식 정밀도, 시멘틱 지도 생성 등 요구되는 다수의 미션이 충족하기 위한 것이다.The unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to the present invention has multiple sensors, remote control speed, remote control driving precision, communication speed for control, safety functions for emergency stops, distance recognition precision, and semantics. This is to fulfill a number of required missions such as map creation.

상기 무인이동체(10)는 모터를 동력원으로 주행이 가능한 구성이다.The unmanned vehicle 10 is configured to be capable of traveling using a motor as a power source.

상기 센서부(20)는 상기 무인이동체(10)의 주행 정보 및 상기 무인이동체 주변의 환경 정보를 획득할 수 있는 다수의 센서가 구비된 구성이다.The sensor unit 20 is equipped with a plurality of sensors capable of obtaining driving information of the unmanned vehicle 10 and environmental information around the unmanned vehicle 10.

본 발명의 일실시예에서 상기 센서부(20)는 도 1 및 도 2에 도시된 바와 같이 주행정보의 획득이 가능한 GPS, 상기 무인이동체(10) 주변 영상을 촬영할 수 있도록 상기 무인이동체(10)의 외측 가장자리를 둘러 장착되는 복수개의 어라운드뷰 모니터(AVM), 상기 무인이동체(10) 주변의 주변 장애물 정보의 획득이 가능하도록 상기 무인이동체(10)의 상부 중앙에 세워지는 3D 라이다(LiDAR) 센서 또는 상기 무인이동체(10)의 전방 및 후방에 설치되는 레이더(RADAR) 센서를 포함할 수 있다.In one embodiment of the present invention, the sensor unit 20 is equipped with a GPS capable of obtaining driving information as shown in FIGS. 1 and 2, and an unmanned mobile device 10 to capture images around the unmanned mobile device 10. A plurality of Around View Monitors (AVM) mounted around the outer edge of the unmanned vehicle 10, and a 3D LiDAR installed at the upper center of the unmanned vehicle 10 to enable acquisition of information on surrounding obstacles around the unmanned vehicle 10. It may include a sensor or a RADAR sensor installed at the front and rear of the unmanned vehicle 10.

상기 3D 라이다(LiDAR) 센서 또는 레이더(RADAR) 센서로부터 획득되는 장애물 정보는 상기 무인이동체(10)로부터 주위 사물의 거리, 상기 무인이동체(10)로 접근하는 사물의 속도 등이 포함된다.Obstacle information obtained from the 3D LiDAR sensor or RADAR sensor includes the distance of surrounding objects from the unmanned vehicle 10 and the speed of objects approaching the unmanned vehicle 10.

또한, 상기 센서부(20)는 추가로 Camera(Stereo, RGB), IMU 센서, Wheel Encoder, 기타 센서를 더 포함할 수 있다.Additionally, the sensor unit 20 may further include a Camera (Stereo, RGB), IMU sensor, Wheel Encoder, and other sensors.

상기 인터페이스부(30)는 상기 센서부(20)로부터 각종 정보를 입력 받고 제어신호에 따라 상기 무인이동체(10)를 제어할 수 있는 구성으로 클라우드 네트워크 또는 무선통신(40)을 통해 후술할 원격제어부(50)와 정보를 송수신하도록 구성된다.The interface unit 30 is configured to receive various information from the sensor unit 20 and control the unmanned vehicle 10 according to control signals, and is a remote control unit to be described later through a cloud network or wireless communication 40. It is configured to transmit and receive information with (50).

본 발명의 일실시예에서 상기 인터페이스부(30)는 도 4에 도시된 바와 같이 원격안전주행을 위해서 원격명령을 받을 경우 차량내에 리눅스(Linux) OS (또는 다른 OS) 기반으로 명령을 수행할 수 있는 로직(Logic) 및 연동통제를 위한 API를 ROS 기반으로 구현을 하였으며, 플랫폼 모션제어를 위해서 ROS를 통해서 모터를 제어할 수 있는 별도의 드라이버(Driver)를 설계하였다.In one embodiment of the present invention, the interface unit 30 can execute commands based on the Linux OS (or other OS) in the vehicle when receiving a remote command for remote safe driving as shown in FIG. 4. The API for logic and interlocking control was implemented based on ROS, and a separate driver that could control the motor through ROS was designed for platform motion control.

특히, 엣지컴퓨팅 플래폼에 탑재된 인공지능 기법을 기반으로 작업자 임무 및 작업공간의 자동 인식을 통해서 작업의 효율성 및 안정성을 모두 높이는데 장점을 가지고 있다. In particular, it has the advantage of increasing both work efficiency and stability through automatic recognition of worker tasks and work spaces based on artificial intelligence techniques installed in the edge computing platform.

위험감지 및 별도의 작업이 필요할 경우 작업자의 엣지컴퓨터 화면에서 자동으로 신호를 보내고, 감지된 신호를 바탕으로 수동으로 차량플랫폼을 원격으로 제어할 수 있는 기능을 탑재하도록 설계되었다.It is designed to automatically send a signal from the operator's edge computer screen when danger is detected or separate work is required, and to be equipped with a function to remotely control the vehicle platform manually based on the detected signal.

상기 클라우드 네트워크 또는 무선통신(40)은 무선통신을 통해 상기 인터페이스부(30)와 상기 원격제어부(50)가 상호 정보를 송수신 가능하도록 하는 구성이다.The cloud network or wireless communication 40 is a configuration that allows the interface unit 30 and the remote control unit 50 to transmit and receive information to each other through wireless communication.

상기 클라우드 네트워크 또는 무선통신(40)은 LTE, 5G, WiFi, Radio Signal 등 다양한 통신수단이 이용될 수 있다.The cloud network or wireless communication 40 may use various communication means such as LTE, 5G, WiFi, and Radio Signal.

상기 원격제어부(50)는 클라우드 네트워크 또는 무선통신(40)을 이용하여 원격에서 상기 인터페이스부(30)와 정보를 송수신하되, 상기 인터페이스(30)로부터 수신된 정보를 분석 및 모니터링하고, 상기 무인이동체(10)의 주행을 제어할 수 있는 제어신호를 상기 인터페이스부(30)로 송신하는 구성이다.The remote control unit 50 transmits and receives information to and from the interface unit 30 remotely using a cloud network or wireless communication 40, analyzes and monitors the information received from the interface 30, and controls the unmanned mobile device. This is a configuration that transmits a control signal that can control the driving of (10) to the interface unit (30).

본 발명의 일실시예에서 상기 원격제어부(50)는 지상서버 또는 엣지컴퓨터로 구성되고, 상기 인터페이스(30)로부터 수신된 정보로부터 장애물, 사물, 차선, 주행영역 및 노면상태를 포함하는 주행환경을 인식하고, 인식된 주행환경에 따라 인공지능 기법을 활용하여 충돌회피, 긴급상황 대응 및 정해진 특수목적작업 구현을 포함한 상황대처를 판단하며, 판단된 상황대처에 대응되는 제어신호를 생성하도록 구성된다.In one embodiment of the present invention, the remote control unit 50 is composed of a ground server or an edge computer, and determines the driving environment including obstacles, objects, lanes, driving areas, and road surface conditions from the information received from the interface 30. It is configured to recognize and use artificial intelligence techniques according to the recognized driving environment to determine situational response, including collision avoidance, response to emergency situations, and implementation of designated special purpose tasks, and to generate control signals corresponding to the determined situational response.

이와 관련하여 도 8에는 상기 원격제어부(50)에서의 자율주행 알고리즘을 예시하였고, 도 9에는 무인이동체의 주행상태를 판단하는 상태를 예시하였으며, 도 10에는 무인이동체의 속도 및 조향을 제어하는 상태를 예시하였다.In relation to this, FIG. 8 illustrates the autonomous driving algorithm in the remote control unit 50, FIG. 9 illustrates a state for determining the driving state of the unmanned vehicle, and FIG. 10 illustrates a state for controlling the speed and steering of the unmanned vehicle. is exemplified.

또한, 본 발명에 따른 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템은, 상기 원격제어부(50)의 충돌회피에 대한 상황대처 판단에 활용되는 인공지능 기법으로는 딥러닝 기반의 맵리스 로컬 모션 계획 기법을 적용할 수 있다.In addition, the unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology according to the present invention uses deep learning-based mapless as an artificial intelligence technique used to determine situational response to collision avoidance of the remote control unit 50. Local motion planning techniques can be applied.

상기 딥러닝 기반의 맵리스 로컬 모션 계획 기법은 우선, 의미론적 분할을 사용하여 상기 무인이동체(10)의 주행 가능 영역을 추정한다.The deep learning-based mapless local motion planning technique first estimates the drivable area of the unmanned vehicle 10 using semantic segmentation.

도 11에는 의미론적 분할을 사용하여 무인이동체(10)의 주행 가능 영역을 추정한 후 가상 레이저 스캔하는 것을 예시하였고, 도 13의 B에는 의미론적 분할을 기반으로한 인식 모듈(Perception Module)의 구성을 예시하였다.Figure 11 illustrates virtual laser scanning after estimating the drivable area of the unmanned vehicle 10 using semantic segmentation, and Figure 13B shows the configuration of the perception module based on semantic segmentation. is exemplified.

또한, 전이 학습 기술을 사용하여 인코더-디코더 모델을 훈련하고, 상기 인코더-디코더 모델을 이용하여 상기 의미론적 분할을 통해 추정된 주행 가능 영역으로부터 여유 공간을 분할한다.Additionally, an encoder-decoder model is trained using transfer learning technology, and the encoder-decoder model is used to segment the free space from the drivable area estimated through the semantic segmentation.

도 12에는 전이 학습(Transfer Learning) 기술을 사용하여 인코더-디코더 모델을 훈련하는 개념도를 도시하였는데, 이는 각 시나리오에서 몇 개의 프레임을 사용하는 전이 학습 기술을 사용하여 인코더-디코더 모델의 일반화 능력을 높이기 위한 것이다.Figure 12 shows a conceptual diagram of training an encoder-decoder model using transfer learning technology, which increases the generalization ability of the encoder-decoder model by using a transfer learning technology that uses several frames in each scenario. It is for.

이후, 비선형 모델 예측 제어(NMPC; Nonlinear Model Predictive Control) 방식을 사용하여 동적 및 정적 충돌을 회피할 수 있는 상황대처 판단을 하도록 구성된다.Afterwards, the nonlinear model predictive control (NMPC) method is used to determine situational response to avoid dynamic and static collisions.

도 13의 C에는 비선형 모델 예측 제어(NMPC)를 기반으로 한 로컬 모션 플래닝 모듈(Motion Planning Moudle)의 구성을 예시하였고, 비선형 모델 예측 제어(NMPC) 방식 자체는 공지기술이므로 이하 상세한 설명은 생략하기로 한다.Figure 13C illustrates the configuration of a local motion planning module based on nonlinear model predictive control (NMPC). Since the nonlinear model predictive control (NMPC) method itself is a known technology, detailed description below will be omitted. Do this.

상기와 같이 본 발명에 따른 인공지능 기법에 의하여 훈련 시간을 줄일 수 있고, 전이 학습 기술을 통해 시뮬레이션에서 실제로의 전이성을 높일 수 있으며, 추정된 구동 가능 여유 공간은 문제의 계산 복잡성을 증가시키지 않고, NMPC 공식에서 완화된 장벽 기능과 함께 사용됨으로써 상기 무인이동체(10)는 자동으로 복잡한 동작을 발견하고 움직이는 장애물이 있는 어수선한 장면을 피할 수 있게 되어 안정성과 자율성을 향상시킬 수 있게 된다.As described above, training time can be reduced by the artificial intelligence technique according to the present invention, transferability from simulation to reality can be increased through transfer learning technology, and the estimated drivable free space does not increase the computational complexity of the problem, By being used with the relaxed barrier function in the NMPC formulation, the unmanned vehicle 10 can automatically discover complex movements and avoid cluttered scenes with moving obstacles, thereby improving stability and autonomy.

또한, 본 발명의 일실시예에서 상기 원격제어부(50)는 도 5에 도시된 바와 같이 상기 GPS로부터 획득된 주행정보를 기준으로 지도 상에 현 위치 및 오버레이 된 주행경로, 주행속도, 고도, 방위 정보를 표시하고, 상기 어라운드뷰 모니터(AVM)에서 촬영된 영상과, 상기 3D 라이다(LiDAR) 센서 또는 레이더(RADAR) 센서를 통해 획득된 주변 장애물 정보를 표시하는 모니터링 장치가 구비된다.In addition, in one embodiment of the present invention, the remote control unit 50 displays the current location and the overlaid driving path, driving speed, altitude, and direction on the map based on the driving information obtained from the GPS, as shown in FIG. 5. A monitoring device is provided that displays information, images captured by the around view monitor (AVM), and surrounding obstacle information acquired through the 3D LiDAR sensor or RADAR sensor.

또한, 본 발명의 일실시예에서 상기 원격제어부(50)는 상기 센서부(20)의 GPS를 통해 획득된 현 위치 및 주행경로를 포함한 주행정보를 기준으로 경로점(Waypoints)을 이용하여 목표 경로를 설정하는 목표 설정 기능과, 상기 센서부(20)의 GPS를 통해 획득된 주행속도를 포함한 주행정보를 기준으로 목표 속도를 설정하는 목표 속도 설정 기능과, 상기 센서부(20)의 3D 라이다(LiDAR) 센서 또는 레이더(RADAR) 센서를 통해 획득된 주변 장애물 정보를 통해 주행 안전 여부를 판단하되 안전하지 않다고 판단된 경우 상기 무인이동체의 주행을 정지시키는 긴급 정지 기능을 포함한다.In addition, in one embodiment of the present invention, the remote control unit 50 sets a target route using waypoints based on driving information including the current location and driving route acquired through GPS of the sensor unit 20. A goal setting function that sets a target speed, a target speed setting function that sets a target speed based on driving information including the driving speed acquired through GPS of the sensor unit 20, and a 3D LIDAR of the sensor unit 20 It determines whether driving is safe through information on surrounding obstacles obtained through a LiDAR sensor or RADAR sensor, and includes an emergency stop function that stops the driving of the unmanned vehicle if it is determined to be unsafe.

또한, 본 발명의 일실시예에서 상기 원격제어부(50)는 사용자에 의한 상기 무인이동체(10)의 수동 주행 제어가 가능하고, 상기 무인이동체(10)가 정해진 주행 경로를 자율적으로 이동할 수 있는 자율 주행 제어 또한 가능함은 물론이다.In addition, in one embodiment of the present invention, the remote control unit 50 enables manual driving control of the unmanned vehicle 10 by a user, and enables the unmanned vehicle 10 to autonomously move a determined travel path. Of course, driving control is also possible.

기존 원격제어 제품들은 카메라 또는 센서 정보를 받아서 작업환경 모티터링을 기반으로 기본적인 원격제어를 수동으로 조작하는 경우가 대부분 차지하고 있는 상황이다.Most existing remote control products receive camera or sensor information and manually operate basic remote control based on work environment monitoring.

또한, 기존 자율주행제어 기법들은 자율주행을 위한 모션제어 및 충돌회피 자체에 목적을 두고 차량내부에 알고리즘을 탑재하여 플랫폼의 온보드(Onboard) 제어를 수행하는 형태를 띠고 있다. In addition, existing autonomous driving control techniques are aimed at motion control and collision avoidance for autonomous driving and take the form of performing onboard control of the platform by installing algorithms inside the vehicle.

하지만, 본 기술은 특수목적차량의 자율작업과 더불어 원격 수동작업을 모두 수행할 수 있도록 원격으로 작업환경 데이터를 바탕으로 지상에서 엣지컴퓨팅 기반 인공지능 알고리즘 처리하고 작업 수행을 안정성 및 효율성을 모두 높이는 새로운 지능형 원격안전제어기법에 대한 내용인 것이다.However, this technology is a new technology that processes edge computing-based artificial intelligence algorithms on the ground based on work environment data remotely and improves both stability and efficiency of work performance so that both autonomous work of special purpose vehicles and remote manual work can be performed. This is about intelligent remote safety control techniques.

앞에서 설명되고 도면에서 도시된 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템은 본 발명을 실시하기 위한 하나의 실시예에 불과하며, 본 발명의 기술적 사상을 한정하는 것으로 해석되어서는 안된다. 본 발명의 보호범위는 이하의 특허청구범위에 기재된 사항에 의해서만 정하여지며, 본 발명의 요지를 벗어남이 없이 개량 및 변경된 실시예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것인 한 본 발명의 보호범위에 속한다고 할 것이다.The unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology described above and shown in the drawings is only one embodiment for carrying out the present invention, and should not be construed as limiting the technical idea of the present invention. The scope of protection of the present invention is determined only by the matters stated in the claims below, and improved and changed embodiments without departing from the gist of the present invention are obvious to those skilled in the art to which the present invention pertains. It will be said to fall within the scope of protection of the present invention.

10 무인이동체
20 센서부
30 인터페이스부
40 클라우드 네트워크 또는 무선통신
50 원격제어부
10 Unmanned vehicle
20 sensor unit
30 Interface section
40 Cloud network or wireless communication
50 Remote control unit

Claims (6)

모터를 동력원으로 주행이 가능한 무인이동체;
상기 무인이동체의 주행 정보 및 상기 무인이동체 주변의 환경 정보를 획득할 수 있는 다수의 센서가 구비된 센서부;
상기 센서부로부터 각종 정보를 입력 받고, 제어신호에 따라 상기 무인이동체를 제어할 수 있는 인터페이스; 및
클라우드 네트워크 또는 무선통신을 이용하여 원격에서 상기 인터페이스부와 정보를 송수신하되, 상기 인터페이스로부터 수신된 정보를 분석 및 모니터링하고, 상기 무인이동체의 주행을 제어할 수 있는 제어신호를 상기 인터페이스부로 송신하는 원격제어부;를 포함하되,
상기 원격제어부는,
지상서버 또는 엣지컴퓨터로 구성되고,
상기 인터페이스로부터 수신된 정보로부터 장애물, 사물, 차선, 주행영역 및 노면상태를 포함하는 주행환경을 인식하고, 인식된 주행환경에 따라 인공지능 기법을 활용하여 충돌회피, 긴급상황 대응 및 정해진 특수목적작업 구현을 포함한 상황대처를 판단하며, 판단된 상황대처에 대응되는 제어신호를 생성하는 것을 특징으로 하는 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템.
An unmanned vehicle capable of driving using a motor as a power source;
A sensor unit equipped with a plurality of sensors capable of obtaining driving information of the unmanned vehicle and environmental information around the unmanned vehicle;
an interface capable of receiving various information from the sensor unit and controlling the unmanned vehicle according to control signals; and
A remote device transmits and receives information to the interface unit remotely using a cloud network or wireless communication, analyzes and monitors the information received from the interface, and transmits a control signal to control the driving of the unmanned vehicle to the interface unit. Including a control unit;
The remote control unit,
Consists of a ground server or edge computer,
Recognizes the driving environment including obstacles, objects, lanes, driving areas, and road surface conditions from the information received from the interface, and uses artificial intelligence techniques according to the recognized driving environment to avoid collisions, respond to emergency situations, and perform designated special-purpose tasks. An unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology, which determines situational response, including implementation, and generates control signals corresponding to the determined situational response.
제1항에 있어서,
상기 원격제어부는,
충돌회피에 대한 상황대처 판단에 활용되는 인공지능 기법으로 딥러닝 기반의 맵리스 로컬 모션 계획 기법을 적용하되,
상기 딥러닝 기반의 맵리스 로컬 모션 계획 기법은, 의미론적 분할을 사용하여 상기 무인이동체의 주행 가능 영역을 추정하고, 전이 학습 기술을 사용하여 인코더-디코더 모델을 훈련하며, 상기 인코더-디코더 모델을 이용하여 상기 의미론적 분할을 통해 추정된 주행 가능 영역으로부터 여유 공간을 분할하고, 비선형 모델 예측 제어(NMPC) 방식을 사용하여 동적 및 정적 충돌을 회피할 수 있는 상황대처 판단을 하도록 구성된 특징으로 하는 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템.
According to paragraph 1,
The remote control unit,
A deep learning-based mapless local motion planning technique is applied as an artificial intelligence technique used to determine situational response to collision avoidance.
The deep learning-based mapless local motion planning technique estimates the drivable area of the unmanned vehicle using semantic segmentation, trains an encoder-decoder model using transfer learning technology, and trains the encoder-decoder model. An edge characterized by dividing the free space from the drivable area estimated through the semantic division and making situational response decisions to avoid dynamic and static collisions using a non-linear model predictive control (NMPC) method. Unmanned vehicle remote driving control system based on computing and artificial intelligence convergence technology.
제1항에 있어서,
상기 센서부는,
주행정보의 획득이 가능한 GPS, 상기 무인이동체 주변 영상을 촬영할 수 있는 어라운드뷰 모니터(AVM), 상기 무인이동체 주변의 주변 장애물 정보의 획득이 가능한 3D 라이다(LiDAR) 센서 또는 레이더(RADAR) 센서를 포함하는 것을 특징으로 하는 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템.
According to paragraph 1,
The sensor unit,
GPS that can acquire driving information, an Around View Monitor (AVM) that can capture images around the unmanned vehicle, and a 3D LiDAR sensor or RADAR sensor that can acquire information on surrounding obstacles around the unmanned vehicle. An unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology, characterized in that it includes.
제3항에 있어서,
상기 원격제어부는,
상기 GPS로부터 획득된 주행정보를 기준으로 지도 상에 현 위치 및 오버레이 된 주행경로, 주행속도, 고도, 방위 정보를 표시하고, 상기 어라운드뷰 모니터(AVM)에서 촬영된 영상과, 상기 3D 라이다(LiDAR) 센서 또는 레이더(RADAR) 센서를 통해 획득된 주변 장애물 정보를 표시하는 모니터링 장치가 구비된 것을 특징으로 하는 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템.
According to paragraph 3,
The remote control unit,
Based on the driving information obtained from the GPS, the current location, overlaid driving path, driving speed, altitude, and direction information are displayed on the map, and the image captured by the around view monitor (AVM) and the 3D LIDAR ( An unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology, which is equipped with a monitoring device that displays information on surrounding obstacles obtained through a LiDAR sensor or RADAR sensor.
제3항에 있어서,
상기 원격제어부는,
상기 센서부를 통해 획득된 현 위치 및 주행경로를 포함한 주행정보를 기준으로 경로점(Waypoints)을 이용하여 목표 경로를 설정하는 목표 설정 기능과, 상기 센서부를 통해 획득된 주행속도를 포함한 주행정보를 기준으로 목표 속도를 설정하는 목표 속도 설정 기능과, 상기 센서부를 통해 획득된 주변 장애물 정보를 통해 주행 안전 여부를 판단하되 안전하지 않다고 판단된 경우 상기 무인이동체의 주행을 정지시키는 긴급 정지 기능을 포함하는 것을 특징으로 하는 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템.
According to paragraph 3,
The remote control unit,
A goal setting function that sets a target route using waypoints based on driving information including the current location and driving path acquired through the sensor unit, and driving information including driving speed acquired through the sensor unit It includes a target speed setting function that sets the target speed, and an emergency stop function that determines whether driving is safe through surrounding obstacle information obtained through the sensor unit, but stops the driving of the unmanned vehicle if it is determined to be unsafe. An unmanned vehicle remote driving control system based on edge computing and artificial intelligence convergence technology.
제5항에 있어서,
상기 원격제어부는,
사용자에 의한 상기 무인이동체의 수동 주행 제어 또는 상기 무인이동체가 정해진 주행 경로를 자율적으로 이동할 수 있는 자율 주행 제어가 가능한 것을 특징으로 하는 엣지컴퓨팅 및 인공지능 융합 기술 기반 무인이동체 원격주행제어 시스템.
According to clause 5,
The remote control unit,
A remote driving control system for an unmanned vehicle based on edge computing and artificial intelligence convergence technology, characterized in that it is capable of manual driving control of the unmanned vehicle by a user or autonomous driving control that allows the unmanned vehicle to autonomously move a determined driving path.
KR1020230132042A 2022-09-30 2023-10-04 Safe remote control system for unmanned vehicles using edge computing and artificial intelligence KR20240046095A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220125463 2022-09-30
KR20220125463 2022-09-30

Publications (1)

Publication Number Publication Date
KR20240046095A true KR20240046095A (en) 2024-04-08

Family

ID=90715196

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230132042A KR20240046095A (en) 2022-09-30 2023-10-04 Safe remote control system for unmanned vehicles using edge computing and artificial intelligence

Country Status (1)

Country Link
KR (1) KR20240046095A (en)

Similar Documents

Publication Publication Date Title
US20210397185A1 (en) Object Motion Prediction and Autonomous Vehicle Control
US10656657B2 (en) Object motion prediction and autonomous vehicle control
US11021075B2 (en) Autonomous vehicle paletization system
CN111052022B (en) Autonomous vehicle collision mitigation systems and methods
EP2338029B1 (en) Control and systems for autonomously driven vehicles
KR20210050925A (en) Vehicle collision avoidance apparatus and method
US20190064840A1 (en) Systems and Methods for Controlling an Autonomous Vehicle with Occluded Sensor Zones
CN111169479A (en) Cruise control method, device and system, vehicle and storage medium
JP6755071B2 (en) Vehicle travel control device
US11618444B2 (en) Methods and systems for autonomous vehicle inference of routes for actors exhibiting unrecognized behavior
US11679780B2 (en) Methods and systems for monitoring vehicle motion with driver safety alerts
CN116745187A (en) Method and system for predicting the trajectory of an uncertain road user by semantic segmentation of the boundary of a travelable region
CN112977441A (en) Driving decision method and device and electronic equipment
CN112037579A (en) Monitoring vehicle movement to mitigate traffic risks
CN116724345A (en) Method and system for inferring non-drawn stop lines for an autonomous vehicle
CN114080341A (en) Techniques to contact a remote operator
WO2023109281A1 (en) Method and device for controlling driving of autonomous mobile robot
KR20240046095A (en) Safe remote control system for unmanned vehicles using edge computing and artificial intelligence
US11886202B2 (en) Method and system for switching between local and remote guidance instructions for autonomous vehicles
KR102070110B1 (en) Intelligent agent structure for autonomous unmanned system
AU2021104979A4 (en) Smart cloud-based security and privacy system for preventing collision of automated and self-drive vehicle
CN116520843A (en) Method and apparatus for assisting a hybrid vehicle with a mobile robot
CN113777975A (en) Remote auxiliary system and method for automatically driving vehicle
CN117850420A (en) Sanitation vehicle control method and sanitation vehicle