KR102423114B1 - 무인이동체 자율주행 시스템 및 이를 이용한 방법 - Google Patents

무인이동체 자율주행 시스템 및 이를 이용한 방법 Download PDF

Info

Publication number
KR102423114B1
KR102423114B1 KR1020200164756A KR20200164756A KR102423114B1 KR 102423114 B1 KR102423114 B1 KR 102423114B1 KR 1020200164756 A KR1020200164756 A KR 1020200164756A KR 20200164756 A KR20200164756 A KR 20200164756A KR 102423114 B1 KR102423114 B1 KR 102423114B1
Authority
KR
South Korea
Prior art keywords
information
module
unmanned
driving
map
Prior art date
Application number
KR1020200164756A
Other languages
English (en)
Other versions
KR20220076014A (ko
Inventor
황환철
Original Assignee
주식회사 에스제이 테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스제이 테크 filed Critical 주식회사 에스제이 테크
Priority to KR1020200164756A priority Critical patent/KR102423114B1/ko
Priority to PCT/KR2021/016950 priority patent/WO2022114664A1/ko
Publication of KR20220076014A publication Critical patent/KR20220076014A/ko
Application granted granted Critical
Publication of KR102423114B1 publication Critical patent/KR102423114B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/005Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with signals other than visual, e.g. acoustic, haptic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은, 무인이동체(E-Mobility)의 자율주행 시스템으로서, 구동모듈(110), 위치정보를 수신하는 GPS 센서모듈(120) 및 상기 구동모듈(110)의 제어정보를 송수신하는 통신모듈(130)을 포함하는, 무인이동체(100); 대상영역에 대한 맵정보가 미리 설정된 방식에 의해 생성되며, 맵생성모듈(200); 상기 맵정보를 기반으로 하는 상기 무인이동체(100)의 경로계획정보를 생성하는 경로정보 생성모듈(300); 상기 무인이동체(100)의 위치정보를 기반으로, 상기 경로계획정보에 대응되도록 상기 구동모듈(110)의 제어정보를 연산하는, 연산모듈(400); 및 상기 무인이동체(100)의 위치정보에 대응되는 상기 무인이동체(100)의 상태정보를 표시하는 사용자단말모듈(500); 을 포함하는, 무인이동체 자율주행 시스템을 제공한다.

Description

무인이동체 자율주행 시스템 및 이를 이용한 방법{Unmanned vehicle autonomous driving system and method using the same}
본 발명은 무인이동체 자율주행 시스템 및 이를 이용한 방법에 관한 것으로써, 웨이포인트(way-point)를 통한 경로계획 및 차량제어로 작업 환경에서의 운반 및 운송이 가능하며 이미지 센서를 이용한 사물인식을 통해 이동 시 장애물 회피를 가능하게 하는 기술이다.
자율주행 기술은 고정밀 지도 기반 다양한 센서를 이용하여 많은 기술의 발전과 상용화를 위해 발전하고 있지만, 일반 도로가 아닌 농·축산 작업 환경개선을 위한 E-Mobility용 스마트폰 활용 웨이포인트 주행 및 사물 인식 기술로, 농·축산 현장에서 작업 후 E-Mobility를 통해 설정한 경로를 자율로 운반 및 운송 가능하게 하는 기술이 필요하다.
농림축산식품부의 제8차 농업기계화 기본계획에 따른 2019년도 시행계획에 따르면, 농촌진흥청은 농작업 자동화 등 ICT융복합 기반기술 확보를 위해 과원용 자율주행 알고리즘 및 로봇 플랫폼을 네덜란드와 국제 공동으로 연구 추진 중이며 장애물 인식, 출발점과 도착점에 대한 최적 경로 알고리즘 등 4차 산업혁명 대비 첨단 농기계 개발보급을 목표로 하고 있으며 이러한 기술 개발이 필요한 실정이다.
현대 농업은 1차, 2차, 3차 산업이 결합된 복합 산업이며, 단순한 먹거리 생산 위주의 농업에서 벗어나 IT(Information Technology, 정보통신), BT(Bio, 생명), NT(Nano Technology, 나노), ET(Environment Technology, 환경), CT(Culture Technology, 문화콘텐츠), ST(Space Technology, 우주항공) 등 첨단기술과의 융복합을 통해 스마트농업, 생명농업, 친환경농업, 문화농업, 관광농업, 우주농업 등으로 발전이 요구되고 있다.
농·축산업인구 고령화, 젊은 층의 영농승계 인력난 및 생산면적 감소, 투자위축 등에 따른 소득, 수출, 성장률 정체 등 지속가능성 위기에 처한 농촌문제 해결안으로 최근 스마트팜이 큰 주목을 받고 있다. 농업의 규모화가 진행됨에 따라 농축산물 판매 수입이 연간 1억원 이상인 농가의 비율이 증가 되었으며, 이러한 시대적 흐름 속에 친환경적인 농림축산업에 내연기관이 아닌 ICT가 적용된 신개념의 친환경 E-Mobility전기동력을 이용하여 생활교통과 물류배송 목적으로 사용하는 1~2인용 개인형 이동수단 기술개발이 요구되는 실정이다.
이와 관련된 대표적인 종래기술로는, 한국등록특허 제10-2103944호인 '모노카메라를 이용한 자율주행 차량의 거리 및 위치 추정 방법'이 개시된다. 상기 종래기술은 모노카메라(Mono camera)와 라이다(LiDAR)를 이용하여 자율주행에 필요한 정보를 효율적으로 획득하는 구성을 개시한다.
그러나, 상기 종래기술은 단순히 모노카메라 및 라이다를 이용한 기술만을 개시할 뿐, 농업 또는 축산업에 최적화된 구성이나 알고리즘을 개시하지 못한다. 자율주행 기술은 그 기술의 적용 분야에 따른 특성이 고려될 필요가 있는 바, 일반 자율주행 기술과는 차별화되는 구성이 필요함에도 불구하고, 현재까지는 이에 대한 연구는 부족한 실정이다.
(특허문헌 1) 한국등록특허 제10-2103944호
(특허문헌 2) 한국등록특허 제10-2168104호
(특허문헌 3) 한국공개특허 제10-2020-0034033호
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다.
종래기술인 자율주행은 정밀지도 또는 일반지도에 도로를 근거하여 경로계획을 세우고 각종 센서를 이용하여 환경을 인식하여 출발지에서 목표지점까지 도달하는 기술인 바, 실외 즉 GPS 신호가 수신되는 환경에서 작동하는 반면에, 농축산 자율작업을 위한 경로계획의 경우 정밀지도 및 일반지도의 도로 기반으로 적용할 수 없기 때문에, 라이더 센서를 이용한 지도의 생성 및 이를 기반으로 한 경로계획을 수립할 수 있는 기술을 제안하고자 한다.
상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, 무인이동체(E-Mobility)의 자율주행 시스템으로서, 구동모듈(110), 위치정보를 수신하는 GPS 센서모듈(120) 및 상기 구동모듈(110)의 제어정보를 송수신하는 통신모듈(130)을 포함하는, 무인이동체(100); 대상영역에 대한 맵정보가 미리 설정된 방식에 의해 생성되며, 맵생성모듈(200); 상기 맵정보를 기반으로 하는 상기 무인이동체(100)의 경로계획정보를 생성하는 경로정보 생성모듈(300); 상기 무인이동체(100)의 위치정보를 기반으로, 상기 경로계획정보에 대응되도록 상기 구동모듈(110)의 제어정보를 연산하는, 연산모듈(400); 및 상기 무인이동체(100)의 위치정보에 대응되는 상기 무인이동체(100)의 상태정보를 표시하는 사용자단말모듈(500); 을 포함하는, 무인이동체 자율주행 시스템을 제공한다.
또한, 상기 무인이동체(100)는, 상기 무인이동체(100)의 주행시, 주변의 객체를 감지하는 라이다(Lidar) 센서모듈(140)을 더 포함하며, 상기 연산모듈(400)은, 상기 무인이동체(100)가 실내에 위치될 때, 상기 라이다 센서모듈(140)로부터 감지된 객체정보를 고려하여, 상기 무인이동체(100)의 위치정보를 연산할 수 있다.
또한, 상기 연산모듈(400)은, 상기 GPS 센서모듈(120) 또는 상기 라이다 센서모듈(140)로부터 전송된 정보를 이용하여, 상기 맵정보 상에 상기 무인이동체(100)의 현재 위치를 맵핑하고, 상기 대상영역의 환경정보를 생성하여 상기 맵정보 상에 맵핑하는 환경인지부(410); 를 포함하며, 상기 환경정보는, 상기 대상영역에 위치된 장애물정보를 포함하고, 상기 경로계획정보는 상기 장애물정보를 기반으로, 장애물을 회피하도록 설정될 수 있다.
또한, 상기 무인이동체(100)는, 상기 무인이동체 주변을 실시간 촬영하도록 구성된 카메라모듈(150)을 더 포함하며, 상기 연산모듈(400)은, 미리 설정된 방식으로 학습된 인공지능모델(422)을 포함하는 인공지능분석부(420)로서, 상기 인공지능모델(422)을 이용하여, 상기 카메라모듈(150)로부터 전송된 영상정보를 분석함으로써, 상기 장애물정보를 판단하는 인공지능분석부(420); 를 더 포함하며, 상기 인공지능분석부(420)는, 상기 무인이동체(100)의 주행 중 장애물정보가 새롭게 확인된 경우, 상기 확인된 장애물정보가 상기 맵정보에 반영되도록 상기 맵생성모듈(200)로 전송함으로써, 상기 맵정보를 업데이트할 수 있다.
또한, 상기 경로정보 생성모듈(300)에서 생성된 경로계획정보는, 미리 설정된 주행모드 중 어느 하나로 구분되며, 상기 미리 설정된 주행모드는, 상기 맵정보 상에 입력된 출발점 및 도착점을 이용하여 상기 무인이동체의 경로계획을 설정하는 제1 주행모드; 상기 맵정보 상에 입력된 적어도 두 지점을 반복하여 이동하도록 상기 무인이동체의 경로계획을 설정하는 제2 주행모드; 상기 맵정보 상에 상기 대상영역의 일부인, 주행영역을 설정하고, 상기 주행영역 내에서 이동하도록 상기 무인이동체의 경로계획을 설정하는 제3 주행모드; 및 미리 설정된 템플릿 패턴을 따라 상기 무인이동체의 경로계획을 설정하는 제4 주행모드; 중 적어도 하나를 포함할 수 있다.
또한, 상기 연산모듈(400)은, 상기 무인이동체의 사용방식에 따라, 미리 설정된 구동모드로 구분된 구동모드 선택부(430); 를 포함하며, 상기 기설정된 구동모드는, 주행모드, 이송모드 및 분사모드 중 적어도 어느 하나를 포함하도록 설정되고, 상기 이송모드에서는, 상기 경로정보 생성모듈(300)에 대상물의 상역 및 하역 지점을 상기 맵정보 상에 설정하도록 구성되고, 상기 분사모드에서는, 상기 무인이동체(100)에 장착된 분사모듈(160)의 분사방향을 고려하여, 상기 무인이동체(100)가 상기 대상영역을 주행하도록 설정될 수 있다.
또한, 상기 무인이동체(100)는, 상기 대상영역의 대기상태를 센싱하는 대기센서모듈(170); 을 더 포함하며, 상기 연산모듈(400)은, 상기 대기센서모듈(170)로부터 센싱된 대기정보를 기반으로, 상기 무인이동체의 주행속도를 연산하며, 상기 대기정보는 풍향 및 풍속을 포함할 수 있다.
또한, 상기 무인이동체(100)는, IMU(Inertial Measurement Unit) 센서모듈(180)을 더 포함하며, 상기 맵생성모듈(200)은, 상기 IMU 센서모듈(180)을 통해, 상기 대상영역 내의 경사구역을 판단하여, 상기 경사구역을 상기 맵정보 상에 맵핑할 수 있다.
또한, 상기 무인이동체(100)는, 상기 대상영역에 위치하는 작업자의 제1 비콘(510) 및 상기 대상영역의 기설정된 위치에 미리 설치된 제2 비콘(520)과 무선연결되도록 구성된, IR(infrared ray) 센서모듈(190)을 더 포함하며, 상기 연산모듈(400)은, 상기 IR 센서모듈(190)로부터 전송된 상기 제1 및 제2 비콘(510, 520)과의 근접정보를 이용하여, 상기 구동모듈(110)을 제어하도록 구성될 수 있다.
한편, 본 발명은 전술한 무인이동체 자율주행 시스템을 이용한 방법으로서, (a) 대상영역에 대한 무인이동체(100)의 시험주행이 수행되는 단계로서, 상기 맵생성모듈(200)을 통해, 상기 대상영역에 대한 맵정보가 생성되는 단계(S110); (b) 사용자단말모듈(500)을 통해, 상기 무인이동체(100)의 주행모드정보 및 구동모드정보가 입력되는 단계(S120); (c) 상기 (b) 단계에서 입력된 상기 무인이동체(100)의 주행모드정보를 기반으로, 경로정보 생성모듈(300)을 통해, 상기 무인이동체(100)의 경로계획정보가 생성되는 단계(S130); 및 (d) 상기 대상영역에 대한 상기 무인이동체(100)의 본 주행이 수행되는 단계로서, 상기 연산모듈(400)에 의해, 상기 구동모듈(110)의 실시간 제어되며, 상기 제어정보 및 상기 무인이동체(100)의 위치정보는 상기 사용자단말모듈(500)로 전송되어 표시되는 단계(S140); 를 포함하는 방법을 제공한다.
또한, 상기 (a) 단계(S110)에서 생성되는 상기 맵정보는 상기 대상영역에 위치된 장애물정보를 포함하고, 상기 (d) 단계(S140)에서, 상기 무인이동체(100)의 본 주행시, 상기 (a) 단계(S110)에서 설정된 상기 장애물정보 이외의 다른 장애물정보가 확인된 경우, 상기 다른 장애물정보를 상기 경로정보 생성모듈(300)로 전송하여, 상기 경로계획정보를 수정할 수 있다.
첫째, 본 발명은 GPS 및 라이다를 결합하여 무인이동체의 위치정보를 연산함에 따라, 위치와 장소에 제한되지 않고, 실외 및 실내 모두에 적용될 수 있는 효과를 발휘한다.
둘째, 본 발명은 소정의 주행모드 및 구동모드를 선택하도록 구성됨으로써, 사용자가 보다 용이하게 사용자의 목적에 적합한 경로계획을 생성할 수 있는 편의성을 제공하며, 미리 결정된 템플릿 패턴을 제공함으로써, 사용자의 선택을 더욱 용이하게 하는 편의성 역시 제공한다.
도 1은 본 발명에 따른 무인이동체 자율주행 시스템의 개념도이다.
도 2는 본 발명에 따른 무인이동체 자율주행 시스템의 구성도이다.
도 3은 본 발명에 따른 무인이동체 자율주행 시스템의 주행모드에 대한 개략적인 모식도이다.
도 4는 본 발명에 따른 무인이동체 자율주행 시스템의 템플릿 패턴의 실시예를 도시한 모식도이다.
도 5는 본 발명에 따른 무인이동체 자율주행 시스템에서, 대상영역의 경사를 감지하는 과정을 개략적으로 도시한 모식도이다.
도 6은 본 발명에 따른 무인이동체 자율주행 시스템에서, 대상영역 내에서 IR 센서모듈을 통해, 비콘을 감지하는 과정을 개략적으로 도시한 모식도이다.
도 7은 본 발명에 따른 무인이동체 자율주행 시스템을 이용한 방법의 순서도이다.
도 8은 사용자단말모듈에 무인이동체 및 대상영역의 정보를 표시한 UI의 일 예시를 도시한다.
이하에서는, 도면을 참고하여 무인이동체 자율주행 시스템을 설명한다.
본원에서 사용되는 '무인이동체'는 다목적 차량(ATV(All-Terrain Vehicle, 다목적 사륜 오토바이), UTV(Utility Terrain Vehicle, 다목적 사륜 자동차))은 일반적인 주행 이외에, 제설,·농약 살포,·화물 운반 등과 같은 작업 뿐만 아니라 상대적인 고속(시속 40∼65㎞) 이동도 가능하며, 작업 장비를 연결하여 용도에 맞춰 다양한 작업이 가능한 이동수단을 의미한다. 또한, 본 발명은 상기의 이동수단 뿐만 아니라, 스마트 모빌리티, 물류 창고용 관리 시스템, 오프로드 장비, 무인 선박, 무인기(무인 비행체) 등 다양한 시스템에 적용 가능함을 미리 명시한다.
도 1은 본 발명에 따른 무인이동체 자율주행 시스템의 개념도이다.
본 발명은 사용자단말모듈(500)을 이용하여, 무인이동체(100)를 제어하도록 구성되는 것을 기반으로 한다. 사용자단말모듈(500) 및 무인이동체(100)는 무선네트워크망을 통해 연결되며, 제어신호 또는 명령신호의 송수신을 통해, 무인이동체(100)의 동작을 제어함과 동시에, 무인이동체(100)의 현재상태 및 센싱된 정보들을 주고 받도록 구성된다. 이를 위해, 무인이동체(100)에는 GPS 센서모듈(120), 통신모듈(130) 및 라이다 센서모듈(140)이 장착된다.
본원에서 사용되는 '대상영역'은 무인이동체(100)의 주행 대상이 되는 소정의 영역을 의미한다. 대상영역의 맵정보 등은 미리 제공받을 수도 있으나, 만약 미리 제공받지 못할 경우에는 후술하는 바와 같이, 무인이동체(100)의 시험주행에 따라, 생성될 수 있음을 미리 명시한다. 여기서, 대상영역의 맵정보를 미리 제공받는 경우는, 대상영역의 맵정보가 공공데이터서버에 있는 경우, 이미 시험주행을 통해, 대상영역의 맵정보가 획득된 경우 등이 있을 수 있다. 도 8을 먼저 참조하면, 사용자단말모듈(500)에 대상영역의 맵정보가 생성된 화면을 도시한다.
사용자단말모듈(500)에는 현재 무인이동체(100)의 주행모드, 구동모드, 맵정보 상에서 현재 무인이동체(100)의 위치, 장애물의 위치 등이 모두 표시될 수 있다. 사용자단말모듈(500)은 스마트폰, 스마트테블릿, 데스크탑, 랩탑 뿐만 아니라, 디스플레이수단이 포함된 모든 장치로 적용될 수 있으며, 별도의 어플리케이션(또는 프로그램, 소프트웨어)의 설치를 통해 사용될 수 있음을 미리 명시한다.
본 발명의 무인이동체(100)로부터 센싱되는 정보는, 무선네트워크망을 통해 통합서버(미도시)로 전송된 후, 통합서버에서 모든 연산처리가 수행될 수 있다. 즉, 후술하는 맵생성모듈(200), 경로정보 생성모듈(300), 연산모듈(400) 등과 같이, 소정의 연산처리가 수행되는 구성들은 통합서버에 구비될 수 있음을 미리 명시한다.
도 2를 참조하여, 본 발명에 따른 무인이동체 자율주행 시스템을 설명한다.
무인이동체 자율주행 시스템은 무인이동체(100), 맵생성모듈(200), 경로정보 생성모듈(300) 및 연산모듈(400)을 포함한다.
구체적으로, 무인이동체(100)는 구동모듈(110), GPS 센서모듈(120), 통신모듈(130), 라이다 센서모듈(140) 및 카메라모듈(150)을 포함하며, 추가적으로 분사모듈(160), 대기센서모듈(170), IMU 센서모듈(180) 및 IR 센서모듈(190)을 더 포함할 수 있다.
구동모듈(110)은 무인이동체(100)의 주행과 관련된 기능을 의미한다. 구동수단(내연기관 또는 모터수단), 방향제어수단, 휠수단(캐터필러(CATERPILLAR)로 형성될 수도 있음) 등을 포함하며, 구동모듈(110)의 구성은 일반적인 차량과 공통될 수 있다.
GPS 센서모듈(120)은 인공위성으로부터 위치정보를 수신하도록 구성된다. 자율주행에 있어서, 무인이동체(100)의 위치정보는 제어를 위해 매우 중요한 요소인 바, 필수적 구성으로 볼 수 있으며, GPS 신호가 상대적으로 잘 감지되는 실외에서 매우 유용하게 사용된다. 통신모듈(130)은 전술한 무선네트워크망과의 연결을 위한 모듈을 의미한다. 무인이동체(100)에 구비된 다수의 모듈들로부터 취합된 정보는 통신모듈(130)을 거쳐 무선네트워크망으로 전송되도록 구성된다.
라이다 센서모듈(140)은 레이저 펄스를 발사하고, 그 빛이 주위의 대상 물체에서 반사되어 돌아오는 것을 받아 물체까지의 거리 등을 측정함으로써 주변의 모습을 정밀하게 그려내는 장치로 널리 이용되고 있다. 본 발명의 라이다 센서모듈(140)은 이러한 원리를 이용하여, 주변의 객체를 판단함으로써, 맵정보를 생성함과 동시에, 장애물을 감지하도록 구성된다.
카메라모듈(150)은 주변의 객체를 영상촬영하도록 구성된다. 후술하는 바와 같이, 카메라모듈(150)로부터 수집된 영상정보는 인공지능분석부(420)를 통해 판단됨으로써, 주변의 객체에 대한 정보를 특정하도록 형성된다. 예를 들어, 주변 객체와의 거리, 주변 객체의 형태 뿐만 아니라, 열화상카메라를 더 장착함으로써, 열화상영상정보 역시 수집될 수 있으며, 이를 통해, 객체의 현재 온도 및 온도 변화를 확인할 수 있다. 본 발명에 따른 무인이동체(100는 적용 분야에 따라, 열화상 영상정보의 수집이 필요한 상황이 있을 수 있다. 일 예시로, 농작물의 병해충 여부에 따라, 병해충이 있는 농작물 및 정상 농작물의 온도는 상이하게 센싱될 수 있는 바, 병해충 농작물의 판단 및 보다 효과적인 농약 살포를 위해서는 이러한 열화상 영상정보가 사용될 수도 있다.
분사모듈(160), 대기센서모듈(170), IMU 센서모듈(180) 및 IR 센서모듈(190)은 별도로 후술하도록 한다.
본 발명은 맵생성모듈(200), 경로정보 생성모듈(300), 연산모듈(400) 및 사용자단말모듈(500)을 포함한다.
맵생성모듈(200)은 대상영역에 대한 맵정보가 미리 설정된 방식에 의해 생성된다. 전술한 바와 같이, 대상영역에 대한 맵정보는 시험주행 또는 별도의 제공에 의해 생성될 수 있다.
경로정보 생성모듈(300)은 맵정보를 기반으로 무인이동체(100)의 경로계획정보를 생성한다. 일 예시로, 대상영역 내에 별도의 주행영역을 설정하며, 주행영역의 랜덤주행을 하도록 경로계획정보를 생성할 수도 있으며, 경로계획정보는 무인이동체(100)의 목적에 따라 달라질 수 있다. 경로정보 생성모듈(300)은 특정된 대상영역의 맵정보를 기초로 하여, 대상영역의 내부를 어떻게 주행할 것인지를 결정하는 것을 의미한다.
연산모듈(400)은, 무인이동체(100)의 동작에 관한 모든 사항을 연산하는 구성을 의미한다. 무인이동체(100)의 위치정보를 기반으로, 경로계획정보에 대응되도록 구동모듈(110)의 제어정보를 연산하며, 무인이동체(100)에 구비된 센서모듈들로부터 주변정보를 수집하며, 이를 제어정보에 고려하도록 구성된다.
전술한 바와 같이, 실외에서는 GPS 센서모듈(120)의 신호가 양호할 수 있으나, 실내에서는 상대적으로, GPS 센서모듈(120)의 신호 송수신이 원활하지 않을 수 있다. 이러한 경우를 대비하기 위해, 실내에서는 라이다 센서모듈(140)로부터 전송된 신호를 더 우선시하도록 설정된다. 즉, GPS 센서모듈(120) 및 라이다 센서모듈(140)로부터 전송된 정보의 내용이 상호 충돌하는 경우의 우선순위를 의미한다. 실내 및 실외는 사용자가 별도로 설정할 수도 있으나, 소정의 알고리즘을 통해, 자동으로 실내 및 실외를 판단하도록 구성될 수 있다. 일 예시로, 구동모듈(110)의 제어정보는 무인이동체(100)의 이동정보를 모두 포함하고 있는 바, 무인이동체(100)가 이동을 하고 있는 상태로 확인됨에도 불구하고, GPS 센서모듈(120)에서는 동일한 위치정보를 계속 수신하고 있는 경우에는, 이를 자동으로 실내로 판단할 수 있으며, 라이다 센서모듈(140)을 더 우선시하고, GPS 센서모듈(120)의 위치정보를 무시하도록 구성될 수 있다. 즉, 무인이동체(100)가 실내에 위치될 때, 라이다 센서모듈(140)로부터 감지된 객체정보를 고려하여, 무인이동체(100)의 위치정보를 연산하도록 구성된다.
연산모듈(400)은 환경인지부(410), 인공지능 분석부(420) 및 구동모드 선택부(430)를 포함한다.
환경인지부(410)는 GPS 센서모듈(120) 또는 라이다 센서모듈(140)로부터 전송된 정보를 이용하여, 맵정보 상에 무인이동체(100)의 현재 위치를 맵핑하고, 대상영역의 환경정보를 생성하여 맵정보 상에 맵핑한다. 여기서, 환경정보는 대상영역에 위치된 장애물정보를 포함하며, 경계정보를 더 포함할 수 있다. 경계정보는 대상영역의 외곽선을 의미한다. 이러한 정보들은 경로정보 생성모듈(300)로 전송되어 경로계획정보를 생성할 때, 반영되도록 구성되어 장애물을 회피하는 경로계획정보가 생성된다.
인공지능 분석부(420)는 전술한 카메라모듈(150)을 기반으로 한다. 카메라모듈(150)은 무인이동체(100)의 주변을 실시간 촬영하도록 구성된다. 미리 설정된 방식으로 학습된 인공지능모델(422)을 포함하며, 인공지능모델(422)을 이용하여, 카메라모듈(150)로부터 전송된 영상정보를 분석함으로써, 장애물정보를 판단하도록 구성된다. 인공지능모델(422)은 합성곱 신경망(Convolutional Neural network, CNN)을 통해 학습되는 것이 바람직하다. 여기서, 인공지능분석부(420)는, 무인이동체(100)의 주행 중 장애물정보가 새롭게 확인된 경우, 확인된 장애물정보가 맵정보에 반영되도록 맵생성모듈(200)로 전송함으로써, 맵정보를 업데이트하도록 구성된다.
이는 시험주행에서 장애물정보를 모두 정확하게 확인하지 못할 수도 있는 바, 주행 중에 새롭게 장애물정보를 확인한 경우에는, 맵정보에 장애물정보를 반영함으로써, 추후에 다시 해당 대상영역의 자율주행을 반복할 경우를 대비하기 위함이다.
구동모드 선택부(430)는 무인이동체의 사용방식에 따라, 미리 설정된 구동모드로 구분된 것을 선택하는 기능을 수행한다. 여기서, 이러한 선택은 사용자단말기(500)를 통해, 사용자에 의해 입력될 수 있다.
구동모드의 일 실시예로, 주행모드, 이송모드 및 분사모드로 구분될 수 있다.
여기서, 상기의 주행모드는 일반 주행을 의미한다.
이송모드에서는, 경로정보 생성모듈(300)에 대상물의 상역 및 하역 지점을 맵정보 상에 설정하도록 구성된다. 상역 및 하역은 고정된 위치에서 동작되긴 하나, 상역 및 하역을 위한 별도의 장치를 그와 대응되도록 동작시키며, 상역과 하역 사이의 구간에서는 상기 장치를 동작시키지 않도록 설계하는 것을 의미한다.
분사모드에서는, 무인이동체(100)에 장착된 분사모듈(160)의 분사방향을 고려하여, 무인이동체(100)가 대상영역을 주행하도록 설정된다. 즉, 대상영역의 주행시, 분사의 대상이 되는 객체의 위치를 고려하는 것을 의미하며, 이는 일반 주행과는 차이가 있다. 추가적으로, 대상영역의 대기상태를 센싱하는 대기센서모듈(170)을 더 포함하며, 연산모듈(400)은, 대기센서모듈(170)로부터 센싱된 대기정보를 기반으로, 무인이동체의 주행속도를 연산하며, 대기정보는 풍향 및 풍속을 포함한다. 분사되는 물질은, 고체, 액체 및 기체 모두 가능하긴 하나, 대기 중으로 물질을 공급하는 바, 대기의 상태에 따라, 무인이동체의 주행속도 및 방향 등이 최적화된 경로로 설정되는 것이 바람직하다. 또한, 풍향 및 풍속 뿐만 아니라, 대기의 온도, 습도 역시도 고려될 수 있다.
도 3을 참조하면, 경로정보 생성모듈(300)에서 생성된 경로계획정보가 미리 설정된 주행모드 중 어느 하나로 구분된 상태를 도시한다.
도 3의 (a)는 제1 주행모드로서, 맵정보 상에 입력된 출발점 및 도착점을 이용하여 무인이동체(100)의 경로계획을 설정한 것을 의미한다.
도 3의 (b)는 제2 주행모드로서, 맵정보 상에 입력된 적어도 두 지점을 반복하여 이동하도록 무인이동체의 경로계획을 설정한 것을 의미한다. 제1 및 제2 주행모드는 모두 경유점을 추가하도록 설정될 수 있다.
도 3의 (c)는 제3 주행모드로서, 맵정보 상에 대상영역의 일부인, 주행영역을 설정하고, 주행영역 내에서 이동하도록 무인이동체의 경로계획을 설정한 것을 의미한다.
도 4는 제4 주행모드의 템플릿 패턴의 실시예를 도시한다. 도 4의 (a) 내지 (c)는 모두 상이한 템플릿 패턴이며, (a)는 수평 방향으로 이동하는 패턴, (b)는 수직 방향으로 이동하는 패턴, (c)는 곡선을 그리면서 이동하는 패턴을 도시한다.
여기서 사용자는 출발점 및 도착점만을 지정한 후, 소망하는 템플릿 패턴을 선택한 경우, 출발점 및 도착점 사이의 경로계획을 선택된 템플릿 패턴과 같이 설정된다. 물론, 장애물정보가 포함된 경우에는, 그 부분만 회피하도록 경로계획정보가 생성될 수 있다.
도 5를 참조하면, 무인이동체(100)는, IMU(Inertial Measurement Unit) 센서모듈(180)을 더 포함한다. 이 때, 맵생성모듈(200)은, IMU 센서모듈(180)을 통해, 대상영역 내의 경사구역을 판단하여, 상기 경사구역을 상기 맵정보 상에 맵핑하도록 구성된다. 경사구역의 판단은 무인이동체(100)의 주행속도를 설정함에 있어 중요할 뿐만 아니라, 무인이동체(100)가 적재물을 싣고 이동하는 경우, 적재물을 수용하는 적재함(미도시)의 각도 설정에도 매우 중요하다. 적재물이 위험물질인 경우에는, 적재물이 외부로 유출되는 것을 방지하는 것이 최우선의 과제가 될 수 있기 때문이다.
도 6을 참조하면, 무인이동체(100)는, 대상영역에 위치하는 작업자의 제1 비콘(510) 및 상기 대상영역의 기설정된 위치에 미리 설치된 제2 비콘(520)과 무선연결되도록 구성된, IR(infrared ray) 센서모듈(190)을 더 포함하도록 구성된다.
제1 비콘(510)은 작업자가 소지하도록 구성되며, 무인이동체(100) 및 작업자와의 충돌을 방지하여(접근을 감지하는 것을 의미함), 궁극적으로 안전사고를 방지하기 위함이다. IR 센서모듈(190) 및 제1 비콘(510) 사이의 거리가 미리 설정된 거리 이하가 되거나, 거리 뿐만 아니라, 현재 무인이동체(100)가 작업자를 향한 방향으로 이동하는 경우, 작업자에게 알람을 제공함과 동시에, 무인이동체(100)의 동작을 강제 중지할 수 있다.
제2 비콘(520)은 대상영역 내의 장애물 등에 미리 설치될 수 있다. 예를 들어, 장애물의 특성에 따라, 라이다 센서모듈(140)로부터 장애물의 확인이 안될 가능성이 있는 바, 작업자가 미리 장애물의 위치에 제2 비콘(520)을 설치함으로써, 무인이동체(100)의 주행에 고려하기 위함이다. 이 때, 연산모듈(400)은, IR 센서모듈(190)로부터 전송된 제1 및 제2 비콘(510, 520)과의 근접정보를 이용하여, 구동모듈(110)을 제어하도록 구성된다.
이하에서는 도 7을 참조하여, 본 발명에 따른 무인이동체 자율주행 시스템을 이용한 방법을 설명한다.
본 방법은 단계(S110) 내지 단계(S140)를 포함한다.
단계(S110)은 대상영역에 대한 무인이동체(100)의 시험주행이 수행되는 단계로서, 맵생성모듈(200)을 통해, 대상영역에 대한 맵정보가 생성되는 단계이다. 여기서, 단계(S110)에서 생성되는 맵정보는 상기 대상영역에 위치된 장애물정보를 포함한다.
단계(S120)은 사용자단말모듈(500)을 통해, 무인이동체(100)의 주행모드정보 및 구동모드정보가 입력되는 단계이다.
단계(S130)은 단계(S120)에서 입력된 무인이동체(100)의 주행모드정보를 기반으로, 경로정보 생성모듈(300)을 통해, 무인이동체(100)의 경로계획정보가 생성되는 단계이다.
단계(S140)은 대상영역에 대한 무인이동체(100)의 본 주행이 수행되는 단계로서, 연산모듈(400)에 의해, 구동모듈(110)의 실시간 제어되며, 제어정보 및 무인이동체(100)의 위치정보는 사용자단말모듈(500)로 전송되어 표시되는 단계이다.
이 때, 단계(S140)에서, 무인이동체(100)의 본주행시, 단계(S110)에서 설정된 장애물정보 이외의 다른 장애물정보가 확인된 경우, 다른 장애물정보를 경로정보 생성모듈(300)로 전송하여, 경로계획정보를 수정하도록 구성된다. 즉, 본주행 과정에서 새롭게 취득되는 정보를 피드백함으로써, 금번 본주행 뿐만 아니라, 동일한 대상영역에 대한 추후 주행에서도 이를 반영하여 주행하기 위함이다.
이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.
100: 무인이동체 110: 구동모듈
120: GPS 센서모듈 130: 통신모듈
140: 라이다 센서모듈 150: 카메라모듈
160: 분사모듈 170: 대기센서모듈
180: IMU 센서모듈 190: IR 센서모듈
200: 맵생성모듈 300: 경로정보 생성모듈
400: 연산모듈 410: 환경인지부
420: 인공지능 분석부 430: 구동모드 선택부
510: 제1 비콘 520: 제2 비콘

Claims (11)

  1. 무인이동체(E-Mobility)의 자율주행 시스템으로서,
    구동모듈(110), 위치정보를 수신하는 GPS 센서모듈(120), 상기 구동모듈(110)의 제어정보를 송수신하는 통신모듈(130) 및 주행시 주변의 객체를 감지하는 라이다(Lidar) 센서모듈(140)을 포함하는, 무인이동체(100);
    대상영역에 대한 맵정보가 미리 설정된 방식에 의해 생성되며, 맵생성모듈(200);
    상기 맵정보를 기반으로 하는 상기 무인이동체(100)의 경로계획정보를 생성하는 경로정보 생성모듈(300);
    상기 무인이동체(100)의 위치정보를 기반으로, 상기 경로계획정보에 대응되도록 상기 구동모듈(110)의 제어정보를 연산하는, 연산모듈(400); 및
    상기 무인이동체(100)의 위치정보에 대응되는 상기 무인이동체(100)의 상태정보를 표시하는 사용자단말모듈(500); 을 포함하고,
    상기 연산모듈(400)은,
    상기 무인이동체(100)가 실내에 위치될 때, 상기 라이다 센서모듈(140)로부터 감지된 객체정보를 고려하여, 상기 무인이동체(100)의 위치정보를 연산하며,
    상기 연산모듈(400)은,
    상기 무인이동체의 사용방식에 따라, 미리 설정된 구동모드로 구분된 구동모드 선택부(430)를 포함하며,
    상기 기설정된 구동모드는,
    주행모드, 이송모드 및 분사모드 중 적어도 어느 하나를 포함하도록 설정되고,
    상기 이송모드에서는,
    상기 경로정보 생성모듈(300)에 대상물의 상역 및 하역 지점을 상기 맵정보 상에 설정하도록 구성되고,
    상기 분사모드에서는,
    상기 무인이동체(100)에 장착된 분사모듈(160)의 분사방향을 고려하여, 상기 무인이동체(100)가 상기 대상영역을 주행하도록 설정된,
    무인이동체 자율주행 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 연산모듈(400)은,
    상기 GPS 센서모듈(120) 또는 상기 라이다 센서모듈(140)로부터 전송된 정보를 이용하여, 상기 맵정보 상에 상기 무인이동체(100)의 현재 위치를 맵핑하고, 상기 대상영역의 환경정보를 생성하여 상기 맵정보 상에 맵핑하는 환경인지부(410); 를 포함하며,
    상기 환경정보는, 상기 대상영역에 위치된 장애물정보를 포함하고,
    상기 경로계획정보는 상기 장애물정보를 기반으로, 장애물을 회피하도록 설정되는,
    무인이동체 자율주행 시스템.
  4. 제3항에 있어서,
    상기 무인이동체(100)는,
    상기 무인이동체 주변을 실시간 촬영하도록 구성된 카메라모듈(150)을 더 포함하며,
    상기 연산모듈(400)은,
    미리 설정된 방식으로 학습된 인공지능모델(422)을 포함하는 인공지능분석부(420)로서, 상기 인공지능모델(422)을 이용하여, 상기 카메라모듈(150)로부터 전송된 영상정보를 분석함으로써, 상기 장애물정보를 판단하는 인공지능분석부(420); 를 더 포함하며,
    상기 인공지능분석부(420)는,
    상기 무인이동체(100)의 주행 중 장애물정보가 새롭게 확인된 경우, 상기 확인된 장애물정보가 상기 맵정보에 반영되도록 상기 맵생성모듈(200)로 전송함으로써, 상기 맵정보를 업데이트하는,
    무인이동체 자율주행 시스템.
  5. 제1항에 있어서,
    상기 경로정보 생성모듈(300)에서 생성된 경로계획정보는, 미리 설정된 주행모드 중 어느 하나로 구분되며,
    상기 미리 설정된 주행모드는,
    상기 맵정보 상에 입력된 출발점 및 도착점을 이용하여 상기 무인이동체의 경로계획을 설정하는 제1 주행모드;
    상기 맵정보 상에 입력된 적어도 두 지점을 반복하여 이동하도록 상기 무인이동체의 경로계획을 설정하는 제2 주행모드;
    상기 맵정보 상에 상기 대상영역의 일부인, 주행영역을 설정하고, 상기 주행영역 내에서 이동하도록 상기 무인이동체의 경로계획을 설정하는 제3 주행모드; 및
    미리 설정된 템플릿 패턴을 따라 상기 무인이동체의 경로계획을 설정하는 제4 주행모드; 중 적어도 하나를 포함하는,
    무인이동체 자율주행 시스템.
  6. 삭제
  7. 제1항에 있어서,
    상기 무인이동체(100)는,
    상기 대상영역의 대기상태를 센싱하는 대기센서모듈(170); 을 더 포함하며,
    상기 연산모듈(400)은,
    상기 대기센서모듈(170)로부터 센싱된 대기정보를 기반으로, 상기 무인이동체의 주행속도를 연산하며, 상기 대기정보는 풍향 및 풍속을 포함하는,
    무인이동체 자율주행 시스템.
  8. 제1항에 있어서,
    상기 무인이동체(100)는,
    IMU(Inertial Measurement Unit) 센서모듈(180)을 더 포함하며,
    상기 맵생성모듈(200)은,
    상기 IMU 센서모듈(180)을 통해, 상기 대상영역 내의 경사구역을 판단하여, 상기 경사구역을 상기 맵정보 상에 맵핑하는,
    무인이동체 자율주행 시스템.
  9. 무인이동체(E-Mobility)의 자율주행 시스템으로서,
    구동모듈(110), 위치정보를 수신하는 GPS 센서모듈(120) 및 상기 구동모듈(110)의 제어정보를 송수신하는 통신모듈(130)을 포함하는, 무인이동체(100);
    대상영역에 대한 맵정보가 미리 설정된 방식에 의해 생성되며, 맵생성모듈(200);
    상기 맵정보를 기반으로 하는 상기 무인이동체(100)의 경로계획정보를 생성하는 경로정보 생성모듈(300);
    상기 무인이동체(100)의 위치정보를 기반으로, 상기 경로계획정보에 대응되도록 상기 구동모듈(110)의 제어정보를 연산하는, 연산모듈(400); 및
    상기 무인이동체(100)의 위치정보에 대응되는 상기 무인이동체(100)의 상태정보를 표시하는 사용자단말모듈(500);
    을 포함하고,
    상기 무인이동체(100)는,
    상기 대상영역에 위치하는 작업자의 제1 비콘(510) 및 상기 대상영역의 기설정된 위치에 미리 설치된 제2 비콘(520)과 무선연결되도록 구성된, IR(infrared ray) 센서모듈(190)을 더 포함하며,
    상기 연산모듈(400)은,
    상기 IR 센서모듈(190)로부터 전송된 상기 제1 및 제2 비콘(510, 520)과의 근접정보를 이용하여, 상기 구동모듈(110)을 제어하도록 구성된,
    무인이동체 자율주행 시스템.
  10. 제1항, 제3항 내지 제5항 및 제7항 내지 제9항 중 어느 한 항에 따른 무인이동체 자율주행 시스템을 이용한 방법으로서,
    (a) 대상영역에 대한 무인이동체(100)의 시험주행이 수행되는 단계로서, 상기 맵생성모듈(200)을 통해, 상기 대상영역에 대한 맵정보가 생성되는 단계(S110);
    (b) 사용자단말모듈(500)을 통해, 상기 무인이동체(100)의 주행모드정보 및 구동모드정보가 입력되는 단계(S120);
    (c) 상기 (b) 단계에서 입력된 상기 무인이동체(100)의 주행모드정보를 기반으로, 경로정보 생성모듈(300)을 통해, 상기 무인이동체(100)의 경로계획정보가 생성되는 단계(S130); 및
    (d) 상기 대상영역에 대한 상기 무인이동체(100)의 본 주행이 수행되는 단계로서, 상기 연산모듈(400)에 의해, 상기 구동모듈(110)의 실시간 제어되며,
    상기 제어정보 및 상기 무인이동체(100)의 위치정보는 상기 사용자단말모듈(500)로 전송되어 표시되는 단계(S140); 를 포함하는,
    무인이동체 자율주행 시스템을 이용한 방법.
  11. 제10항에 있어서,
    상기 (a) 단계(S110)에서 생성되는 상기 맵정보는 상기 대상영역에 위치된 장애물정보를 포함하고,
    상기 (d) 단계(S140)에서,
    상기 무인이동체(100)의 본 주행시, 상기 (a) 단계(S110)에서 설정된 상기 장애물정보 이외의 다른 장애물정보가 확인된 경우, 상기 다른 장애물정보를 상기 경로정보 생성모듈(300)로 전송하여, 상기 경로계획정보를 수정하는,
    무인이동체 자율주행 시스템을 이용한 방법.
KR1020200164756A 2020-11-30 2020-11-30 무인이동체 자율주행 시스템 및 이를 이용한 방법 KR102423114B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200164756A KR102423114B1 (ko) 2020-11-30 2020-11-30 무인이동체 자율주행 시스템 및 이를 이용한 방법
PCT/KR2021/016950 WO2022114664A1 (ko) 2020-11-30 2021-11-18 무인이동체 자율주행 시스템 및 이를 이용한 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200164756A KR102423114B1 (ko) 2020-11-30 2020-11-30 무인이동체 자율주행 시스템 및 이를 이용한 방법

Publications (2)

Publication Number Publication Date
KR20220076014A KR20220076014A (ko) 2022-06-08
KR102423114B1 true KR102423114B1 (ko) 2022-07-21

Family

ID=81756149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200164756A KR102423114B1 (ko) 2020-11-30 2020-11-30 무인이동체 자율주행 시스템 및 이를 이용한 방법

Country Status (2)

Country Link
KR (1) KR102423114B1 (ko)
WO (1) WO2022114664A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102556338B1 (ko) * 2022-11-03 2023-07-17 주식회사 긴트 미리 설정된 자율주행 경로에 응답하여 주행 제어를 수행하도록 구성된 자율주행 농기계 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189172A (ja) * 2015-03-30 2016-11-04 株式会社クボタ 自動走行情報管理システム
JP2018093799A (ja) * 2016-12-14 2018-06-21 株式会社クボタ 走行経路生成装置
JP2019103422A (ja) * 2017-12-11 2019-06-27 井関農機株式会社 作業車両
JP2019175261A (ja) * 2018-03-29 2019-10-10 ヤンマー株式会社 走行領域形状特定装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180065760A (ko) * 2016-12-08 2018-06-18 한국전자통신연구원 무인비행체를 이용한 자율주행 시스템 및 자율주행 차량 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189172A (ja) * 2015-03-30 2016-11-04 株式会社クボタ 自動走行情報管理システム
JP2018093799A (ja) * 2016-12-14 2018-06-21 株式会社クボタ 走行経路生成装置
JP2019103422A (ja) * 2017-12-11 2019-06-27 井関農機株式会社 作業車両
JP2019175261A (ja) * 2018-03-29 2019-10-10 ヤンマー株式会社 走行領域形状特定装置

Also Published As

Publication number Publication date
WO2022114664A1 (ko) 2022-06-02
KR20220076014A (ko) 2022-06-08

Similar Documents

Publication Publication Date Title
US9733090B2 (en) Route planning
CN103913162B (zh) 增强的移动平台定位
CN108572663A (zh) 目标跟踪
US11835967B2 (en) System and method for assisting collaborative sensor calibration
US11635762B2 (en) System and method for collaborative sensor calibration
CN110254722B (zh) 一种飞行器系统及其方法、计算机可读存储介质
US11682139B2 (en) System and method for trailer pose estimation
US11875682B2 (en) System and method for coordinating collaborative sensor calibration
CN112558608A (zh) 一种基于无人机辅助的车机协同控制及路径优化方法
US11630454B2 (en) System and method for coordinating landmark based collaborative sensor calibration
US9696160B2 (en) Route planning
US20210318122A1 (en) Positioning apparatus capable of measuring position of moving body using image capturing apparatus
US11852730B2 (en) System and method for collaborative calibration via landmark
CN114137948A (zh) 编队车辆行驶方法、装置、计算机设备和存储介质
KR102423114B1 (ko) 무인이동체 자율주행 시스템 및 이를 이용한 방법
EP4099125B1 (en) Automatic traveling method, automatic traveling system, and automatic traveling program
Pattinson et al. Galileo enhanced solution for pest detection and control in greenhouses with autonomous service robots
CN113460558B (zh) 一种室外可移动货物搬运机器人
EP4099124A1 (en) Automatic traveling method, automatic traveling system, and automatic traveling program
US20230401745A1 (en) Systems and Methods for Autonomous Vehicle Sensor Calibration and Validation
US20230399015A1 (en) Systems and Methods for Autonomous Vehicle Sensor Calibration and Validation
CN114360274B (zh) 配送车导航方法、系统、计算机设备和存储介质
CN111837083B (zh) 信息处理装置、信息处理方法和存储介质
JP7329079B2 (ja) 汎用的に使用可能な特徴マップを生成する方法
US20230027496A1 (en) Systems and methods for obstacle detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right