KR102408327B1 - AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales - Google Patents

AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales Download PDF

Info

Publication number
KR102408327B1
KR102408327B1 KR1020200161200A KR20200161200A KR102408327B1 KR 102408327 B1 KR102408327 B1 KR 102408327B1 KR 1020200161200 A KR1020200161200 A KR 1020200161200A KR 20200161200 A KR20200161200 A KR 20200161200A KR 102408327 B1 KR102408327 B1 KR 102408327B1
Authority
KR
South Korea
Prior art keywords
unit
mobile robot
robot
gesture
autonomous driving
Prior art date
Application number
KR1020200161200A
Other languages
Korean (ko)
Other versions
KR20220073282A (en
Inventor
김덕수
김대건
최상원
유천동
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020200161200A priority Critical patent/KR102408327B1/en
Publication of KR20220073282A publication Critical patent/KR20220073282A/en
Application granted granted Critical
Publication of KR102408327B1 publication Critical patent/KR102408327B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 실시예에 따른 AI 기반 자율주행 로봇 시스템은 모바일 로봇과 모바일 로봇을 원격에서 제어하는 컴퓨팅 서버부를 포함하며, 모바일 로봇은 주변의 영상을 취득하여, 상기 영상에서 객체와 객체의 제스처를 컴퓨팅 서버부의 AI 처리부를 통해 인식하고, 인식된 제스처에 따라 모바일 로봇을 이동하거나 자동으로 물건을 판매할 수 있는 것을 특징으로 한다.The AI-based autonomous driving robot system according to an embodiment of the present invention includes a mobile robot and a computing server unit that remotely controls the mobile robot, and the mobile robot acquires an image of the surroundings, and performs an object and a gesture of the object in the image. It is characterized in that it is recognized through the AI processing unit of the computing server, and can move the mobile robot or automatically sell goods according to the recognized gesture.

Description

자율주행 판매를 위한 제스처 인식을 지원하는 AI 기반 자율주행 로봇 시스템{AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales}AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales

본 발명은 AI(Artificial Intelligence)룰 이용하여, 사용자의 특정한 제스처를 구매를 위한 의사표시라고 인식하여, 사용자에게 물건을 판매할 수 있는 자율주행과 자동 판매가 가능한 모바일 로봇과 상기 모바일 로봇과 통신하며 원격에서 제어할 수 있는 컴퓨터 서버를 포함한 AI 기반의 자율주행 로봇 시스템에 관한 것이다.The present invention uses AI (Artificial Intelligence) rules to recognize a user's specific gesture as an expression of intention to purchase, and a mobile robot capable of autonomous driving and automatic selling that can sell goods to the user and a mobile robot that communicates with the mobile robot and remotely It is about an AI-based autonomous driving robot system including a computer server that can be controlled by

로봇 기술과 인공지능 기술, 그리고 자율주행 기술이 발전하면서, 점점 로봇이 제조업에서 단순히 특정한 형상의 물품을 제조하는 데서 벗어나 사용자들에게 서비스를 제공하는 형태로 발전하고 있다.With the development of robot technology, artificial intelligence technology, and autonomous driving technology, robots are gradually developing into a form of providing services to users rather than simply manufacturing items of a specific shape in the manufacturing industry.

다만 현재로서는 상업적 서비스가 가능한 로봇의 기술 수준은 상점에서 물품을 배달하거나, 사용자에게 미리 정해진 수준의 서비스 행위(예를 들어 설겆이를 한다거나, 물건을 들어 옮기는)를 하는 정도에 머물러 있는 실정이다.However, at present, the technical level of robots capable of commercial services is limited to delivering goods from stores or performing service actions at a predetermined level to users (for example, washing dishes or lifting and moving goods).

따라서, 전술한 로봇 활용의 한계점을 극복하기 위하여, 사용자의 의사를 확인하고, 확인된 의사에 따라, 로봇이 스스로 경로를 찾아 이동하며, 이후 사용자가 필요한 물품을 구매할 수 있는 자동판매가 특정한 지역안에서 자율적인 주행을 통해 가능한 모바일 로봇이나 모바일 로봇 시스템에 대한 연구가 필요하게 되었다.Therefore, in order to overcome the above-mentioned limitations of using the robot, the user's intention is confirmed, and according to the confirmed intention, the robot finds a path by itself and moves, and thereafter, the automatic vending machine where the user can purchase the necessary goods is autonomous within a specific area. There is a need for research on mobile robots or mobile robot systems that are possible through in-driving.

대한민국 공개 특허 제10-2019-0088854호(2019년07월23일 공개)Republic of Korea Patent Publication No. 10-2019-0088854 (published on July 23, 2019) 대한민국 공개 특허 제10-2019-0130214호(2019년11월22일 공개)Republic of Korea Patent Publication No. 10-2019-0130214 (published on November 22, 2019)

본 발명의 목적은 사용자 및 사용자의 특정한 제스처를 인식하고, 상기 사용자가 위치한 목표 위치로 자율주행을 하며, 상기 사용자에게 특정한 서비스(예를 들어 물건 판매)를 제공할 수 있는 AI 기반 자율주행 로봇 시스템을 제공하는 데 있다.An object of the present invention is to recognize a user and a specific gesture of the user, perform autonomous driving to a target location where the user is located, and provide a specific service (eg, selling a product) to the user, an AI-based autonomous driving robot system is to provide

본 발명의 또다른 목적은 상기 AI 기반 자율주행 로봇 시스템에서 상기 사용자의 제스처를 인식할 때, AI 처리부를 활용하며, 상기 AI 처리부가 Mask R-CNN과 같은 인공지능 알고리즘을 사용하여, 처리 속도와 정확도 모두를 높게 하여, 모바일 로봇과 같이 순간적인 이동이 잦은 환경에 적합하도록 하는 데 있다. Another object of the present invention is to utilize an AI processing unit when recognizing the user's gesture in the AI-based autonomous driving robot system, and the AI processing unit uses an artificial intelligence algorithm such as Mask R-CNN to increase processing speed and It is to make it suitable for environments with frequent instantaneous movement, such as mobile robots, by increasing the accuracy.

본 발명의 또다른 목적은 상기 AI 기반 자율주행 로봇 시스템의 모바일 로봇의 주행시, 단순히 GPS 등의 위치 항법 기반의 방식이 아닌 다양한 센서부로부터 획득한 정보를 이용하여, 자신의 위치를 추정하면서 동시에 이동을 위한 지도를 작성할 수 있는 특징을 제공하는데 있다.Another object of the present invention is to estimate its own location while simultaneously estimating its location by using information obtained from various sensor units rather than simply using a location-navigation-based method such as GPS when the mobile robot of the AI-based autonomous driving robot system is driven. It is to provide features that can create maps for

본 발명의 일 실시예에 따른 AI 기반 자율주행 로봇 시스템은, 모바일 로봇과 상기 모바일 로봇을 원격에서 제어하는 컴퓨팅 서버부를 포함하며,An AI-based autonomous driving robot system according to an embodiment of the present invention includes a mobile robot and a computing server for remotely controlling the mobile robot,

상기 모바일 로봇은 주변의 영상을 취득하는 영상 취득부; 상기 모바일 로봇의 위치 예측을 위해 복수의 센서를 포함하는 센서부; 상기 센서부로부터 획득한 복수의 센서 데이터를 가공하고 판단하는 제어부; 상기 제어부로부터 가공된 상기 센서 데이터 및 상기 영상 취득부로부터 획득한 영상 데이터를 원격지의 상기 컴퓨팅 서버부에 송신하거나, 상기 컴퓨팅 서버부로부터 상기 모바일 로봇의 제어에 관련된 로봇 제어 데이터를 수신하는 통신부; 상기 모바일 로봇의 동작을 제어하는 구동부; 및 상기 영상 데이터로부터 AI를 이용하여, 객체를 인식하고, 자동으로 물건을 판매하는 자동판매 모듈을 포함한다.The mobile robot includes an image acquisition unit for acquiring an image of the surroundings; a sensor unit including a plurality of sensors to predict the position of the mobile robot; a control unit for processing and determining a plurality of sensor data obtained from the sensor unit; a communication unit for transmitting the sensor data processed from the control unit and the image data obtained from the image acquisition unit to the computing server unit at a remote location, or receiving robot control data related to control of the mobile robot from the computing server unit; a driving unit for controlling the operation of the mobile robot; and an automatic sales module that recognizes an object and automatically sells a product by using AI from the image data.

본 발명의 일 실시예에 따른 상기 컴퓨팅 서버부는 상기 모바일 로봇의 상기 통신부를 통해 수신한 상기 영상 데이터로부터 특정한 객체 및 객체의 특정 제스처를 인식하는 제스처 인식 모듈; 상기 모바일 로봇으로부터 획득한 복수의 센서 데이터를 이용하여 상기 모바일 로봇의 이동경로를 제어할 수 있도록 목적지 좌표(waypoint)를 연산하고, 연산한 상기 목적지 좌표에 따라, 상기 모바일 로봇이 일정한 경로를 순회할 수 있도록 제어하는 경로 순회 제어 모듈; 상기 목적지 좌표에 따라, 상기 모바일 로봇의 항해(navigation)을 제어하는 항해 모듈; 및 상기 모바일 로봇과의 데이터 송신 및 수신을 제어하는 서버통신부를 더 포함한다.The computing server unit according to an embodiment of the present invention comprises: a gesture recognition module for recognizing a specific object and a specific gesture of the object from the image data received through the communication unit of the mobile robot; A destination coordinate (waypoint) is calculated to control the moving path of the mobile robot using a plurality of sensor data obtained from the mobile robot, and according to the calculated destination coordinate, the mobile robot traverses a predetermined path. Path traversal control module to control; a navigation module for controlling navigation of the mobile robot according to the destination coordinates; and a server communication unit controlling data transmission and reception with the mobile robot.

본 발명의 일 실시예에 따르면, 상기 제스처 인식 모듈은 상기 영상 데이터를 신경망 학습시키는 학습부 및 상기 학습부로부터 학습된 결과를 바탕으로 객체 및 객체의 제스처를 판단하는 AI 처리부를 포함한다.According to an embodiment of the present invention, the gesture recognition module includes a learning unit for learning the neural network from the image data and an AI processing unit for determining an object and a gesture of the object based on a result learned from the learning unit.

본 발명의 일 실시예에 따르면, 상기 AI 처리부는 상기 객체를 개별 클래스로 인식하기 위한 신경망으로 Mask R-CNN을 사용하며, 상기 개별 클래스로는 사람과 백그라운드로 이루어진 바이너리 클래시피케이션을 사용하여, 상기 사람 클래스로 인식된 경우에만 상기 영상 데이터의 상기 사람 객체의 영역에 마스크(Mask) 처리하는 것을 특징으로 한다.According to an embodiment of the present invention, the AI processing unit uses Mask R-CNN as a neural network for recognizing the object as an individual class, and uses binary classification consisting of a person and a background as the individual class, Mask processing is performed on the area of the person object of the image data only when the person class is recognized.

본 발명의 일 실시예에 따르면, 상기 학습부는 상기 객체의 제스처를 판단하기 위해, 상기 마스크 처리된 상기 영상데이터를 기반으로 Resnet 기반 모델 학습을 이용하는 것을 특징으로 하며, 상기 Resnet 기반 모델의 학습을 시키기 위해, 다양한 제스처의 사람 이미지를 생성하는 데이터셋 생성 프로그램을 이용하는 것을 특징으로 한다.According to an embodiment of the present invention, the learning unit uses Resnet-based model learning based on the mask-processed image data in order to determine the gesture of the object, and allows learning of the Resnet-based model For this purpose, it is characterized by using a dataset generating program that generates images of people of various gestures.

본 발명의 일 실시예에 따르면, 상기 항해 모듈은 상기 목적지 좌표로, 이동하는 경우, 상기 획득한 복수의 센서 데이터를 이용하는 SLAM(Simultaneous Localization and Mapping) 방식을 사용하는 것을 특징으로 한다.According to an embodiment of the present invention, the navigation module is characterized in that when moving to the destination coordinates, a Simultaneous Localization and Mapping (SLAM) method using the acquired plurality of sensor data is used.

본 발명의 일 실시예에 따르면, 상기 경로 순회 제어 모듈은 사용자의 객체의 제스처로 결정되거나 또는 사용자가 지정한 단수 또는 복수의 목적지 좌표를 기반으로 이동하되, 상기 복수의 목적지 좌표중 최종 목적지 좌표에 도달하면, 상기 모바일 로봇의 이동경로를 반대로(reverse) 설정하여 이동하며, 상기 제스처 인식 모듈에서 상기 특정 제스처를 인식하는 경우, 정지하는 것을 특징으로 한다.According to an embodiment of the present invention, the route traversal control module moves based on a single or a plurality of destination coordinates determined by a gesture of the user's object or designated by the user, but reaches the final destination coordinates among the plurality of destination coordinates Then, the mobile robot moves by setting the movement path in reverse (reverse), and when the specific gesture is recognized by the gesture recognition module, it is stopped.

본 발명의 일 실시예에 따르면, 상기 경로 순회 제어 모듈에서 상기 사용자가 목적지 좌표(waypoint)를 지정하는 경우, 시각화를 위해, Rviz 방식을 사용하며, 상기 Rviz 방식에서 사용하는 데이터의 형태는 목적지 좌표 뿐 아니라, 상기 모바일 로봇의 자세 정보를 포함하도록 한다.According to an embodiment of the present invention, when the user specifies a destination coordinate (waypoint) in the route traversal control module, an Rviz method is used for visualization, and the form of data used in the Rviz method is a destination coordinate In addition, the posture information of the mobile robot is included.

본 발명의 일 실시예에 따르면, 상기 항해 모듈은, 상대적으로 원거리까지의 항해를 위한 글로벌 플래너(Global planner)와 상기 글로벌 플래너보다 가까운 근거리의 항해를 위한 로컬 플래너(Local planner)를 포함한다.According to an embodiment of the present invention, the navigation module includes a global planner for voyage to a relatively long distance and a local planner for voyage closer than the global planner.

본 발명의 일 실시예에 따르면,상기 글로벌 플래너는 Dijkstra 알고리즘 또는 A*알고리즘을 사용하고, 상기 로컬 플래너의 경우에는 Dynamic Window Approach 방식을 사용하는 것을 특징으로 한다.According to an embodiment of the present invention, the global planner uses a Dijkstra algorithm or A* algorithm, and the local planner uses a Dynamic Window Approach method.

본 발명의 AI 기반 자율주행 로봇 시스템은 사용자 및 사용자의 특정한 제스처를 인식하고, 상기 사용자가 위치한 목표 위치로 자율주행을 하며, 상기 사용자에게 물건 판매와 같은 특정한 서비스를 제공하여 로봇의 서비스 능력을 향상시키는 데 있다.The AI-based autonomous driving robot system of the present invention recognizes a user and a specific gesture of the user, autonomously drives to a target location where the user is located, and provides a specific service such as selling goods to the user to improve the service capability of the robot is to make

본 발명은 사용자의 제스처를 인식할 때, AI 처리부를 활용하는데, 상기 AI 처리부가 Mask R-CNN과 같은 인공지능 알고리즘을 사용하여, 처리 속도와 정확도 모두를 높게 하여, 자동 판매와 같은 기능을 제공하는 모바일 로봇과 같이 순간적인 이동이 잦은 환경에 적합하다.The present invention utilizes an AI processing unit when recognizing a user's gesture, and the AI processing unit uses an artificial intelligence algorithm such as Mask R-CNN to increase both processing speed and accuracy to provide functions such as automatic sales It is suitable for environments where instantaneous movement is frequent, such as mobile robots.

본 발명은 모바일 로봇의 주행시, 단순히 GPS 등의 위치 항법 기반의 방식이 아닌 다양한 센서부로부터 획득한 정보를 이용하여, 자신의 위치를 추정하면서 동시에 이동을 위한 지도를 작성하고, 목적지로 이동시에 상대적으로 원거리를 이동하는 동작 방법과 근거리를 이동하는 동작 방법을 이원화하여, 결과적으로 빠른 속도로 제스처를 취하는 사용자에게 접근할 수 있는 효과를 제공한다.The present invention uses information obtained from various sensor units rather than simply a location-navigation-based method such as GPS when driving a mobile robot, estimating its own location and creating a map for movement at the same time, and creating a map for movement when moving to a destination. By dualizing the operation method of moving a long distance and the operation method of moving a short distance with the

도 1은 본 발명의 일 실시예에 따른 모바일 로봇의 전체적인 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 모바일 로봇과 컴퓨팅 서버부를 포함하는 AI 기반 자율주행 로봇 시스템을 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 AI 처리부의 Mask R-CNN을 적용한 점을 도시화한 것이다.
도 4는 AI 처리부에서 Resnet 기반의 학습을 시키기 위해, 다양한 제스처의 사람 이미지를 생성하는 데이터셋 프로그램을 예시화한 것이다.
도 5는 본 발명의 모바일 로봇의 예시적 설계도로, 좌측 도면은 정면도이고, 우측 도면은 측면도이다.
도 6은 본 발명의 모바일 로봇의 로컬 플래너의 동작방식인 다이나믹 윈도우 어프로치를 설명하기 위한 도면이다.
1 is a block diagram showing the overall configuration of a mobile robot according to an embodiment of the present invention.
2 is a diagram illustrating an AI-based autonomous driving robot system including a mobile robot and a computing server according to an embodiment of the present invention.
3 is a diagram illustrating the application of Mask R-CNN of the AI processing unit according to an embodiment of the present invention.
4 exemplifies a dataset program that generates human images of various gestures in order to perform Resnet-based learning in the AI processing unit.
5 is an exemplary design diagram of a mobile robot of the present invention, the left drawing is a front view, and the right drawing is a side view.
6 is a view for explaining the dynamic window approach, which is an operation method of the local planner of the mobile robot of the present invention.

이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. However, the spirit of the present invention is not limited to the presented embodiments, and those skilled in the art who understand the spirit of the present invention may add, change, delete, etc. other elements within the scope of the same spirit, and may use other degenerative inventions or the present invention. Other embodiments included within the scope of the present invention may be easily proposed, but these will also be included within the scope of the present invention. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals.

도 1 및 도 5는 각각 본 발명의 일 실시예에 따른 모바일 로봇(1000)의 전체적인 구성을 나타낸 블록도와, 상기 모바일 로봇(1000)의 예시적 설계도를 도시한 것이다.1 and 5 are a block diagram showing an overall configuration of a mobile robot 1000 according to an embodiment of the present invention, respectively, and an exemplary design diagram of the mobile robot 1000 according to an embodiment of the present invention.

상기 모바일 로봇(1000)은 주변의 영상을 취득하는 영상 취득부(1100), 상기 모바일 로봇의 위치 예측을 위해 복수의 센서를 포함하는 센서부(1200), 상기 센서부(1200)로부터 획득한 복수의 센서 데이터를 가공하고 판단하는 제어부(1300), 상기 제어부(1300)로부터 가공된 상기 센서 데이터 및 상기 영상 취득부로부터 획득한 영상 데이터를 원격지의 후술되는 상기 컴퓨팅 서버부(2000)에 송신하거나, 상기 컴퓨팅 서버부(2000)로부터 상기 모바일 로봇(1000)의 제어에 관련된 로봇 제어 데이터를 수신하는 통신부(1400)를 포함한다.The mobile robot 1000 includes an image acquisition unit 1100 for acquiring an image of the surroundings, a sensor unit 1200 including a plurality of sensors to predict the position of the mobile robot, and a plurality of sensors obtained from the sensor unit 1200 . The control unit 1300 that processes and determines the sensor data of the control unit 1300, and transmits the sensor data processed from the control unit 1300 and the image data obtained from the image acquisition unit to the computing server unit 2000 to be described later in a remote location, and a communication unit 1400 for receiving robot control data related to the control of the mobile robot 1000 from the computing server unit 2000 .

또한, 상기 모바일 로봇(1000)은 상기 모바일 로봇의 동작을 제어하여, 로모바일 로봇을 이동시키는 구동부(1500); 및 상기 영상 데이터로부터 AI를 이용하여, 객체를 인식하고, 자동으로 물건을 판매하는 자동판매 모듈(1600)을 포함한다.In addition, the mobile robot 1000 includes a driving unit 1500 for controlling the operation of the mobile robot to move the lo-mobile robot; and an automatic vending module 1600 that recognizes an object and automatically sells a product by using AI from the image data.

구체적으로, 상기 모바일 로봇(1000)이란 기본적인 자율주행이 가능하도록 이동가능한 로봇을 의미한다.Specifically, the mobile robot 1000 refers to a mobile robot capable of basic autonomous driving.

또한 상기 센서부(1200)의 경우 복수의 센서들을 포함할 수 있는데, 상기 복수의 센서들이랑 IMU(관성측정장치), 바퀴의 회전수 등을 측정할 수 있는 엔코더를 포함할 수 있으며 각각 센서 데이터를 출력하여, 후술될 컴퓨팅 서버부(2000)에서 목적지 좌표의 연산 등에 활용될 수 있다.In addition, the sensor unit 1200 may include a plurality of sensors, and may include an encoder capable of measuring the plurality of sensors, an inertial measurement unit (IMU), the number of rotations of the wheel, etc. By outputting it, it may be utilized for calculation of destination coordinates in the computing server unit 2000, which will be described later.

또한, 상기 제어부(1300)는 후술되는 컴퓨팅 서버부(2000)와의 통신을 하는 상기 통신부(1400)를 제어하거나, 상기 컴퓨팅 서버부(2000)로부터 수신된 목적지 좌표나 다른 로봇 제어 데이터를 통해 상술한 구동부(1500)를 제어하는 기능을 수행한다.In addition, the control unit 1300 controls the communication unit 1400 that communicates with the computing server unit 2000 to be described later, or through the destination coordinates or other robot control data received from the computing server unit 2000. It performs a function of controlling the driving unit 1500 .

또한 상기 통신부(1400)는 상기 센서부(1200)로부터 획득한 상기 센서 데이터나 상기 영상 취득부(1100)로부터 획득한 상기 영상 데이터를 상기 컴퓨팅 서버부(2000)의 서버 통신부(2400)로 전송하고, 상기 컴퓨팅 서버부(2000)로부터 다양한 로봇 제어 데이터(로봇 구동을 제어하는 데이터 또는 주행해야 하는 목적지 좌표 등을 포함함)를 수신하는 기능을 수행한다.In addition, the communication unit 1400 transmits the sensor data obtained from the sensor unit 1200 or the image data obtained from the image acquisition unit 1100 to the server communication unit 2400 of the computing server unit 2000, and , performs a function of receiving various robot control data (including data for controlling robot driving or destination coordinates to be driven) from the computing server unit 2000 .

또한 상기 통신부(1400)는 후술되는 상기 자동판매 모듈(1600)에서 발생하는 여러 이벤트 데이터(사용자의 상품 구매, 사용자의 결제 정보 등)에 관련된 정보 또한 상기 컴퓨팅 서버부(2000)으로 송신하거나 상기 컴퓨팅 서버부(2000)로부터 상기 자동판매와 관련된 데이터를 수신할 수 있다.In addition, the communication unit 1400 also transmits information related to various event data (user's product purchase, user's payment information, etc.) generated in the automatic vending module 1600 to be described later to the computing server unit 2000 or the computing unit 1400 . Data related to the automatic sales may be received from the server unit 2000 .

또한 상기 통신부(1400)와 상기 서버 통신부(2400) 사이의 통신 방식에는 블루투스, Wi-Fi, LTE-M, 5G 등 매우 다양한 무선통신 방식이 사용될 수도 있고, 이러한 무선 통신시 데이터의 보안을 위해, 몇가지 보안 스킴(scheme)을 구현할 수도 있다. 보다 구체적으로 상기 보안 스킴은 상기 모바일 로봇(1000)가 임베디드 디바이스의 형태로 구현되어, 컴퓨팅 파워가 높지 않기 때문에 경량 해시 함수와 같이 컴퓨팅 파워가 높게 들지 않는 단방향 암호화 보안 방식을 사용할 수 있다.In addition, in the communication method between the communication unit 1400 and the server communication unit 2400, a wide variety of wireless communication methods such as Bluetooth, Wi-Fi, LTE-M, and 5G may be used, and for the security of data during such wireless communication, Several security schemes may be implemented. More specifically, the security scheme may use a one-way encryption security method that does not require high computing power, such as a lightweight hash function, because the mobile robot 1000 is implemented in the form of an embedded device, and the computing power is not high.

마지막으로, 도면으로 자세히 도시하지는 않았지만, 상기 자동판매 모듈(1600)의 경우, 사용자에게 상품을 공급하거나 일정한 서비스를 제공하고, 그에 대한 사용자의 피드백을 받는 기능을 제공하기 위해, 부가적으로 디스플레이부(도면부호 미도시)를 포함할 수 있다. 또한 상기 자동판매 모듈(1600)은 부가적으로 사용자 입력부(도면부호 미도시)를 더 포함하거나, 상품을 보관할 수용공간을 제공하며 상기 컴퓨터 서버부(2000)로부터의 데이터(예를 들어 적절한 사용자 지불이 완료되었으니, 상품을 공급해도 됨)를 수신해야만 상품을 공급할 수 있도록 적절한 잠금수단을 제공하는 상품보관부를 추가로 포함할 수도 있다.Finally, although not shown in detail in the drawings, in the case of the automatic vending module 1600, in order to provide a function of supplying a product or providing a certain service to a user and receiving a user's feedback therefor, a display unit is additionally (reference numeral not shown) may be included. In addition, the vending module 1600 additionally includes a user input unit (not shown), or provides an accommodating space for storing goods, and provides data from the computer server unit 2000 (eg, appropriate user payment). Since this has been completed, the product may further include a product storage unit that provides an appropriate locking means so that the product can be supplied only after receiving the product.

도 2는 본 발명의 일 실시예에 따른 모바일 로봇(1000)과, 컴퓨팅 서버부(2000)를 포함하는 AI 기반 자율주행 로봇 시스템(10000)을 도시하는 도면이다.2 is a diagram illustrating an AI-based autonomous driving robot system 10000 including a mobile robot 1000 and a computing server 2000 according to an embodiment of the present invention.

상기 모바일 로봇(1000)의 세부 구성과 그 동작에 대해서는 이미 전술하였으므로, 여기서는 컴퓨팅 서버부(2000)에 대해서 기술하기로 한다.Since the detailed configuration and operation of the mobile robot 1000 have already been described above, the computing server unit 2000 will be described herein.

상기 컴퓨팅 서버부(2000)는 상기 모바일 로봇(1000)의 상기 통신부(1400)를 통해 수신한 상기 영상 데이터로부터 특정한 객체 및 객체의 특정 제스처를 인식하는 제스처 인식 모듈(21000)를 더 포함할 수 있다.The computing server unit 2000 may further include a gesture recognition module 21000 for recognizing a specific object and a specific gesture of the object from the image data received through the communication unit 1400 of the mobile robot 1000 . .

또한 상기 컴퓨팅 서버부(2000)는 상기 모바일 로봇(1000)으로부터 획득한 복수의 센서 데이터를 이용하여 상기 모바일 로봇(1000)의 이동경로를 제어할 수 있도록 목적지 좌표(waypoint)를 연산하고, 연산한 상기 목적지 좌표에 따라, 상기 모바일 로봇(1000)이 일정한 경로를 순회할 수 있도록 제어하는 경로 순회 제어 모듈(2200)을 더 포함할 수 있다.In addition, the computing server unit 2000 calculates a destination coordinate (waypoint) so as to control the movement path of the mobile robot 1000 using a plurality of sensor data obtained from the mobile robot 1000, A path traversal control module 2200 for controlling the mobile robot 1000 to traverse a predetermined path according to the destination coordinates may be further included.

보다 구체적으로 상기 경로 순회 제어 모듈(2200)에서 연산한 목적지 좌표 들은 상기 서버 통신부(2400)를 통해 상기 모바일 로봇(1000)으로 전송되고 이는 상기 모바일 로봇(1000)의 통신부(1400)를 거쳐 제어부(1300)으로 전달되어, 상기 제어부(1300)에서 상기 구동부(1500)를 제어할 수 있도록 이용된다.More specifically, the destination coordinates calculated by the route traversal control module 2200 are transmitted to the mobile robot 1000 through the server communication unit 2400, which is transmitted through the communication unit 1400 of the mobile robot 1000 to the control unit ( 1300 ), and is used so that the control unit 1300 can control the driving unit 1500 .

또한 상기 컴퓨팅 서버부(2000)는 상기 목적지 좌표에 따라, 상기 모바일 로봇의 항해(navigation)을 제어하는 항해 모듈(2300); 및 상기 모바일 로봇(1000)과의 데이터 송신 및 수신을 제어하는 서버통신부(2400)을 포함할 수 있다.In addition, the computing server unit 2000 according to the destination coordinates, the navigation module 2300 for controlling the navigation (navigation) of the mobile robot; and a server communication unit 2400 for controlling data transmission and reception with the mobile robot 1000 .

또한, 상기 제스처 인식 모듈(2100)은 인공지능, 즉 AI를 이용하여 상기 영상 데이터의 객체와 객체의 제스처를 정확하게 인식하도록, 다음과 같은 세부구성을 더 포함한다.In addition, the gesture recognition module 2100 further includes the following detailed configuration to accurately recognize the object of the image data and the gesture of the object using artificial intelligence, that is, AI.

보다 구체적으로 상기 제스처 인식모듈(2100)은 상기 영상 데이터를 신경망 학습시키는 학습부 및 상기 학습부로부터 학습된 결과를 바탕으로 객체 및 객체의 제스처를 판단하는 AI 처리부를 더 포함한다.More specifically, the gesture recognition module 2100 further includes a learning unit for learning the image data from the neural network and an AI processing unit for determining an object and a gesture of the object based on a result learned from the learning unit.

특히 상기 학습부와 상기 AI 처리부에서는 상기 객체의 특정한 제스처만을 빠르고 정확하게 인식할 수 있도록, 여러 신경망 알고리즘 중, 객체의 빠른 인식과 특정한 제스처의 유무만을 정확하게 판단할 수 있어야 한다.In particular, the learning unit and the AI processing unit should be able to accurately determine only the fast recognition of an object and the presence or absence of a specific gesture among various neural network algorithms so that only a specific gesture of the object can be quickly and accurately recognized.

보다 구체적으로, 상기 AI 처리부는 상기 객체를 개별 클래스로 인식하기 위한 신경망으로 Mask R-CNN(Regional Convolutional Neural Network)을 사용하며, 상기 개별 클래스로는 사람과 백그라운드로 이루어진 바이너리(binary) 클래시피케이션(classification)을 사용하여, 상기 사람 클래스로 인식된 경우에만 상기 영상 데이터의 상기 사람 객체의 영역에 마스크(Mask) 처리한다.More specifically, the AI processing unit uses a Mask R-CNN (Regional Convolutional Neural Network) as a neural network for recognizing the object as an individual class, and as the individual class, a binary classification consisting of a person and a background (classification) is used to mask the area of the person object of the image data only when the person class is recognized.

즉, 인식하고자하는 클래스를 사람과 백그라운드, 단 2가지 클래스로 분류하여 신경망 학습의 정확도를 높일 수 있도록 하였다. 또한 해당 신경망에서는 입력으로 RGB를 받으며, 출력으로는 사람의 형상을 검출한 마스크 이미지를 출력하게 된다.That is, by classifying the class to be recognized into only two classes, human and background, the accuracy of neural network learning can be improved. In addition, the neural network receives RGB as an input, and outputs a mask image in which a human shape is detected as an output.

특히 R-CNN을 통해 취득한 영상 데이터에서 객체가 있을 것으로 추정되는 영역(region)을 추출하고 이 영역에 대해서만 CNN 신경망을 적용한 뒤, 원하는 객체라고 인식되는 영역에, 학습처리속도를 높이 위해 마스킹을 하여, 처리 속도를 다른 인식 방법보다 매우 빠르게 수행할 수 있다는 장점이 있다.In particular, the region where the object is estimated to be located is extracted from the image data acquired through R-CNN, the CNN neural network is applied only to this region, and the region recognized as the desired object is masked to increase the learning processing speed. , it has the advantage that the processing speed can be performed much faster than other recognition methods.

도 3의 경우, 상술한 AI 처리부에서 Mask R-CNN을 적용하여, 사람의 특정한 제스처(모바일 로봇을 만나기 위해 손을 드는 행위)를 인식하여 마스킹하는 것을 도시화한 것이다.In the case of FIG. 3, the mask R-CNN is applied to the above-described AI processing unit to recognize and mask a specific human gesture (the act of raising a hand to meet the mobile robot).

또한, 상기 학습부는 상기 객체의 제스처를 판단하기 위해, 상기 마스크 처리된 상기 영상데이터를 기반으로 Resnet(Residual Neural Network) 기반 모델 학습을 이용하는 것을 특징으로 하며, 상기 Resnet 기반 모델의 학습을 시키기 위해, 다양한 제스처의 사람 이미지를 생성하는 데이터셋 생성 프로그램을 이용한다.In addition, in order to determine the gesture of the object, the learning unit uses Resnet (Residual Neural Network)-based model learning based on the mask-processed image data, and to learn the Resnet-based model, A dataset creation program that generates images of people with various gestures is used.

상술한 Resnet의 경우, 앞서 마스킹된 객체들에 대해서, 우리가 찾기를 원하는 객체의 제스처인지를 정확하게 인식하기 위해 사용하는 신경망으로, 잔차 학습(residual learning)을 통해 신경망 학습의 최적화가 상대적으로 쉽고, 학습시의 에러율을 낮추는 데에도 효과적인 특징을 갖는다.In the case of Resnet, as described above, with respect to the previously masked objects, it is a neural network used to accurately recognize whether the gesture of the object we want to find is a gesture, and it is relatively easy to optimize neural network learning through residual learning, It also has an effective feature in lowering the error rate during learning.

도 4의 경우, 상기 학습부에서 Resnet 기반의 학습을 시키기 위해, 다양한 제스처의 사람 이미지를 생성하는 데이터셋 프로그램을 활용하는 점을 예시화한 것이다.In the case of FIG. 4, in order to perform Resnet-based learning in the learning unit, it is exemplified that a data set program for generating human images of various gestures is used.

또한 상기 컴퓨팅 서버부(2000)의 상기 항해 모듈(2300)은 상술한 목적지 좌표로, 이동하는 경우, 상기 획득한 복수의 센서 데이터를 이용하여 이동할 수 있는SLAM(Simultaneous Localization and Mapping) 방식을 사용하는 것을 특징으로 한다.In addition, the navigation module 2300 of the computing server unit 2000 uses a Simultaneous Localization and Mapping (SLAM) method that can move using the acquired plurality of sensor data when moving to the destination coordinates described above. characterized in that

상기 SLAM 방식을 통해, 상기 항해 모듈(2300)은 상기 모바일 로봇(1000)의 센서부(엔코더 및 IMU 등)로부터 획득한 다양한 정보를 이용하여, 자신의 위치를 추정하면서 동시에 지도를 작성할 수 있는 특징을 가진다. 이러한 SLAM 방식을 사용하면 GPS 방식만으로 지도를 생성하고 이동하는 방식에 비해, 특히 실내에서의 이동에 적합하다는 특징을 갖는다.Through the SLAM method, the navigation module 2300 uses various information obtained from the sensor unit (encoder and IMU, etc.) of the mobile robot 1000 to estimate its location and create a map at the same time have The SLAM method has a characteristic that is particularly suitable for indoor movement, compared to a method of generating and moving a map using only the GPS method.

또한, 상기 경로 순회 제어 모듈(2200)은 사용자의 객체의 제스처로 결정되거나 또는 사용자가 지정한 단수 또는 복수의 목적지 좌표를 기반으로 이동하며, 상기 복수의 목적지 좌표중 최종 목적지 좌표에 도달하면, 상기 모바일 로봇(1000)의 이동경로를 반대로(reverse) 설정하여 이동할 수 있다.In addition, the route traversal control module 2200 moves based on a single or a plurality of destination coordinates determined by the gesture of the user's object or designated by the user, and when reaching the final destination coordinates among the plurality of destination coordinates, the mobile It is possible to set the movement path of the robot 1000 in reverse (reverse) to move.

또한 상기 경로 순회 제어 모듈(2200)은 상기 제스처 인식모듈(2100)에서 상기 특정 제스처를 인식하고, 목적지 좌표를 연산한 뒤, 상기 목적지 좌표에 도착하는 경우(즉, 특정 제스처를 취한 사용자가 근접하다고 판단하는 경우), 정지한다. 이후 사용자는 상기 모바일 로봇(1000)의 자동판매 모듈(1600)을 이용하여 자신이 원하는 상품을 구매하는 등의 행위를 할 수 있다.In addition, the path traversal control module 2200 recognizes the specific gesture in the gesture recognition module 2100, calculates the destination coordinates, and then arrives at the destination coordinates (that is, the user who has taken the specific gesture is close). If judged), stop. Thereafter, the user may use the automatic vending module 1600 of the mobile robot 1000 to purchase a desired product or the like.

또한 구체적으로 상기 경로 순회 모듈(2200)은 상기 사용자가 목적지 좌표(waypoint)를 지정하는 경우, 시각화를 위해, Rviz 방식을 사용한다.Also, specifically, the route traversal module 2200 uses the Rviz method for visualization when the user designates a destination coordinate (waypoint).

Rviz는 ROS(Robot Operating System)에서 사용하는 3D 기반의 시각화 툴이며, 모바일 로봇(1000)의 센서 데이터를 이용하여 시각화할 수 있다는 특징을 가지고, 상기 Rviz 방식에서 사용하는 데이터의 형태는 목적지 좌표 뿐 아니라, 상기 모바일 로봇(1000)의 자세 정보를 포함하도록 하여, 결과적으로 사용자가 상기 모바일 로봇(1000)을 좀더 세밀하게 컨트롤 할 수 있도록 한다.Rviz is a 3D-based visualization tool used in ROS (Robot Operating System), and has a feature that can be visualized using sensor data of the mobile robot 1000, and the form of data used in the Rviz method is only the destination coordinates. Rather, the posture information of the mobile robot 1000 is included so that the user can more precisely control the mobile robot 1000 as a result.

또한, 상기 항해 모듈(2300)은, 목적지 좌표로의 정확하고 빠른 이용을 하기위해, 이동시 2가지 접근 방식을 같이 사용하는 것을 특징으로 한다.In addition, the navigation module 2300 is characterized in that two approaches are used together when moving in order to use the destination coordinates accurately and quickly.

보다 구체적으로, 상기 항해 모듈(2300)은 상대적으로 원거리까지의 항해를 위한 글로벌 플래너(Global planner)와 상기 글로벌 플래너보다 가까운 근거리의 항해를 위한 로컬 플래너(Local planner)를 포함한다.More specifically, the navigation module 2300 includes a global planner for navigation to a relatively long distance and a local planner for a navigation closer than the global planner.

상기 글로벌 플래너의 경우에는 Dijkstra 알고리즘 또는 A*알고리즘을 사용하여, 상대적으로 원거리까지의 목적지 좌표로의 항해를 주도하도록 할 수 있다.In the case of the global planner, the Dijkstra algorithm or the A* algorithm may be used to lead the navigation to the destination coordinates up to a relatively long distance.

반면, 상기 로컬 플래너의 경우에는 동적 윈도우 접근(Dynamic Window Approach) 방식을 사용하는 것을 특징으로 한다.On the other hand, in the case of the local planner, it is characterized in that a dynamic window approach method is used.

보다 구체적으로, 상기 동적 윈도우 접근 방식(Dynamic Window Approach)는 일반적인 항해 시스템의 목적지가 x, y 좌표인 반면, 로봇과 충돌 가능한 장애물을 회피하면서 목적지까지 빠르게 다다를 수 있는 속도를 목적함수로 선택하는 방법으로, 목적함수 G는 병진속도 v와 회전속도 w를 선택하는 것을 특징으로 한다. 즉, 이러한 방식을 통해, 상대적으로 가까운 거리에서의 이동에 목적지에 최대한 빠르게 접근할 수 있는 효과를 제시할 수 있다.More specifically, in the Dynamic Window Approach, the destination of a general navigation system is x and y coordinates, while avoiding obstacles that may collide with the robot and selecting a speed that can quickly reach the destination as an objective function. , the objective function G is characterized by selecting the translational speed v and the rotational speed w. That is, through this method, it is possible to present the effect of approaching the destination as quickly as possible while moving at a relatively short distance.

도 6은 상술한 동적 윈도우 접근방식을 설명하기 위한 도면이다.6 is a diagram for explaining the above-described dynamic window approach.

10000 : AI 기반 자율주행 로봇 시스템
1000 : 모바일 로봇
1100 : 영상 취득부
1200 : 센서부
1300 : 제어부
1400 : 통신부
1500 : 구동부
1600 : 자동판매 모듈
2000 : 컴퓨팅 서버부
2100 : 제스처 인식 모듈
2200 : 경로 순회 제어 모듈
2300 : 항해 모듈
2400 : 서버 통신부
4000 : 모바일 디바이스
10000: AI-based autonomous driving robot system
1000 : mobile robot
1100: image acquisition unit
1200: sensor unit
1300: control unit
1400: communication department
1500: drive unit
1600: vending module
2000: Computing Server Department
2100: gesture recognition module
2200: path traversal control module
2300 : navigation module
2400: server communication unit
4000: mobile device

Claims (5)

자율주행 로봇 시스템에 있어서,
상기 시스템은
모바일 로봇과 상기 모바일 로봇을 원격에서 제어하는 컴퓨팅 서버부를 포함하며,
상기 모바일 로봇은
주변의 영상을 취득하는 영상 취득부;
상기 모바일 로봇의 위치 예측을 위해 복수의 센서를 포함하는 센서부;
상기 센서부로부터 획득한 복수의 센서 데이터를 가공하고 판단하는 제어부;
상기 제어부로부터 가공된 상기 센서 데이터 및 상기 영상 취득부로부터 획득한 영상 데이터를 원격지의 상기 컴퓨팅 서버부에 송신하거나, 상기 컴퓨팅 서버부로부터 상기 모바일 로봇의 제어에 관련된 로봇 제어 데이터를 수신하는 통신부;
상기 모바일 로봇의 동작을 제어하는 구동부; 및
상기 영상 데이터로부터 AI를 이용하여, 객체를 인식하고, 자동으로 물건을 판매하는 자동판매 모듈을 포함하며,
상기 컴퓨팅 서버부는
상기 모바일 로봇의 상기 통신부를 통해 수신한 상기 영상 데이터로부터 특정한 객체 및 객체의 특정 제스처를 인식하는 제스처 인식 모듈;
상기 모바일 로봇으로부터 획득한 복수의 센서 데이터를 이용하여 상기 모바일 로봇의 이동경로를 제어할 수 있도록 목적지 좌표(waypoint)를 연산하고, 연산한 상기 목적지 좌표에 따라, 상기 모바일 로봇이 일정한 경로를 순회할 수 있도록 제어하는 경로 순회 제어 모듈;
상기 목적지 좌표에 따라, 상기 모바일 로봇의 항해(navigation)을 제어하는 항해 모듈; 및
상기 모바일 로봇과의 데이터 송신 및 수신을 제어하는 서버통신부를 더 포함하며,
상기 제스처 인식 모듈은
상기 영상 데이터를 신경망 학습시키는 학습부;
상기 학습부로부터 학습된 결과를 바탕으로 객체 및 객체의 제스처를 판단하는 AI 처리부를 더 포함하며,
상기 AI 처리부는
상기 객체를 개별 클래스로 인식하기 위한 신경망으로 Mask R-CNN을 사용하며, 상기 개별 클래스로는 사람과 백그라운드로 이루어진 바이너리 클래시피케이션을 사용하여, 상기 사람 클래스로 인식된 경우에만 상기 영상 데이터의 상기 사람 객체의 영역에 마스크(Mask) 처리하는 것을 특징으로 하며,
상기 경로 순회 모듈은 사용자가 목적지 좌표(waypoint)를 지정하는 경우, 시각화를 위해, Rviz 방식을 사용하며,
상기 항해 모듈은 목적지 좌표로의 정확하고 빠른 이용을 하기위해, 이동시 상대적으로 원거리까지의 항해를 위한 글로벌 플래너(Global planner)와 상기 글로벌 플래너보다 가까운 근거리의 항해를 위한 로컬 플래너(Local planner)를 포함한 2가지 접근 방식을 사용하는 것을 특징으로 하는 AI 기반 자율주행 로봇 시스템.
In the autonomous driving robot system,
the system is
Comprising a mobile robot and a computing server for remotely controlling the mobile robot,
The mobile robot
an image acquisition unit for acquiring an image of the surroundings;
a sensor unit including a plurality of sensors to predict the position of the mobile robot;
a control unit for processing and determining a plurality of sensor data obtained from the sensor unit;
a communication unit that transmits the sensor data processed from the control unit and the image data obtained from the image acquisition unit to the computing server unit at a remote location, or receives robot control data related to control of the mobile robot from the computing server unit;
a driving unit for controlling the operation of the mobile robot; and
An automatic selling module that recognizes an object and automatically sells a product by using AI from the image data,
The computing server unit
a gesture recognition module for recognizing a specific object and a specific gesture of the object from the image data received through the communication unit of the mobile robot;
A destination coordinate (waypoint) is calculated to control the movement path of the mobile robot using a plurality of sensor data obtained from the mobile robot, and according to the calculated destination coordinate, the mobile robot traverses a predetermined path. a path traversal control module to control;
a navigation module for controlling navigation of the mobile robot according to the destination coordinates; and
Further comprising a server communication unit for controlling data transmission and reception with the mobile robot,
The gesture recognition module
a learning unit for learning the image data by a neural network;
Further comprising an AI processing unit for determining the object and the gesture of the object based on the result learned from the learning unit,
The AI processing unit
Mask R-CNN is used as a neural network for recognizing the object as an individual class, and binary classification consisting of a person and a background is used as the individual class, and only when the object is recognized as the person class, the image data is It is characterized by masking the area of the human object,
The route traversal module uses the Rviz method for visualization when the user specifies the destination coordinates (waypoint),
The navigation module includes a global planner for navigation to a relatively long distance when moving, and a local planner for navigation closer than the global planner, in order to use the destination coordinates accurately and quickly. AI-based autonomous robot system characterized by using two approaches.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 학습부는 상기 객체의 제스처를 판단하기 위해, 상기 마스크 처리된 상기 영상데이터를 기반으로 Resnet 기반 모델 학습을 이용하는 것을 특징으로 하며, 상기 Resnet 기반 모델의 학습을 시키기 위해, 다양한 제스처의 사람 이미지를 생성하는 데이터셋 생성 프로그램을 이용하는 것을 특징으로 하는 AI기반 자율주행 로봇 시스템.
The method according to claim 1,
The learning unit is characterized in that it uses Resnet-based model learning based on the mask-processed image data to determine the gesture of the object, and generates human images of various gestures to learn the Resnet-based model AI-based autonomous driving robot system, characterized in that it uses a data set creation program that
KR1020200161200A 2020-11-26 2020-11-26 AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales KR102408327B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200161200A KR102408327B1 (en) 2020-11-26 2020-11-26 AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200161200A KR102408327B1 (en) 2020-11-26 2020-11-26 AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales

Publications (2)

Publication Number Publication Date
KR20220073282A KR20220073282A (en) 2022-06-03
KR102408327B1 true KR102408327B1 (en) 2022-06-10

Family

ID=81983400

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200161200A KR102408327B1 (en) 2020-11-26 2020-11-26 AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales

Country Status (1)

Country Link
KR (1) KR102408327B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102595257B1 (en) 2023-03-17 2023-11-01 강윤 System and method for human tracking and interaction of mobile robots based on gesture recognition

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017192591A1 (en) * 2016-05-02 2017-11-09 The Coca-Cola Company Vending mechanism
KR102567525B1 (en) * 2016-11-17 2023-08-16 삼성전자주식회사 Mobile Robot System, Mobile Robot And Method Of Controlling Mobile Robot System
KR20190035007A (en) * 2017-09-25 2019-04-03 엘지전자 주식회사 Air Conditioner And Control Method Thereof
KR102072295B1 (en) 2018-01-19 2020-01-31 한국조선해양 주식회사 A Regasification System and Vessel having the same
KR102519064B1 (en) 2018-04-25 2023-04-06 삼성전자주식회사 Mobile robot device and method for providing a service to a user

Also Published As

Publication number Publication date
KR20220073282A (en) 2022-06-03

Similar Documents

Publication Publication Date Title
JP7341652B2 (en) Information processing device, information processing method, program, and system
CN108290294B (en) Mobile robot and control method thereof
EP3347875B1 (en) Localization of a robot in an environment using detected edges of a camera image from a camera of the robot and detected edges derived from a three-dimensional model of the environment
KR101999033B1 (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
ES2770730T3 (en) Location within an environment using sensor fusion
KR102577785B1 (en) Cleaning robot and Method of performing task thereof
JP2020509500A (en) Control method of autonomous mobile robot
US20210146540A1 (en) Method of identifying dynamic obstacle and robot implementing same
TWI684136B (en) Robot, control system and method for operating the robot
US11565415B2 (en) Method of tracking user position using crowd robot, tag device, and robot implementing thereof
KR20200099611A (en) Systems and methods for robot autonomous motion planning and navigation
US11747819B1 (en) Robotic fire extinguisher
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
US11117260B2 (en) Method for controlling a plurality of mobile driverless manipulator systems
CN112020411A (en) Mobile robot apparatus and method for providing service to user
EP4088884A1 (en) Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method
KR20210063791A (en) System for mapless navigation based on dqn and slam considering characteristic of obstacle and processing method thereof
Alves et al. Localization and navigation of a mobile robot in an office-like environment
Fauadi et al. Intelligent vision-based navigation system for mobile robot: A technological review
KR102408327B1 (en) AI-based Autonomous Driving Robot System That Supports Gesture Recognition For Autonomous Driving Sales
Ventura et al. Towards optimal robot navigation in domestic spaces
Xanthidis et al. Aquavis: A perception-aware autonomous navigation framework for underwater vehicles
KR20230134109A (en) Cleaning robot and Method of performing task thereof
Wei et al. An approach to navigation for the humanoid robot nao in domestic environments
Francis et al. Real-time path planning module for autonomous vehicles in cluttered environment using a 3D camera

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant