KR102008367B1 - System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot - Google Patents

System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot Download PDF

Info

Publication number
KR102008367B1
KR102008367B1 KR1020180006500A KR20180006500A KR102008367B1 KR 102008367 B1 KR102008367 B1 KR 102008367B1 KR 1020180006500 A KR1020180006500 A KR 1020180006500A KR 20180006500 A KR20180006500 A KR 20180006500A KR 102008367 B1 KR102008367 B1 KR 102008367B1
Authority
KR
South Korea
Prior art keywords
action
mobile robot
intelligent mobile
indoor
unit
Prior art date
Application number
KR1020180006500A
Other languages
Korean (ko)
Inventor
송동호
인연진
김영필
Original Assignee
소프트온넷(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소프트온넷(주) filed Critical 소프트온넷(주)
Priority to KR1020180006500A priority Critical patent/KR102008367B1/en
Application granted granted Critical
Publication of KR102008367B1 publication Critical patent/KR102008367B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to an autonomous-moving intelligent robot using an artificial intelligence (AI) planning technology, an application thereof, and a smart indoor work management system using the robot and the application to move the robot to a required place in a home and a business site, photograph a required image, recognize the photographed image, and take a required measure based on a recognition result. According to the present invention, the smart indoor work management system comprises: an agent management unit using a simultaneous localization and mapping (SLAM) technology based on data inputted from vision and distance sensors mounted in an intelligent moving robot to make an indoor map for performing a smart indoor business management service during an operation preparation state and using an AI planning technology for executing a command, which is requested to an indoor business management application by a user, to move the intelligent moving robot from a current position to a destination without colliding with an obstacle during an operation state; an object information collection unit directly receiving image data inputted through a camera mounted on the intelligent moving robot in real-time, recognizing an object, in particular an actual object, from an image, and storing a tag for recognized information; and the indoor business management application installed in a user′s smartphone to receive one or more of text, voice, and an execution command through a GUI and transfer the command to the intelligent moving robot to transfer a user′s command to the intelligent moving robot and receiving a result of the command executed by the intelligent moving robot to transfer the result to the user. Accordingly, indoor business management can be efficiently realized with an inexpensive and simple structure.

Description

인공지능 플래닝을 이용한 자율주행형 이동로봇과 이를 이용한 스마트 실내업무 관리 시스템 및 방법{SYSTEM AND METHOD FOR AUTONOMOUS MOBILE ROBOT USING A.I. PLANNING AND SMART INDOOR WORK MANAGEMENT SYSTEM USING THE ROBOT}Self-driving mobile robot using artificial intelligence planning and smart indoor business management system and method using same {SYSTEM AND METHOD FOR AUTONOMOUS MOBILE ROBOT USING A.I. PLANNING AND SMART INDOOR WORK MANAGEMENT SYSTEM USING THE ROBOT}

본 발명은 인공지능 플래닝기술을 이용한 자율주행 지능형 이동로봇 및 앱과, 이 로봇 및 앱을 이용하여 가정 및 사업장내 필요한 곳으로 로봇을 이동시키고, 필요한 영상촬영을 하고, 이 영상을 인식하고, 인식된 결과에 따라 필요한 조치를 취하는 스마트 실내업무 관리 시스템 및 방법에 관한 것이다. 또한 본 발명은 실내 측위기술을 대신하여 실내 지도를 로봇 스스로 작성하고 이 지도를 이용하여 로봇의 바퀴회전수를 카운팅 하는등의 로봇제어기술과 인공지능 플래닝 기술을 통하여 제어하게 되는 실내업무 관리 시스템 및 방법에 관한 것이다.The present invention is a self-driving intelligent mobile robot and app using artificial intelligence planning technology, using the robot and the app to move the robot to the necessary place in the home and business, take the necessary image, recognize the image, and recognize A smart indoor business management system and method for taking the necessary measures according to the results obtained. In addition, the present invention is an indoor task management system that controls the robot through the robot control technology and artificial intelligence planning technology such as counting the number of revolutions of the robot using the map to create the indoor map by the robot in place of the indoor positioning technology and It is about a method.

통상 가정이나 사업장내 필요한 영상확보를 위하여 여러 개의 카메라를 설치하고 이를 고정 혹은 각도변경 방식으로 활용하는 사례가 일반적이다. 하지만, 이보다 더욱 단일 카메라를 광범위하게 활용하는 방법은 카메라를 로봇에 탑재하여 원하는 장소, 원하는 각도로 이동시켜서 피사체를 최적의 조건에서 찍도록 하는 것이다. 이를 위해 카메라에 이동성을 부여할 필요성이 있는데, 지능형 이동 로봇상에 카메라를 탑재하고, 사용자가 원하는 피사체를 카메라가 고품질로 촬영하도록 하는 최적의 이동경로, 위치, 및 각도 조정을 이동로봇을 통하여 실현할 수 있다. 로봇의 이동은 주어진 공간에서의 GPS등 측위기술을 이용하면 편리하다. 하지만, GPS신호가 도달하기 어렵고 1~2m오차가 중요한 요소일 경우 실내 측위기술을 사용하여 구현할 수 있다. 예를 들면, WiFi를 이용하는 측위기술로서 특허문헌1(공개번호 10-2014-0055537(2014년05월09일 공개))이 제안되어 있으나 실내측위 기술은 미리 설정된 전자지도와 WiFi가 전제될 때 이용가능 하다는 점에서 미리 셋팅된 장비로 기술구현을 하기에는 설치구조가 상대적으로 복잡해지고 고가의 비용이 든다는 점에서 문제가 있다.In general, a case of installing a plurality of cameras to secure necessary images in a home or a workplace and using them in a fixed or angle changing method is common. However, a more widespread use of a single camera is to mount the camera on a robot and move it to the desired location and desired angle so that the subject is shot under the optimal conditions. To this end, it is necessary to add mobility to the camera. The mobile robot can be mounted on an intelligent mobile robot, and the mobile robot can realize the optimum movement path, position, and angle adjustment to ensure that the camera captures a desired subject with high quality. Can be. The movement of the robot is convenient using positioning technology such as GPS in a given space. However, if the GPS signal is difficult to reach and the 1 ~ 2m error is an important factor, it can be implemented using indoor positioning technology. For example, Patent Document 1 (Publication No. 10-2014-0055537 (published May 09, 2014)) has been proposed as a positioning technology using WiFi, but indoor positioning technology is used when pre-set electronic maps and WiFi are assumed. In order to implement the technology with pre-set equipment, there is a problem in that the installation structure is relatively complicated and expensive.

또한, 예를 들면, 특허문헌2(특허등록 10-1655760호, 공고일자: 2016년09월08일)의 경우와 같이, 기존의 스마트홈은 실내에 무선인터넷(WiFi) 환경을 구성하고, 제어하기 원하는 가전제품 또는 기기에 사물 인터넷(IoT: Internet Of Things) 환경을 구성하고, 사용자의 스마트폰에 설치된 사물 인터넷 운용프로그램을 통해 조정하기 원하는 가전제품을 제어하거나 또는 IoT 허브에 사람의 음성으로 '가습기 켜줘'와 같은 명령을 내림으로써 가습기의 전원을 온·오프(on/off) 하는 등의 동작을 실행할 수 있다. 이때 가전제품은 사물인터넷, 원격제어, 리모컨 등이 적용된 제품만이 세부적인 제어가 가능하고, 그렇지 않은 가전제품의 경우 단순한 전원 온·오프(on/off)의 기능 지원을 위해 전원 콘센트 앞단에 별도의 사물 인터넷이 적용된 멀티텝을 사용해야되는 형태였다.In addition, for example, as in the case of Patent Document 2 (Patent Registration No. 10-1655760, published date: September 08, 2016), the existing smart home configures and controls the wireless Internet (WiFi) environment in the room. Configure the Internet of Things (IoT) environment on the appliance or device you want to control, control the appliance you want to control through the IoT operations program installed on your smartphone, or use human voices on the IoT hub It is possible to execute an operation such as turning on / off the power of the humidifier by issuing a command such as 'Turn on the humidifier'. In this case, only the products to which the Internet of Things, remote control, remote control, etc. are applied can be controlled in detail, and in the case of other home appliances, a separate power supply is provided in front of the power outlet to support simple power on / off functions. The Internet of Things had to use multi-tap.

그러나, 이 경우에도 WiFi 환경과 미리 설정된 제어 시스템 체계를 사용해야 하기 때문에 설치구조가 복잡해지고 규모가 커져서 시스템 구축비용이 과다해지고 관리해야할 개별 부품들의 개수가 많아서 고장율이 높아지고 유지보수에 많은 노동력과 비용이 든다는 점에서 역시 문제가 있다.However, even in this case, because the WiFi environment and the preset control system system must be used, the installation structure is complicated and the size is large, the system construction cost is excessive, the number of individual parts to be managed is high, the failure rate is high, and the labor and cost for maintenance are high. There is also a problem in that it costs.

공개번호 10-2014-0055537(2014년05월09일 공개)Publication No. 10-2014-0055537 (released May 09, 2014) 특허등록 10-1655760호(공고일자 2016년09월08일)Patent Registration No. 10-1655760 (Announcement date September 08, 2016)

본 발명의 일실시예는 이러한 종래 기술의 문제를 해결하기 위한 것으로서, 가정이나 빌딩, 공장 내 등에서의 실내업무 관리에 있어서, 실내에 미리 셋팅된 무선통신 기반의 제어 시스템이 없어도 제어대상인 객체를 찾아가는 경로를 스스로 결정하여 해당 객체에 도달할 수 있고 그 객체의 상태를 인식하고 그 결과인 객체인식정보를 제어자의 스마트폰 앱에 전달할 수 있는 인공지능 플래닝을 이용한 자율주행형 이동로봇과 이를 이용한 스마트 실내업무관리 시스템 및 방법을 제공하는 것을 목적으로 한다.One embodiment of the present invention is to solve the problems of the prior art, in the management of indoor work in the home, building, factory, etc., even if there is no wireless communication-based control system preset in the room to go to the object to be controlled Self-driving mobile robot using artificial intelligence planning to determine the path by itself and recognize the state of the object and transmit the resulting object recognition information to the controller's smartphone app and smart indoor The purpose is to provide a work management system and method.

본 발명의 다른 실시예는 실내 측위기술을 대신하여 실내 지도를 로봇 스스로 작성하고 이 지도를 이용하여 로봇의 바퀴회전수를 카운팅 하는 등의 로봇제어기술과 인공지능 플래닝 기술을 통하여 제어하게 되는 시스템 및 방법을 제공하는 것을 목적으로 한다.Another embodiment of the present invention is a system for controlling through a robot control technology and artificial intelligence planning technology, such as creating an indoor map by the robot itself in place of the indoor positioning technology and counting the number of revolutions of the robot using the map and It is an object to provide a method.

또한, 본 발명의 다른 실시예는 카메라 초점, 노출, 시간 등의 제어를 위하여 카메라와 컴퓨터가 일체화된 스마트폰과 같은 장치 및 앱을 사용하는 방법과 촬영된 피사체로부터 객체, 행위, 인물 등을 인식하고, 이를 피드백하여 보다 높은 인식률을 얻도록 상기 카메라의 위치 등을 재조정 하는 시스템 및 방법을 제공하는 것을 목적으로 한다. 이렇게 획득한 객체 정보를 스마트가사관리, 빌딩, 공장, 및 사무실과 유사한 사업장 등을 망라하는 실내업무 관리 목적에 응용할 수 있다.In addition, another embodiment of the present invention is a method of using a device and an app, such as a smartphone integrated with a camera and a computer for controlling the camera focus, exposure, time, etc., and recognizes the object, behavior, person, etc. from the photographed subject It is an object of the present invention to provide a system and method for repositioning the position of the camera and the like to obtain a higher recognition rate by feeding back the feedback. The object information thus obtained can be applied to the purpose of managing indoor tasks covering smart house management, buildings, factories, and office-like workplaces.

상기한 목적을 달성하기 위한 본 발명의 일양태는, 인공지능 플래닝기술을 이용한 자율주행 지능형 이동로봇 및 앱과, 이 로봇 및 앱을 이용하여 가정 및 사업장내 필요한 곳으로 로봇을 이동시키고, 필요한 영상촬영을 하고, 이 영상을 인식하고, 인식된 결과에 따라 필요한 조치를 취하는 스마트 실내업무관리 시스템으로서, 운영준비상태에서 상기 지능형 이동로봇에 탑재된 비전센서와 거리센서의 데이터를 입력으로 SLAM(Simultaneous Localization And Mapping) 기술을 사용하여 스마트 실내업무관리 서비스를 진행하기 위한 실내지도를 작성하고, 상시 운영상태에서 사용자가 실내업무관리 앱에 요청한 명령을 수행하기 위해 인공지능 플래닝 기술을 사용하여 지능형 이동로봇을 현재 위치에서 목적지로 장애물의 충돌없이 이동시키기는 에이전트 관리부; 상기 지능형 이동로봇에 탑재된 카메라를 통해 입력된 영상데이터를 직접 실시간으로 입력받은후, 영상내 객체, 특히 사물객체를 인식하고 이 인식정보에 대한 테깅을 저장하는 객체정보 수집부; 및 사용자의 명령을 상기 지능형 이동로봇에 전달하기 위해, 사용자의 스마트폰에 설치되어 GUI를 통해 텍스트, 음성, 실행명령중 하나 이상을 입력받아 지능형 이동로봇에게 명령을 전달하고, 지능형 이동로봇이 수행한 명령의 결과를 전달받아 사용자에게 전달해 주는 실내업무관리앱;을 포함하여 구성된다.One aspect of the present invention for achieving the above object is an autonomous driving intelligent mobile robot and app using artificial intelligence planning technology, using the robot and the app to move the robot to the necessary place in the home and business, and necessary images A smart indoor work management system that takes pictures, recognizes these images, and takes necessary measures according to the recognized results, and inputs data from vision sensors and distance sensors mounted on the intelligent mobile robot in operation ready state. Intelligent mobile robot using artificial intelligence planning technology to create indoor map for conducting smart indoor business management service using Localization And Mapping) technology and to carry out commands requested by the user to indoor business management app at all times. An agent manager to move the object from the current position to the destination without collision of the obstacle; An object information collecting unit for directly receiving real-time image data input through a camera mounted on the intelligent mobile robot and recognizing objects in the image, in particular, object objects and storing tagging of the recognition information; And installed in the user's smartphone to receive the user's command to the intelligent mobile robot, receive one or more of text, voice, and execution commands through the GUI, and transmit the command to the intelligent mobile robot, which is performed by the intelligent mobile robot. It is configured to include; indoor business management app that receives the result of a command and delivers it to the user.

바람직하게는, 에이전트 관리부는 사용자의 스마트폰에 설치된 실내업무 관리앱으로부터 받은 명령을 분석하여 이동액션과 객체액션으로 구별하고 이동액션을 위치 제어부에 전달하고, 객체액션을 객체정보 수집부에 전달하여 명령을 수행하는 에이전트 제어부; 상기 에이전트 제어부로부터 전달 받은 이동액션을 기반으로 지능형 이동로봇이 특정위치로 이동할 수 있도록 오도메트리(Odometry)를 사용하여 지능형 이동로봇이 움직이는 이동량을 바퀴의 회전량을 가지고 측정하여 지도상의 지능형 이동로봇의 위치를 계산하고 사용자가의 명령한 목적지로 이동시키는 액션(Action)을 실행하는 위치 제어부; 및 상기 위치 제어부에서 얻은 지능형 이동 로봇의 위치값과 거리센서(Depth Camera)로 X-Y 평면상을 스캔하여 산출된 거리값을 입력으로 SLAM 기술을 사용하여 실내의 벽과 장애물이 구별되는 지도를 작성 및 갱신하는 액션(Action)을 실행하는 지도 관리부;를 포함하여 구성된다.Preferably, the agent manager analyzes the command received from the indoor work management app installed in the user's smart phone to distinguish between the mobile action and the object action, and transfers the mobile action to the location control unit, and delivers the object action to the object information collection unit An agent controller for performing a command; Based on the movement action received from the agent controller, the intelligent mobile robot measures the movement amount of the intelligent mobile robot with the rotation amount of the wheel using Odometry so that the intelligent mobile robot can move to a specific position. A position control unit configured to calculate an position of the position and execute an action for moving to the commanded destination of the user; And using the SLAM technique, inputting the position value of the intelligent mobile robot obtained from the position control unit and the distance value calculated by scanning the XY plane with a distance camera, and using the SLAM technology to prepare a map distinguishing the walls from the obstacles. It is configured to include; map management unit for executing an action to update.

바람직하게는, 상기 위치 제어부는 지능형 이동로봇의 현재위치, 장애물의 위치, SLAM 기술을 사용하여 작성된 지도에서 점유영역(occupied area), 자유영역(free area), 미지영역(unknown area)에 대한 정보를 사용하여 이동할 수 있는 영역과 이동할 수 없는 영역을 계산한 코스트맵(Cost Map) 정보를 구성하는 액션(Action)을 실행하는 코스트맵 구성부; 및 코스트맵 정보를 기반으로 목적지까지의 최적 경로를 계산하고, 실시간으로 변경되는 장애물에 대한 정보를 거리센서를 통해 획득하여 지능형 로봇과 충돌 가능한 장애물을 회피하면서 목적지에 빠르게 도착할 수 있는 경로를 계산하는 액션(Action)을 실행하는 장애물 회피부;를 포함하여 구성된다.Preferably, the position control unit information on the occupied area, free area, unknown area in the map created using the current position of the intelligent mobile robot, obstacle position, SLAM technology A cost map constructing unit configured to execute an action constituting cost map information obtained by calculating a region which can be moved and an region which cannot be moved by using a? And calculate the optimal route to the destination based on the cost map information, and obtains information about the obstacle that changes in real time through the distance sensor to calculate the route that can quickly reach the destination while avoiding obstacles that can collide with the intelligent robot It is configured to include; obstacle avoidance unit for executing an action (Action).

바람직하게는, 상기 위치 제어부는 지능형 이동로봇이 움직이는 이동량을 바퀴 회전축의 회전량으로 추정항법(Dead-Reckoning)을 통해서 움직인 거리를 측정하여 위치계산을 하고, 관성측정장치(Inertial Measurement Unit)에서 측정한 관성정보를 적용하여 추정 항법의 오차를 보정해주는 액션(Action)을 포함하여 구성된다.Preferably, the position control unit calculates the position by measuring the distance moved by the intelligent mobile robot to the amount of rotation of the wheel rotation axis through dead-reckoning, and in the inertial measurement unit It consists of an action that corrects the error of the estimated navigation by applying the measured inertial information.

바람직하게는, 상기 객체정보 수집부는 객체정보 분석을 필요로하는 영상 스트리밍 데이타를 입력받기 위한 인터페이스로서, 지능형 이동로봇의 카메라로부터 입력된 영상스트리밍데이터를 입력받을 수 있는 영상입력부; 상기 영상입력부를 통해 입력된 영상에 포함된 객체들을 인식하기위해 HMM(Hidden Markov Model)이나, GMM(Gaussian Mixture Model), 딥뉴럴 네트워크나 LSTM(Long short-term memory) 중 어느 한 알고리즘을 이용하여 객체들에 테두리를 형성하여(엣지 작업을 수행하여) 객체들을 구분하고 일반객체들을 인식하는 액션(Action)을 실행하는 영상객체인식 엔진부; 및 상기 일반객체에 포함된 다양한 사물 및 사람에 대한 객체들중 시스템이 특정한 객체들만(특정사물 (가전제품, 가스 밸브, 보일러의 온도조절기, 조명), 사람 및 인상착의)을 인식하고 이를 분리해 내어 테깅하고 테깅 메타데이타를 저장하고, 저장된 상기 객체로부터 의미 있는 객체를 구별하는 액션(Action)을 실행하는 의미객체 인식부;를 포함하여 구성된다.Preferably, the object information collection unit is an interface for receiving image streaming data requiring object information analysis, the image input unit for receiving the image streaming data input from the camera of the intelligent mobile robot; In order to recognize the objects included in the image input through the image input unit, one of an algorithm such as HMM (Hidden Markov Model), GMM (Gaussian Mixture Model), deep neural network, or long short-term memory (LSTM) is used. An image object recognition engine unit configured to form an edge on the objects (by performing an edge operation) to distinguish the objects and to execute an action of recognizing general objects; And the system recognizes and isolates only specific objects (specific objects (appliances, gas valves, boiler thermostats, lighting), people and impressions) among various objects and objects for people included in the general object. And a semantic object recognizer for tagging, storing tagging metadata, and executing an action for distinguishing a meaningful object from the stored object.

바람직하게는, 의미객체 인식부는 상기 일반객체로부터 건물의 실내에 나타나는 가전제품의 전원 온오프의 상태, 조명기기의 온·오프의 상태, 보일러의 온도조절기의 화면에 표시되는 온도 및 상태를 적어도 포함하는 사물객체를 구별하는 액션(Action)을 실행하는 사물 인식부; 상기 일반객체로부터 사람에 대한 인상착의로서 상/하의 색깔, 대략 키, 안경/가방/모자 착용여부 등의 사람객체를 구별하는 사람 인식부; 및 상기 사물객체에서 조명의 전원 온·오프, 보일러 온도 조절기의 화면에 표시되는 온도 변화를 적어도 포함하는 상태변화를 구별하는 액션(Action)을 실행하는 이벤트 분석부;를 포함하여 구성된다.Preferably, the semantic object recognition unit includes at least a state of power on / off of a home appliance, a state of on / off of a lighting device, a temperature and a state displayed on a screen of a temperature controller of a boiler appearing from the general object in a building interior. A thing recognizing unit which executes an action for distinguishing the thing object; A person recognizing unit that distinguishes a person object from the general object such as an upper / lower color, an approximate height, wearing glasses / bags / hats, etc. as an impression on the person; And an event analyzer for performing an action for distinguishing a state change including at least one of a power change on and off of an illumination and a temperature change displayed on a screen of a boiler temperature controller in the object object.

바람직하게는, 실내업무관리앱은 사용자와 입·출력정보를 제공할 수 있는 GUI를 제공하고 사용자의 입력인 텍스트, 음성, 실행명령중 하나 이상을 입력받으며, 텍스트, 음성 명령은 온톨로지 변환부에 전달하고 온톨로지 변환부가 추출한 실행명령, GUI로 입력된 실행명령을 지능형 이동로봇의 에이전트 관리부에 전달하고, 실행명령 수행결과를 전달받아 실내업무 관리앱의 GUI에 표시하는 실내업무 관리앱 관리부; 상기 실내업무 관리앱 관리부로부터 전달받은 텍스트, 음성 중 하나 이상을 입력으로 수집규칙을 적용하여 파싱하고 변환규칙을 적용하여 OWL 데이터를 생성관리하고 RDFS 수준의 지식 트리플로 변환하여 시멘틱웹 기술을 사용하여 사용자의 자연어를 컴퓨터가 처리할 수 있는 명령으로 변환하는 온토로리지 변환부;를 포함하여 구성된다.Preferably, the indoor work management app provides a GUI that can provide a user and input and output information, and receives one or more of user's input text, voice, and execution commands, and the text and voice commands are included in the ontology conversion unit. An indoor operation management app management unit for transmitting and executing the execution command extracted by the ontology conversion unit and the execution command input to the GUI to the agent management unit of the intelligent mobile robot, and receiving the execution command execution result and displaying the execution command execution result on the GUI of the indoor operation management app; Using the semantic web technology by parsing one or more of the text and voice received from the indoor business management app management unit by applying a collection rule as input, generating and managing OWL data by applying a conversion rule, and converting it into knowledge triple of RDFS level. And an ontology conversion unit for converting a user's natural language into a command that can be processed by a computer.

바람직하게는, 실내업무 관리앱 관리부는 지능형 이동로봇의 에이전트 관리부로부터 실내지도와 실내지도에 위치한 사물객체, 지능형 이동로봇의 위치를 전달받아 실내업무 관리앱의 GUI에 표시하고, 사용자의 명령 입력과 명령 수행 결과를 전달받아 텍스트, 음성, 이미지, 동영상 중 하나 이상으로 GUI에 표시해주는 것을 포함하여 구성된다.Preferably, the indoor task management app management unit receives the indoor map, the location of the object located in the indoor map and the intelligent mobile robot from the agent management unit of the intelligent mobile robot and displays the location of the intelligent mobile robot on the GUI of the indoor task management app, inputting the user's command and It consists of receiving the result of command execution and displaying it on the GUI as one or more of text, voice, image, and video.

바람직하게는, 상기 에이전트 관리부는 도메인 플랜(Domain Plan)에 지능형 이동로봇의 이동과 관련된 움직임, 객체 수집과 관련된 움직임의 동작을 세부 액션(Action)들로 등록하고, 사용자 실행명령을 입력하면 실행명령을 해결하기 위한 세부액션들의 수행 절차를 인공지능 플래닝 기술을 통해 이동액션, 객체액션 중 하나로 생성하여, ROS 세부 액션(Action)들을 실행함으로써 실행명령을 자동으로 추론하고, 상기 이동액션과 객체액션은 도메인 플랜에 포함되어 있는 하나 이상의 액션(Action)들의 순차적인 실행 순서 정보를 갖는다.Preferably, the agent manager registers the movements related to the movement of the intelligent mobile robot and the movements related to the object collection as detailed actions in a domain plan, and inputs an execution command when a user execution command is input. The execution procedure of detailed actions to solve the problem is generated by artificial intelligence planning technology as one of the moving action and the object action, and automatically infers the execution command by executing the ROS detailed actions, and the moving action and the object action are Has sequential execution order information of one or more actions included in the domain plan.

바람직하게는, 액션(Action)은 액션이 실행되기 위한 사전조건, 액션 실행후 결과상태에 대한 정보를 포함하여 도메인 플랜에 포함된다.Preferably, the action is included in the domain plan, including information about the precondition for the action to be executed and the result status after the action is executed.

바람직하게는, 실행명령은 선언적(Declarerative)으로 지능형 이동로봇의 현재상태와 목적상태에 대한 내용만 포함하고 있고, 어떻게 목적지로 찾아갈지는 에이전트 제어부가 플래닝하여 생성한 이동액션을 실행하여 최종 목적지 위치에 도달한다.Preferably, the execution instruction is declarerative and includes only the contents of the present state and the target state of the intelligent mobile robot, and how to get to the destination is executed by executing the moving action generated by the agent controller and planning the final destination position. To reach.

상기 목적을 실현하기 위한 본 발명의 다른 양태는 인공지능 플래닝 기술을 이용한 자율주행 지능형 이동로봇과, 이 로봇을 이용하여 가정 및 사업장내 필요한 곳으로 로봇을 이동시키고, 필요한 영상촬영을 하고, 이 영상을 인식하고, 인식된 결과에 따라 필요한 조치를 취하는 스마트 실내업무관리 방법으로서, 지능형 이동로봇이 운영준비상태에서 사용자가 실내업무 관리앱의 GUI를 통해 실행명령을 요청하거나 자율주행을 수행모드로 진행하면, 지능형 이동로봇의 에이전트 관리부가 이동로봇에 탑재된 비전센서와 거리센서의 데이터를 입력으로 하여 SLAM기술을 통해 스마트 실내업무관리 서비스를 진행하기 위한 실내지도를 작성하는 단계; 지능형 이동로봇이 상시운영상태에서 사용자가 실내업무 관리앱의 GUI를 통해 입력된 실행명령을 지능형 이동로봇의 에이전트 제어부가 이동액션과 객체액션으로 구별하고 이동액션을 입력으로 위치 제어부에서 액션(Action)을 실행하여 지능형 이동로봇을 목적지로 이동시키고, 객체액션을 입력으로 객체정보 수집부가 액션(Action)을 실행하여 객체의 종류 및 상태를 파악하여 그 결과를 실내업무 관리 앱에 실행결과를 전달하는 단계; 및 지능형 이동로봇이 운영중비상태에서 자율주행중 장애물을 발견하여 지능형 이동로봇의 에이전트 제어부가 객체 정보를 수집하라는 객체액션을 객체정보 수집부에 전달하고 객체정보 수집부는 액션(Action)을 실행하여 객체정보를 수집하거나, 실내지도가 작성된 상태에서 에이전트 제어부가 객체정보 수집부에 전달한 객체액션을 통해 객체의 상태를 구별하는 액션(Action)을 실행하는 단계;를 포함하여 구성된다.Another aspect of the present invention for realizing the above object is an autonomous driving intelligent mobile robot using artificial intelligence planning technology, using the robot to move the robot to the necessary place in the home and business, and take the necessary image, Smart indoor task management method that recognizes and takes necessary actions according to the recognized result.In the state of intelligent mobile robot operation preparation, the user requests execution command or performs autonomous driving through the GUI of the indoor task management app while the mobile robot is ready for operation. When the agent management unit of the intelligent mobile robot to enter the data of the vision sensor and the distance sensor mounted on the mobile robot to create an indoor map for the smart indoor business management service through the SLAM technology; When the intelligent mobile robot is always in operation, the agent control command of the intelligent mobile robot is divided into moving action and object action by the user through the GUI of the indoor work management app. Steps to move the intelligent mobile robot to the destination, the object information collection unit executes the action by inputting the object action to grasp the type and state of the object and deliver the result to the indoor work management app ; And the intelligent mobile robot detects obstacles during autonomous driving in the idle state, and the agent control unit of the intelligent mobile robot transmits the object action to collect the object information to the object information collecting unit, and the object information collecting unit executes the action to perform the object information. Or executing an action for distinguishing the state of the object through the object action delivered to the object information collecting unit by the agent control unit while the indoor map is created.

바람직하게는, 지능형 이동로봇이 운영준비상태에서 사용자가 실내업무 관리앱을 통해 명령, 자율주행중 하나 이상을 사용하여 지능형 이동로봇의 에이전트 관리부가 이동로봇에 탑재된 비전센서와 거리센서의 데이터를 입력으로하여 SLAM 기술을 통해 스마트 실내업무관리 서비스를 진행하기 위한 실내지도를 작성하는 단계에서, 지능형 이동로봇의 위치 제어부가 자율주행을 수행할 때 오도메트리를 사용하여 지능형 이동로봇의 바퀴를 제어하고, 바퀴의 회전량을 측정하여 움직인 거리를 측정하는 추정항법(Dead-reckoning)을 통해 지능형 이동로봇의 위치를 판단하는 액션(Action)을 실행하는 단계; 지능형 이동로봇의 지도 관리부는 위치 제어부가 계산한 지능형 이동로봇의 위치 추정값과 거리센서(Deapth Camera)로 X-Y 평면상을 스캔하여 산출된 거리값을 입력으로 SLAM 기술을 사용하여 실내지도를 작성하는 액션(Action)을 실행하는 단계; 위치 제어부가 실시간으로 작성된 지도상에 점유영역(occupied area), 자유영역(free area), 미지영역(unknown area)에 대한 정보를 기반으로 이동할 수 있는 영역과 이동할 수 없는 영역을 계산한 코스트맵(Cost Map)정보를 구성하고 장애물을 회피하면서 자율주행을 진행하는 액션(Action)을 실행하는 단계;를 포함하여 구성된다.Preferably, when the intelligent mobile robot is ready for operation, the agent management unit of the intelligent mobile robot inputs the data of the vision sensor and the distance sensor mounted on the mobile robot by using one or more of command and autonomous driving through the indoor task management app. In the step of creating the indoor map for the smart indoor business management service through the SLAM technology, when the position controller of the intelligent mobile robot performs autonomous driving, it controls the wheels of the intelligent mobile robot using odometry. Executing an action for determining the position of the intelligent mobile robot through dead-reckoning, which measures the distance of movement of the wheel and measures the distance moved; The map management unit of the intelligent mobile robot generates an indoor map using SLAM technology by inputting the calculated position value of the intelligent mobile robot calculated by the position controller and the XY plane by using a distance camera. Executing an action; The cost control system calculates the areas of movement and areas that cannot be moved based on information about occupied areas, free areas, and unknown areas on a map created by the location controller in real time. And executing an action of proceeding autonomous driving while constructing Cost Map information and avoiding obstacles.

바람직하게는, 지능형 이동로봇이 상시운영상태에서 사용자가 실내업무 관리앱의 GUI를 통해 입력된 실행명령을 지능형 이동로봇의 에이전트 제어부가 이동액션과 객체액션으로 구별하고 이동액션을 위치 제어부에서 인공지능 플래닝 기술로 실행하여 지능형 이동로봇을 목적지로 이동시키고, 객체액션을 객체정보 수집부가 수행하여 객체의 종류 및 상태를 파악하여 그 결과를 실내업무관리 앱에 실행결과를 전달하는 단계에서, 사용자가 실내업무 관리앱 GUI가 제공하는 실내지도상에서 텍스트, 음성, 실행명령중 하나 이상을 입력하여 '특정 객체인 가전제품(냉장고, 세탁기, 에어컨, 공기 청정기), 창문, 보일러 온도조절기, 도어락 있는 곳으로 이동하라', '가스밸브 잠금장치의 상태, 창문의 개폐 상태, 조명기기의 온·오프 상태를 확인하라'를 적어도 포함하는 명령들중 특정 명령을 내리는 단계; 사용자의 명령을 실내업무 관리앱 관리부는 실행명령으로 변환하여 지능형 이동로봇의 에이전트 제어부에 전달하고 에이전트 제어부가 구별한 이동액션을 위치제어부가 전달 코스트맵 정보를 기반으로 목적지까지의 최적경로를 다익스트라 알고리즘(Dijkstra Algorithm), A* 알고리즘, 전자기장 알고리즘 등을 사용하여 장애물을 회피하면서 지능형 이동로봇을 이동시키는 액션(Action)을 실행하는 단계;를 포함하여 구성된다.Preferably, while the intelligent mobile robot is always in operation, the agent control unit of the intelligent mobile robot distinguishes the execution command input through the GUI of the indoor work management app into the mobile action and the object action and the mobile action is the AI in the position controller. By executing the planning technology, the intelligent mobile robot is moved to the destination, and the object information collecting unit performs the object action to identify the type and state of the object and delivers the result to the indoor task management app. Enter one or more of the text, voice, and execution commands on the indoor map provided by the task management app GUI to move to specific objects such as home appliances (fridges, washing machines, air conditioners, air cleaners), windows, boiler thermostats, and door locks. 'Please check the status of the gas valve lock, the opening and closing of the window, the on and off status of the lighting equipment. Issuing a specific command among instructions that also include; The indoor task management app management unit converts the user's command into an execution command and transmits the command to the agent control unit of the intelligent mobile robot, and the mobile controller distinguishes the optimal path to the destination based on the cost map information. And executing an action for moving the intelligent mobile robot while avoiding obstacles using an algorithm (Dijkstra Algorithm), an A * algorithm, an electromagnetic field algorithm, and the like.

바람직하게는, 지능형 이동로봇이 운영준비상태에서 자율주행중 장애물을 발견하여 지능형 이동로봇의 에이전트 제어부가 객체 정보를 수집하라는 객체액션을 객체정보 수집부에 전달하여 객체정보를 수집하거나, 상시운영상태에서 에이전트 관리부가 객체정보 수집부에 전달한 객체액션을 통해 객체의 상태를 구별하는 액션(Action)을 실행하는 단계에서, 에이전트 관리부가 전달한 장애물정보(장애물의 위치, 장애물 간의 거리)를 기반으로 지능형 이동로봇에 설치된 카메라를 제어하여 피사체를 원하는 각도로 촬영하고 객체정보 수집부를 통해 객체의 종류 및 상태를 구별하는 액션(Action)을 실행하는 단계; 사용자의 실행명령에서 에이전트 제어부가 구별한 객체액션 입력으로 객체정보 수집부는 인물객체의 인상착의, 사물객체의 상태값을 인식하여 일반객체의 상태를 구별하는 액션(Action)을 실행하는 단계; 에이전트 관리부가 실행명령을 실행한 결과를 사용자의 스마트폰의 앱의 GUI에 객체 촬영영상, 객체의 상태값 중 하나 이상을 그 결과로 표시하는 단계;를 포함하여 구성된다.Preferably, the intelligent mobile robot detects obstacles during autonomous driving in the operation ready state, and the agent control unit of the intelligent mobile robot delivers the object action to collect the object information to the object information collection unit to collect the object information, or in the continuous operation state. In the step of executing the action that distinguishes the state of the object through the object action transmitted to the object information collecting unit by the agent manager, the intelligent mobile robot is based on the obstacle information (the position of the obstacle and the distance between the obstacles) delivered by the agent manager. Controlling an camera installed in the camera to photograph the subject at a desired angle, and executing an action of distinguishing the type and state of the object through the object information collecting unit; The object information collecting unit recognizes the state value of the object object in the impression of the person object and executes an action of distinguishing the state of the general object by the object action input distinguished by the agent control unit from the execution command of the user; And displaying the result of executing the execution command by the agent manager on the GUI of the app of the user's smartphone as one or more of the object photographed image and the state value of the object as a result.

이상과 같은 구성에 따라서 본 발명은 다음과 같은 효과를 얻을 수 있다.According to the above configuration, the present invention can obtain the following effects.

본 발명의 기술분야는 WIFI무선 인터넷이 설치된 건물의 실내에서 고가의 실내측위기술을 이용하지 않고 그 대안으로서 지능형 이동로봇에 중앙처리장치를 가지는 컴퓨터 기능을 하는 전자장치와 영상깊이 촬영이 가능한 카메라를 이용하여 지도를 작성하고 이를 이용하여 실내측위기술을 대신할 수 있다. 이렇게 이동성을 가지는 로봇상에 일반 카메라를 부착하면 실내 도처에 고정카메라를 설치하고 이것을 IoT 시스템으로 셋팅하는 기술을 사용하지 않을 수 있다. 즉, 본 발명의 경우, 이동성을 가지는 카메라를 확보하게 되며, 이 이동카메라를 통하여 사용자는 다양한 이점을 얻을 수 있다. 예를 들면, 영상내 객체 인식을 통하여 가스밸브 열려있는 상태와 같은 피사체 객체의 상태를 원격에서 파악한다든가, 노인들의 가정내 낙상과 같은 행위 인식을 한다든가, 얼굴인식 등을 통해 원하지 않는 방문객을 인식한다든가를 포함하고 있는 풍부한 내용 및 의미를 이해할 수 있게 된다. 즉, 카메라가 고정되었을 경우 주어진 공간내 다수 카메라를 설치함으로써 해결하였던 문제를 본 발명에서는 카메라에 이동성을 부여할 수 있는 바퀴달린 로봇을 부착함으로써 하나의 카메라로 다수 카메라를 통하여 확보할 수 있는 혜택을 얻을 수 있다.The technical field of the present invention does not use expensive indoor positioning technology in a building where WIFI wireless Internet is installed, and as an alternative, an electronic device having a computer function having a central processing unit in an intelligent mobile robot, and a camera capable of taking a depth image Maps can be used to replace indoor positioning techniques. If a general camera is attached to a mobile robot, the technology for installing a fixed camera and setting it as an IoT system can be avoided. That is, in the case of the present invention, a camera having mobility is secured, and the user can obtain various advantages through the mobile camera. For example, through the object recognition in the image, it is possible to remotely grasp the state of the subject object such as the gas valve open state, to recognize the behavior such as the fall of the elderly in the home, or to recognize unwanted visitors through the face recognition. You will be able to understand the rich content and meaning that it contains. That is, in the present invention, the problem solved by installing a plurality of cameras in a given space when the camera is fixed, by attaching a wheeled robot that can give mobility to the camera has a benefit that can be secured through multiple cameras with one camera You can get it.

본 발명에서 지능형 이동로봇은 실내를 이동하며 이 이동로봇에 탑재된 깊이 카메라의 비전센서와 거리센서의 입력데이터를 분석하고SLAM기술을 사용하여 지능형 이동로봇의 현재 위치를 추정하고, 로봇이 위치하는 주변 공간의 벽·사물등에 대한 영상 지도를 작성하여 상시 운영에 필요한 준비를 한다. 초기에 지능형 이동로봇은 사용자의 요청 또는 자율주행을 통해 실내의 여러 장소를 이동하면서 실내지도 작성을 스스로 진행하고, 실내지도 작성시 파악한 장애물의 위치정보와 지능형 이동로봇에 탑재된 비전센서와 거리센서의 데이터를 실시간으로 입력받아 실내에 위치한 장애물과의 충돌을 회피한다. 지능형 이동로봇은 탑재된 카메라로부터 상기 장애물의 실시간 영상을 입력받고, 입력 영상을 분석하여 상기 장애물의 객체정보를 구별한다.In the present invention, the intelligent mobile robot moves indoors and analyzes the input data of the vision sensor and the distance sensor of the depth camera mounted on the mobile robot, estimates the current position of the intelligent mobile robot using the SLAM technology, Prepare video maps of walls, objects, etc. in the surrounding space and prepare them for regular operation. Initially, the intelligent mobile robot moves the various places in the room by the user's request or autonomous driving, and proceeds to create the indoor map by itself, and the location information of the obstacles identified during the indoor map and the vision sensor and distance sensor installed in the intelligent mobile robot It receives data in real time and avoids collision with obstacles located in the room. The intelligent mobile robot receives a real-time image of the obstacle from a mounted camera and analyzes the input image to distinguish object information of the obstacle.

실내지도가 준비가 되면 상시 운영상태로 전환되어 지능형 이동로봇이 이동할 때 직면하는 주변의 장애물을 인지하고 이를 회피할 수 있는 방법을 찾을 필요성이 있다. 이 필요성을 채워주는 고급 기술이 인공지능 플래닝 기술이다. 이 플래닝 기술의 도움으로 사용자는 로봇의 출발지에서 목적지로 이동하는 과정에서 생길수 있는 다수의 우회전·좌회전·직진 등의 단위이동행위들을 로봇스스로 알아서 수행하게 할 수 있으며 따라서 이부분을 무시하고 단순히 목적지만 지정해 줌으로써 로봇을 이동시킬 수 있다. 따라서, 다수의 카메라가 미리 셋팅된 상태에서 IoT 기반의 제어 시스템을 설치하지 않고도 단일 카메라 만으로 실내 전체에 대한 객체 정보 또는 객체 상태 정보를 용이하게 얻을 수 있고, 그에 따라서 적절한 객체 제어를 수행할 수 있는 기반을 제공할 수 있다.When the indoor map is ready, there is a need to find a way to recognize the surrounding obstacles faced by the intelligent mobile robot and to avoid them by switching to the normal operation state. Advanced technology to meet this need is AI planning technology. With the help of this planning technology, the user can perform the robot's own unit movements such as right turn, left turn and straight movement that can occur in the process of moving from the robot's origin to the destination. You can move the robot by specifying it. Therefore, it is possible to easily obtain object information or object state information of the entire room with only a single camera without installing an IoT-based control system in a state where a plurality of cameras are set in advance, so that appropriate object control can be performed accordingly. Can provide a foundation.

사용자는 스마트폰에 설치된 '실내업무관리앱'을 사용하여 음성, 텍스트, GUI(Graphic User Interface)중 하나 이상의 입력을 통해 지능형 이동로봇에게 '이리와', '사용자의 위치로 이동하라', '특정 객체인 가전제품(냉장고, 세탁기, 에어컨, 공기 청정기), 창문, 보일러 온도조절기, 도어락 있는 곳으로 이동하라', '가스밸브 잠금장치의 상태, 창문의 개폐 상태, 조명기기의 온·오프 상태를 확인하라'와 같은 명령을 내리면, 지능형 이동로봇은 입력된 명령을 분석하여 인공지능 플래닝 기술을 사용하여 목적지까지의 최적경로를 계산하고 단위 이동행위를 로봇 스스로 수행하여 해당 위치로 이동한다.The user uses the 'in-house task management app' installed on the smartphone to input the intelligent mobile robot through one or more of voice, text, and graphical user interface (GUI), 'go to the user's location', ' Move to a certain object such as home appliances (refrigerators, washing machines, air conditioners, air cleaners), windows, boiler thermostats, door locks, '' state of gas valve lock, opening / closing window, on / off state of lighting equipment When the command is executed, the intelligent mobile robot analyzes the input command, calculates the optimal route to the destination using artificial intelligence planning technology, and performs the unit movement behavior by itself.

특정 객체의 상태를 사용자에게 전달하기 위해 스마트폰의 카메라를 상기 특정 객체를 피사체로 하여 초점, 거리등을 맞추고 영상을 목적에 맞게 촬영하고, 이를 그 사물의 상태정보로 특정 객체의 영상, 특정 객체의 상태정보 중 하나 이상을 '실내업무관리앱'에게 전달하는 시스템 및 방법을 포함한다. 이때 지능형 이동로봇에 로봇팔이 설치되어 있다면 조명 스위치로 이동하여 전원을 온·오프(on/off) 동작을 실행할 수 있다. 따라서, 고비용으로 미리 셋팅된 다수의 카메라 또는 제어 체계가 없어도 적은 재원으로 가사나 사무업무 등의 실내업무를 이용자의 위치에 관계없이 실시간으로 타겟 객체의 상태를 파악할 수 있으므로, 이러한 실시간 객체 정보를 기반으로 실내업무를 저비용으로 효과적으로 제어할 수 있다.In order to convey the status of a specific object to the user, the camera of the smartphone is set to the focus, distance, etc. using the specific object as a subject, and the image is captured according to the purpose, and the image and the specific object of the specific object are used as the status information of the object. It includes a system and method for delivering one or more of the status information of the 'indoor work management app'. In this case, if the robot arm is installed in the intelligent mobile robot, the robot may move to the light switch to turn on / off the power. Therefore, it is possible to grasp the status of the target object in real time regardless of the user's location for indoor tasks such as housework or office work with a small amount of resources without the need for a large number of preset cameras or control systems. This can effectively control the indoor work at low cost.

본 발명에서는 인공지능 플래너라고 하는 플래닝 도구를 활용하여 로봇이 실내지도상에서 출발지에서 출발하여 목적지까지 찾아가는 최적의 경로를 생성해 내는데 활용한다. 이 경로찾기는 중간에 장애물이 있을경우 이 장애물을 회피하면서까지 최적의 경로를 찾아가는 것을 포함한다. 플래너는 인공지능의 논리적지식표현들을 이용하여 선언적 프로그래밍 (Declarative Programming)의 방식을 사용하는 기술이다. 선언적 프로그래밍이란 초기상태에서 출발하여 목적상태에 도달하도록 목표설정을 해 주면, 그 중간에 어떻게 초기상태에서 목적상태까지 도달할 수 있는가 에 관한 방법은 알려주지 않는 방식의 프로그램이다. 이 선언적 프로그램은 우리가 C, 파이슨 등 일반적인 컴퓨터 프로그램 언어에서 취하는 절차적 언어를 사용하는 방법과 크게 차이가 난다. 절차적 언어를 사용할 경우 초기상태에서 목적상태에 도달하기 위한 구체적인 방법 (예를들면, 우회전, 좌회전, 직진등)을 제시함으로써, 로봇이 이 절차를 단순 수행만 하면 목적상태에 도달하는 방식이다. 따라서, 이러한 절차적 언어를 사용할경우 로봇은 단순히 프로그래머가 시키는 절차를 수행하는 일 밖에 수행할 수 없게 된다. 하지만, 선언적 프로그래밍을 하는 플래너에서는 이런 절차는 플래너 스스로 찾기 때문에 프로그래머는 초기상태, 목적상태, 그리고, 이러한 환경을 설명하는 변수나 엑션들을 모두 논리언어로 표현하는 것이 크게 차이가 있다. 특히, 선언적 프로그래밍이 중심인 플래너가 PDDL이라는 언어를 사용하는 경우에는 문제자체를 기술하는 문제파일 (Problem File) 과 도메인을 기술하는 도메인파일(Domain File)이 있다. 이 도메인 파일에서는 프레디키트와 엑션들을 전부 기술한다. 도메인 파일에서 각 액션들은 수행하기 위해서 필요한 선행조건 (precondition)이 있고 결과 (effects)가 도출된다. 도메인 파일은 로봇이 초기상태에서 목적상태로 찾아가는 모든 경우의 수를 포함하는 경로를 모두 단순히 기술 해 두는것인데, 마치 검색트리에서 모든 트리의 가지를 모두 검색하는 전체 도메인을 설명하는것과 동일하다.In the present invention, the robot utilizes a planning tool called an artificial intelligence planner to generate an optimal route from the starting point to the destination on the indoor map. This path finding involves finding the optimal path while avoiding this obstacle if there is an obstacle in the middle. Planner is a technique that uses the method of declarative programming using the logical knowledge representation of artificial intelligence. Declarative programming is a program that does not tell you how to get from the initial state to the destination state in the middle of the process. This declarative program differs greatly from the way we use the procedural language we take in common computer programming languages such as C and Python. In the case of using procedural language, it suggests a specific way to reach the target state from the initial state (for example, turn right, turn left, go straight), so that the robot can reach the target state simply by performing this procedure. Therefore, when using such a procedural language, the robot can only perform a procedure for the programmer. However, in a planner with declarative programming, this procedure is found by the planner itself, which makes it very different for the programmer to express all of the initial state, destination state, and variables or actions that describe this environment in logical language. In particular, when a planner focused on declarative programming uses a language called PDDL, there are a problem file describing a problem itself and a domain file describing a domain. This domain file describes all of the Freddie kits and actions. Each action in the domain file has the necessary preconditions to perform and the effects are derived. The domain file simply describes all the paths including the number of cases that the robot goes from the initial state to the destination state. It is the same as describing the entire domain searching all branches of the tree in the search tree.

문제파일에서는 객체들과 초기상태와 목표상태를 기술한다. 즉, 상기 도메인 파일에서 기술된 엑션들을 수행하는데 필요한 전제조건을 만족하는 모든 경우의 수에서 목표상태에 도달가능한 최적의 경로를 휴리스틱을 이용해서 찾아내는 역할을 수행하는것이다. 따라서, 종래기술의 절차적 언어 방식의 경우는 프로그래머가 발생할 수 있는 모든 가능성을 상정해두고 프로그램을 해야 하고, 상정된 세부 액션이 없으면 장애가 있더라도 인공지능 로봇은 동작을 하지 않지만, 본 발명의 선언적 프로그램 방식은 간단하면서 돌발 장애에 대하여 능동적으로 대처할 수 있어 종래 미리 셋팅된 실내업무 시스템에 비하여 더욱 단순한 구조의 실내업무 시스템을 실현할 수 있다.The problem file describes the objects, their initial state, and their target state. In other words, the heuristic finds an optimal path that can reach the target state in all cases that satisfy the prerequisites for performing the actions described in the domain file. Therefore, in the case of the procedural language method of the prior art, the programmer should assume all the possibilities that can occur, and if there is no impaired detail action, the AI robot will not operate even if there is a disorder, but the declarative program of the present invention. The method is simple and can actively cope with sudden failures, thereby realizing a simpler structure of the indoor work system compared with the conventionally set indoor work system.

도 1은 본 발명의 일실시예에 따라서 인공지능 플래닝기술을 이용한 자율주행형 이동로봇과 이를 이용한 스마트 실내업무관리 시스템의 구성도.
도 2는 본 발명의 일실시예에 따른 지능형 이동로봇의 내부 구성도.
도 3은 본 발명의 일실시예에 따른 에이전트 관리부의 내부 구성도.
도 4는 본 발명의 일실시예에 따른 위치 제어부의 내부 구성도.
도 5는 본 발명의 일실시예에 따른 객체정보 수집부의 내부 구성도
도 6은 본 발명의 일실시예에 따른 의미객체 인식부의 내부 구성도
도 7은 본 발명의 일실시예에 따른 실내업무관리앱의 내부 구성도.
도 8은 본 발명의 일실시예에 따른 인공지능 플래닝기술을 이용한 자율주행형 이동로봇의 실행 방법을 도시한 흐름도.
도 9는 본 발명의 일실시예에 따른 지능형 이동로봇이 운영준비상태에서 실내지도를 작성하는 방법을 도시한 흐름도.
도 10은 본 발명의 일실시예에 따른 지능형 이동로봇이 상시운영상태에서 사용자의 명령을 실행하는 방법을 도시한 흐름도.
도 11은 본 발명의 일실시예에 따른 객체정보를 수집하는 방법을 도시한 흐름도.
1 is a block diagram of a self-driving mobile robot using artificial intelligence planning technology and a smart indoor business management system using the same according to an embodiment of the present invention.
Figure 2 is an internal configuration of an intelligent mobile robot according to an embodiment of the present invention.
3 is an internal configuration diagram of an agent management unit according to an embodiment of the present invention.
4 is an internal configuration diagram of a position control unit according to an embodiment of the present invention.
5 is an internal configuration diagram of an object information collecting unit according to an embodiment of the present invention.
6 is an internal configuration diagram of a semantic object recognition unit according to an embodiment of the present invention.
Figure 7 is an internal configuration of the indoor work management app according to an embodiment of the present invention.
8 is a flowchart illustrating a method of executing an autonomous mobile robot using artificial intelligence planning technology according to an embodiment of the present invention.
9 is a flow chart illustrating a method for creating an indoor map in an intelligent mobile robot ready to operate according to an embodiment of the present invention.
10 is a flowchart illustrating a method of executing an instruction of a user in an always-operated state by an intelligent mobile robot according to an embodiment of the present invention.
11 is a flowchart illustrating a method of collecting object information according to an embodiment of the present invention.

본 발명의 실시예에 대하여 설명한다.An embodiment of the present invention will be described.

본 발명에서 사용하는 기술은 크게 나누어 다음 세가지 범주를 포함할 수 있다.Techniques used in the present invention may be broadly divided into three categories.

첫째, 본 발명의 로봇을 새로운 공간, 즉 가정이나 사업장과 같은 곳에서 처음 운용하는 운영준비상태 때는 서비스를 진행하기 위한 지도작성 단계가 필요하다. 실내에서 지능형 이동로봇이 스스로 자율주행 또는 사람의 도움을 받아 임의의 공간을 탐색한 촬영 영상을 분석하여 SLAM기술을 사용한 지도를 작성하고, 지능형 이동로봇은 바퀴의 회전량으로 자신이 움직인 거리를 측정하여 지도상의 현재 로봇의 위치를 스스로 계측하여 추정하고, 지능형 이동로봇에 탑재된 비전센서와 거리센서를 사용하여 SLAM기술을 통해 작성된 지도상에서 지능형 이동로봇 이동시 방해가 되는 장애물의 위치를 인식한다.First, when the operation of the robot for the first time in the new space, that is, the operation ready state, such as home or business place, it is necessary to create a map to proceed the service. In the room, the intelligent mobile robot analyzes the images taken by autonomous driving or with the help of humans, and creates a map using SLAM technology. It measures and estimates the current position of the robot on the map by itself and recognizes the position of obstacles that hinder the movement of the intelligent mobile robot on the map created by SLAM technology using the vision sensor and distance sensor mounted on the intelligent mobile robot.

둘째, 상기 지능형 이동로봇에 의해 작성된 지도와 지능형 이동로봇의 위치정보에 의거하여 이동로봇의 상시 운영상태에 들어가게 된다. 상시 운영상태에서는 사용자가 지도상의 특정 위치로 이동하게 하기 위하여 스마트폰과 같은 기기상의 앱을 통하여 위치를 지정하고 “이리와”와 같은 명령을 로봇에게 내리면, 지능형 이동로봇이 현재의 위치에서 사용자가 명령한 목적지로 이동하기 위한 최적의 경로를 계산하고 사용자로부터 좌회전.우회전.직진과 같은 단위 이동행위에 대한 지시 없이 로봇 스스로 이를 추론하고 주행할 수 있음으로서, 사용자는 단순히 원하는 목적지만 지정하여도 로봇 스스로 출발지에서 목적지까지 이동할수 있는 일련의 단위 이동행위를 출력해주는 인공지능 플래닝기술이 사용된다. 따라서, 본 발명에서 지칭하는 플래닝 기술은 로봇 이 단위이동행위의 지시를 받지 않고 스스로 지도를 작성하고 최적 경로를 계산하여 사용자가 정해준 목적지로 이동할 수 있는 기능을 수행할 수 있는 기술을 의미한다.Second, the mobile robot enters a permanent operation state of the mobile robot based on the map created by the intelligent mobile robot and the location information of the intelligent mobile robot. In the normal operation state, the user can specify a location through an app on a device such as a smartphone and send a command such as “come here” to the robot so that the user can move to a specific location on the map. By calculating the optimal route to go to the commanded destination, the robot can infer and drive the robot without directing unit movements such as turning left, turning right and going straight. Artificial intelligence planning technology is used to output a series of unit movements that can move from the origin to the destination by itself. Therefore, the planning technology referred to in the present invention refers to a technology that allows a robot to perform a function of moving to a destination determined by a user by preparing a map and calculating an optimal route without receiving an instruction of a unit movement action.

셋째, 상기 지능형로봇에 탑재된 카메라를 이용하여 영상촬영·분석등의 응용분야이다. 지능형 이동로봇이 운영되는 실내에서 지능형 이동로봇이 사용자의 요청 또는 자율 주행을 통해 원하는 지점으로 이동후 그지점에서 지능형 이동로봇에 탑재된 카메라로 피사체를 촬영하는 기술과, 촬영된 영상을 입력받고 입력 영상을 실시간 혹은 비실시간으로 분석하여 사용자의 명령실행에 필요한 객체 정보를 알려주는 기술이다.Third, it is an application field such as image capturing and analysis using a camera mounted on the intelligent robot. In the room where the intelligent mobile robot is operated, the intelligent mobile robot moves to the desired point through user's request or autonomous driving, and then the subject is photographed by the camera mounted on the intelligent mobile robot at that point, and the captured image is input and received. It analyzes the data in real time or non real time and informs the object information necessary for the user's command execution.

본 발명의 다른 실시예로서, 사용자가 스마트폰에 설치된 가사관리앱을 사용하여 음성, 텍스트, GUI(Graphic User Interface)중 하나 이상의 입력을 통해'특정 객체(가전제품, 창문, 보일러 온도조절기)가 있는 곳으로 이동하라', '가스밸브의 상태, 창문의 개폐 상태, 조명기기의 온·오프 상태를 확인하라'와 같은 명령을 내리면, 지능형 이동로봇은 입력된 명령을 분석하여 해당 위치로 이동하여, 특정 객체의 상태를 사용자에게 전달하기 위해 특정 객체를 촬영한 영상을 전송하거나 사용자가 요청한 명령의 실행 결과를 '가사관리앱'에 전달하는 시스템 및 방법을 포함할 수 있다.In another embodiment of the present invention, a user uses a housekeeping app installed on a smartphone, and inputs one or more of voice, text, and graphical user interface (GUI) to display a specific object (home appliance, window, boiler thermostat). 'Go to where you are', 'check the status of gas valves, windows open and closed, lights on and off', intelligent mobile robot analyzes the input command and moves to the location For example, the present invention may include a system and a method of transmitting an image of photographing a specific object or delivering a result of execution of a command requested by the user to the 'household management app' in order to convey a state of the specific object to the user.

이하, 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1을 참조하여 인공지능 플래닝기술을 이용한 지능형 이동로봇 영상촬영시스템과 실내업무관리앱을 사용한 스마트 실내업무관리 시스템의 구성 및 동작을 상세하게 설명한다.Referring to Figure 1 will be described in detail the configuration and operation of the intelligent mobile robot image capture system using the artificial intelligence planning technology and the smart indoor task management system using the indoor task management app.

본 발명은 임의의 실내공간에서 바퀴가 장착된 지능형 이동로봇(1000)이 비전센서, 거리센서, 카메라 중의 하나 이상을 포함한 인지센서(200)를 탑재하고 사용자(5000)가 스마트폰(2000)의 실내업무관리앱(2000a)에 요청한 명령을 무선통신(3000)을 통해 지능형 이동로봇에 전달하면, 지능형 이동로봇은 사용자(5000)의 명령을 실행하고 그 결과를 실내업무관리앱(2000a)의 GUI에 표시한다.According to the present invention, an intelligent mobile robot 1000 equipped with wheels in any indoor space is equipped with a cognitive sensor 200 including at least one of a vision sensor, a distance sensor, and a camera, and a user 5000 of the smartphone 2000 is provided. When the command requested to the indoor work management app 2000a is transmitted to the intelligent mobile robot through the wireless communication 3000, the intelligent mobile robot executes the command of the user 5000 and the result is the GUI of the indoor work management app 2000a. Mark on.

이때 비전센서에는 LRF, 초음파센서, 적외선센서 등이 사용되고, 거리센서에는 스테레오 카메라, 모노카메라, Kinect, Xtion등이 사용된다.At this time, LRF, ultrasonic sensor, infrared sensor, etc. are used for vision sensor, and stereo camera, mono camera, Kinect, Xtion, etc. are used for distance sensor.

도 2에 도시된 바와 같이 지능형 이동로봇은 사용자의 스마트폰(2000)에 설치된 실내업무관리앱(2000a)의 GUI를 사용하여 사용자(5000)가 요청한 실행명령을 통신 제어부(1300)를 통해 에이전트 관리부(1100)가 전달받아 실행한다.As shown in FIG. 2, the intelligent mobile robot uses the GUI of the indoor work management app 2000a installed in the user's smartphone 2000 to execute an execution command requested by the user 5000 through the communication control unit 1300. 1100 is received and executed.

실내공간에서 처음 운행하는 운영준비상태에서 지능형 이동로봇의 에이전트 관리부(1100)는 사용자의 명령 또는 스케줄링된 명령실행을 통해 자율주행을 진행하고 지능형 이동로봇의 비전센서(200-1), 거리센서(200-2)중 하나 이상으로부터 입력된 데이터를 입출력 제어부(1400)로 입력받아 SLAM기술을 사용하여 실내지도를 작성하고 데이터 저장부(1500)를 사용하여 저장공간에 저장한다.The agent manager 1100 of the intelligent mobile robot performs autonomous driving through a user's command or a scheduled command execution and operates a vision sensor 200-1, a distance sensor ( 200-2) receives data input from one or more of the input and output control unit 1400 to create an indoor map using the SLAM technology and to store in the storage space using the data storage unit 1500.

지능형 이동로봇(1000)이 자율주행모드로 실행중에 장애물을 발견하면 에이전트 관리부(1100)는 객체정보 수집부(1200)에 객체 정보를 수집하라는 객체액션을 내리고, 객체정보 수집부(1200)는 인지센서(200)중에서 비전센서(200-1), 카메라(200-3)중 하나이상을 제어하여 장애물에 대한 실시간 영상데이터를 입출력 제어부(1400)를 통해 입력받은 후 객체를 구별하기 위한 액션(Action) 프로세스를 진행한다.When the intelligent mobile robot 1000 detects an obstacle while running in the autonomous driving mode, the agent manager 1100 issues an object action to collect object information to the object information collecting unit 1200 and recognizes the object information collecting unit 1200. An action for distinguishing an object after receiving real time image data on an obstacle through the input / output controller 1400 by controlling one or more of the vision sensor 200-1 and the camera 200-3 among the sensors 200. Proceed with the process.

사용자(5000)가 스마트폰(2000)의 실내업무관리앱(2100a)의 GUI를 통해 텍스트, 음성, 실행명령중 하나 이상을 입력하면, 실내업무관리앱(2100a)은는 지능형 이동로봇에 설치된ROS(robot operating system)가 처리할 수 있는 실행명령으로 변환하여 에이전트 관리부(1100)에 전달한다.When the user 5000 enters one or more of text, voice, and execution commands through the GUI of the indoor work management app 2100a of the smart phone 2000, the indoor work management app 2100a is a ROS (installed on an intelligent mobile robot). The robot operating system converts the execution command into a command that can be processed and delivers it to the agent manager 1100.

에이전트 관리부(1100)는 사용자(5000)가 요청한 '특정 객체(가전제품, 창문, 보일러 온도조절기)가 있는 곳으로 이동하라', '가스밸브의 상태, 창문의 개폐 상태, 조명기기의 온·오프 상태를 확인하라'와 같은 명령을 분석하여 이동액션과 객체액션으로 구분한후 객체액션을 객체정보 수집부(1200)에 전달하고, 지능형 이동로봇을 인공지능 플래닝 기술을 사용하여 객체액션을 실행할 객체로 이동시키는 액션(Action)을 실행하고 객체정보 수집부(1200)에서 분석한 객체의 상태정보(가스밸브의 상태, 창문의 개폐 상태, 조명기기의 온·오프상태)를 확인한 객체액션 수행 액션(Action) 결과를 통신 제어부(1300)를 통해 실내업무관리앱(2100a)에 전달한다.The agent manager 1100 moves to a place where a specific object (home appliance, window, boiler temperature controller) is requested by the user 5000, 'state of gas valve, state of opening / closing a window, on / off of lighting device'. Analyze the command such as 'check the status,' and divided into the action and the object action, and transfers the object action to the object information collection unit 1200, and the object to execute the object action using the intelligent planning technology The object action performing action that executes the action of moving to the object and checks the object state information (gas valve state, window open / close state, lighting on / off state) analyzed by the object information collection unit 1200 ( Action) delivers the result to the indoor work management app 2100a through the communication control unit 1300.

이때 지능형 이동로봇(1000)이라 함은 탑재된 인지센서(200)를 통하여 확보된 영상 및 데이터를 압축, 분석, 저장, 인식 등을 처리할 수 있는 중앙처리장치, 메모리, 입출력 장치 등을 가지는 소형컴퓨터를 포함하는 용어로 사용되고 있으며, 인지센서(200)를 탑재하여 이동시킬 수 있는 기계장치에 ROS (Robot Operating System)와 인공 지능 플래닝 기술이 탑재되어 보다 정교하게 지능형으로 제어되는 특징을 가지고 있다.At this time, the intelligent mobile robot 1000 is a compact having a central processing unit, a memory, an input / output device, and the like, capable of processing compression, analysis, storage, and recognition of images and data obtained through the mounted recognition sensor 200. It is used as a term that includes a computer, and has a feature that is more precisely and intelligently controlled by mounting a robot operating system (ROS) and artificial intelligence planning technology on a mechanical device that can be moved by mounting the recognition sensor 200.

상기 지능형 이동로봇(1000)에 탑재제된 인지센서(200)는 지능형 이동로봇에 부착된 짐벌(100)에 설치되어 피사체를 원하는 각도 높낮이 등을 조절하여 촬영 할 수 있고, 입출력 제어부(1400)에 의하여 정교하게 제어되는 특징을 가지고 있다.The recognition sensor 200 mounted on the intelligent mobile robot 1000 may be installed on the gimbal 100 attached to the intelligent mobile robot to photograph the subject by adjusting a desired angle and height, and to the input / output controller 1400. It has a feature that is precisely controlled by it.

이때 인공 지능플래닝 기술이라 함은 도메인 플랜(Domain Plan)에 지능형 이동로봇의 이동과 관련된 움직임, 객체 수집과 관련된 움직임의 동작을 세부 액션(Action)들로 등록하고, 에이전트 관리부(1100)에 사용자 실행명령을 입력하면 실행명령을 해결하기 위한 세부액션들의 수행 절차를 인공지능 플래닝기술을 통해 이동액션, 객체액션 중 하나로 생성하여, 사용자가 지능형 이동로봇의 실행방법에 대하여 세부적으로 신경쓰지 않더라도 ROS 세부 액션(Action)들을 실행함으로 실행명령을 해결하는 방법을 자동으로 추론하여 해결해 나가는 방법을 말한다.At this time, the artificial intelligence planning technology registers the motion related to the movement of the intelligent mobile robot and the motion related to the object collection as detailed actions in the domain plan, and executes the user in the agent manager 1100. When the command is entered, the detailed action to solve the execution command is created through artificial intelligence planning technology as one of the mobile action and the object action, so that the user can not execute the detailed action of the ROS detailed action even if the user does not care about the execution method of the intelligent mobile robot. It is a method of automatically inferring how to solve an execution command by executing (Actions).

이때 이동액션과 객체액션은 도메인 플랜에 포함되어 있는 하나 이상의 액션(Action)들의 순차적인 실행 순서 정보를 갖고 있다. 에이전트 제어부(1100)는 각각의 액션(Action)의 실행 결과에 대한 내용이 모니터링 하다가 이동액션 실행중에 예상치 못한 장애물을 발견하여 이동액션을 수행할 수 없는 경우 현재 위치에서 목적지까지 이동할 수 있는 이동액션을 새로 갱신하고, 새로 생성된 이동액션을 수행한다. 에이전트 제어부(1100)는 이러한 이동액션의 갱신과 수행을 반복하여 최종 목적지까지 지능형 이동로봇을 이동시킨다. 객체액션의 경우도 예외상황이 발생한 경우 에이전트 제어부(1100)는 객체액션을 새로 갱신하여 사용자의 실행명령을 처리하는 방법을 찾아낸다.At this time, the movement action and the object action have sequential execution order information of one or more actions included in the domain plan. The agent controller 1100 monitors the execution result of each action and detects an unexpected obstacle while the movement action is executed, and thus, if the movement action cannot be performed, the agent controller 1100 moves a movement action from the current position to the destination. Updates newly and executes newly created move action. The agent controller 1100 repeatedly updates and executes the mobile action to move the intelligent mobile robot to the final destination. In the case of an object action, if an exception occurs, the agent controller 1100 updates a new object action and finds a method of processing a user's execution command.

각각의 액션(Action)은 액션이 실행되기 위한 사전조건, 액션 실행후 결과상태에 대한 정보를 포함하여 도메인 플랜에 등록되고, 에이전트 관리부(1100)의 에이전트 제어부(1110)는 실행명령을 해결하기 위해 도메인 플랜에 등록된 액션들의 사전조건 결과상태를 기반으로 플래닝하여 이동액션, 객체액션중 하나 이상을 생성한다.Each action is registered in the domain plan, including information on preconditions for executing the action and the result status after the action is executed, and the agent control unit 1110 of the agent management unit 1100 is configured to resolve the execution command. Based on the precondition result status of the actions registered in the domain plan, one or more of the movement action and the object action are generated.

실행명령은 선언적(Declarerative)으로 지능형 이동로봇의 현재상태와 목적상태에 대한 내용만 포함하고 있다. 일예로 지능형 이동로봇의 이동을 위한 실행명령은 지능형 이동로봇의 현재위치와 목적지위치에 대한 내용을 포함하고 있고, 어떻게 목적지로 찾아갈지는 에이전트 제어부(1110)가 플래닝하여 생성한 이동액션을 실행하여 최종 목적지 위치에 도달한다.Execution instructions are declarerative and contain only the current and intended states of intelligent mobile robots. For example, the execution instruction for the movement of the intelligent mobile robot includes information on the current position and the destination position of the intelligent mobile robot, and how to get to the destination by executing the movement action generated by the agent controller 1110 Reach the final destination location.

에이전트 관리부(1000)의 에이전트 제어부(1110)는 사용자의 문제플랜의 해결을 하기 위한 세부 액션(Action)들을 의 그 세부액들의 집합인 이동액션과 객체액션으로 구별하고, 이 이동액션을 처리하기 위한 액션(Action)들을 순차적으로 수행하여 사용자 명령을 수행한다.The agent control unit 1110 of the agent management unit 1000 distinguishes detailed actions for solving the user's problem plan into moving actions and object actions, which are sets of the detailed amounts of, and processes the moving actions. Actions are executed in order to execute user commands.

도메인 플랜에 포함되어 있는 액션(Action)들을 통해서 처리할 수 있는 문제와 관련하여 설명하면, 도 3에 도시된 바와 같이 에이전트 관리부(1100)는 실내업무관리앱(2100a)의 GUI를 통해 입력된 사용자(5000)의 실행명령을 전달받아 에이전트 제어부(1100)에 전달하고, 에이전트 제어부(1110)는 지도 관리부(1130)에서 관리하는 지능형 이동로봇의 현재 위치, 명령의 대상이 된 객체의 위치정보를 기반으로 상기 사용자(5000)의 명령을 이동액션과 객체액션으로 분석하여 지능형 이동로봇(1000)의 이동액션을 위치 제어부(1120)에 전달하고, 객체액션은 객체정보 수집부(1200)에 전달한다.Referring to the problem that can be handled through actions included in the domain plan, as shown in FIG. 3, the agent manager 1100 is a user input through the GUI of the indoor work management app 2100a. Receives an execution command of 5000 and delivers it to the agent controller 1100, and the agent controller 1110 is based on the current location of the intelligent mobile robot managed by the map manager 1130 and the location information of the object targeted for the command. As a result, the command of the user 5000 is analyzed as a movement action and an object action, and the movement action of the intelligent mobile robot 1000 is transmitted to the position controller 1120, and the object action is transmitted to the object information collection unit 1200.

위치 제어부(1120)는 이동액션을 수행하기 위해 인공지능 플래닝 기술을 기반으로 오도메트리(Odometry)를 사용하여 지능형 이동로봇(1000)의 바퀴를 제어하고, 바퀴 회전축의 회전량을 측정하여 지능형 이동로봇(1000)의 현재 위치를 지도관리부(1130)에 전달하는 액션(Action)을 실행한다. 이때 바퀴 회전축의 회전량으로 움직인 거리를 측정하는 추정항법(Dead-reckoning)은 오차가 발생하기 때문에 위치 제어부(1120)는 IMU센서로 관성 보정을 획득하여 위치보상을 통해 오차를 줄여준다.The position control unit 1120 controls the wheels of the intelligent mobile robot 1000 by using an odometry based on artificial intelligence planning technology to perform a moving action, and measures the amount of rotation of the wheel rotation axis to move the intelligent movement. An action for transmitting the current position of the robot 1000 to the map manager 1130 is executed. In this case, since an error occurs in the dead-reckoning for measuring the distance traveled by the amount of rotation of the wheel axis, the position controller 1120 obtains an inertia correction with an IMU sensor and reduces the error through position compensation.

지도 관리부(1130)는 위치 제어부(1120)가 전달한 지능형 이동로봇(1000)의 위치 추정값과 거리센서(Depth Camera)로 X-Y평면상을 스캔하여 산출된 거리값을 입력으로 SLAM기술을 사용하여 데이터 저장부(1500)에 저장된 지도데이터를 갱신하고 장애물이 탐지되면 해당 정보를 에이전트 제어부(1110)에 전달하고 장애물의 위치를 지도상의 좌표에 업데이트하는 액션(Action)을 실행한다. 에이전트 제어부(1110)는 장애물에 대한 위치정보가 업데이트되면 객체정보 수집부(1200)에 장애물에 대한 객체정보를 수집하라는 객체액션을 전달하여 장애물에 대한 객체정보를 수집할 수 있다.The map manager 1130 stores the data using the SLAM technique as the input of the calculated position value of the intelligent mobile robot 1000 transmitted by the position controller 1120 and the XY plane by scanning the XY plane with a distance camera. When the map data stored in the unit 1500 is updated and an obstacle is detected, the corresponding information is transmitted to the agent controller 1110 and the action of updating the position of the obstacle to the coordinates on the map is executed. When the location information on the obstacle is updated, the agent controller 1110 may transfer the object action to collect the object information about the obstacle to the object information collecting unit 1200 to collect the object information about the obstacle.

이때 SLAM(Simultaneous Localization And Mapping)이라 함은 지능형 이동로봇(1000)이 임의의 공간을 이동하면서 비전센서(200-1), 거리센서(200-2)중 하나 이상을 사용하여 주변의 장애물을 인지하고 현재 위치를 추정하는 동시에 지도를 작성하는 방법이다.In this case, SLAM (Simultaneous Localization And Mapping) refers to an intelligent mobile robot 1000 moving around a certain space while using one or more of the vision sensor 200-1 and the distance sensor 200-2 to recognize an obstacle around it. To estimate your current location and create a map at the same time.

도 4에 도시된 바와 같이 코스트맵 구성부(1130)는 지도 관리부(1130)가 관리하는 지도상에 지능형 이동로봇의 현재 위치, 장애물의 위치 정보를 전달받아 지능형 이동로봇이 단위 이동행위를 수행하기 위한 지도상에 점유영역(occupied area), 자유영역(free area), 미지영역(unknown area)에 대한 정보를 기반으로 이동할 수 있는 영역과 이동할 수 없는 영역을 계산한 코스트맵(Cost Map)정보를 구성한다. 장애물 회피부(1122)는 구성된 코스트맵을 기반으로 목적지까지의 최적 경로를 다익스트라 알고로리즘(Dijkstra Algorithm), A* 알고리즘, 전자기장 알고리즘 등을 사용하여 지능형 이동로봇(1000)의 현재 위치에서 이동할 수 있는 최단거리 노드를 반복계산하여 최적의 경로를 찾는다. 이때 지도 관리부(1130)가 SLAM을 통해 생성된 지도는 실시간으로 변경되는 장애물에 대한 정보를 제공할 수 없음으로 목적지까지 도달하기 위해서는 비전센서(200-1), 거리센서(200-2) 중 하나이상에서 획득한 정보를 통해 DWA(dynamic Windows Approach)를 사용하여 실시간 장애물을 회피하면서 목적지까지 지능형 이동로봇(1000)을 이동시키는 액션(Action)을 수행한다.As shown in FIG. 4, the cost map component unit 1130 receives the current location of the intelligent mobile robot and the position information of the obstacle on the map managed by the map manager 1130 to perform the unit mobile behavior. Cost map information is calculated based on information about occupied area, free area, and unknown area on the map for Configure. The obstacle avoidance unit 1122 may move the optimal path to the destination based on the configured cost map from the current position of the intelligent mobile robot 1000 using Dijkstra Algorithm, A * algorithm, and electromagnetic field algorithm. Iterate over the shortest possible distance nodes to find the best path. At this time, the map generated by the map manager 1130 through the SLAM can not provide information about the obstacles that are changed in real time to reach the destination one of the vision sensor (200-1), the distance sensor (200-2) Based on the information obtained above, an action of moving the intelligent mobile robot 1000 to the destination is performed while avoiding a real-time obstacle using a dynamic Windows Approach (DWA).

도 5에 도시된 바와 같이 영상 입력부(1210)는 입출력 제어부(1400)를 통해 실시간으로 영상데이터를 스트리밍으로 입력받아 영상객체인식 엔진부(1220)에 전달한다.As illustrated in FIG. 5, the image input unit 1210 receives image data in real time through the input / output controller 1400 and streams the image data to the image object recognition engine unit 1220.

영상객체인식 엔진부(1220)는 상기 영상데이터에 포함된 객체들을 인식하기위해 HMM(Hidden Markov Model)이나 GMM(Gaussian Mixture Model), 딥뉴럴네트워크나 LSTM(Long short-term memory)등의 알고리즘을 이용하여 객체들에 테두리(엣지)를 쳐서 일반객체들을 구분하고, 구분된 일반객체에서 사물객체, 사람객체를 구별하고 각각의 상태값들을 부여하는 액션(Action)을 수행한다.The image object recognition engine unit 1220 uses an algorithm such as HMM (Hidden Markov Model), GMM (Gaussian Mixture Model), deep neural network, or long short-term memory (LSTM) to recognize the objects included in the image data. By using the edges on the objects, the general objects are distinguished, and in the separated general objects, the object objects and the human objects are distinguished, and each state value is assigned.

의미객체 인식부(1230)는 상기 일반객체들에 포함된 다양한 사물객체와 사람객체들 중에서 지능형 지능로봇(1000)이 실내업무관리 명령을 실행하기 위한 타겟객체(여기에서는 특히 가전제품, 가스 밸브, 보일러의 온도조절기, 조명, 사용자, 사용자의 인상착의)를 인식하고 분리해내어 테깅하고 테깅 메타데이타를 데이터 저장부(1500)에 저장하는 액션(Action)을 수행한다.The semantic object recognition unit 1230 is a target object (in particular, home appliances, gas valves, etc.) for the intelligent intelligent robot 1000 to execute an indoor work management command among various object objects and human objects included in the general objects. Recognizing, separating, tagging, and storing the tagging metadata in the data storage unit 1500 may be performed by recognizing, separating, and controlling the temperature of the boiler, lighting, and the user's impression.

도 6에 도시된 바와 같이 사물 인식부(1231)는 일반객체로부터 사물객체를 구별하고, 사물객체의 상태값(색상, 모양, 밝기, 표시된 텍스트)을 인식한다. 상기 사물객체들 중 특히 가사에 사용되는 가전제품, 가스 밸브, 보일러의 온도조절기, 조명 등을 타겟객체로 구별하고 타겟객체의 상태값을 통해 가전제품의 전원 온·오프의 상태, 조명기기의 온·오프의 상태, 보일러의 온도조절기의 화면에 표시되는 온도 및 상태를 구별하는 액션(Action)을 수행한다.As illustrated in FIG. 6, the object recognizing unit 1231 distinguishes an object from a general object and recognizes a state value (color, shape, brightness, displayed text) of the object. Among the object objects, home appliances, gas valves, boilers, temperature controllers, lighting, etc., which are used for housekeeping, are classified into target objects, and power on / off states of home appliances are turned on through the state values of the target objects. Perform an action to distinguish between the off state, the temperature displayed on the boiler's thermostat and the condition.

사람 인식부(1232)는 일반객체로부터 사람객체를 구별하고 사람에 대한 인상착의로서 상/하의 색깔, 대략 키, 안경/가방/모자 착용여부 등의 사람객체를 구별하는 액션(Action)을 수행한다. 상기 사물객들중 특히 실내업무관리앱(2000a)이 설치된 스마트폰(2000)을 보유한 사용자(5000)를 타겟객체로 구별한다. 이때 사용자(5000)를 타겟객체로 구분하는 방법은 스마트폰 이외에 사용자의 위치를 인식할 수 있는 센서들을 사용할 수도 있다.The person recognizing unit 1232 distinguishes a person object from a general object and performs an action of distinguishing a person object such as an upper / lower color, an approximate height, and wearing glasses / bags / hats as an impression on the person. . Among the objects, the user 5000 having the smart phone 2000 in which the indoor work management app 2000a is installed is distinguished as a target object. In this case, the method of classifying the user 5000 as a target object may use sensors capable of recognizing the location of the user in addition to the smart phone.

이벤트 분석부(1233)는 사물객체 중에서 타겟객체로 구별된 조명의 전원 온·오프, 보일러 온도 조절기의 화면에 표시되는 온도 변화, 가전제품의 화면에 표시된 텍스트 또는 이미지의 변화와 같은 상태변화를 구별하고, 사용자(5000)의 위치 이동과 같은 상태변화를 모니터링 하는 액션(Action)을 수행한다.The event analysis unit 1233 distinguishes a state change such as power on / off of a light identified as a target object among temperature objects, a temperature change displayed on a screen of a boiler temperature controller, and a change in text or an image displayed on a screen of a home appliance. Then, it performs an action (Action) for monitoring a state change, such as moving the position of the user 5000.

도 7에 도시된 바와 같이 실내업무관리앱 관리부(2100)는 사용자(5000)의 스마트폰(2000)에 건물실내의 지도, 지도상에 지능형 이동로봇의 위치, 타겟객체의 위치중 하한나 이상의 정보를 표시하는 GUI(Graphic User Interface)를 제공하고, 사용자는 GUI의 버튼 클릭, 제스쳐, 텍스트 입력, 음성 입력중 하나 이상을 입출력 제어부(2300)를 통해 입력받으면, 실내업무관리앱 관리부(2100)는 버튼 클릭과 제스쳐를 실행명령으로 변환하고, 텍스트 입력과 음성입력은 온톨로지 변환부(2200)에 전달한다. 온톨로지 변환부는 자연어 처리 알고리즘을 통해 입력된 자연어를 ROS가 처리할 수 있는 실행명령으로 변환하여 실내업무관리앱 관리부(2100)에 전달하고 실내업무관리앱 관리부(2100)는 통신 제어부(2400)를 통해 지능형 이동로봇(1000)의 에이전트 관리부(1100)로 전달한다. 이때 GUI에 표시되는 지도에는 실내지도상의 벽, 장애물, 특정객체가 표시된다. 또한 사용자(5000)가 상기 GUI상에 타겟객체의 추가 삭제, 자율주행을 통한 지도작성 스케줄기능 등 지능형 이동로봇(1000)의 제어에 필요한 기능을 제공한다.As illustrated in FIG. 7, the indoor work management app managing unit 2100 may include a map in a building on a smart phone 2000 of a user 5000, a location of an intelligent mobile robot on a map, and a lower limit or more of a target object. Provides a graphical user interface (GUI) for displaying a user, and when the user receives one or more of a button click, a gesture, a text input, and a voice input of the GUI through the input / output control unit 2300, the indoor work management app managing unit 2100 The button clicks and gestures are converted into execution commands, and the text input and the voice input are transmitted to the ontology converter 2200. The ontology conversion unit converts the natural language input through the natural language processing algorithm into an execution command that can be processed by the ROS, and delivers it to the indoor business management app management unit 2100, and the indoor business management app management unit 2100 uses the communication control unit 2400. Transfer to the agent manager 1100 of the intelligent mobile robot (1000). At this time, the map displayed on the GUI displays walls, obstacles, and specific objects on the indoor map. In addition, the user 5000 provides functions necessary for the control of the intelligent mobile robot 1000, such as the addition and deletion of the target object on the GUI, the map creation schedule function through autonomous driving.

이하, 도 8 내지 도 11을 참조하여 본 발명에 따른 인공지능 플래닝기술을 이용한 자율주행형 이동로봇과 이를 이용한 스마트 실내업무관리 방법에 대하여 상세하게 설명한다.Hereinafter, a self-driving mobile robot using artificial intelligence planning technology according to the present invention and a smart indoor business management method using the same will be described in detail with reference to FIGS. 8 to 11.

도 8에 도시된 바와 같이, 지능형 이동로봇(1000)이 운영준비상태에서 사용자가 실내업무관리앱(2000a)의 GUI를 통해 실행명령을 요청하거나 자율주행모드를 진행하면, 지능형 이동로봇의 에이전트 관리부(1100)가 이동로봇에 탑재된 비전센서(200-1)와 거리센서(200-2)의 데이터를 입력으로하고을 SLAM기술을 사용하여 스마트 실내업무관리 서비스를 진행하기 위한 실내지도를 작성한다(S100).As shown in FIG. 8, when the intelligent mobile robot 1000 requests the execution command through the GUI of the indoor work management app 2000a or proceeds to the autonomous driving mode, the agent management unit of the intelligent mobile robot 1000 operates. The 1100 inputs data of the vision sensor 200-1 and the distance sensor 200-2 mounted on the mobile robot, and prepares an indoor map for proceeding with the smart indoor business management service using the SLAM technology ( S100).

도 9를 참조하여 보다 구체적으로 설명하면, 지능형 이동로봇(1000)의 위치 제어부(1120)가 자율주행을 수행할 때 오도메트리를 사용하여 지능형 이동로봇(1000)의 바퀴를 제어하고, 바퀴의 회전량을 측정하여 움직인 거리를 측정하는 추정항법(Dead-reckoning)을 통해 지능형 이동로봇의 위치를 판단하는 액션(Action)을 실행한다(S110).Referring to FIG. 9, when the position controller 1120 of the intelligent mobile robot 1000 performs autonomous driving, the wheel of the intelligent mobile robot 1000 is controlled using an odometry, and the An action of determining the position of the intelligent mobile robot is performed through dead-reckoning by measuring the amount of rotation (S110).

이후, 지능형 이동로봇(1000)의 지도 관리부(1130)는 위치 제어부(1120)가 계산한 지능형 이동로봇(1000)의 위치 추정값과 거리센서(Deapth Camera)로 X-Y 평면상을 스캔하여 산출된 거리값을 입력으로 SLAM기술을 사용하여 실내지도를 작성하는 액션(Action)을 실행한다(S120).Subsequently, the map manager 1130 of the intelligent mobile robot 1000 scans the position estimate of the intelligent mobile robot 1000 calculated by the position controller 1120 and the XY plane with a distance camera to calculate the distance value. As an input, an action of creating an indoor map using the SLAM technique is executed (S120).

위치 제어부(1120)가 실시간으로 작성된 지도상에 점유영역(occupied area), 자유영역(free area), 미지영역(unknown area)에 대한 정보를 기반으로 이동할 수 있는 영역과 이동할 수 없는 영역을 계산한 코스트맵(Cost Map)정보를 구성하고 장애물을 회피하면서 자율주행을 진행하는 액션(Action)을 실행한다(S130).The location controller 1120 calculates the areas that can be moved and areas that cannot be moved based on information about occupied areas, free areas, and unknown areas on a map created in real time. An action of autonomous driving is performed while constructing cost map information and avoiding obstacles (S130).

상술한 바와 같이, 지능형 이동로봇(1000)이 상시운영상태에서 사용자가 실내업무관리앱(2000a)의 GUI를 통해 입력된 실행명령을 지능형이동로봇(1000)의 에이전트 제어부(1110)가 이동액션과 객체액션으로 구별하고 이동액션을 위치 제어부(1120)에서 인공지능 플래닝 기술로 실행하여 지능형 이동로봇(1000)을 목적지로 이동시키고, 객체액션을 객체정보 수집부(1200)가 수행하고여 객체의 종류 및 상태를 파악하여 그 결과를 실내업무관리 앱(2000a)에 실행결과를 전달한다(S200).As described above, the agent control unit 1110 of the intelligent mobile robot 1000 executes an execution command input by the user through the GUI of the indoor work management app 2000a in the intelligent mobile robot 1000 at all times. The object is classified into object actions and the movement action is executed by the AI planning technique in the position controller 1120 to move the intelligent mobile robot 1000 to the destination, and the object information collecting unit 1200 performs the object action. And grasping the state and delivers the result to the indoor work management app 2000a (S200).

도 10을 참조하여 보다 구체적으로 설명하면, 사용자가 실내업무관리 앱(2000a) GUI가 제공하는 실내지도상에서 텍스트, 음성, 실행명령중 하나 이상을 입력하여 예를 들면, '특정 객체인 가전제품(냉장고, 세탁기, 에어컨, 공기 청정기), 창문, 보일러 온도조절기, 도어락 있는 곳으로 이동하라', '가스밸브 잠금장치의 상태, 창문의 개폐 상태, 조명기기의 온·오프 상태를 확인하라'와 같은 명령을 내린다(S210).In more detail with reference to Figure 10, the user inputs one or more of the text, voice, execution command on the indoor map provided by the indoor task management app (2000a) GUI, for example, 'a home appliance that is a specific object ( Refrigerators, washing machines, air conditioners, air cleaners), windows, boiler thermostats, move to door locks, "check the status of gas valve locks, opening and closing of windows, lighting on and off. Give a command (S210).

사용자의 명령을 실내업무관리앱 관리부(2100)는 실행명령 변환하여 지능형 이동로봇(1000)의 에이전트 제어부(1110)에 전달하고 에이전트 제어부(1110)가 구별한 이동액션을 기초로 위치 제어부(1120)가 전달 코스트맵 정보를 기반으로 목적지까지의 최적경로를 다익스트라 알로리즘(Dijkstra Algorithm), A* 알고리즘, 전자기장 알고리즘 등을 사용하여 장애물을 회피하면서 지능형 이동로봇(1000)을 이동시키는 액션(Action)을 실행한다(S220).The indoor task management app manager 2100 converts an execution command and transmits the command to the agent controller 1110 of the intelligent mobile robot 1000 and based on the movement action distinguished by the agent controller 1110, the position controller 1120. To move the intelligent mobile robot 1000 while avoiding obstacles using Dijkstra Algorithm, A * algorithm, electromagnetic field algorithm, etc., based on the transmitted cost map information. To execute (S220).

상술한 바와 같이, 지능형 이동로봇(1000)이 운영중비상태에서 자율주행중 장애물을 발견하여 지능형 이동로봇(1000)의 에이전트 제어부(1110)가 객체 정보를 수집하라는 객체액션을 객체정보 수집부(1200)에 전달하여 객체정보를 수집하거나, 상시운영상태에서 에이전트 제어부(1110)가 객체정보 수집부(1200)에 전달한 객체액션을 통해 객체의 상태를 구별하는 액션(Action)을 실행한다(S300).As described above, the intelligent mobile robot 1000 detects an obstacle during autonomous driving in the non-operational state, so that the agent control unit 1110 of the intelligent mobile robot 1000 collects the object information. Object information is collected by transferring the information to the object or the agent controller 1110 executes an action for distinguishing the state of the object through the object action delivered to the object information collection unit 1200 in the constant operating state (S300).

도 11을 참조하여 보다 구체적으로 설명하면, 에이전트 관리부(1100)가 전달한 장애물정보(장애물의 위치, 장애물간의 거리)를 기반으로 지능형 이동로봇(1000)에 설치된 카메라(200-3)를 제어하여 피사체를 원하는 각도로 촬영하고 객체정보 수집부(1200)를 통해 객체의 종류 및 상태를 구별하는 액션(Action)을 실행한다(S310).In more detail with reference to FIG. 11, the subject is controlled by controlling the camera 200-3 installed in the intelligent mobile robot 1000 based on the obstacle information (the location of the obstacle and the distance between the obstacles) transmitted by the agent manager 1100. Shoot at a desired angle and performs an action (Action) to distinguish the type and state of the object through the object information collecting unit 1200 (S310).

사용자의 실행명령에서 에이전트 제어부(1110)가 구별한 객체액션을 통해 객체정보 수집부(1200)는 인물객체의 인상착의, 사물객체의 상태값을 인식하여 일반객체의 상태를 구별하는 액션(Action)을 실행한다(S320).The object information collecting unit 1200 recognizes the state value of the object object and the state of the general object through the object action distinguished by the agent controller 1110 in the execution command of the user. To execute (S320).

에이전트 관리부(1100)가 실행명령을 실행한 결과를 사용자의 스마트폰의 실내업무관리앱(2000a)의 GUI에 객체 촬영영상, 객체의 상태값 중 하나 이상을 그 결과로 표시한다(S330).The agent manager 1100 displays the result of executing the execution command in the GUI of the indoor work management app 2000a of the user's smartphone as one or more of the object photographed image and the state value of the object (S330).

이상과 같이 본 발명의 바람직한 실시예에 대하여 설명하였지만 본 발명의 범위는 이에 한정되지 않으며 다음의 특허청구범위를 일탈하지 않고도 당분야의 통상의 기술자에 의해 여러 가지 변경 및 변형이 가능함은 자명한 것이므로, 이러한 변형 실시예는 모두 본 발명의 범위에 속한다고 할 수 있다.Although preferred embodiments of the present invention have been described as described above, the scope of the present invention is not limited thereto, and it is obvious that various changes and modifications can be made by those skilled in the art without departing from the following claims. All such modifications can be said to fall within the scope of the present invention.

100: 짐벌 200: 인지센서
1000: 지능형 이동로봇 1100: 에이전트 관리부
1110: 에이전트 제어부 1120: 위치 제어부
1121: 코스트맵 구성부 1122: 장애물 회피부
1130: 지도 관리부 1200: 객체정보 수집부
1210: 영상 입력부 1220: 영상객체인식 엔진부
1230: 의미객체 인식부 1231: 사물 인식부
1232: 사람 인식부 1233: 이벤트 분석부
1300: 통신 제어부 1400: 입출력 제어부
1500: 데이터 저장부 2000: 사용자 스마트폰
2100: 실내업무관리앱 관리부 2200: 온톨로지 변환부
2300: 입출력 제어부 2400: 통신제어부
2500: 데이터 저장부 3000: 무선통신
4000: 사용자 인터페이스 5000: 사용자
100: gimbal 200: recognition sensor
1000: intelligent mobile robot 1100: agent management unit
1110: agent control unit 1120: location control unit
1121: cost map component 1122: obstacle avoidance
1130: map management unit 1200: object information collection unit
1210: Image input unit 1220: Image object recognition engine unit
1230: semantic object recognition unit 1231: object recognition unit
1232: person recognition unit 1233: event analysis unit
1300: communication control unit 1400: input and output control unit
1500: data storage 2000: user smartphone
2100: indoor business management app management unit 2200: ontology conversion unit
2300: input and output control unit 2400: communication control unit
2500: data storage unit 3000: wireless communication
4000: user interface 5000: user

Claims (15)

인공지능 플래닝기술을 이용한 자율주행 지능형 이동로봇 및 앱과, 이 로봇 및 앱을 이용하여 가정 및 사업장내 필요한 곳으로 로봇을 이동시키고, 필요한 영상촬영을 하고, 이 영상을 인식하고, 인식된 결과에 따라 필요한 조치를 취하는 스마트 실내업무관리 시스템으로서,
운영준비상태에서 상기 지능형 이동로봇에 탑재된 비전센서와 거리센서의 데이터를 입력으로 SLAM(Simultaneous Localization And Mapping) 기술을 사용하여 스마트 실내업무관리 서비스를 진행하기 위한 실내지도를 작성하고, 상시 운영상태에서 사용자가 실내업무 관리앱에 요청한 명령을 수행하기 위해 인공지능 플래닝 기술을 사용하여 지능형 이동로봇을 현재 위치에서 목적지로 장애물의 충돌없이 이동시키기는 에이전트 관리부;
상기 지능형 이동로봇에 탑재된 카메라를 통해 입력된 영상데이터를 직접 실시간으로 입력받은 후, 영상내 객체, 사물객체를 인식하고 이 인식정보에 대한 테깅을 저장하는 객체정보 수집부; 및
사용자의 명령을 상기 지능형 이동로봇에 전달하기 위해, 사용자의 스마트폰에 설치되어 GUI를 통해 텍스트, 음성, 실행명령중 하나 이상을 입력받아 지능형 이동로봇에게 명령을 전달하고, 지능형 이동로봇이 수행한 명령의 결과를 전달받아 사용자에게 전달해 주는 실내업무 관리앱을 포함하고,
상기 에이전트 관리부는,
사용자의 스마트폰에 설치된 실내업무 관리앱으로부터 받은 명령을 분석하여 이동액션과 객체액션으로 구별하고 이동액션을 위치 제어부에 전달하고, 객체액션을 객체정보 수집부에 전달하여 명령을 수행하는 에이전트 제어부;
상기 에이전트 제어부로부터 전달받은 이동액션을 기반으로 지능형 이동로봇이 특정위치로 이동할 수 있도록 오도메트리(Odometry)를 사용하여 지능형 이동로봇이 움직이는 이동량을 바퀴의 회전량을 가지고 측정하여 지도상의 지능형 이동로봇의 위치를 계산하고 사용자가 명령한 목적지로 이동시키는 액션(Action)을 실행하는 위치 제어부; 및
상기 위치 제어부에서 얻은 지능형 이동 로봇의 위치값과 거리센서(Depth Camera)로 X-Y 평면상을 스캔하여 산출된 거리값을 입력으로 SLAM 기술을 사용하여 실내의 벽과 장애물이 구별되는 지도를 작성 및 갱신하는 액션(Action)을 실행하는 지도 관리부를 포함하고;
상기 위치 제어부는
지능형 이동로봇의 현재위치, 장애물의 위치, SLAM 기술을 사용하여 작성된 지도에서 점유영역(occupied area), 자유영역(free area), 미지영역(unknown area)에 대한 정보를 사용하여 이동할 수 있는 영역과 이동할 수 없는 영역을 계산한 코스트맵(Cost Map) 정보를 구성하는 액션(Action)을 실행하는 코스트맵 구성부; 및
코스트맵 정보를 기반으로 목적지까지의 최적 경로를 계산하고, 실시간으로 변경되는 장애물에 대한 정보를 거리센서를 통해 획득하여 지능형 로봇과 충돌 가능한 장애물을 회피하면서 목적지에 빠르게 도착할 수 있는 경로를 계산하는 액션(Action)을 실행하는 장애물 회피부와,
지능형 이동로봇이 움직이는 이동량을 바퀴 회전축의 회전량으로 추정항법(Dead-Reckoning)을 통해서 움직인 거리를 측정하여 위치계산을 하고, 관성측정장치(Inertial Measurement Unit)에서 측정한 관성정보를 적용하여 추정 항법의 오차를 보정해주는 액션(Action)을 포함하여 구성되는 것을 특징으로 하는 스마트 실내업무관리 시스템.
Self-driving intelligent mobile robots and apps using artificial intelligence planning technology, using the robots and apps to move robots to where they are needed in homes and businesses, take necessary images, recognize these images, As a smart indoor business management system to take necessary measures
In preparation for operation, the indoor map for the smart indoor business management service is created by using the SLAM (Simultaneous Localization And Mapping) technology by inputting the data of the vision sensor and the distance sensor mounted on the intelligent mobile robot, An agent manager to move the intelligent mobile robot from the current location to the destination without collision by using artificial intelligence planning technology in order to perform a command requested by the user to the indoor business management app;
An object information collection unit for directly receiving real-time image data input through a camera mounted on the intelligent mobile robot and recognizing objects and objects in the image and storing tagging of the recognition information; And
In order to deliver the user's command to the intelligent mobile robot, it is installed in the user's smartphone and receives one or more of text, voice, and execution commands through the GUI, and delivers the command to the intelligent mobile robot, which is performed by the intelligent mobile robot. It includes an indoor business management app that receives the result of the command and delivers it to the user,
The agent manager,
An agent controller for analyzing a command received from an indoor work management app installed in a user's smart phone, distinguishing it into a mobile action and an object action, transferring the mobile action to a location controller, and transferring the object action to an object information collection unit to perform a command;
Based on the movement action received from the agent controller, the intelligent mobile robot measures the movement amount of the intelligent mobile robot with the rotation amount of the wheel using Odometry so that the intelligent mobile robot can move to a specific position. A position control unit for calculating an position of the position and executing an action for moving to a destination commanded by the user; And
Create and update a map that distinguishes walls from obstacles using SLAM technology by inputting the position value of the intelligent mobile robot obtained from the position control unit and the distance value calculated by scanning the XY plane with a distance camera. A map manager that executes an action;
The position control unit
The area that can be moved by using information about occupied area, free area and unknown area on the map created using the current position, obstacle location, and SLAM technology of intelligent mobile robot. A cost map constructing unit configured to execute an action constituting cost map information for calculating an area that cannot be moved; And
Calculate the optimal route to the destination based on the cost map information and calculate the route to get to the destination quickly while avoiding obstacles that could collide with the intelligent robot by obtaining information about obstacles that change in real time through the distance sensor. An obstacle avoidance unit that executes the action,
The position of the intelligent mobile robot is measured by measuring the distance moved by dead-reckoning as the amount of rotation of the wheel axis and estimated by applying the inertial information measured by the inertial measurement unit. Smart indoor affairs management system, characterized in that it comprises an action (correction) to correct the error of navigation.
삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 객체정보 수집부는
객체정보 분석을 필요로하는 영상 스트리밍 데이타를 입력받기 위한 인터페이스로서, 지능형 이동로봇의 카메라로부터 입력된 영상스트리밍데이터를 입력받을 수 있는 영상입력부;
상기 영상입력부를 통해 입력된 영상에 포함된 객체들을 인식하기위해 HMM(Hidden Markov Model)이나, GMM(Gaussian Mixture Model), 딥뉴럴 네트워크나 LSTM(Long short-term memory) 중 어느 한 알고리즘을 이용하여 객체들에 테두리를 형성하여(엣지 작업을 수행하여) 객체들을 구분하고 일반객체들을 인식하는 액션(Action)을 실행하는 영상객체인식 엔진부; 및
상기 일반객체에 포함된 다양한 사물 및 사람에 대한 객체들중 시스템이 특정한 객체들만(특정사물 (가전제품, 가스 밸브, 보일러의 온도조절기, 조명), 사람 및 인상착의)을 인식하고 이를 분리해 내어 테깅하고 테깅 메타데이타를 저장하고, 저장된 상기 객체로부터 의미 있는 객체를 구별하는 액션(Action)을 실행하는 의미객체 인식부를 포함하여 구성된 것을 특징으로 하는 스마트 실내업무관리 시스템.
The method of claim 1,
The object information collecting unit
An interface for receiving image streaming data requiring object information analysis, the interface comprising: an image input unit configured to receive image streaming data input from a camera of an intelligent mobile robot;
In order to recognize the objects included in the image input through the image input unit, one of an algorithm such as HMM (Hidden Markov Model), GMM (Gaussian Mixture Model), deep neural network, or long short-term memory (LSTM) is used. An image object recognition engine unit configured to form an edge on the objects (by performing an edge operation) to distinguish the objects and to execute an action of recognizing general objects; And
Among the objects for various objects and people included in the general object, the system recognizes only specific objects (specific objects (household appliances, gas valves, boiler thermostats, lighting), people and impressions) and separates them. And a semantic object recognition unit configured to perform tagging, storing tagging metadata, and executing an action for distinguishing meaningful objects from the stored objects.
제 5항에 있어서,
상기 의미객체 인식부는
상기 일반객체로부터 건물의 실내에 나타나는 가전제품의 전원 온오프의 상태, 조명기기의 온·오프의 상태, 보일러의 온도조절기의 화면에 표시되는 온도 및 상태를 적어도 포함하는 사물객체를 구별하는 액션(Action)을 실행하는 사물 인식부;
상기 일반객체로부터 사람에 대한 인상착의로서 상/하의 색깔, 대략 키, 안경/가방/모자 착용여부 등의 사람객체를 구별하는 사람 인식부; 및
상기 사물객체에서 조명의 전원 온·오프, 보일러 온도 조절기의 화면에 표시되는 온도 변화를 적어도 포함하는 상태변화를 구별하는 액션(Action)을 실행하는 이벤트 분석부를 포함하여 구성된 것을 특징으로 하는 스마트 실내업무관리 시스템.
The method of claim 5,
The semantic object recognition unit
An action for distinguishing an object from the general object that includes at least a state of power on / off of a home appliance appearing in a building, an on / off state of a lighting device, a temperature and a state displayed on a screen of a temperature controller of a boiler ( A thing recognizing unit executing an action);
A person recognizing unit that distinguishes a person object from the general object such as an upper / lower color, an approximate height, wearing glasses / bags / hats, etc. as an impression on the person; And
Smart indoor work comprising an event analysis unit for performing an action (Action) for distinguishing the state change including at least the temperature change displayed on the screen of the boiler temperature controller, the power on / off of the light object in the object object Management system.
제 1항에 있어서,
상기 실내업무 관리앱은
사용자와 입·출력정보를 제공할 수 있는 GUI를 제공하고 사용자의 입력인 텍스트, 음성, 실행명령중 하나 이상을 입력받으며, 텍스트, 음성 명령은 온톨로지 변환부에 전달하고 온톨로지 변환부가 추출한 실행명령, GUI로 입력된 실행명령을 지능형 이동로봇의 에이전트 관리부에 전달하고, 실행명령 수행결과를 전달받아 실내업무 관리앱의 GUI에 표시하는 실내업무 관리앱 관리부;
상기 실내업무 관리앱 관리부로부터 전달받은 텍스트, 음성 중 하나 이상을 입력으로 수집규칙을 적용하여 파싱하고 변환규칙을 적용하여 OWL 데이터를 생성관리하고 RDFS 수준의 지식 트리플로 변환하여 시멘틱웹 기술을 사용하여 사용자의 자연어를 컴퓨터가 처리할 수 있는 명령으로 변환하는 온토로리지 변환부를 포함하여 구성된 것을 특징으로 하는 스마트 실내업무관리 시스템.
The method of claim 1,
The indoor business management app
It provides a GUI that can provide the user and input and output information, receives one or more of user's input text, voice, and execution commands. The text and voice commands are transmitted to the ontology converter, and the executable commands extracted by the ontology converter are selected. An indoor task management app manager to transmit the execution command input to the GUI to the agent manager of the intelligent mobile robot, and receive the execution command execution result and display the GUI on the indoor task management app;
Using the semantic web technology by parsing one or more of the text and voice received from the indoor business management app management unit by applying a collection rule as input, generating and managing OWL data by applying a conversion rule, and converting it into knowledge triple of RDFS level. Smart indoor work management system, characterized in that it comprises an on-to-rotary conversion unit for converting the user's natural language into a command that can be processed by a computer.
제 7항에 있어서,
상기 실내업무 관리앱 관리부는
지능형 이동로봇의 에이전트 관리부로부터 실내지도와 실내지도에 위치한 사물객체, 지능형 이동로봇의 위치를 전달받아 실내업무 관리앱의 GUI에 표시하고, 사용자의 명령 입력과 명령 수행 결과를 전달받아 텍스트, 음성, 이미지, 동영상 중 하나 이상으로 GUI에 표시해주는 것을 포함하여 구성된 것을 특징으로 하는 스마트 실내업무관리 시스템.
The method of claim 7, wherein
The indoor business management app management unit
Receives the location of the indoor object, the object located on the indoor map, and the location of the intelligent mobile robot from the agent management unit of the intelligent mobile robot, and displays it on the GUI of the indoor business management app. Smart indoor work management system, characterized in that configured to display in the GUI as one or more of the image, video.
제1항에 있어서,
상기 에이전트 관리부는 도메인 플랜(Domain Plan)에 지능형 이동로봇의 이동과 관련된 움직임, 객체 수집과 관련된 움직임의 동작을 세부 액션(Action)들로 등록하고, 사용자 실행명령을 입력하면 실행명령을 해결하기 위한 세부액션들의 수행 절차를 인공지능 플래닝 기술을 통해 이동액션, 객체액션 중 하나로 생성하여, ROS 세부 액션(Action)들을 실행함으로써 실행명령을 자동으로 추론하고,
상기 이동액션과 객체액션은 도메인 플랜에 포함되어 있는 하나 이상의 액션(Action)들의 순차적인 실행 순서 정보를 갖는 것을 특징으로 하는 스마트 실내업무 관리 시스템.
The method of claim 1,
The agent manager registers the motion related to the movement of the intelligent mobile robot and the motion related to the object collection as detailed actions in the domain plan, and when the user executes the command, The execution procedure of detailed actions is generated by one of moving action and object action through artificial intelligence planning technology, and automatically infers execution command by executing ROS detailed actions.
The mobile action and the object action has a smart indoor business management system, characterized in that the sequential execution order information of one or more actions (action) included in the domain plan.
제9항에 있어서,
액션(Action)은 액션이 실행되기 위한 사전조건, 액션 실행후 결과상태에 대한 정보를 포함하여 도메인 플랜에 포함되는 것을 특징으로 하는 스마트 실내업무 관리 시스템.
The method of claim 9,
Action is a smart indoor work management system, characterized in that included in the domain plan, including information on the preconditions for executing the action, the result status after the action is executed.
제9항에 있어서,
실행명령은 선언적(Declarerative)으로 지능형 이동로봇의 현재상태와 목적상태에 대한 내용만 포함하고 있고, 어떻게 목적지로 찾아갈지는 에이전트 제어부가 플래닝하여 생성한 이동액션을 실행하여 최종 목적지 위치에 도달하는 것을 특징으로 하는 스마트 실내업무 관리 시스템.
The method of claim 9,
Execution command is declarerative and contains only the current state and destination state of intelligent mobile robot.How to get to the destination is executed by the agent controller to execute the mobile action planned and created to reach the final destination location. Smart indoor work management system characterized by.
인공지능 플래닝 기술을 이용한 자율주행 지능형 이동로봇과, 이 로봇을 이용하여 가정 및 사업장내 필요한 곳으로 로봇을 이동시키고, 필요한 영상촬영을 하고, 이 영상을 인식하고, 인식된 결과에 따라 필요한 조치를 취하는 스마트 실내업무관리 방법으로서,
지능형 이동로봇이 운영준비상태에서 사용자가 실내업무 관리앱의 GUI를 통해 실행명령을 요청하거나 자율주행을 수행모드로 진행하면, 지능형 이동로봇의 에이전트 관리부가 이동로봇에 탑재된 비전센서와 거리센서의 데이터를 입력으로 하여 SLAM기술을 통해 스마트 실내업무관리 서비스를 진행하기 위한 실내지도를 작성하는 제1단계;
지능형 이동로봇이 상시운영상태에서 사용자가 실내업무 관리앱의 GUI를 통해 입력된 실행명령을 지능형 이동로봇의 에이전트 제어부가 이동액션과 객체액션으로 구별하고 이동액션을 입력으로 위치 제어부에서 액션(Action)을 실행하여 지능형 이동로봇을 목적지로 이동시키고, 객체액션을 입력으로 객체정보 수집부가 액션(Action)을 실행하여 객체의 종류 및 상태를 파악하여 그 결과를 실내업무 관리 앱에 실행결과를 전달하는 제2단계; 및
지능형 이동로봇이 운영중비상태에서 자율주행중 장애물을 발견하여 지능형 이동로봇의 에이전트 제어부가 객체 정보를 수집하라는 객체액션을 객체정보 수집부에 전달하고 객체정보 수집부는 액션(Action)을 실행하여 객체정보를 수집하거나, 실내지도가 작성된 상태에서 에이전트 제어부가 객체정보 수집부에 전달한 객체액션을 통해 객체의 상태를 구별하는 액션(Action)을 실행하는 제3단계를 포함하고;
상기 제1단계에서,
지능형 이동로봇의 위치 제어부가 자율주행을 수행할 때 오도메트리를 사용하여 지능형 이동로봇의 바퀴를 제어하고, 바퀴의 회전량을 측정하여 움직인 거리를 측정하는 추정항법(Dead-reckoning)을 통해 지능형 이동로봇의 위치를 판단하는 액션(Action)을 실행하는 단계;
지능형 이동로봇의 지도 관리부는 위치 제어부가 계산한 지능형 이동로봇의 위치 추정값과 거리센서(Deapth Camera)로 X-Y 평면상을 스캔하여 산출된 거리값을 입력으로 SLAM 기술을 사용하여 실내지도를 작성하는 액션(Action)을 실행하는 단계;
위치 제어부가 실시간으로 작성된 지도상에 점유영역(occupied area), 자유영역(free area), 미지영역(unknown area)에 대한 정보를 기반으로 이동할 수 있는 영역과 이동할 수 없는 영역을 계산한 코스트맵(Cost Map)정보를 구성하고 장애물을 회피하면서 자율주행을 진행하는 액션(Action)을 실행하는 단계를 포함하여 구성된 것을 특징으로 하는 스마트 실내업무관리 방법.
Self-driving intelligent mobile robot using artificial intelligence planning technology, using this robot to move the robot to the necessary place in the home and business, take the necessary image, recognize the image, and take necessary action according to the recognized result As a smart indoor business management method to take,
When the intelligent mobile robot is ready for operation, when the user requests execution command through the indoor task management app's GUI or proceeds to autonomous driving mode, the agent management unit of the intelligent mobile robot performs the vision sensor and the distance sensor of the mobile robot. A first step of preparing an indoor map for performing a smart indoor business management service through a SLAM technology with data input;
When the intelligent mobile robot is always in operation, the agent control command of the intelligent mobile robot is divided into moving action and object action by the user through the GUI of the indoor work management app. To move the intelligent mobile robot to the destination, and the object information collection unit executes the action by inputting the object action to grasp the type and state of the object and delivers the result to the indoor work management app. Step 2; And
When the intelligent mobile robot detects obstacles during autonomous driving, the agent control unit of the intelligent mobile robot sends the object action to the object information collection unit to collect the object information, and the object information collection unit executes the action to execute the object information. A third step of performing an action of discriminating a state of an object through an object action transmitted from the agent control unit to the object information collecting unit while the indoor map is created;
In the first step,
When the position controller of the intelligent mobile robot performs autonomous driving, it uses dead-reckoning to control the wheel of the intelligent mobile robot using odometry and measures the distance moved by measuring the amount of rotation of the wheel. Executing an action for determining the location of the intelligent mobile robot;
The map management unit of the intelligent mobile robot generates an indoor map using SLAM technology by inputting the calculated position value of the intelligent mobile robot calculated by the position controller and the XY plane by using a distance camera. Executing an action;
The cost control system calculates the areas of movement and areas that cannot be moved based on information about occupied areas, free areas, and unknown areas on a map created by the location controller in real time. Smart indoor work management method comprising the steps of constructing the cost map) information and executing the action (Action) to proceed autonomous driving while avoiding obstacles.
삭제delete 제 12항에 있어서,
지능형 이동로봇이 상시운영상태에서 사용자가 실내업무 관리앱의 GUI를 통해 입력된 실행명령을 지능형 이동로봇의 에이전트 제어부가 이동액션과 객체액션으로 구별하고 이동액션을 위치 제어부에서 인공지능 플래닝 기술로 실행하여 지능형 이동로봇을 목적지로 이동시키고, 객체액션을 객체정보 수집부가 수행하여 객체의 종류 및 상태를 파악하여 그 결과를 실내업무관리 앱에 실행결과를 전달하는 단계에서,
사용자가 실내업무 관리앱 GUI가 제공하는 실내지도상에서 텍스트, 음성, 실행명령중 하나 이상을 입력하여 '특정 객체인 가전제품(냉장고, 세탁기, 에어컨, 공기 청정기), 창문, 보일러 온도조절기, 도어락 있는 곳으로 이동하라', '가스밸브 잠금장치의 상태, 창문의 개폐 상태, 조명기기의 온·오프 상태를 확인하라'를 적어도 포함하는 명령들중 특정 명령을 내리는 단계;
사용자의 명령을 실내업무 관리앱 관리부는 실행명령으로 변환하여 지능형 이동로봇의 에이전트 제어부에 전달하고 에이전트 제어부가 구별한 이동액션을 위치제어부가 전달 코스트맵 정보를 기반으로 목적지까지의 최적경로를 다익스트라 알고리즘(Dijkstra Algorithm), A* 알고리즘, 전자기장 알고리즘 등을 사용하여 장애물을 회피하면서 지능형 이동로봇을 이동시키는 액션(Action)을 실행하는 단계;
를 포함하여 구성된 것을 특징으로 하는 스마트 실내업무관리 방법.
The method of claim 12,
When the intelligent mobile robot is always in operation, the agent control command of the intelligent mobile robot is divided into movement action and object action by the user through the GUI of the indoor work management app, and the movement action is executed by the AI planning technology in the position control. In the step of moving the intelligent mobile robot to the destination, the object information collection unit performs the object action to identify the type and state of the object and deliver the result to the indoor work management app,
The user inputs one or more of the text, voice, and execution commands on the indoor map provided by the indoor task management app GUI to display a specific object such as a household appliance (refrigerator, washing machine, air conditioner, air purifier), window, boiler thermostat, door lock, etc. Giving a specific command among at least one command including at least one of moving to a place ',' checking a state of a gas valve locking device, a window opening and closing state, and an on / off state of a lighting device ';
The indoor task management app management unit converts the user's command into an execution command and transmits the command to the agent control unit of the intelligent mobile robot, and the mobile controller distinguishes the optimal path to the destination based on the cost map information. Executing an action of moving the intelligent mobile robot while avoiding obstacles using an algorithm (Dijkstra Algorithm), an A * algorithm, an electromagnetic field algorithm, and the like;
Smart indoor work management method, characterized in that configured to include.
제 12항에 있어서,
지능형 이동로봇이 운영준비상태에서 자율주행중 장애물을 발견하여 지능형 이동로봇의 에이전트 제어부가 객체 정보를 수집하라는 객체액션을 객체정보 수집부에 전달하여 객체정보를 수집하거나, 상시운영상태에서 에이전트 관리부가 객체정보 수집부에 전달한 객체액션을 통해 객체의 상태를 구별하는 액션(Action)을 실행하는 단계에서,
에이전트 관리부가 전달한 장애물정보(장애물의 위치, 장애물 간의 거리)를 기반으로 지능형 이동로봇에 설치된 카메라를 제어하여 피사체를 원하는 각도로 촬영하고 객체정보 수집부를 통해 객체의 종류 및 상태를 구별하는 액션(Action)을 실행하는 단계;
사용자의 실행명령에서 에이전트 제어부가 구별한 객체액션 입력으로 객체정보 수집부는 인물객체의 인상착의, 사물객체의 상태값을 인식하여 일반객체의 상태를 구별하는 액션(Action)을 실행하는 단계;
에이전트 관리부가 실행명령을 실행한 결과를 사용자의 스마트폰의 앱의 GUI에 객체 촬영영상, 객체의 상태값 중 하나 이상을 그 결과로 표시하는 단계;
를 포함하여 구성된 것을 특징으로 하는 스마트 실내업무관리 방법.
The method of claim 12,
When the intelligent mobile robot detects obstacles during autonomous driving in the operation ready state, the agent control unit of the intelligent mobile robot sends the object action to collect the object information to the object information collection unit to collect the object information, or the agent management unit in the constant operation state In the step of executing an action for distinguishing the state of the object through the object action passed to the information collector,
Action that captures the subject at a desired angle by controlling the camera installed in the intelligent mobile robot based on the obstacle information (the location of the obstacle and the distance between the obstacles) delivered by the agent manager and distinguishes the type and state of the object through the object information collection unit. Executing);
The object information collecting unit recognizes the state value of the object object in the impression of the person object and executes an action of distinguishing the state of the general object by the object action input distinguished by the agent control unit from the execution command of the user;
Displaying the result of executing the execution command by the agent manager as one or more of the object photographed image and the state value of the object in the GUI of the app of the user's smartphone;
Smart indoor work management method, characterized in that configured to include.
KR1020180006500A 2018-01-18 2018-01-18 System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot KR102008367B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180006500A KR102008367B1 (en) 2018-01-18 2018-01-18 System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180006500A KR102008367B1 (en) 2018-01-18 2018-01-18 System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot

Publications (1)

Publication Number Publication Date
KR102008367B1 true KR102008367B1 (en) 2019-08-07

Family

ID=67621162

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180006500A KR102008367B1 (en) 2018-01-18 2018-01-18 System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot

Country Status (1)

Country Link
KR (1) KR102008367B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113119119A (en) * 2021-03-30 2021-07-16 广州大学 Robot action execution method and device and storage medium
CN113741473A (en) * 2021-09-13 2021-12-03 深圳本云国际发展有限公司 Photocatalyst mobile robot and map construction method
KR20220164197A (en) * 2021-06-04 2022-12-13 한국전자통신연구원 Method and apparatus for generating ultra high-quality digital data
US11607813B2 (en) 2021-01-27 2023-03-21 Toyota Research Institute, Inc. Systems and methods for under-stair storage and retrieval
US11689984B2 (en) 2021-03-31 2023-06-27 Toyota Motor North America, Inc. System and method for applying routing protocol and selecting a network interface in a mesh network
CN116907057A (en) * 2023-08-15 2023-10-20 东莞市品佳智能科技有限公司 Control method and device based on air purifier and readable storage medium
CN117075640A (en) * 2023-10-12 2023-11-17 江苏智慧汽车研究院有限公司 Unmanned operation supervision system and method for artificial intelligent equipment based on Internet of things

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140055537A (en) 2012-10-31 2014-05-09 (주)휴빌론 Method and system for wifi-based indoor positioning, by using electronic map
KR20160032608A (en) * 2014-09-16 2016-03-24 국민대학교산학협력단 Intelligent humanoid robot
JP2016513981A (en) * 2013-01-18 2016-05-19 アイロボット コーポレイション Mobile robot providing environment mapping for home environment control
KR101655760B1 (en) 2015-06-11 2016-09-08 주식회사 한국정보기술단 Home automation system using internet of things
KR20170087403A (en) * 2016-01-20 2017-07-28 주식회사 유진로봇 System for operating mobile robot based on complex map information and operating method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140055537A (en) 2012-10-31 2014-05-09 (주)휴빌론 Method and system for wifi-based indoor positioning, by using electronic map
JP2016513981A (en) * 2013-01-18 2016-05-19 アイロボット コーポレイション Mobile robot providing environment mapping for home environment control
KR20160032608A (en) * 2014-09-16 2016-03-24 국민대학교산학협력단 Intelligent humanoid robot
KR101655760B1 (en) 2015-06-11 2016-09-08 주식회사 한국정보기술단 Home automation system using internet of things
KR20170087403A (en) * 2016-01-20 2017-07-28 주식회사 유진로봇 System for operating mobile robot based on complex map information and operating method thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11607813B2 (en) 2021-01-27 2023-03-21 Toyota Research Institute, Inc. Systems and methods for under-stair storage and retrieval
CN113119119A (en) * 2021-03-30 2021-07-16 广州大学 Robot action execution method and device and storage medium
CN113119119B (en) * 2021-03-30 2022-07-05 广州大学 Robot action execution method and device and storage medium
US11689984B2 (en) 2021-03-31 2023-06-27 Toyota Motor North America, Inc. System and method for applying routing protocol and selecting a network interface in a mesh network
KR20220164197A (en) * 2021-06-04 2022-12-13 한국전자통신연구원 Method and apparatus for generating ultra high-quality digital data
KR102611537B1 (en) 2021-06-04 2023-12-08 한국전자통신연구원 Method and apparatus for generating ultra high-quality digital data
CN113741473A (en) * 2021-09-13 2021-12-03 深圳本云国际发展有限公司 Photocatalyst mobile robot and map construction method
CN116907057A (en) * 2023-08-15 2023-10-20 东莞市品佳智能科技有限公司 Control method and device based on air purifier and readable storage medium
CN117075640A (en) * 2023-10-12 2023-11-17 江苏智慧汽车研究院有限公司 Unmanned operation supervision system and method for artificial intelligent equipment based on Internet of things
CN117075640B (en) * 2023-10-12 2024-01-12 江苏智慧汽车研究院有限公司 Unmanned operation supervision system and method for artificial intelligent equipment based on Internet of things

Similar Documents

Publication Publication Date Title
KR102008367B1 (en) System and method for autonomous mobile robot using a.i. planning and smart indoor work management system using the robot
JP7395229B2 (en) Mobile cleaning robot artificial intelligence for situational awareness
US11914400B2 (en) Dynamic drone navigation
US10612934B2 (en) System and methods for robotic autonomous motion planning and navigation
US11637716B1 (en) Connected automation controls using robotic devices
CN106200641B (en) Remote monitoring system
US20130321245A1 (en) Mobile device for monitoring and controlling facility systems
CN105446162A (en) Intelligent home system and intelligent home control method of robot
EP3623712A2 (en) Artificial intelligence device and artificial intelligence system for managing indoor air condition
CA3136056A1 (en) Construction project tracking
KR102439337B1 (en) Multilateral participation remote collaboration system based on Augmented reality sharing and method thereof
KR101966253B1 (en) Method and apparatus for providing appropriate information for location and space of user using moving device
KR20210004487A (en) An artificial intelligence device capable of checking automatically ventaliation situation and operating method thereof
CN114489070A (en) Household inspection method, nonvolatile readable storage medium and computer equipment
Palacín et al. Automatic Supervision of Temperature, Humidity, and Luminance with an Assistant Personal Robot
KR102612822B1 (en) Controlling method for Artificial intelligence Moving robot
KR20210123586A (en) Method and Apparatus for Automatic Control through imitation Learning
KR102612827B1 (en) Controlling method for Artificial intelligence Moving robot
KR20200030452A (en) Artificial intelligence device and artificial intelligence system for caring air state of indoor
Wang et al. An automatic switching approach of robotic components for improving robot localization reliability in complicated environment
Stuede et al. Sobi: An interactive social service robot for long-term autonomy in open environments
US11662697B2 (en) Equipment regulation method and equipment regulation device
KR102367965B1 (en) Augmented reality based remote guidance system using cognitive factors and method thereof
KR20240039628A (en) Augmented reality-based remote control system and method thereof
KR20230028702A (en) Augmented reality-based remote system for non-face-to-face collaboration between experts

Legal Events

Date Code Title Description
GRNT Written decision to grant
R401 Registration of restoration