KR100917377B1 - A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level - Google Patents

A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level Download PDF

Info

Publication number
KR100917377B1
KR100917377B1 KR1020080005137A KR20080005137A KR100917377B1 KR 100917377 B1 KR100917377 B1 KR 100917377B1 KR 1020080005137 A KR1020080005137 A KR 1020080005137A KR 20080005137 A KR20080005137 A KR 20080005137A KR 100917377 B1 KR100917377 B1 KR 100917377B1
Authority
KR
South Korea
Prior art keywords
information
space
robot
layer
inference
Prior art date
Application number
KR1020080005137A
Other languages
Korean (ko)
Other versions
KR20080089148A (en
Inventor
이석한
박연출
박준영
이준희
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to US12/076,893 priority Critical patent/US8214079B2/en
Priority to JP2008077271A priority patent/JP4989532B2/en
Publication of KR20080089148A publication Critical patent/KR20080089148A/en
Application granted granted Critical
Publication of KR100917377B1 publication Critical patent/KR100917377B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/40Data acquisition and logging

Abstract

실내의 공간 및 물체에 대한 정보를 인식/추론 수준에 따라 계층적으로 분리하여 저장하고 통합 관리하여, 실내에서 이동 서비스 로봇들에게 각 로봇들의 인식/추론 수준에 맞는 공간/물체 정보를 제공하는 중앙 정보처리 시스템 및 방법에 관한 것으로, 상기 로봇에 대응되는 적어도 하나이상의 인터페이스부를 포함하고, 상기 인터페이스부는 대응되는 로봇의 정보요청을 해석하고, 요청한 정보를 상기 로봇이 해석가능한 형태로 변환하여 전송하는 것을 특징으로 하는 브로커수단; 상기 실내에 대한 공간 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 공간정보 요청에 의하여 요청된 공간정보를 검색하여 반환하는 공간정보 관리부; 상기 실내에 존재하는 물체를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 물체정보 요청에 의하여 요청된 물체정보를 검색하여 반환하는 물체정보 관리부; 상위계층 인식/추론 정보를 이용하여 물체 또는 공간에 대한 하위계층 정보를 검색하고 추론하는 공간물체 추론부;를 마련한다.Centrally divides and stores information about indoor space and objects according to the level of recognition / inference and manages them centrally to provide space / object information to mobile service robots in the room according to the level of recognition / inference of each robot. An information processing system and method, comprising: at least one interface unit corresponding to the robot, wherein the interface unit interprets the information request of the corresponding robot, converts the requested information into a form that the robot can interpret, and transmits the information. Characterized in that the broker means; A spatial information manager configured to store and store the spatial information of the indoor space according to a recognition / inference level, and to retrieve and return the spatial information requested by the spatial information request of the broker means; An object information management unit configured to store and store objects existing in the room in layers according to recognition / inference levels, and retrieve and return object information requested by the object information request of the broker means; And a spatial object inference unit for searching and inferring lower layer information about an object or a space by using upper layer recognition / inference information.

상기와 같은 서비스 로봇의 중앙 정보처리 시스템 및 방법을 이용하는 것에 의해, 실내의 공간 및 물체에 대한 방대한 정보를 인식/추론 수준에 따라 계층적으로 통합하여 관리하고, 서비스 로봇들의 인식/추론 수준에 맞는 정보를 제공함으로써, 다양한 인식/추론 수준의 서비스 로봇에 대해 호환성이 높고 효율적인 실내 정보를 제공할 수 있고, 낮은 인식/추론 수준의 서비스 로봇에게도 높은 수준의 인식/추론 서비스를 지원할 수 있다.By using the central information processing system and method of the service robot as described above, a vast amount of information about the space and objects in the room are hierarchically integrated and managed according to the recognition / inference level, and the service robots can meet the recognition / inference level. By providing the information, it is possible to provide highly compatible and efficient indoor information for various recognition / inference level service robots, and to support high level recognition / inference service even for low recognition / inference level service robots.

실내, 로봇, 인식, 추론, 온톨로지 Indoor, Robot, Cognition, Reasoning, Ontology

Description

인식/추론 수준에 따른 계층적 구조의 실내 정보를 가지는 서비스 로봇의 중앙 정보처리 시스템 및 방법 { A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level }A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level}

본 발명은 실내의 공간 및 물체에 대한 정보를 인식/추론 수준에 따라 계층적으로 분리하고 통합 관리하여, 실내에서 이동가능한 서비스 로봇들에게 각 로봇들의 인식/추론 수준에 맞는 공간/물체 정보를 제공하는 중앙 정보처리 시스템 및 방법에 관한 기술분야에 속한다.The present invention hierarchically separates and integrates information about space and objects in a room according to the level of recognition / inference to provide space / object information that is compatible with the level of recognition / inference of each robot to service robots that are movable indoors. Belongs to the technical field of the central information processing system and method.

일반적으로 실내 환경(Indoor Environment)에서 이동 서비스 로봇(Mobile Service Robot)은 물체 또는 상황에 대한 인식(Recognition), 목표지점까지의 이동(Navigation), 지정된 물체에 대한 파지, DB저장 등 여러 작업을 수행한다. 또, 이동 서비스 로봇은 상기와 같은 인식, 주행, 조작 등 기본적인 기능 이외에도 자기위치인식 및 지도 생성(SLAM, Simultaneous Localization And Map Building), 자가 모델링(Self-Modeling), 범주인식(Categorization) 등 고등 기술이 필요한 작업들도 수행할 수 있어야 한다. 현재 이와 같은 이동 서비스 로봇의 각 기능들에 대하여 개별적으로 연구가 활발히 진행되고 있다.In general, a mobile service robot performs a variety of tasks such as recognition of an object or a situation, navigation to a target point, holding a designated object, and storing a DB. do. In addition to the basic functions such as recognition, driving, and manipulation, mobile service robots have advanced technologies such as self-localization and map building (SLAM), self-modeling, and category recognition (Categorization). You should also be able to perform these necessary tasks. Currently, research on each function of such a mobile service robot is actively conducted.

그러나 각 기능에 대한 개별적 개발 결과들을 단순히 결합하여 하나의 이동 서비스 로봇을 만들게 되면, 이 로봇은 각 기능에 따라 서로 다른 데이터 형식이나 저장소를 갖기 때문에 각 기능에 대한 모듈(Module)간의 호환성이 저하되고, 비슷한 정보들을 각기 보유하여 정보 운용성 측면에서 상당한 중복이 발생할 것이다. 예를 들어, 이동 서비스 로봇이 주방에 위치한 냉장고 속의 녹차를 가져오는 명령을 받으면, 이 로봇은 주행, 인식, 조작 등 일련의 작업들을 수행한다. 만약, 인식을 위한 녹차 정보와 조작을 위한 녹차 정보가 따로 존재하고, 주행을 위한 냉장고와 인식을 위한 냉장고 정보가 따로 산재되어 있다면, 정보를 통합적으로 관리하지 못하여 잉여 정보(Redundancy)가 발생한다. 이러한 낭비가 지속되면, 기억공간 측면이나 호환성 측면에서 비효율성은 점점 증대된다. 또한 어느 한 로봇이 냉장고, 녹차, 부엌에 대한 감지(Sensing) 또는 지각(Perception) 정보를 이미 보유하고 있음에도 불구하고 다른 서비스 로봇이 동일한 감지/지각 과정을 거쳐 동일한 정보를 획득한다면, 로봇 간에도 공간적/시간적 중복에 의한 낭비를 초래하게 된다.However, if we simply combine the individual development results for each function to create one mobile service robot, since the robots have different data formats or storage for each function, the compatibility between modules for each function is reduced. As a result, there will be considerable overlap in terms of information operability, with each having similar information. For example, when a mobile service robot is ordered to fetch green tea from a refrigerator located in the kitchen, the robot performs a series of tasks such as driving, recognition and manipulation. If the green tea information for recognition and the green tea information for manipulation exist separately, and the refrigerator for driving and the refrigerator information for recognition are scattered separately, redundancy occurs because the information is not integratedly managed. If this waste persists, inefficiencies in terms of storage space and compatibility are increasing. In addition, if one robot already has sensing or perception information on the refrigerator, green tea, and kitchen, but another service robot acquires the same information through the same sensing / perception process, the space / It causes waste of time duplication.

또한, 서비스 로봇이 각 기능에 따라 독립적으로 개발되어 구성되면 이 서비스 로봇이 할 수 있는 서비스는 당연히 한정적이고 낮은 수준일 것이다. 예를 들어, 이동 서비스 로봇이 자기위치인식 및 지도 생성 등 고등적인 추론기술을 갖추어 주행능력이 뛰어나더라도, 공간이나 물체에 대한 상위 수준의 추론 정보나 상황(context)정보가 없으면, 환경(environment)과 물체(object)에 대한 지식 습득과 관계를 이해하는 인식능력은 낮게 될 것이다. 그렇게 되면, 이 로봇은 실내 환경 내에서 공간과 물체에 대한 이해를 바탕으로 하는 작업들 예컨대, 가정환경에서 냉장고 안에 있는 녹차 음료수를 가져다주는 작업, 주방 테이블 위에 있는 주스를 거실의 소파(Sofa)에 앉아 있는 주인에게 가져다주는 작업 등을 수행할 수가 없을 것이다. 이런 상위 수준의 작업 및 서비스를 수행하기 위해서는 정확한 주행 능력이나 지도 생성 능력과는 별도로 물체/공간에 대한 지식 체계 및 구조를 필요로 한다. 이는 곧 로봇의 공간 또는 물체에 대한 이해를 의미한다.In addition, if the service robot is developed and configured independently according to each function, the service that the service robot can perform will of course be limited and low level. For example, even if a mobile service robot is equipped with advanced reasoning techniques such as self-location recognition and map generation, and has excellent driving ability, there is no high level of inference or context information about space or objects. The cognitive ability to acquire knowledge and understand relationships between and objects will be low. The robot can then use tasks based on an understanding of space and objects within the indoor environment, such as bringing green tea beverages from the refrigerator in the home environment, and juice from the kitchen table to the sofa in the living room. You will not be able to carry out the work that you bring to the sitting owner. In order to perform these high-level tasks and services, a knowledge system and structure of object / space is required separately from the ability to drive accurate maps. This means understanding the robot's space or objects.

더욱이 하나의 서비스 로봇이 아닌 다수의 서비스 로봇이 운영되는 실내 환경이라면, 공간이나 물체에 대한 정보 공유가 더욱 절실하다. 즉, 하나의 서비스 로봇에 의해 습득된 정보는 같은 환경 내에 있는 다른 로봇에 의해 공유되어야 할 것이고, 그 내용이 다른 로봇의 서비스에 반영되어야 할 것이다. 특히, 인식이나 추론 수준이 다른 로봇들이 상존하는 경우에는 각 인식/추론 수준에 맞도록 정보들 이 가공되고 변환되어 공유될 필요가 있다.Moreover, in an indoor environment in which a plurality of service robots are operated instead of one service robot, information sharing on spaces or objects is more urgent. That is, information acquired by one service robot should be shared by other robots in the same environment, and its contents should be reflected in the service of another robot. In particular, when robots with different levels of recognition or reasoning exist, information needs to be processed, transformed, and shared for each level of recognition / inference.

따라서 다양한 로봇이 필요로 하는 정보들을 통합하여 관리하고 공유하기 위한 체계에 대한 연구가 필요하고, 이러한 연구가 부분적으로 진행되고 있다.Therefore, research on a system for integrating, managing, and sharing information required by various robots is needed, and such research is being conducted in part.

지리적/공간적 정보를 효과적으로 표현하고 관리하는 방법 중 대표적인 것으로 GIS(Geographic Information System, 지리정보체계)가 있다. GIS는 사용자가 인지적 결정(Intelligent Decision)을 하도록 돕는 기술 중 하나이다. GIS는 지리 정보(Geographical Information) 위에 속성(Property)을 갖는 데이터들을 멀티레이어(Multi Layer)로 매핑(Mapping)하는 시스템으로서, 보통은 목적에 맞는 정보만을 상세하게 표현한다. 일반적인 GIS의 데이터는 방대한 실외 및 지상에 한정되기 때문에 가정환경에서의 정밀한 조작을 위한 서비스 로봇에게는 적합하지 않다. 또, CAD(Computer Aided Design)를 이용한 실내 환경 모델링은 수많은 상용 제품들이 있을 정도로 많이 이루어지고, IFC(Industrial Foundation Classes)를 통해 표준화가 시도되고 있다. 그러나 CAD 역시 기하학적인 건축구조 정보만을 제공하기 때문에 실제 가정환경 로봇의 요구 사항에는 미치지는 못한다.A representative method of effectively representing and managing geographic and spatial information is the Geographic Information System (GIS). GIS is one of the technologies that help users make intelligent decisions. GIS is a system that maps data having a property on Geographical Information to a multi-layer, and usually expresses only information that is suitable for a purpose in detail. General GIS data is limited to vast outdoor and ground areas, making it unsuitable for service robots for precise manipulation in home environments. In addition, indoor environment modeling using computer aided design (CAD) is made as many as there are many commercial products, and standardization is being attempted through IFC (Industrial Foundation Classes). However, CAD also provides only geometric building structure information, which does not meet the requirements of real home robots.

홈 서비스 로봇의 서비스 대상이 되는 사람 개개인에 관한 정보를 통합하여 관리하려는 시도는 웹 서비스 분야에서도 활발하게 이루어지고 있다. 주로 사람의 행동 패턴(Pattern)을 관찰하고, 관찰된 데이터를 온톨로지(Ontology)로 구축하고, 구축된 온톨로지로 추론하여 새로운 사용자의 정보를 생성해 내는 것을 주목적으로 한다. 이러한 접근은 실제 로봇이 주어진 임무(Mission)를 수행하는데 도움을 주기 보다는 로봇이 사람들의 요구사항을 더 쉽게 판단할 수 있게 도움을 줄 것으로 기대된다.Attempts to integrate and manage information about individuals who are serviced by home service robots have been actively made in the web service field. The main purpose is to observe human behavior patterns, to construct the observed data with ontology, and to infer the constructed ontology to generate new user information. This approach is expected to help robots more easily determine people's needs, rather than helping them perform a given mission.

물리적 데이터(Physical Data)나 원천 데이터(Raw Data)에 관한 정보 시스템 접근법(Information System Approach)은 주로 사용된 센서(Sensor)의 특성에 한정된 데이터들을 취합하거나, 낮은 수준으로 처리된 원천 데이터를 취득하는 분야에서 이용되고 있다. 이렇게 취득된 대부분의 정보들은 서비스 로봇을 위한 정보로서 사용하기엔 재사용성(Reusability)이 떨어지거나, 추상적 지식과 연관을 지어 이용될 수 없다는 문제점이 있다.The Information System Approach on Physical Data or Raw Data is often used to collect data that is limited to the characteristics of the Sensor used, or to obtain raw data processed at a lower level. It is used in the field. Most of the information thus obtained is problematic in that reusability is insufficient to be used as information for a service robot or cannot be used in connection with abstract knowledge.

인간과 로봇간의 상호작용(Human-Robot Interaction, HRI) 관점에서 사람의 음성에 관련된 연구 중에서, 원천 데이터와 고차원 추상 지식(Knowledge)을 연결하려는 시도로 오로라 프로젝트(Aurora Project)가 있다. 오로라 프로젝트(Aurora Project)는 사람의 음성에 관한 어휘(Vocabulary)를 중앙 서버에 두는 방식을 취하면서, 전처리(Preprocess)된 데이터의 분석과 에러처리(Error Handling)까지 서버를 공유하여 사용한다. 그러나 분산소리인식(Distributed Sound Recognition)의 본래 취지는 터미널(Terminal)의 연산자원(Computational Resource) 부족에서 기인한 병목현상(Bottle Neck)을 줄이는 것이다.Among the researches related to human speech from the perspective of human-robot interaction (HRI), the Aurora Project is an attempt to link source data with high-dimensional abstract knowledge. The Aurora Project puts the vocabulary of the human voice on a central server, sharing the server for analysis and error handling of preprocessed data. However, the original intent of Distributed Sound Recognition is to reduce bottlenecks caused by the lack of Terminal's Computational Resources.

로봇에 관한 데이터 공유가 아닌 소프트웨어 컴포넌트(component) 공유 시스템으로는 Orca가 있다. Orca는 로봇의 각 컴포넌트 간에 일반적으로 사용되는 인터페이스(Interface)를 단순화시키고, 컴포넌트의 사용을 쉽게 하여 컴포넌트의 효과적이고 지속적인 재사용을 목표로 한다. Orca는 소프트웨어 컴포넌트의 설계뿐만 아니라 컴포넌트 리포지터리(Repository)의 효과적인 관리를 통해 구현된다. 그러나 Orca는 컴포넌트의 접속(Connection)과 리포지터리를 하나의 프레임워크(Framework)로 묶는 미들웨어 접근법(Middleware Approach)이다.Orca is a software component sharing system that does not share data about robots. Orca aims to simplify the interface commonly used between each component of the robot and make it easier to use, aiming for effective and continuous reuse of the component. Orca is implemented not only through the design of software components, but also through the effective management of component repositories. Orca, however, is a middleware approach that combines the connection and repository of components into a framework.

또, 한 연구에서는 4족 로봇축구에서 인지된 공간 정보와 물체 정보를 표현하여 저장하는 방법을 개시하고 있지만, 타 개체와의 정보 교환은 토큰(Token)을 통한 작업공유(Task Share)에 그치고 있다는 단점이 있다[문헌 1].In addition, while a study discloses a method of expressing and storing spatial information and object information recognized in quadruped robot soccer, information exchange with other objects is limited to task sharing through tokens. There is a disadvantage [Refer 1].

또, 다른 연구에서는 작업(Task) 위주의 정보 생성 및 로봇 학습(Learning)에 대해 개시하고 있다. 각 작업별로 일반 가정이나 사무용 환경에서 작동해야 하는 로봇들은 매우 다양한 환경과 움직임들을 고려하지만 로봇이 이러한 환경에 대한 사전 지식을 사전에 완벽하게 구축하고 있다는 것은 현실적으로 어려운 일이다. 따라서 이 연구에서는 작업 모델 기반 상호 교습(Task Model-Based Interactive Teaching)라는 새로운 교습 프레임워크(Teaching Framework)를 제안하고 있다[문헌 2].In addition, other studies have disclosed task-oriented information generation and robot learning. Although robots that need to operate in a normal home or office environment for each task consider a wide variety of environments and movements, it is practically difficult for the robots to fully build up prior knowledge of these environments. Therefore, this study proposes a new teaching framework called Task Model-Based Interactive Teaching [Ref. 2].

이 밖에도 데이터/정보/지식을 체계화시켜 로봇/자동화 기기에 접목시키려는 시도는 다양하지만 서비스 로봇의 요구사항을 충족시켜 주는 정보 시스템은 새로 개발되어야 한다.In addition, there are various attempts to organize data / information / knowledge into robots / automation devices, but information systems that meet the requirements of service robots must be newly developed.

[문헌 1] Farinelli, A. Iocchi, L. Nardi, D 및 Ziparo, V.A.의 'Assignment of dynamically perceived tasks by token passing in multirobot systems, Proceedings of the IEEE, Special issue on Multi-Robot Systems, 2006'[1] 'Assignment of dynamically perceived tasks by token passing in multirobot systems, Proceedings of the IEEE, Special issue on Multi-Robot Systems, 2006' by Farinelli, A. Iocchi, L. Nardi, D and Ziparo, V.A.

[문헌 2] Jun Miura, Koji Iwase 및 Yoshiaki Shirari의 'Interactive Teaching of a Mobile Robot, In Proceeding of 2005 Int. Conf .on Robotic and Automation, pp. 3389-3394, 2005'[2] Jun Miura, Koji Iwase and Yoshiaki Shirari's' Interactive Teaching of a Mobile Robot, In Proceeding of 2005 Int. Conf.on Robotic and Automation, pp. 3389-3394, 2005 '

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 실내의 이동 서비스 로봇에게 필요한 실내 정보를 제공하고 서비스 로봇으로부터 변화된 정보를 제공받음으로써, 실내의 다수의 서비스 로봇들이 실내 정보를 공유할 수 있도록 실내의 공간 및 물체에 대한 정보를 통합 관리하는 서비스 로봇의 중앙 정보처리 시스템 및 방법을 제공하는 것이다.An object of the present invention is to solve the problems described above, by providing the indoor information necessary for the mobile service robot indoors and by receiving the changed information from the service robot, a plurality of indoor service robots to share the indoor information It is to provide a central information processing system and method of a service robot that integrates and manages information about space and objects in the room.

본 발명의 다른 목적은 실내의 공간 및 물체에 대한 정보를 인식/추론 수준에 따라 계층적으로 분리하고 통합 관리하여, 실내에서 이동 서비스 로봇들에게 각 로봇들의 인식/추론 수준에 맞는 공간/물체 정보를 제공하는 중앙 정보처리 시스템 및 방법을 제공하는 것이다.Another object of the present invention is to hierarchically separate and integrate information about space and objects in a room according to the level of recognition / inference, thereby providing space / object information to mobile service robots in the room according to the level of recognition / inference of each robot. It is to provide a central information processing system and method for providing.

본 발명의 또 다른 목적은 서비스 로봇이 인식/추론하는 물체 또는 공간에 대한 하위계층 정보들로부터 상위계층 인식/추론 정보를 이용하여 정보를 검색하고 추론하여 제공하는 중앙 정보처리 시스템 및 방법을 제공하는 것이다.It is still another object of the present invention to provide a central information processing system and method for retrieving information and inferring information using lower layer recognition / inference information from lower layer information on an object or space that a service robot recognizes / infers. will be.

상기 목적을 달성하기 위해 본 발명은 실내에서 적어도 하나이상의 이동 서비스 로봇과 통신하는 중앙 정보처리 시스템에 관한 것으로서, 상기 로봇에 대응되는 적어도 하나이상의 인터페이스부를 포함하고, 상기 인터페이스부는 대응되는 로봇의 정보요청을 해석하고, 요청한 정보를 상기 로봇이 해석가능한 형태로 변환하여 전송하는 것을 특징으로 하는 브로커수단; 상기 실내에 대한 공간 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 공간정보 요청에 의하여 요청된 공간정보를 검색하여 반환하는 공간정보 관리부; 상기 실내에 존재하는 물체를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 물체정보 요청에 의하여 요청된 물체정보를 검색하여 반환하는 물체정보 관리부; 물체 또는 공간에 대한 하위계층 인식/추론 정보들로부터 상위계층 인식/추론 정보를 이용하여 정보를 검색하고 추론하는 공간물체 추론부;를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention relates to a central information processing system for communicating with at least one mobile service robot indoors, including at least one interface unit corresponding to the robot, wherein the interface unit requests information of a corresponding robot. Broker means, characterized in that for converting and transmitting the requested information in a form that the robot can interpret; A spatial information manager configured to store and store the spatial information of the indoor space according to a recognition / inference level, and to retrieve and return the spatial information requested by the spatial information request of the broker means; An object information management unit configured to store and store objects existing in the room in layers according to recognition / inference levels, and retrieve and return object information requested by the object information request of the broker means; And a spatial object inference unit for searching for and inferring information using upper layer recognition / inference information from lower layer recognition / inference information on an object or space.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 공간정보 또는 물체정보는, 실측한 정보를 저장하는 실측 정보계층, 광도계 특징(photometric feature)을 저장하는 광도계 정보계층, 공간 또는 물체를 기하학적 구조(geometric structure)로 분절하여 저장하는 기하학적 정보계층, 공간 또는 물체의 구성요소들을 구분하여 기호화하고 계층화하여 저장하는 구조적 정보계층, 공간상에서 물체의 위치 또는 장애물을 표현하는 정보를 저장하는 위상적 정보계층, 공간 또는 물체, 또는 상기 공간 또는 물체의 구성요소들의 보편적 모델을 정의하고 저장하는 보편적 정보계층, 물체 또는 공간의 시공간에 따른 변화와 관계를 저 장하는 시공간 정보계층, 물체 또는 공간에 대한 하위계층 정보들로부터 공간 또는 물체, 또는 상기 공간 또는 물체의 상태를 추론하기 위한 추론정보를 저장하는 추론 정보계층으로 구성하는 것을 특징으로 한다.In addition, the central information processing system of the service robot according to the present invention, the spatial information or object information, the measurement information layer for storing the measured information, the photometric information layer for storing the photometric feature (space or object) geometric A geometric information layer that is segmented and stored as a geometric structure, a structural information layer that distinguishes, symbolizes and stratifies and stores components of a space or an object, and topological information that stores information representing an object's position or obstacle in space A hierarchy, space or object, or a universal information layer that defines and stores a universal model of the space or its components, or a space-time information layer that stores changes and relationships over time or space in an object or space From the hierarchical information the space or object, or the state of the space or object It characterized in that it consists of a reasoning information layer for storing the information used to infer theory.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 공간의 실측 정보계층은 실내 공간의 지리적 정보를 저장하는 기본맵 정보를 포함하고, 상기 공간의 광도계 정보계층은 실내 공간의 광도계 특징으로 맵을 포함하고, 상기 공간의 기하학적 정보계층은 실내 공간을 기하학적으로 분절한 정보를 포함하고, 상기 공간의 위상적 정보계층은 물체의 전역적 좌표와 자세, 또는 장애물로 인식되는 물체에 대한 정보를 포함하고, 상기 공간의 보편적 정보계층은 공간 또는 공간의 구성부분에 대한 의미론적 정보를 포함하고, 상기 공간의 시공간 정보계층은 실내의 시간적 공간적 상황에 따라 달라지는 빛의 밝기, 조명의 방향, 온도, 습도를 포함하는 것을 특징으로 한다.In addition, the central information processing system of the service robot according to the present invention, the measured information layer of the space includes the basic map information for storing the geographic information of the indoor space, the photometric information layer of the space is characterized by the photometer characteristics of the indoor space map The geometric information layer of the space includes geometrically segmented information of the interior space, and the topological information layer of the space includes information about an object that is recognized as an object's global coordinates and attitude, or an obstacle. The universal information layer of the space includes semantic information about the space or a part of the space, and the space-time information layer of the space includes light brightness, direction of light, temperature, and humidity depending on the temporal and spatial situation of the room. Characterized in that it comprises a.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 물체의 실측 정보계층은 물체에 대한 실제 측정하여 얻은 2차원 또는 3차원 표현 데이터를 저장하는 2D/3D 원영상 정보를 포함하고, 상기 물체의 위상적 정보계층은 다수의 3차원 컨택 포인트(contact point)와 3차원 방향벡터로 표현되는 접근방향(accessible direction)의 정보를 포함하고, 상기 물체의 시공간 정보계층은 물체-공간의 시간 종속관계, 물체의 존재와 시공간 종속관계, 물체-물체간 시공간 종속관계, 물체-기능간 시공간 종속관계, 물체-물리특성의 시공간 종속관계를 포함하고, 상기 물체의 추론 정보계층은 하위 정보계층의 정보간의 관계를 확률로 작성하 는 그래프를 저장하는 증거구조를 포함하는 것을 특징으로 한다.In addition, in the central information processing system of the service robot according to the present invention, the measured information layer of the object includes 2D / 3D original image information for storing two-dimensional or three-dimensional representation data obtained by actual measurement of the object, and the object The topological layer of information includes a plurality of three-dimensional contact points and information in an accessible direction represented by three-dimensional direction vectors, and the space-time information layer of the object is a time-dependent relationship of object-space. And the existence and space-time dependence of objects, space-time dependence between objects and objects, space-time dependence between objects and functions, and space-time dependence of object-physical characteristics. It is characterized by including an evidence structure that stores a graph that builds the relationship with probability.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 광도계 특징은, SIFT(Scale Invariant Feature Transform), 해리스 코너(Harris Corner), 색(Color), 선(Line)에 대한 정보를 포함하는 것을 특징으로 한다.In addition, in the central information processing system of the service robot according to the present invention, the photometric characteristics include information about a scale invariant feature transform (SIFT), a Harris corner, a color, and a line. It features.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 장애물 정보는, 메쉬(mesh) 또는 체적으로 표현하고 저장되는 것을 특징으로 한다.In addition, the central information processing system of the service robot according to the present invention is characterized in that the obstacle information is represented and stored in a mesh (mesh) or volume.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 2차원 또는 3차원 표현 데이터는, 적어도 둘 이상의 카메라 각도를 통해 산출되는 2D 이미지(Raw Image), 레이저스캐너, 스테레오 카메라, 구조광 카메라 조명(Structured Light Camera) 중 어느 하나로부터 얻은 깊이 데이터(Depth Data), 상기 깊이 데이터로부터 생성된 메쉬 데이터(Mesh data) 중 어느 하나 이상을 포함하는 것을 특징으로 한다.In addition, in the central information processing system of the service robot according to the present invention, the two-dimensional or three-dimensional representation data is a 2D image (Raw Image), a laser scanner, a stereo camera, a structured light camera lighting calculated through at least two camera angles. And at least one of depth data obtained from any one of the structured light cameras and mesh data generated from the depth data.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 공간정보 관리부 또는 물체정보 관리부는 상기 공간정보 또는 물체정보를 온톨로지로 구성하여 저장하고, 상기 공간물체 추론부는 온톨로지에 의한 추론을 하는 것을 특징으로 한다.In the central information processing system of the service robot according to the present invention, the spatial information management unit or the object information management unit configures and stores the spatial information or object information as an ontology, and the spatial object inference unit infers by ontology. It is done.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 인터페이스부는, 대응되는 로봇으로부터 맵에 대한 요청이 있으면, 공간의 실측 정보계층의 기본맵 정보와 위상적 정보계층의 물체/장애물 위치 정보를 합하여 통합맵을 작성하여 상기 로봇에 제공하는 것을 특징으로 한다.In addition, in the central information processing system of the service robot according to the present invention, when the interface unit requests a map from the corresponding robot, the interface unit may display basic map information of the actual information layer of the space and object / obstacle position information of the topological information layer. The combined map is prepared and provided to the robot.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 로봇에게 주어진 미션으로부터 로봇이 실행할 단위 행동을 결정하는 확률기반의 행동구조를 작성하여 저장하고, 상기 브로커수단의 요청에 의해 행동구조를 반환하거나, 로봇에게 주어진 미션을 해석하여 로봇이 실행할 단위 행동과 상기 행동에 필요한 정보를 추출하여 반환하는 미션해석 관리부를 더 포함하는 것을 특징으로 한다.In addition, the central information processing system of the service robot according to the present invention creates and stores a probability-based behavior structure that determines the unit behavior to be executed by the robot from the mission given to the robot, and returns the behavior structure at the request of the broker means. The method may further include a mission analysis manager that analyzes the mission given to the robot and extracts and returns the unit action to be executed by the robot and information necessary for the action.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템은 상기 미션해석 관리부는 지각(perception) 데이터, 증거구조(evidence structure), 행동(behavior)을 확률적인 우선순위관계(precedence relation)를 갖는 베이시안 네트워크(Bayesian network)로 상기 행동구조로 구성하고, 상기 우선순위관계(precedence relation)의 확률에 의해 최적의 경로(path)를 결정하여, 경로(path)상의 행동을 실행할 단위행동으로 추출하는 것을 특징으로 한다.In addition, in the central information processing system of the service robot according to the present invention, the mission analysis management unit is a Bayesian having a probabilistic priority relation of perception data, evidence structure, and behavior. The behavioral structure is composed of a network (Bayesian network), the optimal path is determined by the probability of the precedence relation, and the behavior on the path is extracted as a unit action to be executed. It is done.

또한, 본 발명은 실내에서 적어도 하나이상의 이동 서비스 로봇과 통신하는 중앙 정보처리 시스템을 이용하는 서비스 로봇의 정보처리 방법에 관한 것으로서, (a) 상기 실내에 대한 공간 및 물체 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장하는 단계; (b) 상기 로봇들 각각에 대하여, 상기 로봇의 정보요청을 해석하고, 요청한 정보를 상기 로봇이 해석가능한 형태로 변환하여 전송하는 인터페이스를 구성하는 단계; (c) 상기 로봇의 공간 또는 물체에 대한 정보 검색요청을 받는 단계; (e) 정보를 검색하기 위해 추론이 필요한지를 판단하여 필요하면, 물체 또는 공간에 대한 주어진 정보들로부터 상위계층 인식/추론 정보를 이용하여 정보 를 추론하는 단계; (f) 요청된 공간 또는 물체에 대한 정보를 검색하는 단계; (g) 요청된 정보가 공간과 물체 정보가 동시에 필요한 경우에는 통합맵을 구성하는 단계; (h) 검색된 공간 또는 물체 정보를 상기 요청된 로봇으로 송부하는 단계를 포함하는 것을 특징으로 한다.In addition, the present invention relates to an information processing method of a service robot using a central information processing system that communicates with at least one mobile service robot in the room, (a) the spatial and object information for the room according to the recognition / reasoning level Organizing and storing each layer; (b) for each of the robots, constructing an interface for interpreting the information request of the robot and converting the requested information into a form that the robot can interpret; (c) receiving an information search request for a space or an object of the robot; (e) determining if inference is needed to retrieve the information, and if necessary, inferring the information using higher layer recognition / inference information from the given information about the object or space; (f) retrieving information about the requested space or object; (g) constructing an integrated map if the requested information requires space and object information at the same time; (h) transmitting the retrieved space or object information to the requested robot.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 공간정보 또는 물체정보는, 실측한 정보를 저장하는 실측 정보계층, 광도계 특징(photometric feature)을 저장하는 광도계 정보계층, 공간 또는 물체를 기하학적 구조(geometric structure)로 분절하여 저장하는 기하학적 정보계층, 공간 또는 물체의 구성요소들을 구분하여 기호화하고 계층화하여 저장하는 구조적 정보계층, 공간상에서 물체의 위치 또는 장애물을 표현하는 정보를 저장하는 위상적 정보계층, 공간 또는 물체, 또는 상기 공간 또는 물체의 구성요소들의 보편적 모델을 정의하고 저장하는 보편적 정보계층, 물체 또는 공간의 시공간에 따른 변화와 관계를 저장하는 시공간 정보계층, 물체 또는 공간에 대한 하위계층 정보들로부터 공간 또는 물체, 또는 상기 공간 또는 물체의 상태를 추론하기 위한 추론정보를 저장하는 추론 정보계층으로 구성하는 것을 특징으로 한다.In the central information processing method of the service robot according to the present invention, the spatial information or the object information may include a measurement information layer storing measured information, a photometric information layer storing photometric features, a space or an object. A geometric information layer that is segmented and stored as a geometric structure, a structural information layer that distinguishes, symbolizes and stratifies and stores components of a space or an object, and topological information that stores information representing an object's position or obstacle in space A universal information layer that defines and stores a hierarchy, space or object, or a universal model of the space or its components, or a space-time information layer that stores changes and relationships over time or space in an object or space, or a sublayer for an object or space Infer the space or object, or the state of the space or object from the information It is characterized in that it comprises a reasoning information layer for storing the reasoning information for.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 공간의 실측 정보계층은 실내 공간의 지리적 정보를 저장하는 기본맵 정보를 포함하고, 상기 공간의 광도계 정보계층은 실내 공간의 광도계 특징으로 맵을 포함하고, 상기 공간의 기하학적 정보계층은 실내 공간을 기하학적으로 분절한 정보를 포함하고, 상기 공간의 위상적 정보계층은 물체의 전역적 좌표와 자세, 또는 장애물로 인식되는 물체 에 대한 정보를 포함하고, 상기 공간의 보편적 정보계층은 공간 또는 공간의 구성부분에 대한 의미론적 정보를 포함하고, 상기 공간의 시공간 정보계층은 실내의 시간적 공간적 상황에 따라 달라지는 빛의 밝기, 조명의 방향, 온도, 습도를 포함하는 것을 특징으로 한다.In addition, the central information processing method of the service robot according to the present invention, the measurement information layer of the space includes the basic map information for storing the geographic information of the indoor space, the photometric information layer of the space is characterized by the photometer characteristics of the indoor space map The geometrical information layer of the space includes geometrically segmented information of the interior space, and the topological information layer of the space includes information about an object recognized as an object's global coordinates and attitude, or an obstacle. The universal information layer of the space includes semantic information about the space or a part of the space, and the space-time information layer of the space includes light brightness, direction of light, temperature, and humidity depending on the temporal and spatial situation of the room. Characterized in that it comprises a.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 물체의 실측 정보계층은 물체에 대한 실제 측정하여 얻은 2차원 또는 3차원 표현 데이터를 저장하는 2D/3D 원영상 정보를 포함하고, 상기 물체의 위상적 정보계층은 다수의 3차원 컨택 포인트(contact point)와 3차원 방향벡터로 표현되는 접근방향(accessible direction)의 정보를 포함하고, 상기 물체의 시공간 정보계층은 물체-공간의 시간 종속관계, 물체의 존재와 시공간 종속관계, 물체-물체간 시공간 종속관계, 물체-기능간 시공간 종속관계, 물체-물리특성의 시공간 종속관계를 포함하고, 상기 물체의 추론 정보계층은 하위 정보계층의 정보간의 관계를 확률로 작성하는 그래프를 저장하는 증거구조를 포함하는 것을 특징으로 한다.In addition, the central information processing method of the service robot according to the present invention, the measured information layer of the object includes 2D / 3D original image information for storing two-dimensional or three-dimensional representation data obtained by the actual measurement of the object, the object The topological layer of information includes a plurality of three-dimensional contact points and information in an accessible direction represented by three-dimensional direction vectors, and the space-time information layer of the object is a time-dependent relationship of object-space. And the existence and space-time dependence of objects, space-time dependence between objects and objects, space-time dependence between objects and functions, and space-time dependence of object-physical characteristics. Evidence structure for storing a graph that creates the relationship with probability.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 광도계 특징은, SIFT(Scale Invariant Feature Transform), 해리스 코너(Harris Corner), 색(Color), 선(Line)에 대한 정보를 포함하는 것을 특징으로 한다.In addition, the central information processing method of the service robot according to the present invention is that the photometer features include information about the Scale Invariant Feature Transform (SIFT), Harris Corner (Color), Color (Line) It features.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 장애물 정보는, 메쉬(mesh) 또는 체적으로 표현하고 저장되는 것을 특징으로 한다.In addition, the central information processing method of the service robot according to the present invention is characterized in that the obstacle information is represented and stored in a mesh (mesh) or volume.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 2차원 또는 3차원 표현 데이터는, 적어도 둘 이상의 카메라 각도를 통해 산출되는 2D 이미 지(Raw Image), 레이저스캐너, 스테레오 카메라, 구조광 카메라 조명(Structured Light Camera) 중 어느 하나로부터 얻은 깊이 데이터(Depth Data), 상기 깊이 데이터로부터 생성된 메쉬 데이터(Mesh data) 중 어느 하나 이상을 포함하는 것을 특징으로 한다.In the central information processing method of the service robot according to the present invention, the two-dimensional or three-dimensional representation data is a 2D image (Raw Image), a laser scanner, a stereo camera, a structured light camera calculated through at least two camera angles. And at least one of depth data obtained from one of the structured light cameras, and mesh data generated from the depth data.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 (a)단계는 상기 공간정보 또는 물체정보를 온톨로지로 구성하여 저장하고, 상기 (e)단계는 온톨로지에 의한 추론을 하는 것을 특징으로 한다.In the central information processing method of the service robot according to the present invention, the step (a) is configured to store the spatial information or object information as an ontology, and the step (e) is inferred by the ontology. .

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 (a)단계는 상기 공간정보 또는 물체정보를 온톨로지로 구성하여 저장하고, 상기 (e)단계는 온톨로지에 의한 추론을 하는 것을 특징으로 한다.In the central information processing method of the service robot according to the present invention, the step (a) is configured to store the spatial information or object information as an ontology, and the step (e) is inferred by the ontology. .

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 인터페이스부는, 대응되는 로봇으로부터 맵에 대한 요청이 있으면, 공간의 실측 정보계층의의 기본맵 정보와 위상적 정보계층의 물체/장애물 위치 정보를 합하여 통합맵을 작성하여 상기 로봇에 제공하는 것을 특징으로 한다.In the central information processing method of the service robot according to the present invention, if the interface unit requests a map from the corresponding robot, the base map information of the actual information layer of the space and the object / obstacle position information of the topological information layer are provided. It is characterized in that the integrated map is created and provided to the robot.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 (a0) 상기 (a)단계 이전에 상기 로봇에게 주어진 미션으로부터 로봇이 실행할 단위 행동을 결정하는 확률기반의 행동구조를 작성하여 저장하는 단계; (d) 상기 (c)단계이후에 상기 로봇의 검색요청에 의해 행동구조를 반환하거나, 로봇에게 주어진 미션을 해석하여 로봇이 실행할 단위 행동과 상기 행동에 필요한 정보를 추출하여 반환하는 단계를 더 포함하는 것을 특징으로 한다.In addition, the central information processing method of the service robot according to the present invention comprises the steps of: (a0) creating and storing a probability-based behavior structure that determines the unit behavior to be executed by the robot from the mission given to the robot before step (a); (d) after step (c), returning the action structure by the search request of the robot, or analyzing the mission given to the robot, and extracting and returning unit action to be executed by the robot and information necessary for the action. Characterized in that.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 방법은 상기 (a0)단계는 지각(perception) 데이터, 증거구조(evidence structure), 행동(behavior)을 확률적인 우선순위관계(precedence relation)를 갖는 베이시안 네트워크(Bayesian network)로 상기 행동구조로 구성하고, 상기 (d)단계는 상기 우선순위관계(precedence relation)의 확률에 의해 최적의 경로(path)를 결정하여, 경로(path)상의 행동을 실행할 단위행동으로 추출하는 것을 특징으로 한다.In the central information processing method of the service robot according to the present invention, in step (a0), a bay having a probabilistic priority relation of perception data, evidence structure, and behavior may be used. The behavioral structure is composed of a Bayesian network, and step (d) determines an optimal path based on the probability of the precedence relation to execute an action on the path. It is characterized in that the extraction as a unit action.

또한, 또한, 본 발명은 상기 비스 로봇의 정보처리 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention also relates to a computer-readable recording medium recording the information processing method of the Vis robot.

상술한 바와 같이, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템 및 방법에 의하면, 이동 서비스 로봇에 필요한 정보들을 통합 관리하여 종합적으로 공유하고 제공함으로써, 데이터 관리의 효율성을 높여주고 다수 로봇들이 있는 실내 상황에서 지식저장을 위한 공간적 비용 및 공간/물체의 학습을 위한 시간적 비용을 절감시킬 수 있는 효과가 얻어진다.As described above, according to the central information processing system and method of the service robot according to the present invention, by comprehensively managing and providing the information necessary for the mobile service robot to comprehensively share, providing a high efficiency of data management and room with a large number of robots In this situation, the effect of reducing the space cost for knowledge storage and the time cost for learning space / object is obtained.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템 및 방법에 의하면, 이동 서비스 로봇의 인식/추론 수준에 맞는 정보를 제공함으로써, 이질적인 인식/추론 수준의 로봇들이 상존하는 환경에서도 정보를 공유하고 통합 관리할 수 있는 효과가 얻어진다.In addition, according to the central information processing system and method of the service robot according to the present invention, by providing information corresponding to the recognition / inference level of the mobile service robot, information sharing and integration even in an environment where heterogeneous recognition / inference level robots exist A manageable effect is obtained.

또, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템 및 방법에 의하면, 낮은 인식/추론 수준의 서비스 로봇에게도 높은 수준에서 추론된 정보를 제공함으로써, 낮은 비용의 이동 서비스 로봇으로도 보다 고비용의 로봇의 수준에 해당하는 서비스를 받을 수 있는 효과가 얻어진다.In addition, according to the central information processing system and method of the service robot according to the present invention, by providing the information inferred at a high level even to the service robot of low recognition / inference level, it is possible to The effect of receiving the service corresponding to the level is obtained.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.DETAILED DESCRIPTION Hereinafter, specific contents for carrying out the present invention will be described with reference to the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.In addition, in describing this invention, the same code | symbol is attached | subjected and the repeated description is abbreviate | omitted.

도 1은 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템 및 방법을 실시하기 위한 전체 시스템의 구성을 도시한 도면이다.1 is a view showing the configuration of an entire system for implementing a central information processing system and method of a service robot according to the present invention.

도 1에서 보는 바와 같이, 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템(30)은 데이터베이스(20)를 구비하고, 다수의 이동 서비스 로봇(10)들과 통신하여 정보를 송수신한다.As shown in FIG. 1, the central information processing system 30 of the service robot according to the present invention includes a database 20, and communicates with a plurality of mobile service robots 10 to transmit and receive information.

상기 정보처리 시스템(30)과 이동 서비스 로봇(10)의 통신은 무선통신에 의해 서로 정보를 주고 받는다. 무선통신으로는 무선랜, RF(Radio Frequency), 블루투스(bluetooth) 등 어느 무선통신도 가능하다. 그러나 최소한 실내의 공간범위를 커버할 수 있는 무선통신 규격이어야 할 것이다. 예컨대, IrDA 등은 그 커버 범위가 작아 적합하지 않을 수 있다. 다만, 건물이 크거나 무선통신의 커버 범위가 작 다면 중계기 등을 통해 실내에 어느 곳에 있더라도 무선통신이 가능하게 할 수 있다. 또한, 와이브로, HSDPA, 와이파이, 와이맥스 등 광대역 무선통신의 경우도 그 응용이 가능할 것이다. 상기한 무선통신 기술들은 본 분야에 공지기술이므로 구체적 설시는 생략한다.Communication between the information processing system 30 and the mobile service robot 10 exchanges information with each other by wireless communication. The wireless communication may be any wireless communication such as wireless LAN, RF (Radio Frequency), Bluetooth (bluetooth). But at least it should be a wireless communication standard that can cover the indoor space range. For example, IrDA may not be suitable because its cover range is small. However, if the building is large or the coverage of the wireless communication is small, it may be possible to enable wireless communication anywhere in the room through a repeater. In addition, applications such as broadband wireless communication such as WiBro, HSDPA, Wi-Fi, and WiMAX will be possible. Since the wireless communication technologies are well known in the art, detailed description thereof will be omitted.

상기 데이터베이스(20)는 일반적인 관계형 데이터베이스일 수도 있으나, 본 발명에 따라 물체/공간 정보를 온톨로지로 구성하면 온톨로지 저장소를 의미할 수도 있다. 즉, 상기 데이터베이스(20)는 본 발명의 데이터의 구성 형태에 따라 적절한 공지의 데이터베이스이다. 또, 상기 데이터베이스(20)를 관리하고 검색하기 위한 공지된 검색엔진을 탑재한 것이다. 예컨대, 온톨로지로 구성되면 온톨로지 추론을 할 수 있는 엔진 등 미들웨어가 탑재된 온톨로지 저장소임을 말한다.The database 20 may be a general relational database, but according to the present invention, when the object / spatial information is configured as an ontology, it may mean an ontology repository. That is, the database 20 is a known database appropriate for the configuration form of the data of the present invention. It is also equipped with a known search engine for managing and searching the database 20. For example, if it consists of an ontology, it means that it is an ontology repository in which middleware is installed, such as an engine capable of ontology inference.

상기 이동 서비스 로봇(10)은 실내에서 이동이 가능하고 명령을 수행하는 지능형 서비스 로봇을 말한다. 상기 로봇은 물체 또는 공간을 인식하기 위한 초음파 센서, 적외선 센서, 레이저 센서, 일반 카메라, 레이저 스캐너, 스테레오 카메라, 마이크 등 센서들을 구비하고 있다. 또, 상기 로봇(10)은 이러한 센서로부터 읽어온 측정값이나 영상 등을 분석하여 물체를 인식하거나 자기위치를 인식하는 등의 인식이나 추론 작업을 할 수 있는 기능을 구비할 수 있다. 또, 상기 로봇(10)은 인식(Recognition), 주행(Navigation), 조작(Manipulation), 그리고 자가 모델 생성(Autonomous Object/Environment Modeling) 등을 수행한다. 또한, 공간 또는 물체나 그들간의 의미적 정보(semantic information)를 가지고 있어 의미론적 추론(semantic reasoning)도 수행할 수 있는 기능도 구비할 수 있다. 즉, 상기 이동 서비스 로봇(10)들은 각기 다른 인식 또는 추론 수준을 가지고 있을 수 있다. The mobile service robot 10 refers to an intelligent service robot that can move indoors and perform commands. The robot includes sensors such as an ultrasonic sensor, an infrared sensor, a laser sensor, a general camera, a laser scanner, a stereo camera, and a microphone for recognizing an object or a space. In addition, the robot 10 may be provided with a function of recognizing or inferring such as recognizing an object or recognizing a magnetic position by analyzing measured values or images read from such a sensor. In addition, the robot 10 performs recognition, navigation, manipulation, and autonomous object / environment modeling. In addition, having a space or an object or semantic information therebetween may also have a function to perform semantic reasoning. That is, the mobile service robots 10 may have different recognition or inference levels.

상기 이동 서비스 로봇(10)은 통신을 통하여 상기 중앙 정보처리 시스템(30)에 필요한 정보를 요청하고, 요청한 정보를 수신하여 이용한다. 이때, 단순히 상기 중앙 정보처리 시스템(30)에 저장된 데이터를 요청하는 경우도 있을 수 있고, 상기 중앙 정보처리 시스템(30)이 내부적으로 처리한 데이터를 수신할 수도 있다. 또한, 로봇(10)은 로봇(10) 자신이 원하는 데이터를 중앙 정보처리 시스템(30)에 요구하게 되고 중앙 정보처리 시스템(30)은 이를 분석 및 검색하여 그에 알맞은 데이터를 제공한다. 중앙 정보처리 시스템의 관리자 또는 로봇(10)에 의해 갱신된 정보는 다시 중앙 정보처리 시스템(30)을 통해 다른 로봇에게 제공된다.The mobile service robot 10 requests information necessary for the central information processing system 30 through communication, and receives and uses the requested information. In this case, the data stored in the central information processing system 30 may be simply requested, or the data processed internally by the central information processing system 30 may be received. In addition, the robot 10 requests the central information processing system 30 for the data desired by the robot 10 itself, and the central information processing system 30 analyzes and retrieves the data and provides appropriate data. The information updated by the administrator of the central information processing system or the robot 10 is again provided to other robots through the central information processing system 30.

도 2는 본 발명의 일실시예에 따른 서비스 로봇의 중앙 정보처리 시스템의 구성에 대한 블록도이다. 도 2에서 보는 바와 같이, 상기 서비스 로봇의 중앙 정보처리 시스템(30)은 데이터베이스(20)를 구비하고, 브로커수단(31), 공간정보 관리부(33), 물체정보 관리부(34), 공간물체 추론부(35)로 구성된다. 또, 미션해석 관리부(36)를 추가로 구성될 수 있다.2 is a block diagram of a configuration of a central information processing system of a service robot according to an embodiment of the present invention. As shown in FIG. 2, the central information processing system 30 of the service robot includes a database 20, and the broker means 31, the spatial information management unit 33, the object information management unit 34, and spatial object inference. It consists of a part 35. In addition, the mission analysis management unit 36 may be further configured.

상기 브로커수단(31)은 서비스 로봇(10)에 대응되는 적어도 하나이상의 인터페이스부(32)를 포함하고, 상기 인터페이스부(32)는 대응되는 로봇의 정보요청을 해석하고, 요청한 정보를 상기 로봇이 해석가능한 형태로 변환하여 전송한다.The broker means 31 includes at least one interface unit 32 corresponding to the service robot 10, the interface unit 32 interprets the information request of the corresponding robot, and the robot requests the requested information. Transmit it into an interpretable form.

즉, 상기 브로커수단(31)은 통신으로 연결된 서비스 로봇(10)들에 대하여 각각 일대일 대응되는 인터페이스부(32)들로 구성된다. 만약 동일한 종류의 서비스 로봇들에 대해서는 하나의 인터페이스부(32)로 연결하여 처리하도록 실시예를 구성할 수도 있다. 다만, 이런 경우에는 하나의 인터페이스부(32)가 동시에 다수의 작업을 수행할 수 있는 멀티프로세싱을 할 수 있는 기능을 가지도록 실시예를 구성해야 한다.That is, the broker means 31 is composed of interface units 32 one-to-one corresponding to the service robots 10 connected by communication. If the same type of service robots may be configured to connect to one interface unit 32 to process. However, in this case, the embodiment should be configured such that one interface unit 32 has a function of multiprocessing capable of simultaneously performing a plurality of tasks.

상기 인터페이스부(32)는 각 대응되는 서비스 로봇(10)의 정보요청을 해석하여 중앙 정보처리 시스템(30)에서 처리할 수 있는 요청으로 변환하는 작업을 수행하고, 반대로 중앙 정보처리 시스템(30)에서 정보요청에 응하여 생성된 요청결과를 상기 서비스 로봇이 해석가능한 형태로 변환하는 작업을 수행한다. 즉, 상기 인터페이스부(32)는 상기 서비스 로봇(10)들이 중앙 정보처리 시스템(30)과 다른 정보처리 체계를 가지더라도 서로 호환이 되도록 정보를 변환하는 역할을 한다. 향후 로봇이 사람의 일상생활에 보편적인 수단으로 등장하게 되면, 각기 여러 업체에서 각기 다른 사양의 지능형 서비스 로봇이 만들어질 수 있고, 사용자는 각기 다른 서비스 로봇들을 구입하여 같은 실내에 동시에 사용할 것이다. 따라서 이런 각기 다른 사양의 서비스 로봇(10)에 대하여 간단히 인터페이스부(32)만 만들어 줌으로써, 중앙 정보처리 시스템(30)에 연동하여 정보교환이 가능하도록 할 수 있다.The interface unit 32 analyzes the information requests of the corresponding service robots 10 and converts the information requests into requests that can be processed by the central information processing system 30, and conversely, the central information processing system 30. Performs the task of converting the request result generated in response to the information request into a form that the service robot can interpret. That is, the interface unit 32 converts the information so that the service robot 10 may be compatible with each other even though the service robot 10 has a different information processing system from the central information processing system 30. In the future, when robots emerge as a universal means for people's daily life, intelligent service robots of different specifications can be made by different companies, and users will purchase different service robots and use them in the same room at the same time. Therefore, by simply making the interface unit 32 for the service robot 10 of such different specifications, it is possible to exchange information in conjunction with the central information processing system 30.

상기 공간정보 관리부(33)와 상기 물체정보 관리부(34)는 상기 실내의 공간 또는 물체에 대한 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장한다. 도 3에 따라 인식/추론 수준에 따른 정보계층의 구성을 설명한다. 도 3은 본 발명의 일실시예에 따른 중앙 정보처리 시스템의 정보계층에 대한 구성도이다.The spatial information manager 33 and the object information manager 34 configure and store information about the space or an object in each layer according to a recognition / inference level. Referring to FIG. 3, the configuration of the information layer according to the recognition / inference level will be described. 3 is a block diagram of an information layer of a central information processing system according to an embodiment of the present invention.

도 3에서 보는 바와 같이, 중앙 정보처리 시스템의 정보계층(40)은 하위계층에서부터 상위계층까지, 실측 정보계층(41), 광도계 정보계층(42), 기하학적 정보계층(43), 위치/구성 정보계층(44), 기능적 정보계층(45), 시공간 정보계층(46), 추론 정보계층(47)으로 구성된다. 상기 정보계층(40)은 로봇의 인식/추론 수준에 따라 정보를 계층화한 것이다. 즉, 하위 정보계층은 센서 등을 통해 공간 또는 물체를 원시적으로 인식하거나 추론한 정보들이고, 상위 정보계층은 공간 또는 물체의 의미론적 정보(semantic information)들로서 고차원의 추론이 가능한 정보들이다.As shown in FIG. 3, the information layer 40 of the central information processing system includes a measurement information layer 41, a photometric information layer 42, a geometric information layer 43, and position / configuration information from a lower layer to an upper layer. The layer 44, the functional information layer 45, the spatiotemporal information layer 46, and the inference information layer 47. The information layer 40 is a layered information according to the recognition / reasoning level of the robot. That is, the lower information layer is information obtained by primitive recognition or inference of a space or an object through a sensor or the like, and the upper information layer is information capable of high-order inference as semantic information of the space or object.

상기 실측 정보계층(41)은 실측한 정보를 저장하는 정보계층이다. 즉, 측정된 대상의 크기나 형상 등에 대한 정보들이다. 공간에 대한 실측 정보는 건축 설계도와 같은 기본 맵으로서 역할을 하며, 공간에 대한 3차원 입체형상과 실측된 크기에 대한 측정값들을 포함한다. 물체에 대한 실측 정보는 물체에 대한 2차원/3차원 영상 및 내부(intrinsic)/외부(extrinsic) 카메라 파라미터 등이 해당된다. 상기 카메라 파라미터는 카메라의 위치, 렌즈의 사이즈 등의 데이터로서 영상의 에러보정 등에 이용된다.The measured information layer 41 is an information layer that stores measured information. That is, information on the size or shape of the measured object. The measured information about the space serves as a basic map such as architectural blueprints, and includes measurements of the three-dimensional solid shape and the measured size of the space. The actual measurement information about the object corresponds to a 2D / 3D image of the object and an intrinsic / extrinsic camera parameter. The camera parameter is used for error correction of an image as data such as a camera position, a lens size, and the like.

상기 광도계 정보계층(42)은 광도계 특징(photometric feature)을 저장하는 정보계층이다. 광도계 정보는 영상 내 2차원/3차원 포인트들의 밝기(luminance), 색채(hue & saturation), 무늬(texture) 등의 광도계(photometric) 데이터를 수학적으로 분석하여 특정 값의 집합 또는 지오메트리(geometry)로 표현한 것이다. 로봇의 물체 인식은 조명에 의해 드러나는 물체에 대하여 주로 카메라를 통해 이루어 지므로, 이러한 광도계 특징은 물체를 인식하는데 중요한 역할을 한다. 광도계 정보의 예로는 색(Color), SIFT(Scale Invariant Feature Transform), 해리스 코너(Harris Corner), 선(Line) 등의 정보들이 있다.The photometer information layer 42 is an information layer that stores photometric features. Photometric information is a mathematical analysis of photometric data such as brightness, hue & saturation, and texture of 2D / 3D points in an image as a set or geometry of specific values. It is expressed. Since the object recognition of the robot is mainly through the camera for the object exposed by the light, this photometric characteristic plays an important role in the object recognition. Examples of photometric information include color, Scale Invariant Feature Transform (SIFT), Harris Corner, and Line.

상기 기하학적 정보계층(43)은 공간 또는 물체를 기하학적 구조(geometric structure)로 분절하여 저장하는 정보계층이다. 즉, 이 정보는 좁은 의미에서 대상에 대한 형상을 기하학적으로 표현하는 정보를 의미하기도 하지만, 보다 넓은 의미에서 구조적인 형태로 구분하여 저장하는 정보도 포함된다. 예컨대, 손잡이가 달린 컵을 카메라로 인식하면 손잡이도 전체 컵에 대한 형상의 일부이지만, 구조적인 형태로 분절할 수 있는 부분이다. 냉장고의 경우 분절할 수 있는 부분은 윗문, 아랫문, 냉동실, 냉장실, 서랍, 손잡이 등이다. 공간에서는 창문이나 문, 천정, 기둥, 코너, 모서리 등이 이런 구조적인 분절이 가능한 대상이다.The geometric information layer 43 is an information layer that stores a space or an object by dividing it into a geometric structure. That is, the information may mean information that geometrically expresses the shape of the object in a narrow sense, but also includes information that is stored in a structural form in a broader sense. For example, if a cup with a handle is recognized as a camera, the handle is also part of the shape of the whole cup, but is a part that can be segmented into a structural form. In the case of a refrigerator, the parts that can be segmented are an upper door, a lower door, a freezer, a refrigerator, a drawer, and a handle. In space, windows, doors, ceilings, columns, corners, corners, etc. are objects that can be structurally segmented.

상기 구조적 정보계층(44)은 공간 또는 물체의 구성요소들을 구분하고 이를 기호적, 계층적으로 저장하는 정보계층이다. 구조적 정보는 대상에 속하는 요소에 대한 기호적, 계층적 정보들이다. 한 건물은 여러 층으로 구성되어 있고, 각 층은 복도나 방으로 구성되어 있다. 각 물체는 물체를 이루는 구성요소로 구성되어 있다. 반대로 어느 한 방은 어느 층에 위치하고, 어느 층은 어느 건물에 위치한다. 즉, 상기 구조적 정보는 대상들 사이의 공간적인 관계를 대상의 관점에서 기술한 정보들이다. 상기 구조적 정보는 하위계층의 기하학적 분절과도 연계되어 관리되어야 한다. 그러나 바로 하위계층의 기하학적 분절은 외형상 특징에 의해 분절하는 것인데 반해, 대상의 구성은 기능적 측면에 의해 구분된다. 그러나 대상을 구성요 소로 구분할 때 기학적 분절에 기초하여 구분하게 되므로, 로봇이 물체를 단계적으로 인식할 수 있는 장점이 있다. 즉, 로봇은 공간의 구성요소인 "문"을 공간에서 기하학적으로 분절되는 "네모판(문)"으로 인식할 수 있다. 그 반대의 인식도 가능하다. 예컨대, 특정(specific) 아파트의 구성요소를 구조적 정보계층(44) 아래 하위계층 정보와 연계하여 거실, 침실, 부엌, 화장실 등의 기능적 특성으로 구획하여 구분하고 이를 기호적(symbolic)으로 표시하는 것이 이에 해당된다. 물체에 있어서도, 냉장고를 윗문, 아랫문, 냉동실, 냉장실, 서랍, 손잡이 등을 계층적으로 구분하고 이를 기호적(symbolic)으로 표시한다.The structural information layer 44 is an information layer that distinguishes elements of a space or an object and stores them symbolically and hierarchically. The structural information is symbolic and hierarchical information about elements belonging to the object. One building consists of several floors, each of which consists of a corridor or a room. Each object consists of the components that make up the object. In contrast, one room is located on a certain floor and one floor is located on a building. That is, the structural information is information describing a spatial relationship between objects in terms of the object. The structural information should also be managed in connection with the geometric segments of the lower layers. However, the geometrical segment of the lower layer is segmented by its features, whereas the composition of the object is distinguished by its functional aspects. However, since the object is classified based on the mechanical segment when the object is divided into components, there is an advantage that the robot can recognize the object step by step. That is, the robot can recognize the "door", which is a component of space, as a "square plate" that is geometrically segmented in space. The opposite is also possible. For example, the components of a specific apartment are divided into functional characteristics such as living rooms, bedrooms, kitchens, and toilets in association with sub-layer information below the structural information layer 44, and the symbolic representations thereof are symbolic. This is the case. Also in the object, the refrigerator is classified hierarchically into the upper door, the lower door, the freezer compartment, the refrigerating compartment, the drawer, the handle, and the like, and is symbolically represented.

상기 위상적 정보계층(45)은 특정 공간상에서 물체의 위치 또는 장애물을 표현하는 정보를 저장하는 정보계층이다. 위상적 정보는 특정 공간상에서 물체의 전역적 위치 및 자세 또는 장애물의 위치 및 체적(volume)을 표현하는 정보이다. 또 상기 위상적 정보는 물체의 파지를 위한 접근성(accessibility)을 표현하는 정보이다. 예컨대, 특정한 부엌에 존재하는 물체는 냉장고, 전자레인지, 식기세척기, 컵, 접시, 수저, 스푼 등이 있다면, 상기 물체들의 위상적 정보는 상기 부엌에서의 전역적 위치, 자세 등에 대한 정보들이다. 상기 장애물 정보는 모르는 물체(Unknown object)를 표현하기 위한 정보로서, 메쉬(Mesh) 또는 체적(volume)에 의해 표현되는 상기 장애물에 대한 정보이다.The topological information layer 45 is an information layer that stores information representing a position or an obstacle of an object in a specific space. Topological information is information representing the global position and posture of an object or the position and volume of an obstacle in a specific space. The topological information is information representing accessibility for gripping an object. For example, if an object in a particular kitchen includes a refrigerator, a microwave, a dishwasher, a cup, a plate, a cutlery, a spoon, and the like, the topological information of the objects is information about a global position, a posture, and the like in the kitchen. The obstacle information is information for representing an unknown object, and is information about the obstacle represented by a mesh or a volume.

상기 보편적 정보계층(46)은 공간 또는 물체, 또는 그 구성요소들의 보편적 기능을 정의하고 저장하는 정보계층이다. 상기 보편적 모델이란 공간 또는 물체가 가져야 하는 기능(function), 분절(sub-parts), 그리고 지오메트리(geometry)의 의 미론적(semantic) 정의와 이들 사이의 관계성을 함께 표현하여 저장하는 모델이다. 예컨대, 공간의 구성요소인 "문"의 기능은 "공간을 들어오거나 나올 수 있는 통로"나 "여닫을 수 있다"는 등의 기능에 대한 정보이다. 또, "컵"은 "물 등 음료를 마실 때 사용하는 도구", 컵의 "손잡이"는 "컵을 들 때 이용하는 구성요소"나 "컵을 잡는 구성요소"등의 정보이다. 그리고 분절은 앞서 기하학적 정보계층(43)에서처럼 물체에 있어서 냉장고를 윗문, 아랫문, 냉동실, 냉장실, 서랍, 손잡이 등으로 나누는 것이고, 공간에서는 창문이나 문, 천정, 기둥, 코너, 모서리 등으로 나누는 것이다. 다만 보편적 정보계층(46)에서 말하는 분절과 기하학적 정보계층(43)에서 말하는 분절의 다른 점은 기하학적 정보계층(43)이 실측한 데이터에 기초하여 인스턴스를 분절한 정보인 반면 보편적 정보계층(46)은 보편적으로 물체 또는 공간이 가져야 할 분절 가능한 특성을 정의한다는 것이다. 지오메트리(geometry)에서는 점, 선, 면, 타원, 구, 박스 등을 의미하는 것으로서, 보편적으로 물체 또는 공간이 가져야 할 지오메트리 특성을 정의한 것이다. 또, 공간에서 아파트의 보편적 구성요소를 거실, 침실, 부엌, 화장실 등으로 구분하여 이를 의미론적으로 구분하는 것도 이에 해당된다. 보편적 정보계층(46)의 하위 정보계층은 구체적(specific) 대상의 외형적인 구조나 구성 등에 대한 정보인 반면, 상기 보편적 정보계층(46)부터 상위계층은 주로 의미론적 정보에 대한 것들이다. 즉, 바로 하위계층의 구성에 대한 구분은 기능에 의한 외형적 구분인 반면, 상기 보편적 정보계층(46)은 구성에 대한 의미론적 정보이다.The universal information layer 46 is an information layer that defines and stores a universal function of a space or an object or its components. The universal model is a model that expresses and stores the semantic definitions of functions, sub-parts, and geometries of spaces or objects and their relationships. For example, the function of the "door", which is a component of the space, is information about a function such as "a passage that can enter or exit the space" or "can open and close". In addition, "cup" is information such as "tool used for drinking a drink such as water", and "handle" of the cup is information such as "component used when lifting a cup" and "component holding a cup". The segment is to divide the refrigerator into an upper door, a lower door, a freezer, a refrigerator, a drawer, a handle, and the like in the object as in the geometric information layer 43, and in the space, it is divided into a window, a door, a ceiling, a pillar, a corner, a corner, and the like. . The difference between the segment referred to in the universal information layer 46 and the segment referred to in the geometric information layer 43 is the information obtained by segmenting an instance based on the data measured by the geometric information layer 43, while the universal information layer 46 is used. Universally defines the segmentable nature of an object or space. Geometry refers to points, lines, faces, ellipses, spheres, boxes, and so on, and generally defines the geometry characteristics that an object or space should have. In addition, the universal component of the apartment in the space is divided into a living room, bedroom, kitchen, toilet, and the like is also applicable to this. The lower information layer of the universal information layer 46 is information about an external structure or configuration of a specific object, while the upper layers from the universal information layer 46 are mainly about semantic information. That is, the classification of the configuration of the lower layer is the external classification by the function, while the universal information layer 46 is the semantic information about the configuration.

상기 시공간 정보계층(47)은 물체 또는 공간의 시공간에 따른 변화와 관계를 저장하는 정보계층이다. 시공간 정보는 대상들 간의 관계에 대한 의미론적 정보들이다. 다른 측면에서는 관계되는 상대의 변화에 따른 대상의 변화에 대한 의미론적 정보들이기도 하다. 대상에 관계되는 것은 시간, 환경, 다른 대상 등이 될 수 있다. 즉, 시간과의 관계(또는 시간의 변화에 따른 대상의 변화), 환경과의 관계(또는 환경의 변화에 따른 대상의 변화), 다른 대상과의 관계(또는 다른 대상의 변화에 따른 대상의 변화) 등을 의미한다. 실내 공간이나 물체가 시간적 공간적 상황에 따라 달라지는 빛의 밝기, 조명의 방향, 온도, 습도 등에 대한 정보이다. 또, 물체의 시간에 따른 위치변화나, 특정물체가 특정 시공간에서 존재할 때 그에 따른 다른 물체의 존재성에 미치는 영향 등에 대한 정보들이다.The space-time information layer 47 is an information layer that stores changes and relationships according to space-time of an object or space. Spatio-temporal information is semantic information about the relationship between objects. In other respects, it is also semantic information about the change of the object caused by the change of the relative. Related to the object can be time, environment, other objects, and the like. That is, the relationship with time (or the change of the object according to the change of time), the relationship with the environment (or the change of the object due to the change of the environment), the relationship with the other object (or the change of the object due to the change of another object) ) And the like. Information about the brightness, direction of light, temperature, humidity, etc. of indoor space or objects depending on temporal and spatial conditions. In addition, information on the change in position of an object over time or the influence of the existence of another object when a specific object exists in a specific space-time.

상기 추론 정보계층(48)은 직접 측정되는 상황으로부터 공간 또는 물체, 또는 상기 공간 또는 물체의 상태를 추론하기 위한 추론정보를 저장하는 정보계층이다. 추론 정보는 하위계층의 정보들을 이용하여 구성된 추론 구조에 대한 정보이다. 예컨대, 물체를 인식하기 위한 확률에 의한 그래프를 작성한 증거구조(evidence structure) 등이 이에 해당한다. 추론 정보계층(48)의 하위정보계층에서도 추론은 가능하다. 예컨대, 보편적 정보계층이나 시공간 정보계층은 각각 의미론적 정보들이므로 의미론적 추론이 당연히 가능하다. 또한, 그 이하의 하위계층의 외형적 구조에 대한 정보들에 대해서도, 특정 속성(또는 특징)이 매칭되는 대상을 검색하는 방법들을 통해 추론이 가능하다. 상기 추론 정보계층(48)은 확률에 기반하여 보다 전문적으로 추론하기 위한 정보들이라는 점에서 상기 하위계층의 추론과 차이가 있다 할 것이다.The inference information layer 48 is an information layer that stores inference information for inferring a space or an object or a state of the space or an object from a situation that is directly measured. Inference information is information about an inference structure constructed using information of lower layers. For example, an evidence structure in which a graph based on a probability for recognizing an object is prepared. Inference can also be made in the lower information layer of the inference information layer 48. For example, since the universal information layer and the space-time information layer are semantic information, semantic inference is naturally possible. In addition, the information about the external structure of the lower layer may be inferred through methods of searching for an object to which a specific attribute (or characteristic) matches. The inference information layer 48 is different from the inference of the lower layer in that it is information for inferring more professionally based on probability.

전체적으로, 상위 정보계층들은 하위 정보계층들에 기초하여 구성된다. 또, 각 정보계층들을 따로 구현할 수 있지만, 전체나 그 일부를 하나의 데이터구조로 구현할 수도 있다. 예컨대, 모든 계층의 정보를 온톨로지로 구성할 수도 있다. 예컨대, 컵이라는 클래스나 인스턴스를 생성하여 실측 정보계층부터 위상적 정보계층까지 모두 속성들로 정의하고, 보편적 정보계층에 대한 정보도 상기 클래스의 속성으로 정의할 수도 있다.In total, upper information layers are constructed based on lower information layers. In addition, although each information layer can be implemented separately, all or part thereof can be implemented as a single data structure. For example, all hierarchical information may be organized by ontology. For example, a cup or a class called instance may be created to define all attributes from the measured information layer to the topological information layer, and the information on the universal information layer may also be defined as attributes of the class.

상기 공간정보 관리부(33)와 상기 물체정보 관리부(34)에 대한 정보계층별 정보에 대해 특징적인 부분을 보다 자세히 설명한다.The characteristic part of the information on the information layer for the spatial information management unit 33 and the object information management unit 34 will be described in more detail.

상기 공간정보 관리부(33)는 상기 실내에 대한 공간 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 공간정보 요청에 의하여 요청된 공간정보를 검색하여 반환한다. 도 4에 보는 바와 같이, 공간정보는 앞서 설명한 8개 정보계층에 대한 정보들로 구성된다.The spatial information manager 33 configures and stores the spatial information of the room according to a recognition / inference level, and searches for and returns the spatial information requested by the spatial information request of the broker means. As shown in FIG. 4, the spatial information includes information on the eight information layers described above.

공간의 실측 정보계층은 GIS와 같이 실내 공간의 지리적 정보를 저장하는 부분이며 가장 기본이 되는 정보로서, 건축 설계도 역할을 하는 기본맵(Base Map)이다. 상기 기본맵은 실내 환경의 구조적 정보를 개략적으로 표시한 2차원 그리드 맵(Grid map)과 기본적인 건물 설계도 작성 규칙 및 국제 건물설계 상호 문서교환 표준인 IFC 2xx 규약에 따라 CAD 형태(ifcXML과 dxf를 포함하는 유사 포맷)로 작성한 3차원 맵을 포함한다. 도 5a의 실제맵에 대하여 작성된 기본맵을 도 5b에 도시하고 있다. 도 5a와 도 5b에 도시된 바와 같이, 기본적인 환경정보를 담고 있는 기 본맵(Base Map)의 기준 좌표는 수평면에 대한 좌측 최 하단 원점으로 X-Y의 직교 좌표를 사용하며 수직성분은 Z축으로 표현한다. 또, 형태 정보 공유를 위한 CAD의 DFX형식을 이용한 구현 방법을 보인다.The actual information layer of the space is a part that stores the geographic information of the indoor space like the GIS and is the most basic information, which is a base map that serves as an architectural design. The base map includes a CAD form (ifcXML and dxf) according to the IFC 2xx protocol, which is a two-dimensional grid map that schematically shows the structural information of the indoor environment, basic building design rules, and international building design interchange document standard. A three-dimensional map created in a similar format). The base map created with respect to the actual map of FIG. 5A is shown in FIG. 5B. As shown in FIGS. 5A and 5B, the reference coordinates of the base map containing basic environmental information use the rectangular coordinates of XY as the lowest left origin of the horizontal plane, and the vertical component is represented by the Z axis. . In addition, the implementation method using the DFX format of CAD for sharing shape information is shown.

공간의 광도계 정보계층은 실내 공간의 광도계 특징 맵이 저장된다. 광도계 특징 맵(Photometric Feature Map)은 SIFT, Harris Corner, Color값 등 영상 전체 영역으로부터 밝기값과 컬러값만을 이용하여 얻을 수 있는 영상처리 결과를 표현한다. 도 6a는 본 발명의 일실시예에 따른 실내환경에서 추출된 광도계 특징(SIFT)을 도시한 도면이고, 도 6b는 본 발명의 일실시예에 따른 실내환경에서 추출된 광도계 특징(SIFT)을 3차원 통합맵 상에 표현한 도면이다.The photometric information layer of the space stores a photometric feature map of the indoor space. A photometric feature map represents an image processing result that can be obtained using only brightness and color values from the entire image area such as SIFT, Harris Corner, and Color values. 6A is a diagram illustrating a photometer feature (SIFT) extracted in an indoor environment according to an embodiment of the present invention, and FIG. 6B is a diagram of a photometer feature (SIFT) extracted in an indoor environment according to an embodiment of the present invention. It is the figure expressed on the dimension integrated map.

공간의 기하학적 정보계층에 저장되는 정보는 기하학적 환경 구조(Geometric Environment Structure)로서, 실내환경을 기하학적으로 분절하여 저장한다. 예를 들면, 문, 창문, 벽, 기둥 등의 환경적 물체와 전역적 기하학 특징(Global Geometric Feature)인 코너, 변, 면 등이 이에 해당된다. 그리고 이들의 구조적 연관성도 함께 표현한다. 이들 정보는 로봇(10)이 주행시 자기 위치를 인식하거나 문을 열고 닫는 등의 환경적 물체를 조작하는데 이용 가능하다.Information stored in the geometrical information layer of the space is a geometric environment structure (Geometric Environment Structure), and the indoor environment is geometrically segmented and stored. Examples include environmental objects such as doors, windows, walls, columns, and corners, sides, and faces that are global geometric features. It also expresses their structural relationships. These information can be used for manipulating environmental objects such as robot 10 to recognize its own position or to open and close the door while driving.

공간의 구조적 정보계층은 앞서 본 바와 같이 공간의 구성요소들을 구분하고 이를 기호적, 계층적으로 저장하는 정보이다. 한 건물에 대한 구조적 정보는 여러 층으로 구성되고, 각 층은 복도나 방으로 구성되고, 각 구성요소들을 기호적으로 표시한다. 그리고 상기 정보는 기하학적/광도계특징/실측 정보를 담고 있는 하위계층과 연계되어 저장된다. 예컨대, 특정(specific) 아파트의 구조적 정보는 상기 아 파트의 하위 계층의 기하학적/광도계특징/실측 공간 구성요소를 거실, 침실, 부엌, 화장실 등의 기능적 특성으로 구획하여 구분하고 이를 기호적(symbolic)으로 표시한 정보들이다.As described above, the structural information layer of a space is information that distinguishes elements of the space and stores them symbolically and hierarchically. Structural information about a building consists of several floors, each floor consisting of a corridor or a room, and each component symbolically displays. The information is stored in association with a lower layer containing geometric / photometric feature / actual information. For example, the structural information of a specific apartment may be divided into geometric and photometric features and measured space components of the lower part of the subpart into functional characteristics such as living rooms, bedrooms, kitchens, toilets, and the like. The information is indicated by.

공간의 위상적 정보계층은 물체 및 장애물의 위치정보에 관한 정보계층이다. 조작을 위해 사용되는 이동 가능한 물체들의 맵상의 위치 및 자세를 표현하게 된다. 이 정보계층에서는 실제로 물체 모델을 저장하지는 않고 오로지 물체의 전역적(Global) 좌표와 자세만을 표현한다. 물체DB에 해당 물체에 관한 어떠한 정보도 갖고 있지 않는 모르는 물체(Unknown object)는 장애물로 간주하고, 상기 장애물을 메쉬(Mesh) 또는 체적(예: Octree)으로 표현하고 저장한다. 도 7a는 본 발명의 일실시예에 따른 장애물을 체적(Volumetric) 표현 방식인 Octree로 표현한 예시도이고, 도 7b는 본 발명의 일실시예에 따른 실내 공간과 물체를 도시한 도면이다. 물체 모델링 기준 좌표(Object Modeling Reference Frame)는 서비스 대상이 되는 물체의 정 중앙을 원점으로 하여 수평성분은 X축, 수직성분은 Y축, 화자까지의 깊이 성분은 Z축으로 하는 물체 기준 좌표축(Object Frame)을 사용한다. 상기 공간관리부(33)에서 저장/관리하는 물체의 좌표(Coordinates of Object)는 물체 모델링을 위한 기준 좌표를 높이 방향으로 최하지점으로 이동시켜준다. 이는 상기 물체에 대한 보다 직관적인 배치와 좌표이동을 제공한다. 상기 공간관리부(33)에서 저장/관리하는 물체들에 대한 방향정위(Orientation) 정보는 물체의 기준 축인 U, V, W 각각에 대한 세계 좌표(World Coordinates)의 X, Y, Z에 대한 유닛 벡터(Unit Vector) 혹은 회전 각도로 나타낸다.The topological information layer in space is an information layer about the positional information of objects and obstacles. The position and attitude of the movable objects used for manipulation are represented. This layer does not actually store the object model, but represents only the global coordinates and poses of the object. An unknown object that does not have any information about the object in the object DB is regarded as an obstacle, and the obstacle is represented and stored as a mesh or a volume (eg, Octree). FIG. 7A is an exemplary diagram illustrating an obstacle according to an embodiment of the present invention in Octree, which is a volumetric representation method, and FIG. 7B is a diagram illustrating an indoor space and an object according to an embodiment of the present invention. Object Modeling Reference Frame is the object reference coordinate axis where the horizontal component is the X axis, the vertical component is the Y axis, and the depth component to the speaker is the Z axis. Frame). Coordinates of Objects stored / managed by the space manager 33 move reference coordinates for object modeling to the lowest point in the height direction. This provides a more intuitive placement and coordinate movement of the object. Orientation information for objects stored / managed by the space manager 33 is a unit vector for X, Y, and Z of world coordinates for each of U, V, and W, which are reference axes of the object. (Unit Vector) or rotation angle.

한편, 상기 인터페이스부(32)는 대응되는 로봇으로부터 맵에 대한 요청이 있으면, 공간정보의 기본맵 정보계층과 물체/장애물 위치 정보계층의 정보를 합하여 통합맵(united map)을 작성하여 상기 로봇(10)에 제공한다. 도 9은 본 발명의 일실시예에 따른 통합맵의 ER 테이블을 도시한 도면이다.On the other hand, when the interface unit 32 requests a map from a corresponding robot, the interface unit 32 generates a united map by combining the information of the basic map information layer of the spatial information and the object / obstacle position information layer and the robot ( 10) to provide. 9 is a diagram illustrating an ER table of an integrated map according to an embodiment of the present invention.

공간의 보편적 정보계층에는 보편적 공간 모델이 저장된다. 보편적 공간 모델은 거실, 침실, 욕실, 다용도실, 화장실 등의 의미론적 공간을 표현하게 된다. 또한, 공간의 구성요소인 문, 창문 등에 대한 의미론적 정보들도 표현된다. 이는 로봇(10)이 로봇(10)의 위치를 파악하고 의미론적으로(semantically) 영역을 구분 짓는데 이용된다.In the universal information layer of space, a universal space model is stored. The universal space model expresses semantic spaces such as living room, bedroom, bathroom, utility room and toilet. In addition, semantic information about the doors, windows, etc., which are components of the space, are also expressed. This is used by the robot 10 to locate the robot 10 and to semantically separate the areas.

공간의 시공간 정보계층은 환경적 정보들을 저장한다. 환경적 정보란 실내 공간에서의 시간적 또는 공간적 상황에 따라 달라지는 빛의 밝기, 조명의 방향(자연광 포함), 온도, 습도 등을 말한다. 이 정보들은 로봇(10)이 인식/모델링 등의 서비스를 수행하는데 부가적 영향을 미치는 인자로서 작용한다.The space-time information layer of space stores environmental information. Environmental information refers to the brightness of the light, the direction of the light (including natural light), temperature, humidity, etc., depending on the temporal or spatial situation in the indoor space. These informations act as factors that additionally influence the robot 10 to perform services such as recognition / modeling.

공간의 추론 정보계층은 앞서 설명한 추론 정보계층(48)에서의 증거구조에 대한 정보들이다. 도 8은 본 발명의 일실시예에 따른 공간의 추론 정보계층에서 증거구조를 예시한 도면이다. 도 8에서 보는 바와 같이, 일반적으로 부엌의 기능은 요리와 대화 또는 와인 바 등이다. 그리고 부엌에는 일반적으로 가스레인지와 싱크대 그리고 냉장고, 식탁 등이 존재한다. 이들 조건을 모두 만족할 경우 확률적으로 어떤 임의의 공간이 부엌일 가능성은 1에 가까워지며, 일정 이상 만족할 경우 우리는 어떤 임의의 공간을 부엌이라고 가정한다. 이러한 정보가 공간 증거구조에 저장된다.The inference information layer of space is information about the evidence structure in the inference information layer 48 described above. 8 is a diagram illustrating an evidence structure in the inference information layer of a space according to an embodiment of the present invention. As shown in FIG. 8, the function of the kitchen is generally a dish and a conversation or a wine bar. In the kitchen, there is a gas stove, a sink, a refrigerator and a table. If all of these conditions are met, then the probability of any random space being a kitchen is close to 1, and if it is more than a certain amount, we assume that any random space is a kitchen. This information is stored in spatial evidence structures.

상기 물체정보 관리부(34)는 상기 실내에 존재하는 물체를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 물체정보 요청에 의하여 요청된 물체정보를 검색하여 반환한다. 도 4에 보는 바와 같이, 물체정보는 총 8개 정보계층으로 구성하여 저장한다.The object information manager 34 configures and stores objects existing in the room according to a recognition / inference level and searches for and returns object information requested by the object information request of the broker. As shown in Figure 4, the object information is composed of a total of eight information layers and stored.

물체의 실측 정보계층은 원 영상(Raw Image)에 대한 정보로서, 2차원/3차원 카메라로부터 획득한 물체에 대한 실제 측정 2차원/3차원 원천 데이터(Raw Data)들을 저장한다. 즉, 다양한 카메라 각도를 통해 산출되는 2D 데이터로서, 이미지(Raw Image), 레이저스캐너, 스테레오 카메라 또는 구조광 카메라 조명(Structured Light Camera)으로부터 얻은 깊이 데이터(Depth Data) 등을 포함한다.The measured information layer of the object is information about a raw image, and stores actual measured 2D / 3D raw data about an object obtained from a 2D / 3D camera. That is, 2D data calculated through various camera angles, and includes depth data obtained from a raw image, a laser scanner, a stereo camera, or a structured light camera.

물체의 광도계 정보계층은 물체의 광도계 특징(Photometric Feature)에 대한 정보로서, 각 원 영상으로부터 다시 얻어낸 색(Color), SIFT(Scale Invariant Feature Transform), 해리스 코너(Harris Corner), 선(Line) 등의 정보를 저장한다. 이는 인식과정에서 증거(Evidence)로서 작용한다.The photometric information layer of the object is information about the photometric feature of the object, and the color, scale invariant feature transform (SIFT), Harris corner, line, etc., which are obtained from each original image Save the information. This acts as evidence in the recognition process.

물체의 기하학적 정보계층은 기하학적 특징(Geometric Feature)에 대한 정보로서, 물체의 기하학적인 정보를 구조적 형태로 저장하게 된다. 이들 정보는 원 영상으로부터 얻는다. 이는 기존 강체(Rigid Body)중심의 인식을 위한 모델(Model)을 생성하는 방법에 의한 것이 아닌, 하위 부분을 갖거나 분절이 있는 물체에 대한 모델링 방법 및 상위 정보의 이해 및 연결을 위한 물체 특징 표현 방법을 포함한다. 예컨대, 물체에 있어서 냉장고를 윗문, 아랫문, 냉동실, 냉장실, 서랍, 손잡이 등으로 나누는 것이고, 공간에서는 창문이나 문, 천정, 기둥, 코너, 모서리 등으로 나누는 것이다. 도 11은 본 발명의 냉장고의 일실시예를 도시한 것이다.The geometric information layer of an object is information about a geometric feature, and stores geometric information of the object in a structural form. These information are obtained from the original image. This is not a method of generating a model for the recognition of the rigid body center, but an object feature representation for understanding and connecting higher level information and a modeling method for an object having a lower part or a segment It includes a method. For example, in an object, a refrigerator is divided into an upper door, a lower door, a freezer, a refrigerator, a drawer, a handle, and the like, and a space is divided into a window, a door, a ceiling, a pillar, a corner, a corner, and the like. 11 shows an embodiment of a refrigerator of the present invention.

물체의 기하학적 정보계층에서 사용되는 데이터 구조는 쉽게 x3d, dfx, 3ds, wrl, obj 등의 CAD형식을 차용하거나 별도의 저장방식으로 구성할 수 있다. 그러나 이와 같은 구조적인 정보를 CAD포맷에서 전부 표현할 수는 없으므로 별도의 포맷의 개발이 필요하다. 본 발명의 실험에서는 편의를 위하여 CAD 모델의 데이터형식을 사용한다. 도 10a는 본 발명의 일실시예에 따른 3차원 물체인 연필을 CAD 형태 중 하나인 x3d 파일로 모델링한 결과를 예시한 도면이고, 도 10b는 본 발명의 일실시예에 따른 도 10a의 x3d 파일로 모델링한 코드를 도시한 것이다.The data structure used in the geometric information layer of an object can be easily borrowed from a CAD format such as x3d, dfx, 3ds, wrl, or obj, or configured as a separate storage method. However, it is not possible to express all the structural information in the CAD format, so it is necessary to develop a separate format. In the experiment of the present invention, the data format of the CAD model is used for convenience. FIG. 10A is a diagram illustrating a result of modeling a pencil, which is a three-dimensional object, according to an embodiment of the present invention as an x3d file, which is one of CAD forms, and FIG. 10B is an x3d file of FIG. 10A, according to an embodiment of the present invention. The code modeled below is shown.

물체의 구조적 정보계층은 물체의 구성에 대한 정보들이다. 즉, 물체를 구성하는 요소들을 기술하는 정보이다. 그리고 이들 정보는 기하학적/광도계특징 정보를 담고 있는 하위계층과 연계되어 관리된다. 예컨대, 컵은 본체와 손잡이의 구성요소를 갖는다. 상기 구성요소는 컵의 분절에 해당한다. 따라서 기하학적/광도계특징 정보를 담고 있는 하위계층의 분절 정보와도 연계될 필요가 있다. 도 11은 본 발명의 일실시예에 따른 구조적 정보계층에서 물체 구성정보를 예시한 도면이다. 도 11에서 보는 바와 같이, 냉장고는 몸체, 상/하단 문, 냉동고, 냉장고, 선반 등으로 구성할 수 있다. 좌상단은 냉장고의 몸체이며, 좌하단은 냉장고 문이다. 그리고 이들이 결합된 그림이 도 11에서 우측의 그림이다.The structural information layer of an object is information about the composition of the object. That is, information describing the elements constituting the object. And this information is managed in connection with the lower layer which contains geometric / photometric feature information. For example, the cup has components of the body and the handle. The component corresponds to a segment of the cup. Therefore, it needs to be linked with the segmentation information of the lower layer which contains geometric / photometric characteristic information. 11 is a diagram illustrating object configuration information in a structural information layer according to an embodiment of the present invention. As shown in FIG. 11, the refrigerator may include a body, an upper / lower door, a freezer, a refrigerator, a shelf, and the like. The upper left is the body of the refrigerator and the lower left is the refrigerator door. And the figure which combined these is the figure of the right side in FIG.

물체의 위상적 정보계층은 물체의 파지를 위한 접근성(accessibility)을 표 현하는 정보를 포함한다. 상기 물체 접근성(accessibility)은 일종의 물체 속성으로서, 물체를 어느 방향으로 접근해서 어느 부분을 파지해야 하는지와 관련된 정보이다. 도 12a는 본 발명의 일실시예에 따른 물체의 위상적 정보계층에서의 물체의 접근방향을 예시한 도면이고, 도 12b는 본 발명의 일실시예에 따른 물체의 위상적 정보계층에서의 물체의 컨택 포인트(contact point)를 예시한 도면이다. 도 12에서 보는 바와 같이, 이 정보는 물체를 집을 수 있는 다수의 3차원 컨택 포인트(contact point)와 3차원 방향벡터로 표현되는 접근방향(accessible direction) 값으로 구성된다.The topological information layer of an object contains information that expresses accessibility for the gripping of the object. The object accessibility is a kind of object property, which is information related in which direction the object should be approached and held. 12A is a diagram illustrating an approach direction of an object in a topological layer of an object according to an embodiment of the present invention, and FIG. 12B is a view of an object in a topological layer of an object according to an embodiment of the present invention. A diagram illustrating a contact point. As shown in FIG. 12, this information consists of a number of three-dimensional contact points that can pick up objects and an accessible direction value represented by a three-dimensional direction vector.

물체의 보편적 정보계층은 보편적(generic) 물체 모델을 저장하는 정보계층으로서, 특정 물체 클래스(Class)에서 구체적 모델(Specific Model 또는 Instance)에 대하여, 상식 수준에서의 공통적인 기하학적 특징들만을 모아 하나의 추상적 구조로 표현한 정보들이다. 예를 들면, 컵의 보편적 특성을 정리해 보면, 일반적으로 음료수 보존, 음료수 마시기, 잡아서 들기 등의 기능과, 물을 담을 수 있는 적당한 부피의 오목한 공간, 컵을 집도록 돕는 손잡이, 컵의 모양을 표현하는 실린더 형태의 몸체, 컵의 몸통 상단부를 표현하는 타원(Ellipse), 컵의 내부와 외부의 특성을 표현하는 볼록(Convex) 표면과 오목(Concave) 표면 등으로 구조화 될 수 있음을 알 수 있다. 이들 정보는 물체의 구체적 모델(Specific Model), 즉 물체의 고유한 인스턴스 모델을 가지고 있지 않을 경우, 즉 범주는 알고 있으나 정확한 모델을 보유하고 있지 않는 경우에서의 물체를 모델링하고 인지할 때, 또는 물체를 인식할 때 최적의 세그먼테이션 방법을 제시하거나 물체의 분절을 인식함으로 해서 각 분절의 기능을 추론하고자 할 때, 또 물체에 따라 다른 효과적인 인식 프로세스를 찾고자 할 때 유용하게 이용된다. 도 13은 본 발명의 일실시예에 따른 컵의 보편적 모델을 예시한 도면이다. 도 13에서 보는 바와 같이, 컵의 보편적 모델은 레벨 1에서 컵의 기능을 표현하고, 레벨 2에서는 컵을 분절하여 표현하며, 레벨 3에서는 각 분절을 추정할 수 있는 가장 유사한 지오메트리(geometry)로 표현이 가능하다.The universal information layer of an object is an information layer that stores a generic object model. For a specific model (Specific Model or Instance) in a specific object class, it collects only common geometric features at the common sense level. Information is expressed in an abstract structure. For example, the general characteristics of the cup can be summarized in terms of functions such as preserving the drink, drinking the drink, and holding the cup, as well as a concave space of a suitable volume to hold water, a handle to hold the cup, and the shape of the cup. It can be seen that it can be structured as a cylinder-shaped body, an ellipse representing the upper end of the body of the cup, a convex surface and a concave surface expressing the interior and exterior characteristics of the cup. This information is used when modeling and recognizing an object when it does not have a specific model of the object, that is, its own instance model, that is, a category is known but does not have an accurate model, or This method is useful for suggesting the best segmentation method for recognizing and inferring the function of each segment by recognizing the segment of the object, and for finding the effective recognition process according to the object. 13 is a diagram illustrating a universal model of a cup according to an embodiment of the present invention. As shown in FIG. 13, the universal model of the cup represents the function of the cup at level 1, the cup is segmented at level 2, and the level is represented by the most similar geometry to estimate each segment. This is possible.

물체의 시공간 정보계층은 컨텍스트 시공간 정보에 관한 것이다. 상기 컨텍스트는 물체가 시간에 따라 공간상의 위치가 어떠한 변화를 갖는지 표현하는 물체-공간의 시간 종속성, 물체가 시공간에 따라 존재 여부에 어떠한 영향을 받는지를 표현하는 물체-물체간의 시공간 종속성, 특정물체가 특정 시공간에 존재할 때 그에 따른 다른 물체의 존재성에 미치는 영향을 표현하는 물체 존재의 시공간 종속성, 물체의 기능이 시공간에 따라 어떻게 변화할 수 있는지를 표현하는 물체-기능의 시공간 종속성, 물체가 시공간에 따라 또는 앞 절에서 언급한 환경 정보(Environmental Information)에 따라 어떠한 물리적 변화(모양, 색, 텍스처(texture), 투명도 등)를 달리하는지 표현하는 물체-물리특성의 시공간 종속성 등이 있다.The spatiotemporal information layer of an object relates to context spatiotemporal information. The context includes the time-dependency of the object-space, which represents how the object's position in space changes over time, the space-time dependency between the object-object, and how the object is affected by its existence in space-time. Space-time dependence of the existence of an object that expresses its effect on the existence of another object when it exists in a specific space-time, space-time dependency of an object-function expressing how an object's function can change from space-time, Or the spatiotemporal dependence of object-physical properties to express what physical changes (shape, color, texture, transparency, etc.) vary depending on the environmental information mentioned in the previous section.

물체의 추론 정보계층은 증거 구조(Evidence Structure)로서 하위 정보계층 사이의 관계 및 물체인식을 위한 기본적인 상식(Common Sense)과 각 증거(Evidence)의 확률을 그래프 형식으로 표현한다. 이는 도 14에 도시한 바와 같다.The reasoning information layer of an object is an evidence structure, which expresses the relationship between the lower information layers and basic common sense for object recognition and the probability of each evidence in the form of a graph. This is as shown in FIG.

상기 공간물체 추론부(35)는 물체 또는 공간에 대한 하위계층 인식/추론 정보들로부터 상위계층 인식/추론 정보를 이용하여 정보를 검색하고 추론한다. 상기 공간물체 추론부(35)는 추론 정보계층의 추론 정보를 이용하여 추론하거나, 보편적 정보계층이나 시공간 정보계층의 의미론적 정보들을 통해 의미론적 추론을 하거나, 그 이하의 정보계층의 정보들에 대하여 특정 속성(또는 특징)이 매칭되는 대상을 검색하는 방법들을 통해 추론을 수행한다. 특히, 각 공간 또는 물체의 정보가 온톨로지로 구성되는 경우에는 상기 공간물체 추론부(35)는 온톨로지 추론엔진을 이용한 추론을 수행한다.The spatial object inference unit 35 searches for and infers information using lower layer recognition / inference information from lower layer recognition / inference information about an object or space. The spatial object inference unit 35 infers using inference information of the inference information layer, makes semantic inference through semantic information of the universal information layer or the spatiotemporal information layer, or the information of the information layer below it. Inference is performed through methods of searching for an object that matches a specific property (or feature). In particular, when the information of each space or object is composed of an ontology, the spatial object inference unit 35 performs inference using an ontology inference engine.

상기 미션해석 관리부(36)는 로봇에게 주어진 미션으로부터 로봇이 실행할 단위 행동을 결정하는 확률기반의 행동구조를 작성하여 저장하고, 상기 브로커수단의 요청에 의해 행동구조를 반환하거나, 로봇에게 주어진 미션을 해석하여 로봇이 실행할 단위 행동과 상기 행동에 필요한 정보를 추출하여 반환한다.The mission analysis manager 36 creates and stores a probability-based behavior structure that determines the unit behavior to be executed by the robot from the mission given to the robot, returns the behavior structure at the request of the broker means, or sends the mission given to the robot. The robot extracts and returns the unit action to be executed by the robot and the information required for the action.

상기 미션해석 관리부(36)는 지각(perception) 데이터, 증거구조(evidence structure), 행동(behavior)을 확률적인 우선순위관계(precedence relation)를 갖는 베이시안 네트워크(Bayesian network)로 상기 행동구조를 구성하고, 상기 우선순위관계(precedence relation)의 확률에 의해 최적의 경로(path)를 결정하여, 경로(path)상의 행동을 실행할 단위행동으로 추출한다.The mission analysis manager 36 configures the behavior structure as a Bayesian network having perceptual priority relations of perception data, evidence structure, and behavior. The optimal path is determined based on the probability of the precedence relation, and the action on the path is extracted as a unit action to be executed.

도 15는 본 발명의 일실시예에 따른 행동구조를 예시한 도면이다. 도 15에서 보는 바와 같이, 로봇은 컵을 "가져와라", 방안에 컵을 "찾아라", 컵을 "찾아서 가 져와라"라는 미션을 받을 수 있다. 로봇이 이런 미션을 받으면, 가져온다는 것은 "그 물체의 위치를 확인", "그 물체까지 이동한다", "그 물체를 집는다", "그리고 다시 제자리로 온다"등의 미션으로 다시 세분화될 수 있다. 또, "찾아라"라는 명령은 "컵이라는 물체의 형상과 광도계 특징을 얻는다", "주위를 둘러본다", "영상내에서 상기 물체의 형상과 매칭되는 것을 찾는다.", "주위가 어둡다면 조명을 켠다.", "조명은 천장 등의 스위치를 찾는다." "스위치까지 이동한다", "스위치를 켜는 정보를 얻는다", "정보대로 스위치를 켠다" 등 세부적인 미션, 즉, 미션수행을 위한 단위 행동으로 나눌 수 있다. 이 경우 미션을 단위명령으로 해석하는데, 규칙에 의한 해석도 가능하지만, 주위가 어두우면, 조명을 켜는 방법, 커튼을 걷는 방법 등 다양한 세부 미션으로 나뉠 수 있다. 따라서 이러한 상황들을 확률적인 기반의 베이시안 네트워크로 구성한다.15 is a diagram illustrating a behavior structure according to an embodiment of the present invention. As shown in FIG. 15, the robot may be given a mission to "take a cup", "find a cup" in the room, or "find a cup". When a robot receives such a mission, it can be subdivided back into missions such as "identify the object", "move to the object", "pick up the object", "and come back in place". have. In addition, the "find" command "gets the shape and photometric characteristics of an object called a cup", "looks around", "finds a match in the image with the shape of the object", and "when it is dark, Turn it on. "," Look for a light switch on the ceiling. " It can be divided into detailed missions, such as "go to the switch", "get information on the switch", "turn on the switch according to the information", that is, the unit action for performing the mission. In this case, the mission is interpreted as a unit command, but it can be interpreted according to rules. However, when the surroundings are dark, it can be divided into various detailed missions such as turning on a light and walking a curtain. Therefore, we construct these situations into a probabilistic based Bayesian network.

상기와 같이 미션을 단계적으로 베이시안 네트워크를 구성하여 확률에 의해 최적의 경로를 찾고, 그 경로상의 단위행동을 수행한다. 만약 최적의 단위행동이 이행에 실패하면 그 다음 최적의 단위행동을 찾아 수행한다.As described above, the mission is formed step by step to find the optimal path by probability and perform unit action on the path. If the best unit action fails, then the best unit action is found and executed.

한편, 상기 단위행동을 하기 위한 정보를 필요하다. 예컨대, "컵", "스위치", "집는 방법", "켜는 방법", "컵의 광도계 특징" 등 행동에 필요한 정보들도 함께 추출하여 반환한다.On the other hand, information for the unit action is needed. For example, information such as "cup", "switch", "how to grab", "how to turn on" and "photometer characteristics of the cup" is also extracted and returned together.

다음으로, 중앙 정보처리 시스템의 인터페이스부(32)가 실내 이동 서비스 로봇(10)의 정보요청을 처리하는 것을 보다 자세히 설명한다.Next, the interface unit 32 of the central information processing system processes the information request of the indoor mobile service robot 10 in more detail.

상기 인터페이스부(32)는 이동 서비스 로봇(10)에게 단순한 정보요청에 대해 처리한다. 즉, 이동 서비스 로봇(10)이 공간정보의 물체/장애물 위치 정보를 요청하면, 상기 인터페이스부(32)는 저장된 정보를 그대로 가져와 송부한다.The interface unit 32 processes a simple information request to the mobile service robot 10. That is, when the mobile service robot 10 requests the object / obstacle position information of the spatial information, the interface unit 32 takes the stored information as it is and sends it.

또, 상기 인터페이스부(32)는 대응되는 로봇으로부터 맵에 대한 요청이 있으면, 앞서 본 바와 같이, 공간정보의 기본맵 정보계층과 물체/장애물 위치 정보계층의 정보를 합하여 통합맵(United map)을 작성하여 상기 로봇에 제공한다. 상기 통합맵(United map)은 주로 로봇이 주행을 하는 경우에 이용된다.In addition, when the interface unit 32 requests a map from a corresponding robot, as described above, the interface unit 32 combines the information of the basic map information layer of the spatial information and the object / obstacle position information layer to form an integrated map. Create and provide to the robot. The United map is mainly used when the robot is driving.

또, 상기 인터페이스부(32)는 추론한 결과를 송부할 수도 있다. 예컨대, 서비스 로봇(10)이 컵을 가져오기 위한 미션을 수행하기 위하여, "컵까지의 공간정보"를 요청하면, 상기 인터페이스부(32)는 "컵"에 대하여 구체적인 어떤 "컵"인지를 추론하기 위하여, 공간물체 추론부(35)에 이에 대한 추론을 요청한다. 따라서 상기 인터페이스부(32)는 상기 공간물체 추론부(35)에서 추론된 컵의 위치를 파악하여, 현 로봇(10)의 위치에서 상기 컵까지의 공간정보를 전송한다. 이때도 상기 컵까지의 공간정보에서 모든 물체에 대한 정보를 주는 대신, 이 물체를 장애물로 인식한 결과를 전송해 줄 수도 있을 것이다. 왜냐하면, 컵을 가져오는 미션을 수행하는 경우 공간상의 다른 물체들은 의미를 갖지 못하므로 장애물로 처리해도 무방하기 때문이다. 즉, 상기 인터페이스부(32)는 상기 서비스 로봇(10)의 인식/추론 수준에 부합되는 정보만을 제공할 수 있다. 또 하나의 예를 들면, 실내 청소만을 전담하는 지능형 이동 서비스 로봇에게 바닥청소 명령을 내리면, 물체를 모두 장애물로 인식하여 방에 대한 통합맵(united map) 또는 장애물맵 을 전송해 줄 수 있 다. 이것은 모두 서비스 로봇(10)의 인식/추론 수준에 의해 결정되고, 그 수준에 적절한 인터페이스를 구현한다.In addition, the interface unit 32 may send the result of deduction. For example, when the service robot 10 requests "spatial information up to the cup" in order to perform a mission for bringing the cup, the interface unit 32 infers a specific "cup" for the "cup". To do this, the spatial object inference unit 35 requests an inference about this. Therefore, the interface unit 32 detects the position of the cup inferred by the spatial object inference unit 35 and transmits spatial information from the position of the current robot 10 to the cup. In this case, instead of giving information about all objects in the spatial information up to the cup, it may transmit a result of recognizing the object as an obstacle. This is because other objects in space do not have meaning in the mission of bringing a cup, so they may be treated as obstacles. That is, the interface unit 32 may provide only information corresponding to the recognition / inference level of the service robot 10. For example, when the floor cleaning command is given to an intelligent mobile service robot dedicated to indoor cleaning only, all objects are recognized as obstacles and the united map or obstacle map for the room can be transmitted. This is all determined by the level of recognition / inference of the service robot 10 and implements the interface appropriate for that level.

한편, 상기 인터페이스부(32)는 서비스 로봇(10)에 의해 인식된 정보를 전송받아 내부의 정보를 갱신할 수도 있다. 즉, 중앙 정보처리 시스템(30)은 근본적으로 정보의 일 방향 제공뿐만 아니라 업데이트를 통한 공유도 가정하고 있다. 따라서 이는 결국 중앙 정보처리 시스템(30)이 단순 데이터베이스가 아닌 메모리(Memory)로서의 역할을 하게 됨을 의미한다. 일례로 아침에 거실 티(Tea) 테이블 위에 두었던 약봉지를 사람이 점심때 먹었다면 이제 그 약봉지는 더 이상 거실 티 테이블 위에 존재하지 않는다. 만일 다른 로봇(10)이 그 약봉지를 찾아내면 이러한 정보가 함께 공유되어야 한다. 즉, 물체가 없어졌다가나 옮겨졌다거나 새로운 물체가 실내에 들어온 경우, 서비스 로봇(10)은 중앙 정보처리 시스템(30)에서 받은 공간정보와 상이한 상황을 인식하여 이를 중앙 정보처리 시스템(30)에 전송한다.Meanwhile, the interface unit 32 may receive the information recognized by the service robot 10 and update the information therein. That is, the central information processing system 30 basically assumes not only one direction of information but also sharing through updating. Therefore, this means that the central information processing system 30 will act as a memory, not just a database. For example, if a person ate a bag that had been placed on a tea table in the morning for lunch, the drug no longer exists on the tea table. If another robot 10 finds the medicine bag, this information must be shared together. That is, when an object is lost or moved, or a new object enters the room, the service robot 10 recognizes a situation different from the spatial information received from the central information processing system 30 and sends it to the central information processing system 30. send.

현 단계에서는 로봇(10)에 의해 갱신되는 정보는 위상적 정보계층 이하의 정보에 한정하는 것이 바람직하다. 그 이유는 위상적 정보계층이하의 정보는 물체의 외형적 특징들이므로, 로봇(10)의 센싱에 의해 측정에 되는 데이터들이기 때문이다. 그러나 그 상위 정보계층의 정보는 의미론적 정보이므로, 로봇(10)의 지능이 학습 등 인공지능에 가까운 추론 능력을 가진 경우에만 갱신되는 정보가 신뢰될 수 있기 때문이다. 즉, 아직 서비스 로봇의 능력이나 한계로는 서비스 대상이 되는 물체(Object)에 대한 정보나 상위 정보계층의 의미론적 정보를 로봇의 판단으로 변경시키는 것은 무리이다. 추후 서비스 로봇에게 신뢰할 만한 공간 지각 능력이나 물 체 모델링 능력이 생긴다면 상위 정보계층의 정보들도 서비스 로봇에 의해 갱신될 수 있다.In this step, the information updated by the robot 10 is preferably limited to information below the topological information layer. This is because the information below the topological information layer is the external features of the object, and thus are the data to be measured by the sensing of the robot 10. However, since the information of the upper information layer is semantic information, the updated information can be trusted only when the intelligence of the robot 10 has reasoning ability close to artificial intelligence such as learning. That is, due to the capability or limitation of the service robot, it is unreasonable to change information about the object to be serviced or semantic information of the upper information layer to the judgment of the robot. In the future, if the service robot has a reliable spatial perception ability or object modeling capability, the information of the upper information layer may be updated by the service robot.

상기 설명에서와 같이 각 로봇(10)들은 중앙 정보처리 시스템(30)에 접속하여 정보를 취득/수정한다. 중앙 정보처리 시스템(30)은 새로운 데이터를 추론해 내거나 로봇(10)을 제어(Control)하기 위한 결정을 내리는 역할을 하지 않으므로 성능의 향상은 로봇(10) 단의 사용자(User)의 역량이 실제 성능 향상에 더 중요할 수 있다. 그러나 프레임워크(Framework)를 통한 효과적인 정보 관리와 정보계층 정책으로 입출력이 명확해지고 타 모듈과의 연동이 가능해 진다는 장점이 있다.As described above, each robot 10 is connected to the central information processing system 30 to acquire / modify information. Since the central information processing system 30 does not play a role of inferring new data or making a decision to control the robot 10, the improvement of performance is due to the fact that the capability of the user of the robot 10 stage is actual. It may be more important to improve performance. However, there is an advantage that input / output becomes clear and interworking with other modules is possible through effective information management and information layer policy through framework.

다음으로, 본 발명의 일실시예에 따른 서비스 로봇의 중앙 정보처리 시스템(30)의 프레임워크를 이용하여, 성능이 향상되거나 새롭게 가능하게 된 실험들을 도 16 내지 도 25에 따라 설명한다.Next, using the framework of the central information processing system 30 of the service robot according to an embodiment of the present invention, the performance is improved or newly enabled experiments will be described according to Figures 16 to 25.

도 16는 본 발명의 일실시예에 따른 실험에 사용된 로봇을 도시한 도면이고, 도 17은 본 발명의 일실시예에 따른 실험에서 공간정보 관리부의 맵DB의 입출력 관계를 도시한 도면이고, 도 18는 본 발명의 일실시예에 따른 실험에 사용된 시간 다이어그램을 도시한 도면이며, 도 19는 본 발명의 일실시예에 따른 실험에서 본 발명의 일실시예에 따른 메뉴얼을 통해 제공되는 3D 맵(좌) 및 통합된 SLAM 맵(우)을 도시한 도면이고, 도 20은 본 발명의 일실시예에 따른 실험에서 로봇의 패스 플래너(Path Planner)를 이용한 주행 시뮬레이션을 도시한 도면이다. 또한, 도 21은 본 발명의 일실시예에 따른 실험에서 물체정보의 기하학적 정보계층에 저장된 유사 물체 모델을 도시한 도면이고, 도 22은 본 발명의 일실시예에 따른 실험에서 온톨로지를 사용한 초기 파티클을 생성하는 것을 도시한 도면이며, 도 23는 본 발명의 일실시예에 따른 실험에서 공간 또는 물체를 인식하는 단계를 도시한 도면이다.16 is a view showing a robot used in an experiment according to an embodiment of the present invention, Figure 17 is a view showing the input and output relationship of the map DB of the spatial information management unit in the experiment according to an embodiment of the present invention, FIG. 18 is a diagram illustrating a time diagram used in an experiment according to an embodiment of the present invention, and FIG. 19 is a 3D provided through a manual according to an embodiment of the present invention in an experiment according to an embodiment of the present invention. FIG. 20 is a diagram illustrating a map (left) and an integrated SLAM map (right), and FIG. 20 is a diagram illustrating a driving simulation using a path planner of a robot in an experiment according to an exemplary embodiment of the present invention. 21 is a diagram illustrating a similar object model stored in a geometric information layer of object information in an experiment according to an embodiment of the present invention, and FIG. 22 is an initial particle using ontology in an experiment according to an embodiment of the present invention. FIG. 23 is a diagram illustrating a step of recognizing a space or an object in an experiment according to an embodiment of the present invention.

< 실험1 > 비전 기반 주행 및 SLAM 맵 업데이트Experiment 1 Vision-based Driving and SLAM Map Update

이 실험은 서비스 로봇(10)의 정보 시스템의 요구 조건 중 데이터의 과잉(Redundancy)을 줄이고 데이터의 병행성(Concurrency)과 유효성(Validation)을 보장하는 것에 초점을 맞춘다. 도 16에서 도시한 바와 같이 실험 환경으로 가정된 로봇(10)은 두 개의 맵 업-데이트 모듈(Map Up-date Module)을 갖고 있다. 또한, 도 17과 도 18에 도시된 바와 같이 실험에서 중앙 정보처리 시스템(30)은 SLAM에서 들어오는 정보와 메뉴얼(Manual)에서 들어오는 정보를 일관적이고 충돌을 방지할 수 있는 정책체계에 따라 정리하여 DB화 시킨다. 상기 매뉴얼(manual)에 의한 정보는 시스템 관리자에 의해 입력되는 정보이며, SLAM에 의한 정보는 실내의 여러 로봇(10)에 의해 센싱되어 인식되는 정보들을 수신하여 취합한 정보들이다. 로봇의 패스 플래너(Path Planner)는 중앙 정보처리 시스템(30)로 연결하여 최신 정보를 받아 사용한다. 즉, 중앙 정보처리 시스템(30)은 로봇으로부터 SLAM에 의한 공간정보를 입력받고, 매뉴얼에 기초하여 전체 맵을 관리하고, 맵을 요청하는 로봇에게 이 맵을 전송한다.This experiment focuses on reducing the redundancy of data among the requirements of the information system of the service robot 10 and ensuring the concurrency and validation of the data. As shown in FIG. 16, the robot 10 assumed as an experimental environment has two map up-date modules. In addition, as shown in FIGS. 17 and 18, in the experiment, the central information processing system 30 organizes the information coming from the SLAM and the information coming from the manual (Manual) according to a policy system that can consistently and prevent collisions. Make it angry. The information by the manual is information input by a system administrator, and the information by SLAM is information collected by receiving and recognizing information sensed and recognized by various robots 10 in the room. The path planner of the robot is connected to the central information processing system 30 to receive the latest information. That is, the central information processing system 30 receives the spatial information by the SLAM from the robot, manages the entire map based on the manual, and transmits the map to the robot requesting the map.

이를 로봇(10)에 적용한 실험 결과는 다음과 같다. 도 19의 좌측 맵은 메뉴 얼을 통해 로봇(10)에게 미리 제공되어 있는 3차원 지도이고, 도 20은 비전(Vision)을 통해 들어오는 데이터를 옥트리(Octree)로 표현한 후 점유 그리드(Occupancy Grid) 형태로 만드는 SLAM의 과정과 이를 이용한 패스 플래너(Path Planner)에 의해 생성된 경로를 로봇(10)이 주행하는 것을 시뮬레이션하는 과정을 보여준다.Experimental results of applying this to the robot 10 are as follows. The left map of FIG. 19 is a three-dimensional map provided in advance to the robot 10 through a manual, and FIG. 20 illustrates occupancy grid after representing the data coming through the vision as an octree. SLAM process and the process of simulating the robot 10 is driving the path generated by the path planner (Path Planner) using the same.

< 실험2 > 3D 물체 인식<Experiment 2> 3D object recognition

이 실험은 여러 정보계층의 데이터를 사용하여 일의 효율을 높일 수 있다는 것을 보이기 위해 시도한 실험이다. 이 실험의 미션(mission)은 냉장고에 있는 목표 물체를 잡기 위해 먼저 냉장고로 다가가고 냉장고 속의 물체 중에 원하는 물체인 주스(Juice)를 찾아 낸 후, 물체의 위치를 정확하게 파악해 내는 것이다.This experiment was attempted to show that the efficiency of work can be improved by using data of various information layers. The mission of this experiment is to approach the refrigerator first to catch the target object in the refrigerator, find the juice of the object in the refrigerator, and then pinpoint the location of the object.

먼저 냉장고의 대략적인 위치는 서비스 로봇의 중앙 정보처리 시스템(30)의 지도에 나타나 있으므로 < 실험 1 >의 경우처럼 냉장고를 찾아 주행하여 접근한다. 냉장고를 찾아가는 과정에서 도 21과 같이 유사한 물체를 만났을 경우 물체정보의 기하학적 정보계층과 광도계 정보계층의 정보뿐만 아니라 추론 정보계층의 증거구조로 정리되어 있는 매칭(Matching)을 위한 제한 지식(Constraint Knowledge)까지 이용하여 로봇(10)과 냉장고 간의 정확한 상대 공간적 위치를 파악한다. 예를 들어 냉장고와 에어컨(Air Conditioner)을 구분 지을 수 있는 주요한 정보는 검출되는 가로선(Horizontal Line)의 위치와 수이다. 또한 비슷한 물체인 책장(Book Shelf)과 구분 짓기 위해서는 가로선과 세로선(Vertical Line)의 비율을 확인해야 한다. 이러한 단순 선들의 관계로 구분이 어렵다면 보다 추상 영역에서 추론한 결과를 매칭에 사용해야 한다. 냉장고의 기능적 성격에는 손잡이가 필요하고 에어컨에는 손잡이가 필요 없다는 온톨로지적 추론(Ontological Inference)을 이용한다. 즉, 손잡이 여부에 대한 추론에 기초하여, 손잡이의 SIFT를 물체의 광도계 정보계층에서 찾아 손잡이 SIFT 매칭여부를 통해 냉장고 여부를 판별하는데 이용한다. 도 22은 온톨로지적 추론 정보와 물체의 기하학적 특징의 정보로 만들어낸 라인 모델(Line Model)의 관계를 나타낸다.First, since the approximate location of the refrigerator is shown on the map of the central information processing system 30 of the service robot, the refrigerator is located and approached as in the case of <Experiment 1>. In the process of visiting the refrigerator, when a similar object is encountered as shown in FIG. 21, constraint knowledge for matching, which is organized in the evidence structure of the inference information layer as well as the geometric information layer and the photometric information layer information of the object information. By using to determine the exact relative spatial position between the robot 10 and the refrigerator. For example, the main information that distinguishes the refrigerator from the air conditioner is the location and number of horizontal lines detected. Also, to distinguish it from the book shelf, which is a similar object, it is necessary to check the ratio of the horizontal line and the vertical line. If it is difficult to distinguish between these simple lines, the result inferred from the more abstract domain should be used for matching. It uses Ontological Inference that the functional nature of the refrigerator requires a handle and the air conditioner does not. That is, based on the inference of the handle or not, the SIFT of the handle is found in the photometric information layer of the object and used to determine whether the refrigerator is through the handle SIFT matching. FIG. 22 illustrates a relationship between ontology inference information and a line model generated from information of geometric features of an object.

이렇게 냉장고에 도착한 로봇(10)은 냉장고 안을 살펴보고 목표 물체를 찾기 시작한다. 탐색 영역이 충분히 작을 때 SIFT 매칭으로 보다 정확한 물체의 위치를 추정할 수 있다는 지식과 일반적으로 목표 물체는 냉장고에 있다는 시공간 정보계층의 정보로 로봇(10)은 목표 물체에 관한 감지 계획을 세운다. 이러한 감지 계획에 따라 로봇(10)은 물체의 정확한 위치를 판별해 낸다. 도 23는 냉장고에 도착한 로봇(10)이 광도계 정보계층 또는 실측 정보계층을 이용하여 해당 물체인 주스를 찾아내는 과정을 나타낸다.When the robot 10 arrives at the refrigerator as described above, the robot 10 starts looking for the target object. With the knowledge that a more accurate object position can be estimated by SIFT matching when the search area is small enough and the information of the spatiotemporal information layer that the target object is generally in the refrigerator, the robot 10 makes a sensing plan about the target object. According to this detection plan, the robot 10 determines the exact position of the object. FIG. 23 illustrates a process in which the robot 10 arriving at the refrigerator finds a juice that is an object using a photometric information layer or a measured information layer.

본 발명에 따른 중앙 정보처리 시스템(30)을 통한 이러한 계층적 정보의 사용은 로봇(10)이 미션을 수행함에 있어 불필요한 탐색 영역을 줄여주고 탐색 중 발견한 목표에 관한 확실성(Certainty)을 높이는 방법으로 작업시간을 줄여 준다. 이것은 본 발명에 의한 통합적 정보처리의 지원만으로 서비스 로봇의 성능 향상을 해줄 수 있음을 의미한다.The use of this hierarchical information through the central information processing system 30 in accordance with the present invention is a method of reducing the unnecessary search area in the robot 10 performing missions and increasing the authenticity of the targets found during the search. Reduce the working time. This means that the performance of the service robot can be improved only by supporting the integrated information processing according to the present invention.

< 실험 3 > A건물 N층에 가서 컵을 가져와라<Experiment 3> Go to N floor of Building A and bring a cup

본 발명의 일실시예에 따른 또 다른 실험을 도 24과 도 25을 참조하여 설명한다. 도 24과 도 25은 상기 실험은 서비스 로봇의 중앙 정보처리 시스템(30)을 이용하여, "A건물 N층에 가서 컵을 가져와라" 라는 사용자의 명령을 로봇이 수행하는 과정을 순서대로 도시한 것이다. Another experiment according to an embodiment of the present invention will be described with reference to FIGS. 24 and 25. 24 and 25 illustrate the process in which the robot performs a user's command "Go to Building N and bring a cup" using the central information processing system 30 of the service robot in order. will be.

우선 로봇이 작업 수행을 위해 건물 실내 맵과 물체 모델을 사용하기 위해서는 시스템 관리자에 의해서 사전에 중앙 정보처리 시스템(30)에 이들 정보가 입력되어 있어야 한다. 이를 위해 상기 관리자는 도 4에서 정의된 것처럼 공간 및 물체에 대한 각 정보계층의 정보를 모델링한다. 이 때, 공간에 실측 정보인 실내 맵은 2차원 그리드 맵(Graid map)과 기본적인 건물 설계도 작성 규칙 및 국제 건물설계 상호 문서교환 표준인 IFC 2xx 규약에 따라 CAD model 형태(맵은 ifcXML 또는 dfx, 물체는 x3d, dfx, 3ds, wrl, obj 등)로 저장한다. 그리고 이들 정보를 데이터베이스(20)에 등록하고 저장한다. 또, 물체/맵 모델의 편집이 필요할 경우는 DB로부터 이들 정보를 수정한다. 그리고 다시 이들을 DB서버에 갱신한다. 상기와 같은 수정과 편집을 하기 위해서 상기 중앙 정보처리 시스템(30)은 모델링수단(미도시)이 있어야 한다. 상기 모델링 수단은 일반적인 3D Architect, Auto CAD, 3D Studio Max, Maya 등의 상용 그래픽 모델링수단에 해당되므로 구체적 설시는 생략한다. 그리고 로봇에 의해 이전에 알지 못하던 새로운 물체가 발견되어 DB에 저장되었을 경우, 아직 이 물체의 이름, 종류(카테고리) 등을 알지 못하기 때문에 관리자가 이들 정 보를 DB에 직접 기록해 줄 필요가 있다.First, in order for a robot to use a building indoor map and an object model to perform a task, these information must be input to the central information processing system 30 in advance by a system administrator. To this end, the manager models the information of each information layer about space and objects as defined in FIG. At this time, indoor map, which is measured information in space, is CAD model type (ifcXML or dfx, object according to 2D grid map and basic building design rules and IFC 2xx protocol, which is the international document design interchange standard). Stores x3d, dfx, 3ds, wrl, obj, etc.) The information is registered in the database 20 and stored. If the object / map model needs to be edited, the information is corrected from the DB. Then update them on the DB server. In order to make such modifications and edits, the central information processing system 30 should have a modeling means (not shown). Since the modeling means corresponds to commercial graphic modeling means such as general 3D Architect, Auto CAD, 3D Studio Max, Maya, and the like, detailed description thereof will be omitted. And when a new object that was not previously known by the robot is found and stored in the DB, the administrator does not know the name and type (category) of the object yet, so the administrator needs to record the information directly in the DB.

도 24은 "A건물 N층에 가서 컵을 가져와라" 라는 명령을 수행하기 위해 A건물 N층, C호 방까지 이동할 때, 이 과정에서 발생하는 이동 서비스 로봇을 위한 실내 중앙 정보처리 시스템과의 통신과정을 도시한 것이다.FIG. 24 is a view of an indoor central information processing system for a mobile service robot occurring in this process when moving to Building N, Room C, to perform the command of "Go to Building N and bring a cup". It shows the communication process.

이 과정의 첫 번째 단계는 우선 로봇(10)은 컵이라는 것이 무엇인지 모르기 때문에 컵이라는 용어를 로봇이 이해할 수 있도록 인식에 필요한 구체적 모델로서 알려주어야 한다. 따라서 이를 위해 먼저 컵이라는 물체의 위치를 브로커 수단(31)(또는 대응되는 인터페이스부(32))에게 요청하고 상기 브로커수단(31)은 컵이라는 단어의 범주를 공간물체 추론부(35)를 통해 추론하고, 추론을 통해 컵은 검색하고 마실 수 있는 액체를 담을 수 있는 물체이며 전체 물체의 범주에서 별도의 범주를 갖고 있다는 것을 확인하게 된다. 그리고 이제 이 컵이라는 범주에 속하는 물체가 주로 어디에 있는지를 위상적 정보계층에서 검색하고 주로 N층 C호 부엌 또는 C호 책상위에 있었다는 사실을 확인하게 된다. 상기 브로커(31)는 이 정보를 이용하여 N층 C호 맵을 공간정보 관리부(33)에게 요청하고 공간정보DB(22)에 저장된 구조적 정보계층의 물체/장애물 위치를 확인하여 컵이라는 물체의 위치가 기록되어 있는지 확인하고 이 정보를 로봇에게 전달한다. 이때 로봇(10)은 검색된 컵의 위치를 로컬에 저장하고, 다시 그 물체가 있는 장소(N층 C호)로 이동하기 위해 현재 로봇이 위치하고 있는 층의 맵과 목적지인 N층의 통합맵을 브로커수단(31)에게 요청 하고 결과를 다운받아 로컬 맵DB에 저장한다. 여기서 이미 로봇이 위치하고 있는 층의 통합맵이 로봇의 로컬 맵DB에 저장되어 있다면 별도로 다운받기를 수행하지 않는다.The first step in this process is that the robot 10 does not know what the cup is, so the term cup should be informed as a specific model for recognition so that the robot can understand it. Therefore, for this purpose, first, the broker means 31 (or the corresponding interface unit 32) is requested for the position of an object called a cup, and the broker means 31 uses the spatial object inference unit 35 to determine the category of the word cup. Inference, and inference confirms that a cup is an object that can contain liquids that can be searched and drunk, and has a separate category from the whole object category. And now, the topological information layer is searched for where objects belonging to this cup category are located, and the fact that they are mainly on the N floor C kitchen or C desk is confirmed. The broker 31 requests the N-layer C map to the spatial information management unit 33 using this information, and checks the position of the object / obstacle of the structural information layer stored in the spatial information DB 22 to locate the object called a cup. Make sure that is recorded and pass this information to the robot. At this time, the robot 10 stores the location of the retrieved cup locally, and then brokers the map of the floor where the robot is currently located and the integrated map of the N floor, which is the destination, to move to the place where the object is located (N floor C). Ask the means 31, download the result and store it in the local map DB. If the integrated map of the floor where the robot is already located is stored in the robot's local map DB, it does not download separately.

다음 단계로 로봇은 N층 C호로 이동하기 위해 엘리베이터를 찾아야 한다. 현재 층의 맵을 이용하여 대략적인 엘리베이터의 위치를 확인하고 이동 중 로봇은 엘리베이터를 인식하기 위해 브로커수단(31)을 통해 물체정보 관리부(34)에게 요청하여 엘리베이터 모델을 다운받는다. 엘리베이터 모델은 물체정보의 추론 정보계층의 물체 인식의 판단기준을 확률적 그래프로 표현한 증거구조와 보편적 특징을 표현한 보편적 정보계층의 보편적 모델, 그리고 기하학적 정보계층의 기하학적 특징을 표현한 CAD 모델로써 구성되어 있다. 나머지 정보계층은 엘리베이터 모델이 텍스처가 없고 반사가 심하기 때문에 널(NULL) 값으로 채워져 있다. 로봇이 엘리베이터를 인식한 후에는 엘리베이터 버튼을 누르고 엘리베이터를 타고 엘리베이터 내부 버튼을 또 조작할 수 있어야 한다. 따라서 엘리베이터 내부 모델 또한 요구되어진다. 엘리베이터 내부 모델은 엘리베이터 외부와 달리 공간 정보에 해당하기 때문에 공간정보 관리부(33)에 요청되고 통합맵을 작성하여 가져온다.In the next step, the robot must find an elevator to move to N floor C. Using the map of the current floor to check the approximate location of the elevator, while moving the robot requests the object information management unit 34 through the broker means 31 to recognize the elevator to download the elevator model. The elevator model is composed of the evidence structure expressing the judgment criteria of the object recognition of the information layer in the object information, the universal structure of the universal information layer expressing the universal features, and the CAD model expressing the geometric features of the geometric information layer. . The rest of the information layer is filled with null values because the elevator model has no texture and is highly reflective. After the robot recognizes the elevator, it must be able to press the elevator button, ride the elevator and manipulate the elevator button again. Therefore, the interior model of the elevator is also required. Since the elevator internal model corresponds to the spatial information unlike the exterior of the elevator, it is requested by the spatial information management unit 33 to create and bring up an integrated map.

도 25은 본 발명에서 제시하는 이동 서비스 로봇의 중앙 정보처리 시스템(30)에서 제공하는 정보들을 이용하여 "A건물 N층에 가서 컵을 가져와라" 라는 명령을 수행하기 위해 A건물, N층, C호 방으로 진입하기 전 상황에서부터 진입 후 물체를 찾기까지의 과정을 도시하고 있다. 이 과정에서 모르는 물체를 발견할 경우 이 물체를 물체정보에 새로 추가하는 과정이 포함되며, 또 만약 발견된 물체에 대한 정보가 없고, 보편적 모델에 대한 정보조차 전혀 존재하지 않을 경우는 이를 장애물로 판단하여 공간정보를 갱신하는 과정을 포함한다.FIG. 25 is a view illustrating the construction of the A building, the N floor, to perform the command of "go to the N floor of Building A and bring a cup" by using the information provided by the central information processing system 30 of the mobile service robot according to the present invention. It shows the process from the situation before entering the room C to finding the object after the entry. In this process, if an unknown object is found, it includes adding a new object to the object information, and if there is no information about the found object and no information about the universal model is present, it is considered as an obstacle. To update the spatial information.

이 단계에서는 로봇이 N층에 도달했을 경우, 이전에 다운로드 되었던 통합맵을 이용하여 C호 방까지 이동하게 되며, C호 방 앞에 도달했을 때는 C호 방 내부의 공간정보(또는 맵정보)와 그 내부에 존재하는 고정물체(냉장고, 세탁기, 책상 등) 및 이동물체(컵, 시계, 의자 등)의 정보를 필요로 한다. 따라서 위의 과정과 마찬가지로 로봇(10)은 브로커수단(31)에게 이들 정보에 대해 요청하게 되고 브로커수단(31)은 이들 정보를 각각의 공간 또는 물체 관리부에게 요청하고 그 결과를 받아 로봇에게 재전송한다. 로봇(10)은 이들 정보를 받아서 로컬 통합맵 DB에 저장한다. 이때, 로봇 내부의 저장소는 저장용량이 한정적이기 때문에 로컬 저장소가 부족할 경우 사전에 정해진 허락되는 한도까지 고정물체부터 이동물체 순으로 다운로드 받아 저장하게 된다. In this step, when the robot reaches the N floor, it moves to the room C using the integrated map previously downloaded. When the robot reaches the room C, the space information (or map information) inside the room C and its Information on the fixed objects (refrigerators, washing machines, desks, etc.) and moving objects (cups, watches, chairs, etc.) existing therein are required. Therefore, as in the above process, the robot 10 requests the broker means 31 for these information, and the broker means 31 requests the information from each space or object management unit and receives the result and retransmits it to the robot. . The robot 10 receives these information and stores it in the local integrated map DB. At this time, since the storage inside the robot is limited in storage capacity, if the local storage is insufficient, it is downloaded and stored in order from a fixed object to a moving object up to a predetermined allowable limit.

로봇이 안으로 진입한 이후, 로봇이 모르는 물체를 발견했다면 물체의 대략적인 특징을 확인하고 이 특징을 갖는 범주의 물체가 중앙 정보처리 시스템(30)에 기록되어 있는지 확인하여야 한다. 따라서 로봇(10)은 브로커수단(30)에게 보편적 모델 정보를 요청하고 브로커수단(31)은 물체정보 관리부에게 요청 검색된 결과를 로봇(10)에게 전송한다. 로봇은 획득된 보편적 모델 정보를 이용하여 확인된 특징 과 비교, 발견된 물체가 속한 범주가 있는지 추론한다. 그리고 유사한 범주가 존재한다는 것이 확인되면 이 범주에 속하는 모델 데이터를 브로커수단(31)에게 요청한다. 그리고 브로커수단(31)에게 받은 모델을 이용하여 모르는 물체의 인식을 시도한다. 만약 인식이 성공한다면 해당 물체의 위치 및 자세를 브로커수단(31)에게 업데이트할 것을 요청하고 브로커수단(31)은 공간정보 관리부(33)에게 요청하여 위상적 정보계층의 물체/장애물 위치를 갱신하고, 통합맵 위에 이 물체의 위치 및 자세를 등록한다.After the robot enters in, if the robot finds an unknown object, it should check the approximate characteristics of the object and make sure that an object of this category is recorded in the central information processing system 30. Therefore, the robot 10 requests the universal model information from the broker means 30, and the broker means 31 transmits the searched result to the robot 10 to the object information management unit. The robot uses the acquired universal model information to compare the identified features and infer whether there is a category to which the found object belongs. When it is confirmed that a similar category exists, the broker means 31 requests model data belonging to this category. And using the model received from the broker means 31 attempts to recognize the unknown object. If the recognition is successful, ask the broker means 31 to update the position and attitude of the object, and the broker means 31 requests the spatial information manager 33 to update the object / obstacle position of the topological information layer. Register the object's position and pose on the unified map.

만일 이 과정에서 발견된 물체가 속하는 범주가 존재하지 않거나 범주는 존재하나 구체적(Specific) 모델 데이터가 존재하지 않을 경우는 도 25의 3번째와 4번째 단계에 해당하는 과정을 거치게 된다. 즉 데이터베이스에 존재하지 않는 모르는(Unknown) 물체는 장애물로 간주되어 이 정보를 반영하여야 한다. 추후 로봇은 이 정보를 이용해서 장애물을 피해 안전하게 조작/주행 작업을 수행할 수 있다. 마지막으로 로봇은 이 물체를 추후 관리자가 확인하여 정보를 입력하여 주기 전까지 로봇 스스로 모델링하여 가지고 있어야 한다. 따라서 로봇은 로봇 자체에 보유하고 있는 모델링 수단을 통해 물체의 형상(Shape)과 특징(Feature)들을 모델링하여 저장한다. 브로커수단(31)에 요청하여 공간정보 관리부(33)에 의해 이와 관련된 각 정보계층(주로 위상적 정보계층 이하)을 갱신하도록 한다.If a category to which an object found in this process belongs does not exist or a category exists but there is no specific model data, a process corresponding to steps 3 and 4 of FIG. 25 is performed. In other words, an unknown object that does not exist in the database should be considered as an obstacle and reflect this information. The robot can then use this information to safely manipulate and drive the obstacles. Finally, the robot must have the modeled robot itself until the manager checks the object and inputs the information later. Therefore, the robot models and stores shapes and features of an object through modeling means held by the robot itself. A request is made to the broker means 31 so that the spatial information management unit 33 updates each information layer (mainly a topological information layer or less) related thereto.

다음에 본 발명의 일실시예에 따른 서비스 로봇의 정보처리 방법에 대해 도 26를 참조하여 설명한다. 도 26는 본 발명의 일실시예에 따른 서비스 로봇의 정보처리 방법을 설명하는 흐름도이다.Next, an information processing method of a service robot according to an embodiment of the present invention will be described with reference to FIG. 26. 26 is a flowchart illustrating an information processing method of a service robot according to an embodiment of the present invention.

도 26에서 보는 바와 같이, 상기 서비스 로봇의 정보처리 방법은 (a) 상기 실내에 대한 공간 및 물체 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장하는 단계; (b) 상기 로봇들 각각에 대하여, 상기 로봇의 정보요청을 해석하고, 요청한 정보를 상기 로봇이 해석가능한 형태로 변환하여 전송하는 인터페이스를 구성하는 단계; (c) 상기 로봇의 공간 또는 물체에 대한 정보 검색요청을 받는 단계; 정보를 검색하기 위해 추론이 필요한지를 판단하여 필요하면, 물체 또는 공간에 대한 주어진 정보들로부터 상위계층 인식/추론 정보를 이용하여 정보를 추론하는 단계; (f) 요청된 공간 또는 물체에 대한 정보를 검색하는 단계; (g) 요청된 정보가 공간과 물체 정보가 동시에 필요한 경우에는 통합맵을 구성하는 단계; (h) 검색된 공간 또는 물체 정보를 상기 요청된 로봇으로 송부하는 단계;로 구성된다.As shown in Figure 26, the information processing method of the service robot comprises the steps of (a) configuring and storing the space and object information for the room for each layer according to the recognition / reasoning level; (b) for each of the robots, constructing an interface for interpreting the information request of the robot and converting the requested information into a form that the robot can interpret; (c) receiving an information search request for a space or an object of the robot; Determining if inference is needed to retrieve the information, and if necessary, inferring the information from the given information about the object or space using higher layer recognition / inference information; (f) retrieving information about the requested space or object; (g) constructing an integrated map if the requested information requires space and object information at the same time; (h) transmitting the retrieved space or object information to the requested robot.

상기 공간정보 또는 물체정보는, 실측한 정보를 저장하는 실측 정보계층, 광도계 특징(photometric feature)을 저장하는 광도계 정보계층, 공간 또는 물체를 기하학적 구조(geometric structure)로 분절하여 저장하는 기하학적 정보계층, 공간 또는 물체의 구성요소들을 구분하여 기호화하고 계층화하여 저장하는 구조적 정보계층, 공간상에서 물체의 위치 또는 장애물을 표현하는 정보를 저장하는 위상적 정보계층; 공간 또는 물체, 또는 상기 공간 또는 물체의 구성요소들의 보편적 모델을 정의하고 저장하는 보편적 정보계층, 물체 또는 공간의 시공간에 따른 변화와 관계를 저장하는 시공간 정보계층, 물체 또는 공간에 대한 하위계층 정보들로부터 공간 또는 물체, 또는 상기 공간 또는 물체의 상태를 추론하기 위한 추론정보를 저장하는 추론 정보계층으로 구성한다.The spatial information or object information may include: a measurement information layer storing measured information, a photometric information layer storing photometric features, a geometric information layer storing segmented spaces or objects in a geometric structure; A structural information layer for classifying, symbolizing, layering, and storing components of a space or an object, and a topological information layer for storing information representing a position or an obstacle of an object in a space; Universal information layer that defines and stores a space or object, or a universal model of the space or its components, space-time information layer that stores changes and relationships over time and space in an object or space, sublayer information about an object or space And an inference information layer that stores inference information for inferring a space or an object or a state of the space or an object from the object.

상기 공간의 실측 정보계층은 실내 공간의 지리적 정보를 저장하는 기본맵 정보를 포함하고, 상기 공간의 광도계 정보계층은 실내 공간의 광도계 특징으로 맵을 포함하고, 상기 공간의 기하학적 정보계층은 실내 공간을 기하학적으로 구성을 분절한 정보를 포함하고, 상기 공간의 위상적 정보계층은 물체의 전역적 좌표와 자세, 또는 장애물로 인식되는 물체에 대한 정보를 포함하고, 상기 공간의 보편적 정보계층은 공간 또는 공간의 구성부분에 대한 의미론적 정보를 포함하고, 상기 공간의 시공간 정보계층은 실내의 시간적 공간적 상황에 따라 달라지는 빛의 밝기, 조명의 방향, 온도, 습도를 포함한다.The measured information layer of the space includes basic map information for storing geographical information of the indoor space, the photometric information layer of the space includes a map as a photometric characteristic of the indoor space, and the geometric information layer of the space represents the indoor space. Geometrically segmented information, wherein the topological information layer of the space includes information about the global coordinates and attitudes of objects or objects recognized as obstacles, and the universal information layer of the space is space or space And the semantic information of the components of the space and the space-time information layer of the space includes the brightness of the light, the direction of the light, the temperature, the humidity that varies depending on the temporal and spatial situation of the room.

상기 물체의 실측 정보계층은 물체에 대한 실제 측정하여 얻은 2차원 또는 3차원 표현 데이터를 저장하는 2D/3D 원영상 정보를 포함하고, 상기 물체의 시공간 정보계층은 물체-공간의 시간 종속관계, 물체의 존재와 시공간 종속관계, 물체-물체간 시공간 종속관계, 물체-기능간 시공간 종속관계, 물체-물리특성의 시공간 종속관계를 포함하고, 상기 물체의 추론 정보계층은 하위 정보계층의 정보간의 관계를 확률로 작성하는 그래프를 저장하는 증거구조를 포함한다.The measured information layer of the object includes 2D / 3D original image information that stores two-dimensional or three-dimensional representation data obtained by actual measurement of the object, and the space-time information layer of the object includes a time-dependent relationship of object-space, object Existence and space-time dependence, space-time dependency between object and object, space-time dependency between object and function, and space-time dependency of object-physical characteristics. Include evidence structures to store graphs created by probability.

상기 광도계 특징은, SIFT(Scale Invariant Feature Transform), 해리스 코너(Harris Corner), 색(Color), 선(Line)에 대한 정보를 포함한다.The photometer features include information about Scale Invariant Feature Transform (SIFT), Harris Corner, Color, and Line.

상기 장애물 정보는, 메쉬(mesh) 또는 체적으로 표현하고 저장된다.The obstacle information is expressed and stored in a mesh or volume.

상기 2차원 또는 3차원 표현 데이터는, 적어도 둘 이상의 카메라 각도를 통 해 산출되는 2D 이미지(Raw Image), 레이저스캐너, 스테레오 카메라, 구조광 카메라 조명(Structured Light Camera) 중 어느 하나로부터 얻은 깊이 데이터(Depth Data), 상기 깊이 데이터로부터 생성된 메쉬 데이터(Mesh data) 중 어느 하나 이상을 포함한다.The two-dimensional or three-dimensional representation data is depth data obtained from any one of a 2D image (Raw Image), a laser scanner, a stereo camera, a structured light camera calculated through at least two camera angles ( Depth Data), and one or more of mesh data generated from the depth data.

상기 (a)단계는 상기 공간정보 또는 물체정보를 온톨로지로 구성하여 저장하고, 상기 (e)단계는 온톨로지에 의한 추론을 한다.In step (a), the spatial information or object information is configured and stored as an ontology, and step (e) is inferred by the ontology.

상기 인터페이스부는, 대응되는 로봇으로부터 맵에 대한 요청이 있으면, 공간정보의 기본맵 정보계층과 물체/장애물 위치 정보계층의 정보를 합하여 통합맵을 작성하여 상기 로봇에 제공한다.When the interface unit requests a map from the corresponding robot, the interface unit combines the information of the basic map information layer of the spatial information and the object / obstacle position information layer to create an integrated map and provide the integrated map to the robot.

상기 서비스 로봇의 정보처리 방법은, (a0) 상기 (a)단계 이전에 상기 로봇에게 주어진 미션으로부터 로봇이 실행할 단위 행동을 결정하는 확률기반의 행동구조를 작성하여 저장하는 단계; (d) 상기 (c)단계이후에 상기 로봇의 검색요청에 의해 행동구조를 반환하거나, 로봇에게 주어진 미션을 해석하여 로봇이 실행할 단위 행동과 상기 행동에 필요한 정보를 추출하여 반환하는 단계를 더 포함한다.The information processing method of the service robot may include: (a0) creating and storing a probability-based action structure for determining a unit action to be executed by the robot from a mission given to the robot before step (a); (d) after step (c), returning the action structure by the search request of the robot, or analyzing the mission given to the robot, and extracting and returning unit action to be executed by the robot and information necessary for the action. do.

상기 (a0)단계는 지각(perception) 데이터, 증거구조(evidence structure), 행동(behavior)을 확률적인 우선순위관계(precedence relation)를 갖는 베이시안 네트워크(Bayesian network)로 상기 행동구조로 구성하고, 상기 (d)단계는 상기 우선순위관계(precedence relation)의 확률에 의해 최적의 경로(path)를 결정하여, 경로(path)상의 행동을 실행할 단위행동으로 추출한다.In step (a0), perception data, evidence structure, and behavior are composed of the behavioral structure as a Bayesian network having a probabilistic priority relation. In step (d), an optimal path is determined based on the probability of the priority relation, and the action on the path is extracted as a unit action to be executed.

또한, 본 발명은 상기 서비스 로봇의 정보처리 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention also relates to a computer-readable recording medium recording the information processing method of the service robot.

상기 서비스 로봇의 중앙 정보처리 방법에 대한 설명이 미흡한 부분은 앞서 설명된 서비스 로봇의 중앙 정보처리 시스템에 대한 설명을 참고한다.For the insufficient description of the central information processing method of the service robot, refer to the description of the central information processing system of the service robot described above.

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.As mentioned above, although the invention made by this inventor was demonstrated concretely according to the said Example, this invention is not limited to the said Example and can be variously changed in the range which does not deviate from the summary.

본 발명은 실내에서의 이동 서비스 로봇에 필요한 정보를 공유하고 제공하는 분야에 적용이 가능하고, 특히, 실내에 여러 로봇이 이용되는 경우에도 적용이 가능하다.The present invention can be applied to the field of sharing and providing information required for the mobile service robot in the room, in particular, even when a number of robots are used in the room.

도 1은 본 발명에 따른 서비스 로봇의 중앙 정보처리 시스템 및 방법을 실시하기 위한 전체 시스템의 구성을 도시한 도면이다.1 is a view showing the configuration of an entire system for implementing a central information processing system and method of a service robot according to the present invention.

도 2는 본 발명의 일실시예에 따른 서비스 로봇의 중앙 정보처리 시스템의 구성에 대한 블록도이다.2 is a block diagram of a configuration of a central information processing system of a service robot according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 따른 중앙 정보처리 시스템의 정보계층에 대한 구성도이다.3 is a block diagram of an information layer of a central information processing system according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 따른 공간 또는 물체의 정보계층에 대한 구성을 예시한 도면이다.4 is a diagram illustrating a configuration of an information layer of a space or an object according to an embodiment of the present invention.

도 5는 본 발명의 일실시예에 따른 실제맵과 기본맵을 도시한 도면이다.5 is a diagram illustrating a real map and a base map according to an embodiment of the present invention.

도 6a는 본 발명의 일실시예에 따른 공간에서 추출된 광도계 특징(SIFT)을 도시한 도면이다.FIG. 6A is a diagram illustrating a photometric feature (SIFT) extracted in space according to an embodiment of the present invention.

도 6b는 본 발명의 일실시예에 따른 공간 정보의 광도계 특징(SIFT)을 3차원 맵 상에 표현한 도면이다.FIG. 6B is a diagram illustrating a photometric characteristic (SIFT) of spatial information according to an embodiment of the present invention on a three-dimensional map.

도 7a는 본 발명의 일실시예에 따른 장애물을 체적(Volumetric) 표현 방식인 Octree로 표현한 예시도이다.FIG. 7A illustrates an obstacle represented by Octree, which is a volumetric expression method, according to an embodiment of the present invention.

도 7b는 본 발명의 일실시예에 따른 실내 공간과 물체를 도시한 도면이다.7B is a view showing the interior space and the object according to an embodiment of the present invention.

도 9는 본 발명의 일실시예에 따른 통합맵의 ER 테이블을 도시한 도면이다.9 is a diagram illustrating an ER table of an integrated map according to an embodiment of the present invention.

도 8은 본 발명의 일실시예에 따른 공간의 추론 정보계층에서 증거구조를 예시한 도면이다. 8 is a diagram illustrating an evidence structure in the inference information layer of a space according to an embodiment of the present invention.

도 10a는 본 발명의 일실시예에 따른 3차원 물체인 연필을 CAD 형태 중 하나인 x3d 파일로 모델링한 결과를 예시한 도면이다.FIG. 10A is a diagram illustrating a result of modeling a pencil, which is a 3D object, according to an embodiment of the present invention as an x3d file, which is one of CAD forms.

도 10b는 본 발명의 일실시예에 따른 도 10a의 x3d 파일로 모델링한 코드를 도시한 것이다.FIG. 10B illustrates code modeled with the x3d file of FIG. 10A in accordance with an embodiment of the present invention.

도 11은 본 발명의 일실시예에 따른 구조적 정보계층에서 물체 구성정보를 예시한 도면이다.11 is a diagram illustrating object configuration information in a structural information layer according to an embodiment of the present invention.

도 12a는 본 발명의 일실시예에 따른 물체의 위상적 정보계층에서의 물체의 접근방향을 예시한 도면이다.12A illustrates an approach direction of an object in a topology information layer of an object according to an embodiment of the present invention.

도 12b는 본 발명의 일실시예에 따른 물체의 위상적 정보계층에서의 물체의 컨택 포인트(contact point)를 예시한 도면이다.12B is a diagram illustrating a contact point of an object in the topology information layer of the object according to an embodiment of the present invention.

도 13은 본 발명의 일실시예에 따른 컵의 보편적 모델을 예시한 도면이다.13 is a diagram illustrating a universal model of a cup according to an embodiment of the present invention.

도 14는 본 발명의 일실시예에 따른 물체의 증거구조를 예시한 도면이다.14 is a diagram illustrating an evidence structure of an object according to an embodiment of the present invention.

도 15는 본 발명의 일실시예에 따른 베이시안 네트워크로 표현된 행동구조를 예시한 도면이다.15 is a diagram illustrating an action structure represented by a Bayesian network according to an embodiment of the present invention.

도 16은 본 발명의 일실시예에 따른 실험에 사용된 로봇을 도시한 도면이다.16 is a diagram illustrating a robot used in an experiment according to an embodiment of the present invention.

도 17은 본 발명의 일실시예에 따른 실험에서 공간정보 관리부의 맵DB의 입출력 관계를 도시한 도면이다.FIG. 17 is a diagram illustrating input / output relations of a map DB of a spatial information management unit in an experiment according to an embodiment of the present invention.

도 18은 본 발명의 일실시예에 따른 실험에 사용된 시간 다이어그램을 도시한 도면이다.18 is a diagram illustrating a time diagram used in an experiment according to an embodiment of the present invention.

도 19는 본 발명의 일실시예에 따른 실험에서 본 발명의 일실시예에 따른 메뉴얼을 통해 제공되는 3D 맵(좌) 및 통합된 SLAM 맵(우)을 도시한 도면이다.FIG. 19 illustrates a 3D map (left) and an integrated SLAM map (right) provided through a manual according to an embodiment of the present invention in an experiment according to an embodiment of the present invention.

도 20은 본 발명의 일실시예에 따른 실험에서 로봇의 패스 플래너를 이용한 주행 시뮬레이션을 도시한 도면이다.20 is a diagram illustrating a driving simulation using a path planner of a robot in an experiment according to an exemplary embodiment of the present invention.

도 21은 본 발명의 일실시예에 따른 다른 실험에서 물체정보의 구조적 정보계층에 저장된 유사 물체 모델을 도시한 도면이다.21 is a diagram illustrating a similar object model stored in a structural information layer of object information in another experiment according to an embodiment of the present invention.

도 22은 본 발명의 일실시예에 따른 다른 실험에서 온톨로지를 사용한 초기 파티클을 생성하는 것을 도시한 도면이다.FIG. 22 illustrates generation of initial particles using ontologies in another experiment according to an embodiment of the present invention.

도 23는 본 발명의 일실시예에 따른 다른 실험에서 공간 또는 물체를 인식하는 단계를 도시한 도면이다.23 is a diagram illustrating a step of recognizing a space or an object in another experiment according to an embodiment of the present invention.

도 24은 본 발명의 일실시예에 따른 또 다른 실험에서 명령을 수행하기 위해 이동하는 과정에서 발생하는 통신과정을 설명한 흐름도이다.24 is a flowchart illustrating a communication process occurring in a process of moving to perform a command in another experiment according to an embodiment of the present invention.

도 25는 본 발명의 일실시예에 따른 또 다른 실험에서 명령을 수행하기 위해 방에 진입하는 단계에서 물체를 찾는 과정을 설명한 흐름도이다.25 is a flowchart illustrating a process of finding an object in a step of entering a room to perform a command in another experiment according to an embodiment of the present invention.

도 26는 본 발명의 일실시예에 따른 서비스 로봇의 정보처리 방법을 설명하 는 흐름도이다.26 is a flowchart illustrating an information processing method of a service robot according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10 : 서비스 로봇 11 : 로봇제어부10: service robot 11: robot control unit

20 : 데이터베이스 22 : 공간정보DB20: Database 22: Spatial Information DB

23: 물체정보DB 24 : 행위구조DB23: object information DB 24: behavior structure DB

30 : 로봇의 중앙 정보처리 장치 31 : 브로커 수단30: central information processing device of the robot 31: broker means

32 : 인터페이스부 33 : 공간정보 관리부32: interface unit 33: spatial information management unit

34 : 물체정보 관리부 35 : 공간물체 추론부34: object information management unit 35: spatial object reasoning unit

36 : 미션해석 관리부36: Mission Analysis Management Department

Claims (23)

실내에서 적어도 하나이상의 이동 서비스 로봇과 통신하는 중앙 정보처리 시스템에 있어서,A central information processing system for communicating with at least one mobile service robot indoors, 상기 로봇에 대응되는 적어도 하나이상의 인터페이스부를 포함하고, 상기 인터페이스부는 대응되는 로봇의 정보요청을 해석하고, 요청한 정보를 상기 로봇이 해석가능한 형태로 변환하여 전송하는 것을 특징으로 하는 브로커수단;A broker means comprising at least one interface unit corresponding to the robot, wherein the interface unit interprets an information request of a corresponding robot, converts the requested information into a form that the robot can interpret, and transmits the requested information; 상기 실내에 대한 공간 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 공간정보 요청에 의하여 요청된 공간정보를 검색하여 반환하는 공간정보 관리부;A spatial information manager configured to store and store the spatial information of the indoor space according to a recognition / inference level, and to retrieve and return the spatial information requested by the spatial information request of the broker means; 상기 실내에 존재하는 물체를 인식/추론 수준에 따라 계층별로 구성하여 저장하고, 상기 브로커수단의 물체정보 요청에 의하여 요청된 물체정보를 검색하여 반환하는 물체정보 관리부;An object information management unit configured to store and store objects existing in the room in layers according to recognition / inference levels, and retrieve and return object information requested by the object information request of the broker means; 물체 또는 공간에 대한 하위계층 인식/추론 정보들로부터 상위계층 인식/추론 정보를 이용하여 정보를 검색하고 추론하는 공간물체 추론부를 포함하고,A spatial object reasoning unit for searching for and inferring information by using upper layer recognition / inference information from lower layer recognition / inference information on an object or space, 상기 공간정보 또는 물체정보는,The spatial information or object information, 실측한 정보를 포함하는 실측 정보계층,A measurement information layer including measured information, 광도계 특징(photometric feature)을 포함하는 광도계 정보계층,A photometric information layer comprising a photometric feature, 공간 또는 물체를 기하학적 구조(geometric structure)로 분절한 정보를 포함하는 기하학적 정보계층,A geometric information layer comprising information segmented into spaces or objects into geometric structures, 공간 또는 물체의 구성요소들을 구분하여 기호화하고 계층화한 정보를 포함하는 구조적 정보계층,Structural information layer including information that is classified, layered, and layered on components of a space or an object, 공간상에서 물체의 위치 또는 장애물을 표현하는 정보 또는 물체의 파지를 위한 접근성 정보를 포함하는 위상적 정보계층;A topological information layer including information representing the position or obstacle of an object in space or accessibility information for holding of the object; 공간 또는 물체, 또는 상기 공간 또는 물체의 구성요소들의 보편적 모델에 대한 정보를 포함하는 보편적 정보계층,A universal information layer containing information about a space or object, or a universal model of components of the space or object, 물체 또는 공간의 시공간에 따른 변화와 관계에 대한 정보를 포함하는 시공간 정보계층,Spatiotemporal information layer including information about changes and relationships of objects or spaces in time and space, 물체 또는 공간에 대한 하위계층 정보들로부터 공간 또는 물체, 또는 상기 공간 또는 물체의 상태를 추론하기 위한 추론정보를 포함하는 추론 정보계층으로 구성하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.And an inference information layer including inference information for inferring the space or the object or the state of the space or the object from the lower layer information about the object or the space. 삭제delete 제 1 항에 있어서,The method of claim 1, 상기 공간의 실측 정보계층은 실내 공간의 지리적 정보를 포함하는 기본맵 정보를 포함하고,The measured information layer of the space includes basic map information including geographic information of the indoor space, 상기 공간의 광도계 정보계층은 실내 공간의 광도계 특징 맵을 포함하고,The photometric information layer of the space includes a photometric feature map of the indoor space, 상기 공간의 기하학적 정보계층은 실내 공간을 기하학적으로 분절한 정보를 포함하고,The geometric information layer of the space includes geometrically segmented information of the interior space, 상기 공간의 위상적 정보계층은 물체의 전역적 좌표와 자세, 또는 장애물로 인식되는 물체에 대한 정보를 포함하고,The topological information layer of the space includes information about an object recognized as an obstacle or global coordinates and attitude of the object, 상기 공간의 보편적 정보계층은 공간 또는 공간의 구성부분에 대한 의미론적 정보를 포함하고,The universal information layer of space includes semantic information about the space or its components, 상기 공간의 시공간 정보계층은 실내의 시간적 공간적 상황에 따라 달라지는 빛의 밝기, 조명의 방향, 온도, 습도를 포함하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.The space-time information layer of the space is a central information processing system of a service robot, characterized in that it comprises the brightness of the light, the direction of the illumination, temperature, humidity that varies depending on the temporal and spatial situation of the room. 제 1 항에 있어서,The method of claim 1, 상기 물체의 실측 정보계층은 물체에 대한 실제 측정하여 얻은 2차원 또는 3차원 표현 데이터를 저장하는 2D/3D 원영상 정보를 포함하고,The measured information layer of the object includes 2D / 3D original image information for storing two-dimensional or three-dimensional representation data obtained by actual measurement of the object, 상기 물체의 위상적 정보계층은 다수의 3차원 컨택 포인트(contact point)와 3차원 방향벡터로 표현되는 접근방향(accessible direction)의 정보를 포함하고,The topological information layer of the object includes a plurality of three-dimensional contact point (access point) and information of the accessible (accessible direction) represented by a three-dimensional direction vector, 상기 물체의 시공간 정보계층은 물체-공간의 시간 종속관계, 물체의 존재와 시공간 종속관계, 물체-물체간 시공간 종속관계, 물체-기능간 시공간 종속관계, 물체-물리특성의 시공간 종속관계에 대한 정보를 포함하고,The space-time information layer of the object is information about the time-dependent relationship between object-space, the existence and space-time dependency between objects, the space-time dependency between object and objects, the space-time dependency between object and functions, and the space-time dependency between object and physical properties. Including, 상기 물체의 추론 정보계층은 하위 정보계층의 정보간의 관계를 확률로 작성하는 그래프로 구성된 증거구조에 대한 정보를 포함하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.The inference information layer of the object includes the information on the evidence structure consisting of a graph to create a relationship between the information of the lower information layer as a probability, the central information processing system of the service robot. 제 3 항 또는 제 4 항에 있어서, 상기 광도계 특징은,The photometric characteristic of claim 3 or 4, wherein SIFT(Scale Invariant Feature Transform), 해리스 코너(Harris Corner), 색(Color), 선(Line)에 대한 정보를 포함하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.A central information processing system for a service robot, comprising information on a scale invariant feature transform (SIFT), a Harris corner, a color, and a line. 제 3 항에 있어서, 상기 장애물 정보는,The method of claim 3, wherein the obstacle information, 메쉬(mesh) 또는 체적으로 표현하는 정보를 포함하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.Central information processing system of a service robot, characterized in that it comprises information expressed in a mesh (mesh) or volume. 제 4 항에 있어서, 상기 2차원 또는 3차원 표현 데이터는,The method of claim 4, wherein the two-dimensional or three-dimensional representation data, 적어도 둘 이상의 카메라 각도를 통해 산출되는 2D 이미지(Raw Image),2D images generated by at least two camera angles, 레이저스캐너, 스테레오 카메라, 구조광 카메라 조명(Structured Light Camera) 중 어느 하나로부터 얻은 깊이 데이터(Depth Data),Depth data obtained from one of a laser scanner, a stereo camera, or a structured light camera, 상기 깊이 데이터로부터 생성된 메쉬 데이터(Mesh data)Mesh data generated from the depth data 중 어느 하나 이상을 포함하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.Central information processing system of a service robot, characterized in that it comprises any one or more of. 제 1 항에 있어서,The method of claim 1, 상기 공간정보 관리부 또는 물체정보 관리부는 상기 공간정보 또는 물체정보를 온톨로지로 구성하여 저장하고,The spatial information manager or object information manager configures and stores the spatial information or object information as an ontology, 상기 공간물체 추론부는 온톨로지에 의한 추론을 하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.The spatial object inference unit of the service robot central information processing system, characterized in that the inference by ontology. 제 3 항에 있어서, 상기 인터페이스부는,The method of claim 3, wherein the interface unit, 대응되는 로봇으로부터 맵에 대한 요청이 있으면, 공간의 실측 정보계층의의 기본맵 정보와 위상적 정보계층의 물체/장애물 위치 정보를 합하여 통합맵을 작성하여 상기 로봇에 제공하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.If there is a request for a map from a corresponding robot, a service robot comprising a combination of basic map information of the actual information layer of the space and object / obstacle position information of the topological information layer is prepared and provided to the robot. Central information processing system. 제 1 항에 있어서,The method of claim 1, 로봇에게 주어진 미션으로부터 로봇이 실행할 단위 행동을 결정하는 확률기반의 행동구조를 작성하여 저장하고, 상기 브로커수단의 요청에 의해 행동구조를 반환하거나, 로봇에게 주어진 미션을 해석하여 로봇이 실행할 단위 행동과 상기 행동에 필요한 정보를 추출하여 반환하는 미션해석 관리부를 더 포함하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.Create and store a probability-based behavior structure that determines the unit behavior to be executed by the robot from the mission given to the robot, return the behavior structure at the request of the broker means, or interpret the mission given to the robot and And a mission analysis management unit for extracting and returning information necessary for the action. 제 10 항에 있어서, 상기 미션해석 관리부는The method of claim 10, wherein the mission analysis management unit 지각(perception) 데이터, 증거구조(evidence structure), 행동(behavior)을 확률적인 우선순위관계(precedence relation)를 갖는 베이시안 네트워크(Bayesian network)로 상기 행동구조로 구성하고,Perception data, evidence structure, and behavior are composed of the behavioral structure as a Bayesian network having a probabilistic precedence relation, 상기 우선순위관계(precedence relation)의 확률에 의해 최적의 경로(path)를 결정하여, 경로(path)상의 행동을 실행할 단위행동으로 추출하는 것을 특징으로 하는 서비스 로봇의 중앙 정보처리 시스템.And determining an optimum path based on the probability of the precedence relation, and extracting the action on the path as a unit action to be executed. 실내에서 적어도 하나이상의 이동 서비스 로봇과 통신하는 중앙 정보처리 시스템을 이용하는 서비스 로봇의 정보처리 방법에 있어서,In the information processing method of a service robot using a central information processing system for communicating with at least one mobile service robot indoors, (a) 상기 실내에 대한 공간 및 물체 정보를 인식/추론 수준에 따라 계층별로 구성하여 저장하는 단계;(a) constructing and storing space and object information about the room for each layer according to a recognition / inference level; (b) 상기 로봇들 각각에 대하여, 상기 로봇의 정보요청을 해석하고, 요청한 정보를 상기 로봇이 해석가능한 형태로 변환하여 전송하는 인터페이스를 구성하는 단계;(b) for each of the robots, constructing an interface for interpreting the information request of the robot and converting the requested information into a form that the robot can interpret; (c) 상기 로봇의 공간 또는 물체에 대한 정보 검색요청을 받는 단계;(c) receiving an information search request for a space or an object of the robot; (e) 정보를 검색하기 위해 추론이 필요한지를 판단하여 필요하면, 물체 또는 공간에 대한 주어진 정보들로부터 상위계층 인식/추론 정보를 이용하여 정보를 추 론하는 단계;(e) determining if inference is needed to retrieve the information, and if necessary, inferring the information using the higher layer recognition / inference information from the given information about the object or space; (f) 요청된 공간 또는 물체에 대한 정보를 검색하는 단계;(f) retrieving information about the requested space or object; (g) 검색된 공간 또는 물체 정보를 상기 요청된 로봇으로 송부하는 단계;(g) sending the retrieved space or object information to the requested robot; 를 포함하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.Information processing method of the service robot comprising a. 제 12 항에 있어서, 상기 공간정보 또는 물체정보는,The method of claim 12, wherein the spatial information or object information, 실측한 정보를 포함하는 실측 정보계층,A measurement information layer including measured information, 광도계 특징(photometric feature)을 포함하는 광도계 정보계층,A photometric information layer comprising a photometric feature, 공간 또는 물체를 기하학적 구조(geometric structure)로 분절한 정보를 포함하는 기하학적 정보계층,A geometric information layer comprising information segmented into spaces or objects into geometric structures, 공간 또는 물체의 구성요소들을 구분하여 기호화하고 계층화한 정보를 포함하는 구조적 정보계층,Structural information layer including information that is classified, layered, and layered on components of a space or an object, 공간상에서 물체의 위치 또는 장애물을 표현하는 정보를 포함하는 위상적 정보계층;A topological information layer including information representing an object's position or obstacle in space; 공간 또는 물체, 또는 상기 공간 또는 물체의 구성요소들의 보편적 모델에 대한 정보를 포함하는 보편적 정보계층,A universal information layer containing information about a space or object, or a universal model of components of the space or object, 물체 또는 공간의 시공간에 따른 변화와 관계에 대한 정보를 포함하는 시공간 정보계층,Spatiotemporal information layer including information about changes and relationships of objects or spaces in time and space, 물체 또는 공간에 대한 하위계층 정보들로부터 공간 또는 물체, 또는 상기 공간 또는 물체의 상태를 추론하기 위한 추론정보를 포함하는 추론 정보계층으로 구성하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.And an inference information layer including inference information for inferring the space or the object or the state of the space or the object from the lower layer information on the object or the space. 제 13 항에 있어서,The method of claim 13, 상기 공간의 실측 정보계층은 실내 공간의 지리적 정보를 포함하는 기본맵 정보를 포함하고,The measured information layer of the space includes basic map information including geographic information of the indoor space, 상기 공간의 광도계 정보계층은 실내 공간의 광도계 특징 맵을 포함하고,The photometric information layer of the space includes a photometric feature map of the indoor space, 상기 공간의 기하학적 정보계층은 실내 공간을 기하학적으로 분절한 정보를 포함하고,The geometric information layer of the space includes geometrically segmented information of the interior space, 상기 공간의 위상적 정보계층은 물체의 전역적 좌표와 자세, 또는 장애물로 인식되는 물체에 대한 정보를 포함하고,The topological information layer of the space includes information about an object recognized as an obstacle or global coordinates and attitude of the object, 상기 공간의 보편적 정보계층은 공간 또는 공간의 구성부분에 대한 의미론적 정보를 포함하고,The universal information layer of space includes semantic information about the space or its components, 상기 공간의 시공간 정보계층은 실내의 시간적 공간적 상황에 따라 달라지는 빛의 밝기, 조명의 방향, 온도, 습도를 포함하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.The space-time information layer of the space is information processing method of a service robot, characterized in that it comprises the brightness of the light, the direction of the light, temperature, humidity that varies depending on the time and space of the room. 제 13 항에 있어서,The method of claim 13, 상기 물체의 실측 정보계층은 물체에 대한 실제 측정하여 얻은 2차원 또는 3차원 표현 데이터를 저장하는 2D/3D 원영상 정보를 포함하고,The measured information layer of the object includes 2D / 3D original image information for storing two-dimensional or three-dimensional representation data obtained by actual measurement of the object, 상기 물체의 위상적 정보계층은 다수의 3차원 컨택 포인트(contact point)와 3차원 방향벡터로 표현되는 접근방향(accessible direction)의 정보를 포함하고,The topological information layer of the object includes a plurality of three-dimensional contact point (access point) and information of the accessible (accessible direction) represented by a three-dimensional direction vector, 상기 물체의 시공간 정보계층은 물체-공간의 시간 종속관계, 물체의 존재와 시공간 종속관계, 물체-물체간 시공간 종속관계, 물체-기능간 시공간 종속관계, 물체-물리특성의 시공간 종속관계에 대한 정보를 포함하고,The space-time information layer of the object is information about the time-dependent relationship between object-space, the existence and space-time dependency between objects, the space-time dependency between object and objects, the space-time dependency between object and functions, and the space-time dependency between object and physical properties. Including, 상기 물체의 추론 정보계층은 하위 정보계층의 정보간의 관계를 확률로 작성하는 그래프로 구성된 증거구조에 대한 정보를 포함하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.The inference information layer of the object includes information about the evidence structure composed of a graph that creates a relationship between the information of the lower information layer as a probability. 제 13 항에 있어서, 상기 광도계 특징은,The method of claim 13, wherein the photometer features, SIFT(Scale Invariant Feature Transform), 해리스 코너(Harris Corner), 색(Color), 선(Line)에 대한 정보를 포함하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.An information processing method of a service robot, comprising information on a scale invariant feature transform (SIFT), a Harris corner, a color, and a line. 제 13 항에 있어서, 상기 장애물 정보는,The method of claim 13, wherein the obstacle information, 메쉬(mesh) 또는 체적으로 표현하는 정보를 포함하는 것을 특징으로 하는 서 비스 로봇의 정보처리 방법.An information processing method of a service robot, characterized by including information represented by a mesh or a volume. 제 15 항에 있어서, 상기 2차원 또는 3차원 표현 데이터는,The method of claim 15, wherein the two-dimensional or three-dimensional representation data, 적어도 둘 이상의 카메라 각도를 통해 산출되는 2D 이미지(Raw Image),2D images generated by at least two camera angles, 레이저스캐너, 스테레오 카메라, 구조광 카메라 조명(Structured Light Camera) 중 어느 하나로부터 얻은 깊이 데이터(Depth Data),Depth data obtained from one of a laser scanner, a stereo camera, or a structured light camera, 상기 깊이 데이터로부터 생성된 메쉬 데이터(Mesh data)Mesh data generated from the depth data 중 어느 하나 이상을 포함하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.Information processing method of a service robot, characterized in that it comprises any one or more of. 제 12 항에 있어서,The method of claim 12, 상기 (a)단계는 상기 공간정보 또는 물체정보를 온톨로지로 구성하여 저장하고,In step (a), the spatial information or the object information is configured and stored as an ontology, 상기 (e)단계는 온톨로지에 의한 추론을 하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.In the step (e), the information processing method of the service robot, characterized in that the reasoning by the ontology. 제 13 항에 있어서, 상기 (g)단계는,The method of claim 13, wherein step (g) 요청된 정보가 공간의 실측 정보계층의 기본맵 정보와 위상적 정보계층의 물체/장애물 위치 정보를 포함하면, 상기 정보를 합하여 통합맵을 작성하여 송부하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.And if the requested information includes the basic map information of the actual information layer of the space and the object / obstacle position information of the topological information layer, the information is combined to form and send an integrated map. 제 12 항에 있어서,The method of claim 12, (a0) 상기 (a)단계 이전에 상기 로봇에게 주어진 미션으로부터 로봇이 실행할 단위 행동을 결정하는 확률기반의 행동구조를 작성하여 저장하는 단계;(a0) creating and storing a probability-based behavior structure that determines the unit behavior to be executed by the robot from the mission given to the robot before step (a); (d) 상기 (c)단계이후에 상기 로봇의 검색요청에 의해 행동구조를 반환하거나, 로봇에게 주어진 미션을 해석하여 로봇이 실행할 단위 행동과 상기 행동에 필요한 정보를 추출하여 반환하는 단계를 더 포함하는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.(d) after step (c), returning the action structure by the search request of the robot, or analyzing the mission given to the robot, and extracting and returning unit action to be executed by the robot and information necessary for the action. Information processing method of a service robot, characterized in that. 제 21 항에 있어서,The method of claim 21, 상기 (a0)단계는 지각(perception) 데이터, 증거구조(evidence structure), 행동(behavior)을 확률적인 우선순위관계(precedence relation)를 갖는 베이시안 네트워크(Bayesian network)로 상기 행동구조로 구성하고,In step (a0), perception data, evidence structure, and behavior are composed of the behavioral structure as a Bayesian network having a probabilistic priority relation. 상기 (d)단계는 상기 우선순위관계(precedence relation)의 확률에 의해 최적의 경로(path)를 결정하여, 경로(path)상의 행동을 실행할 단위행동으로 추출하 는 것을 특징으로 하는 서비스 로봇의 정보처리 방법.The step (d) determines the optimal path based on the probability of the precedence relation, and extracts the action on the path as a unit action to be executed. Treatment method. 제 12 항 또는 제 22 항의 서비스 로봇의 정보처리 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording the information processing method of the service robot of claim 12 or 22.
KR1020080005137A 2007-03-30 2008-01-17 A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level KR100917377B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/076,893 US8214079B2 (en) 2007-03-30 2008-03-25 Central information processing system and method for service robot having layered information structure according to recognition and reasoning level
JP2008077271A JP4989532B2 (en) 2007-03-30 2008-03-25 Central information processing system for mobile service robot, information processing method for mobile service robot, and computer-readable recording medium recording information processing method for mobile service robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20070031901 2007-03-30
KR1020070031901 2007-03-30

Publications (2)

Publication Number Publication Date
KR20080089148A KR20080089148A (en) 2008-10-06
KR100917377B1 true KR100917377B1 (en) 2009-09-16

Family

ID=40151053

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080005137A KR100917377B1 (en) 2007-03-30 2008-01-17 A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level

Country Status (1)

Country Link
KR (1) KR100917377B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101021836B1 (en) 2008-10-09 2011-03-17 한국전자통신연구원 System for cooperation of multiple mobile robot using dynamic behavior binding and method thereof
US9861501B2 (en) 2013-11-08 2018-01-09 Samsung Electronics Co., Ltd. Walk-assistive robot and method of controlling the same
US11899467B2 (en) 2019-03-07 2024-02-13 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101013384B1 (en) * 2008-12-29 2011-02-14 한양대학교 산학협력단 Knowledge information system for service of intelligent robot
US9823078B2 (en) 2010-12-23 2017-11-21 Microsoft Technology Licensing, Llc Generating maps of private spaces using mobile computing device sensors
US9275078B2 (en) 2013-09-05 2016-03-01 Ebay Inc. Estimating depth from a single image
WO2018009523A1 (en) * 2016-07-05 2018-01-11 Austin Christopher B Dynamic data set modification and mapping
KR102656581B1 (en) * 2016-11-24 2024-04-12 삼성전자주식회사 Mobile robot and system having the same and controlling method of mobile robot
KR20200036678A (en) * 2018-09-20 2020-04-07 삼성전자주식회사 Cleaning robot and Method of performing task thereof
KR102181815B1 (en) * 2018-11-23 2020-11-24 한국전자기술연구원 Personalized arrangement robot and arrangement method using the same
KR102336450B1 (en) * 2018-12-12 2021-12-07 삼성전자주식회사 Method and robot device for sharing object data
KR102472176B1 (en) * 2020-02-20 2022-11-28 주식회사 케이티 Autonomous robot, location estimation server of autonomous robot and location estimation or autonomous robot using the same
KR102377475B1 (en) * 2020-08-26 2022-03-22 주식회사 케이스랩 Automatic driving system and location estimating method for moving object
KR102658312B1 (en) * 2021-11-12 2024-04-18 서울시립대학교 산학협력단 Contextual information approach method and apparatus for robot-based intelligent service

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7117067B2 (en) * 2002-04-16 2006-10-03 Irobot Corporation System and methods for adaptive control of robotic devices

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7117067B2 (en) * 2002-04-16 2006-10-03 Irobot Corporation System and methods for adaptive control of robotic devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이석한, "지능로봇 기술 : 연구 및 산업화 동향", 대한전자공학회지, Vol-32, No.1, 페이지 14~25, 2005년1월*

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101021836B1 (en) 2008-10-09 2011-03-17 한국전자통신연구원 System for cooperation of multiple mobile robot using dynamic behavior binding and method thereof
US9861501B2 (en) 2013-11-08 2018-01-09 Samsung Electronics Co., Ltd. Walk-assistive robot and method of controlling the same
US11899467B2 (en) 2019-03-07 2024-02-13 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Also Published As

Publication number Publication date
KR20080089148A (en) 2008-10-06

Similar Documents

Publication Publication Date Title
KR100917377B1 (en) A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level
JP4989532B2 (en) Central information processing system for mobile service robot, information processing method for mobile service robot, and computer-readable recording medium recording information processing method for mobile service robot
JP7395229B2 (en) Mobile cleaning robot artificial intelligence for situational awareness
JP7436103B2 (en) Collaborative and persistent mapping of mobile cleaning robots
US10845821B2 (en) Route planning for a mobile robot using configuration-based preferences
KR102577785B1 (en) Cleaning robot and Method of performing task thereof
JP2019525342A (en) How to control an autonomous mobile robot
CN106767755A (en) Method and device for planning autonomous formula equipment operating point
Lang et al. Semantic maps for robotics
CN106595664A (en) Indoor map generation, display and sending method and device
CN106814734A (en) The method and system of autonomous formula equipment are controlled using computing device
WO2022128896A1 (en) Method and apparatus for multiple robotic devices in an environment
Cornejo-Lupa et al. A survey of ontologies for simultaneous localization and mapping in mobile robots
KR102537364B1 (en) Autonomous robot, location estimation server of autonomous robot and location estimation or autonomous robot using the same
Turek et al. On human-centric and robot-centric perspective of a building model
CN116089609A (en) Autonomous decision-making execution method and device for robot task
Honerkamp et al. Language-grounded dynamic scene graphs for interactive object search with mobile manipulation
Afyouni Knowledge representation and management in indoor mobile environments
KR100916977B1 (en) Method for Hierarchical Controlling Moving Objects by Function of Environment Map
CN117444956A (en) Robot control method and device, storage medium and electronic equipment
CN117804420A (en) Robot navigation method and system based on multilayer map
Kolbe et al. 1st Technical Report-Discussion of Euclidean Space and Cellular Space and Proposal of an Integrated Indoor Spatial Data Model
Guang Intelligent Robotic Systems in Support of a Declining Birthrate and an Aging Population
Lomas et al. A robotic world model framework designed to facilitate human-robot communication
Foerster et al. Integrating Web-based Sensor Information into Geospatial Mass-market Applications through OGC Web Processing Services

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130530

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140617

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee