KR100486382B1 - Method and system for developing intelligence of robot, method and system for educating robot thereby - Google Patents

Method and system for developing intelligence of robot, method and system for educating robot thereby Download PDF

Info

Publication number
KR100486382B1
KR100486382B1 KR10-2002-0050726A KR20020050726A KR100486382B1 KR 100486382 B1 KR100486382 B1 KR 100486382B1 KR 20020050726 A KR20020050726 A KR 20020050726A KR 100486382 B1 KR100486382 B1 KR 100486382B1
Authority
KR
South Korea
Prior art keywords
robot
command
management server
educator
trainee
Prior art date
Application number
KR10-2002-0050726A
Other languages
Korean (ko)
Other versions
KR20030019125A (en
Inventor
신경철
박성주
김종현
김신
김성호
Original Assignee
주식회사유진로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사유진로보틱스 filed Critical 주식회사유진로보틱스
Publication of KR20030019125A publication Critical patent/KR20030019125A/en
Application granted granted Critical
Publication of KR100486382B1 publication Critical patent/KR100486382B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Abstract

본 발명은 메모리 사이즈의 한계로 지능 및 능력 확장에 한계가 있는 로봇을 통신네트워크를 통해 처리능력 및 데이타저장능력이 무한하게 확장될 수 있는 서버 및 관리자단말기에 접속하여 행동제어 수행할 수 있도록 함으로서, 로봇의 지능을 보완하는 방법 및 시스템과, 이를 이용하여 구현가능한 교육방법 및 시스템에 관한 것이다.The present invention allows the robot, which has limitations in intelligence and capacity expansion due to the limitation of memory size, to be connected to a server and a manager terminal which can infinitely expand processing and data storage capabilities through a communication network to perform behavior control. The present invention relates to a method and system for supplementing the intelligence of a robot, and an education method and system that can be implemented using the same.

즉, 본 발명은 로봇 자체에서 처리할 수 없는 명령에 대해, 관리서버 또는 관리자로부터 지시된 명령에 대한 행동정의를 지시받아 수행토록 함으로서, 더 많은 서비스 제공을 가능하게 하며, 또한, 이때, 다운로드되는 데이타를 교육컨텐츠로 함으로서, 로봇을 통해 사용자를 교육시킬 수 있도록 하는 것을 요지로 한다.That is, the present invention allows the service to be provided by the management server or the administrator instructed for the command that can not be processed by the robot itself, it is possible to provide more services, and, at this time, The main point is to use the data as educational content so that the user can be educated through a robot.

Description

로봇의 지능 보완 방법 및 시스템, 이에 의한 로봇을 이용한 다이나믹 교육 방법 및 시스템 {METHOD AND SYSTEM FOR DEVELOPING INTELLIGENCE OF ROBOT, METHOD AND SYSTEM FOR EDUCATING ROBOT THEREBY}Intelligent supplement method and system of robot, dynamic education method and system by robot {METHOD AND SYSTEM FOR DEVELOPING INTELLIGENCE OF ROBOT, METHOD AND SYSTEM FOR EDUCATING ROBOT THEREBY}

본 발명은 컴퓨터 네트워크를 이용한 로봇 지능 보완 방법 및 시스템에 관한 것으로서, 특히 컴퓨터 네트워크를 통해 원격지의 서버 시스템 및 관리자와 정보를 교환하여 높은 수준의 지능을 구비한 것과 같은 행동제어가 가능한 컴퓨터 네트워크를 이용한 로봇 지능 보완 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for complementing robot intelligence using a computer network, and more particularly, using a computer network capable of controlling behavior such as having a high level of intelligence by exchanging information with a remote server system and an administrator through a computer network. A method and system for complementing robot intelligence.

로봇 기술은 1990년대에 들어와, 산업용 로봇에서 비산업용 로봇으로의 전환이 시도되면서 많은 발전이 이루어졌으나, 상용화되기에는 아직 많은 문제점이 있다.In the 1990s, the robot technology has been developed a lot from the industrial robot to the non-industrial robot, but there are still many problems to be commercialized.

특히, 서비스 로봇이 사용자가 원하는 정도의 서비스를 제공하기 위해서는, 로봇이 주어진 명령을 이해하고, 주변환경을 인식하여 스스로 판단할 수 있어야 하며, 이러한 기능을 갖기 위해서는 로봇은 인공지능을 갖고 있어야 한다.In particular, in order for a service robot to provide a service that a user desires, the robot must understand a given command, recognize the surrounding environment, and judge itself. To have such a function, the robot must have artificial intelligence.

여기서 인공지능(人工知能 Artificial Intelligence)이란 학습이나 의사결정과 같은 인간의 능력과 유사한 동작을 컴퓨터가 대행할 수 있도록 하는 기술을 말하는 것으로서, 1950년대 중반에 연구가 시작되었으며 현재는 게임, 수학적 증명, 컴퓨터비전, 음성 인식, 자연어 인식, 전문가 시스템, 로봇공학, 생산자동화 등의 분야에서 널리 연구, 활용되고 있다.Artificial intelligence (artificial intelligence) refers to a technology that allows a computer to act like a human ability, such as learning or decision-making. Research began in the mid-1950s, and now games, mathematical proofs, It is widely researched and utilized in the fields of computer vision, speech recognition, natural language recognition, expert system, robotics, and production automation.

그런데, 지금까지의 인공지능 기술은 전문가 시스템과 같이, 모든 지식과 추론 형태를 미리 저장해 두고, 이를 기반으로 하여 상징적(symbolic)인 환경을 모델링하고, 상기 모델을 바탕으로 상황을 판단하고 결정하도록 구성되어 왔다.However, until now, artificial intelligence technology, like an expert system, stores all knowledge and inference forms in advance, models a symbolic environment based on them, and judges and determines the situation based on the model. Has been.

그러나, 이러한 방법은 프로그래머가 사전에 일어날 수 있는 모든 경우에 대하여 예측하여 프로그래밍을 하여야 한다는 단점이 있으며, 그 결과 프로그래머가 예측하지 못한 상황에 대해서는 처리불가능하게 되는 문제점이 있다.However, this method has a disadvantage in that the programmer must program in advance about all cases that may occur in advance, and as a result, the programmer cannot deal with a situation that is not predicted.

이에 인간의 능력과 더 유사하게 하고자 하는 시도로서, 생태학이나 뇌과학적인 측면에서 접근하는 방법이 연구되고 있으나, 아직은 동물의 지능에도 못미치는 미비한 형편으로, 수십년후에나 실용화가 가능할 것으로 예측되고 있다.As an attempt to more closely resemble human abilities, approaches have been studied in terms of ecology and brain science, but they are still inferior to the intelligence of animals, and are expected to be practical after decades.

또한, 컴퓨터 기술의 발달로 컴퓨터를 탑재한 로봇이 늘어나면서, 로봇의 연산력과 기억력등은 매우 향상되었으나, 센서기술과 이러한 수집정보를 처리하는 기술은 아직 미약한 수준이다. 예를 들어, 카메라를 통한 인식은 특별한 경우를 제외하고는 제대로 수행되지 않으며, 음성인식 역시 자연어 인식 처리에는 아직 못 미치고 있으며, 추론이나 사고는 현재 고려조차 못하고 있는 실정이다.In addition, as the number of robots equipped with computers increased due to the development of computer technology, the computing power and memory power of the robots have been greatly improved, but the sensor technology and the technology for processing such collected information are still weak. For example, the recognition through the camera is not performed properly except in special cases, the speech recognition is still less than the natural language recognition processing, and reasoning and thinking are not even considered at present.

이와 같은 상태에서, 사용자가 원하는 작업을 로봇에게 수행시키기 위해서는 로봇을 관리하는 사람이 옆에서 지켜보고 있거나, 일어날 수 있는 모든 상황을 감안하여 프로그램을 개발하는 등의 실현불가능한 방법밖에 없다.In such a state, in order to perform a task desired by the user, there is only a method that cannot be realized such as a person who manages the robot watching from the side or developing a program in consideration of all possible situations.

따라서, 서비스용 로봇이 사용자가 원하는 행동을 수행할 정도의 지능을 갖도록 하기 위한 새로운 방법이 요구되고 있다.Therefore, there is a need for a new method for the service robot to be intelligent enough to perform a desired action.

본 발명은 상술한 종래의 문제점을 해결하기 위하여 제안된 것으로서, 예측되지 않은 상황이 발생된 경우 로봇이 컴퓨터네트워크를 통해 서버 또는 관리자로부터 지시를 받아 대처하도록 함으로서, 사용자측면에서 로봇이 인간과 유사한 지능을 가지고 있는 것처럼 느낄 수 있도록 하는 로봇의 지능 보완 방법 및 시스템을 제공하는 것이다.The present invention has been proposed to solve the above-mentioned conventional problems. When an unexpected situation occurs, the robot receives instructions from a server or an administrator through a computer network so that the robot is similar to humans in terms of user. It is to provide a method and system for complementing the intelligence of robots that make them feel as if they have a sense of security.

본 발명의 다른 목적은 컴퓨터네트워크를 통해 관리자가 로봇의 음성 및 화상인식 데이타를 획득하여 로봇의 움직임제어가 가능하도록 함으로서, 미흡한 로봇의 지능을 보완하여 더 다양한 서비스 구현을 가능하게 한 로봇의 지능 보완 방법 및 시스템을 제공하는 것이다.Another object of the present invention is to enable the administrator to control the movement of the robot by acquiring the voice and image recognition data of the robot through a computer network, complementing the intelligence of the insufficient robot to complement the intelligence of the robot that enables the implementation of a variety of services It is to provide a method and system.

본 발명의 또 다른 목적은 로봇에 교육프로그램을 저장시켜 로봇을 통해 교육이 이루어지게 하면서 예측되지 않은 상황이 발생된 경우 로봇이 컴퓨터네트워크를 통해 서버 또는 관리자로부터 지시를 받아 대처하도록 함으로서, 피교육자에게 보다 현실감있는 학습환경을 제공하는 로봇을 이용한 교육 방법 및 시스템을 제공하는 것이다.Another object of the present invention is to save the training program in the robot to make the training through the robot, when the unexpected situation occurs, the robot receives instructions from the server or administrator through the computer network to respond to the trainees, It is to provide a teaching method and system using a robot that provides a realistic learning environment.

본 발명의 다른 목적 및 장점들은 하기에 설명될 것이며, 본 발명의 실시에 의해 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 첨부된 특허청구범위에 나타낸 수단 및 조합에 의해 실현될 수 있다.Other objects and advantages of the invention will be described below and will be appreciated by the practice of the invention. Furthermore, the objects and advantages of the present invention can be realized by means and combinations indicated in the appended claims.

상기와 같은 목적을 달성하기 위한 본 발명의 일 양태로서의 로봇의 지능 보안 시스템은Intelligent security system of a robot as an aspect of the present invention for achieving the above object is

여러가지 상황에 대한 로봇의 행동을 정의한 데이타를 저장관리하고, 새로운 상황이 발생시 로봇의 행동정의데이타를 새로 갱신하여 관리하는 관리서버;, 상기 관리서버에 무선인터넷을 통해 접속되며, 자유롭게 이동가능하고, 외부에서 또는 자체 판단에 의해 명령 생성시, 자체 행동정의데이타베이스 및 통신네트워크를 통해 접속된 관리서버의 행동 정의 데이타베이스를 검색하여 인식된 명령에 대한 적절한 행동 정의를 검색하여 수행하는 로봇; 상기 관리서버와 로봇간에 데이타통신을 가능하게 하는 통신네트워크로 이루어져, 로봇에서 새로운 명령 발생시 내부 프로그램된 행동정의가 없는 경우 로봇이 상기 관리서버에 접속하여 관리서버의 데이타를 검색하여 적절한 행동정의를 검색하고, 검색된 행동정의데이타를 수신받아 수행토록 하는 것을 특징으로 한다. 이러한 구성에 의하여, 로봇의 지능이 기프로그램된 것으로 한정되지 않고, 관리서버에서 제공하는 데이타만큼 확장가능하게 된다.A management server for storing and defining data defining the behavior of the robot for various situations, and updating and managing the behavior definition data of the robot when a new situation occurs, connected to the management server via the wireless Internet, and freely movable; A robot that searches for and executes an appropriate behavior definition for the recognized command by searching the behavior definition database of the management server connected through its own behavior definition database and communication network when the command is generated externally or by its own judgment; It consists of a communication network that enables data communication between the management server and the robot. When there is no internally programmed behavior definition when a new command occurs in the robot, the robot accesses the management server and searches for data from the management server to search for appropriate behavior definition. And it is characterized in that to receive and perform the searched behavior definition data. By this configuration, the intelligence of the robot is not limited to a preprogrammed one, but can be extended as much as the data provided by the management server.

더하여, 상기 시스템에 있어서, 상기 로봇에 주어지는 명령은 로봇이 수행할 하나의 행동을 정의하는 기본명령과, 상기 기본명령을 바탕으로 이루어지는 것으로, 로봇이 수행할 하나의 행동에 대하여 로봇의 상태에 따라서 각각 정의되는 다수의 기본명령으로 이루어지는 확장명령으로 구성되며, 이러한 명령은 스크립트 언어 방식으로 구현될 수 있다. 이러한 명령체계는 사용자의 로봇 조작을 용이하게 할 수 있다.In addition, in the system, the command given to the robot is based on a basic command defining one action to be performed by the robot and the basic command, and according to the state of the robot with respect to one action to be performed by the robot. It consists of an extended command consisting of a number of basic commands, each defined, which can be implemented in a scripting language. Such a command system can facilitate a user's robot manipulation.

더하여, 상기 시스템은 상기 관리서버에 연결되어, 상기 관리서버로부터 로봇으로부터 전달된 데이타를 출력하고 관리자가 입력한 데이타를 상기 관리서버를 통해 로봇으로 전달가능한 하나 이상의 관리자 단말기를 더 구비하고, 상기 로봇에서 요구하는 명령에 대한 행동정의데이타가 관리서버에 존재하는 않는 경우, 관리서버는 접속가능한 관리자 단말기를 검색하여 해당 관리자 단말기로 로봇의 상황을 전달하고, 관리자가 입력한 행동정의를 로봇으로 전달하도록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.In addition, the system is further provided with one or more manager terminals connected to the management server, which outputs the data transmitted from the robot from the management server and transfers the data input by the administrator to the robot through the management server, the robot If there is no action definition data for the command required by the management server, the management server searches the accessible manager terminal to deliver the robot status to the corresponding manager terminal and delivers the behavior definition input by the manager to the robot. Intelligent complement system of the robot, characterized in that.

더하여, 상기 시스템은 상기 관리자가 지시한 로봇의 응답명령은 스크립트를 이용하여 로봇이 취해야할 행동 및 동영상이 객체화되고, 이벤트화되며, 하나의 명령과 관련된 객체들은 묶어 로봇으로 전달하고, 로봇은 모든 명령데이타가 수신된 후 행동을 수행토록 하는 것을 특징으로 한다. 그 결과, 로봇의 명령수행시 시간지연등에 의한 부자연스러움을 없앨 수 있다.In addition, the system responds to the robot's response command by the administrator using scripts and actions to be taken by the robot are objectized and eventized, the objects associated with one command are bundled and delivered to the robot, the robot is all It is characterized in that the action is performed after the command data is received. As a result, it is possible to eliminate the unnaturalness caused by time delay or the like when performing the robot's command.

또한, 상기 시스템에서 상기 관리자 단말기는 관리서버에 저장된 명령 수행 및 행동 정의 데이타 목록을 제공하여, 관리자가 상기 관리자 단말기로 제공되는 관리서버의 정의 행동을 선택하거나, 상기 목록에 적절한 행동이 존재하지 않으면 직접 입력하도록 할 수 있다.In addition, in the system, the manager terminal provides a list of command execution and behavior definition data stored in the management server, so that the administrator selects a definition action of the management server provided to the manager terminal or if no appropriate action exists in the list. You can enter it directly.

그리고, 상기 관리자가 관리자 단말기로 입력한 응답내용은 텍스트형태로 로봇에 전달되고, 상기 로봇은 수신된 텍스트형태의 내용을 TTS 기능을 통해 로봇의 음성으로 출력되도록 하여, 사용자 입장에서 항상 일정한 음성으로 대화가 가능하며, 그 결과 동일성을 유지할 수 있게 되는 효과가 있다.In addition, the response information input by the administrator to the administrator terminal is transmitted to the robot in text form, and the robot outputs the received text form contents to the robot through the TTS function so that the user always has a constant voice from the user's point of view. Conversation is possible, with the result that the identity can be maintained.

본 발명에 의한 다른 양태로서, 로봇과 관리서버와 관리자 단말기를 통신네트워크로 연결하여 로봇의 지능을 보완하는 방법은 a) 로봇에서 사용자의 지시 또는 내부 상태변화에 따라 소정의 명령이 생성되는 단계; b) 로봇이 상기 단계에서 생성된 명령을 인식하고, 생성된 명령에 대한 행동정의가 존재하는지 자체 데이타를 검색하는 단계; c) 상기 검색결과 해당 명령에 대한 행동정의가 존재하면, 검색된 행동정의를 수행하고, 행동정의가 존재하지 않으면 무선네트워크를 통해 관리서버에 접속하여 상기 명령에 대한 행동정의의 검색을 요구하는 단계; d) 관리서버에서 로봇으로부터 전달된 명령에 대한 행동 정의가 데이타베이스에 존재하는지 검색하여, 존재하는 경우 해당 행동정의를 로봇으로 전송해주는 단계; 및 e) 로봇이 상기 관리서버로부터 전송된 데이타를 수신하여, 수신된 데이타의 행동정의에 따라 명령을 수행하는 단계;로 이루어지는 것을 특징으로 한다.According to another aspect of the present invention, a method for supplementing the intelligence of a robot by connecting a robot, a management server, and a manager terminal through a communication network includes: a) generating a predetermined command according to a user's instruction or internal state change in the robot; b) the robot recognizes the command generated in the step and retrieves its own data whether there is a behavior definition for the generated command; c) performing a searched behavior definition if the search result exists for the command, and if the behavior definition does not exist, accessing a management server through a wireless network and requesting a search for the behavior definition for the command; d) retrieving whether the action definition for the command delivered from the robot exists in the database in the management server, and if present, transmitting the action definition to the robot; And e) the robot receiving data transmitted from the management server and executing a command according to the behavior definition of the received data.

더하여, 상기 로봇의 지능 보완 방법은 f) 상기 d)단계에서, 관리서버내에 해당 명령에 대한 행동 정의가 존재하지 않는 경우, 상기 로봇의 요구를 관리자 단말기로 전달하는 단계; g) 관리자가 로봇으로부터 전달된 명령에 대해 로봇이 수행할 내용을 관리자 단말기로 입력하고, 관리자 단말기는 관리서버를 통해 관리자가 입력된 내용을 로봇으로 전달하는 단계; 를 더 포함하고, 로봇이 관리서버 또는 관리자 단말기로부터 제공된 지시된 행동을 수행토록 할 수 있다. 그 결과, 사용자는 로봇의 지능이 인간에 근접하는 것처럼 느낄 수 있다.In addition, the intelligent supplement method of the robot, f) in step d), if there is no action definition for the command in the management server, transmitting the request of the robot to the administrator terminal; g) the manager inputs contents to be performed by the robot with respect to the command transmitted from the robot to the manager terminal, and the manager terminal delivers the input contents by the manager to the robot through the management server; It further includes, and allows the robot to perform the indicated action provided from the management server or the administrator terminal. As a result, the user may feel as if the robot's intelligence is close to a human being.

또 다른 본 발명의 양태로서, 로봇의 지능을 보완하는 방법은 사용자가 로봇에게 1:1 대화명령을 지시하는 단계; 로봇이 사용자가 지시한 1:1 대화명령을 인식하여 관리서버로 전달하는 단계; 관리서버가 상기 로봇으로부터 1:1 대화명령을 수신하면, 접속가능한 관리자를 검색하여, 해당 관리자의 단말기로 로봇의 1:1 대화요구를 전달하고, 상기 관리자 단말기와 로봇의 통신로를 연결시키는 단계; 및 로봇 서버는 관리자 단말기와 1:1로 연결되면, 사용자의 음성 및 영상을 수집하여 관리자 단말기로 보내고, 관리자는 관리자 단말기에서 사용자의 상태를 보고 그에 대한 응답내용을 로봇으로 지시하는 단계로 이루어져, 로봇에서 자연스러운 1:1 대화 서비스 제공을 가능하게 한다.In still another aspect of the present invention, a method for supplementing the intelligence of a robot includes: a user instructing a robot in a 1: 1 conversation command; Recognizing, by the robot, the 1: 1 conversation command instructed by the user and transmitting the same to the management server; When the management server receives a 1: 1 chat command from the robot, searching for an accessible manager, transmitting a 1: 1 chat request to the terminal of the manager, and connecting the manager terminal to the communication path of the robot ; And when the robot server 1: 1 connected to the administrator terminal, and collects the user's voice and video sent to the administrator terminal, the administrator consists of the step of viewing the user's status in the administrator terminal and instructs the response to the robot, It enables to provide natural 1: 1 conversation service in the robot.

더하여, 상기의 로봇 지능 보완 방법은 관리서버가 관리자 단말기로 정의된 행동정의 목록을 제공하고, 관리자가 관리자 단말기를 통해 상기 목록을 검색하여, 적절한 대응명령이 있는 경우, 해당 명령을 선택하는 단계; 상기 관리자가 선택한 대응명령이 관리서버를 통해 로봇으로 전달되어 수행되는 단계; 상기 관리서버에서 제공하는 목록에 적절한 대응명령이 없는 경우, 관리자가 관리자 단말기를 통해 대응명령을 직접 입력하고, 입력된 명령이 로봇으로 전달되어 수행되는 단계를 더 포함할 수 있다.In addition, the robot intelligence complementary method, the management server provides a list of behavior definitions defined as the administrator terminal, the administrator searches the list through the administrator terminal, if there is an appropriate corresponding command, selecting the command; The corresponding command selected by the manager is transmitted to the robot through a management server to be performed; If there is no appropriate corresponding command in the list provided by the management server, the administrator may directly enter the corresponding command through the administrator terminal, the input command is transmitted to the robot may be further performed.

본 발명의 또 다른 양태로서 로봇을 이용한 교육 방법은 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과, 이 로봇에 다양한 교육정보를 제공하는 컴퓨터를 통해 교육자가 특정 피교육자를 학습시키는 방법으로서, 상기 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리로 접근하기 위하여 이동하는 단계와; 피교육자가 교육 가능범위내에 포함되면, 상기 컴퓨터에 로봇의 고유식별코드를 전송하고, 이 식별코드에 해당하는 교육 컨텐츠를 다운로드받는 단계와; 상기 로봇과 특정 교육자를 컴퓨터 네트워크망을 통해 연결하는 단계를 포함한다. As another aspect of the present invention, an educational method using a robot is freely movable, an intelligent robot for transmitting and receiving data through a computer network, processing and informing the data, and a computer for providing various educational information to the robot. A method for teaching an educator to learn a specific trainee, the method comprising: moving the robot to search for the location of the trainee and approaching the trained distance to the trainee; Transmitting the unique identification code of the robot to the computer and downloading the education content corresponding to the identification code if the trainee is included in the education possible range; Connecting the robot and a specific educator through a computer network.

또한, 상기 교육방법은 상기 교육 컨텐츠내에 교육자의 학습지도를 요구하는 정보가 포함되어 있는지 여부를 판별하는 단계를 더 포함한다. 따라서, 상기 학습관리 컴퓨터는 교육자의 학습지도가 필요한 경우에만 상기 로봇과 교육자를 네트워크로 연결한다.The education method may further include determining whether the education content includes information for requesting an educator's learning guidance. Therefore, the learning management computer connects the robot and the educator to the network only when the educator's learning guidance is required.

본 발명의 교육방법은 상기 로봇이 상기 교육 컨텐츠에 액션 명령이 존재하는지 여부를 판별하는 단계와; 액션 명령이 존재하는 경우, 해당 액션 명령을 분석하고, 이 액션명령에 따라 로봇이 특정한 모션을 수행하는 단계를 더 포함할 수 있다.The teaching method of the present invention includes the steps of the robot determining whether an action instruction exists in the training contents; If the action command exists, the method may further include analyzing the action command and performing a specific motion by the robot according to the action command.

또한, 상기 교육방법은 상기 피교육자가 특정한 질문과 같은 피교육자측 요구를 상기 로봇에 입력하는 단계와; 상기 로봇이 상기 피교육자측 요구를 상기 교육자에게 출력하는 단계와; 상기 교육자가 상기 피교육자측 요구에 상응하는 응답을 상기 로봇에 입력하는 단계와; 상기 로봇이 상기 응답을 상기 피교육자에게 출력하는 단계를 더 포함할 수 있다.The teaching method may further include: inputting, by the trainee, a request from the trainee such as a specific question to the robot; The robot outputting the educator's request to the educator; Inputting, by the educator, a response corresponding to the request on the participant's side to the robot; The robot may further include outputting the response to the trainee.

또한, 상기 교육방법은 상기 교육 컨텐츠에 기반한 교육스케쥴이 종료되면, 교육수행결과를 상기 컴퓨터에 전송하는 단계와; 상기 교육수행결과를 저장하고, 이 교육수행결과를 상기 교육자에게 출력하는 단계와; 상기 교육자가 상기 교육수행결과에 근거하여 평가를 내리고, 이 평가정보를 상기 컴퓨터에 입력하는 단계와; 상기 평가정보를 상기 피교육자에게 출력하는 단계를 더 포함한다.The method may further include transmitting an education performance result to the computer when an education schedule based on the education content ends. Storing the training performance result and outputting the training performance result to the educator; The educator making an evaluation based on the educational performance result and inputting the evaluation information into the computer; And outputting the evaluation information to the trainee.

상기 교육방법은 상기 컴퓨터가 상기 교육수행결과에 근거하여 자체적으로 평가를 내리고, 이 평가정보를 상기 피교육자에게 출력하는 단계를 더 포함한다. The teaching method further includes the step of self-evaluating by the computer based on the result of the training and outputting the evaluation information to the trainee.

본 발명의 다른 일 양태로서의 교육시스템은 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과; 컴퓨터 네트워크를 통해 상기 지능형 로봇에 적절한 교육컨텐츠를 제공하기 위한 학습관리 컴퓨터를 포함하고; 이로인해, 상기 지능형 로봇은 상기 학습관리 컴퓨터로부터 제공되는 교육 컨텐츠를 음성, 화상 및 모션을 통해 피교육자에게 출력하고, 상기 피교육자는 상기 지능형 로봇을 통해 상기 학습관리 컴퓨터에 자신의 의사를 전달하는 것이 가능하다.According to another aspect of the present invention, there is provided an education system, comprising: an intelligent robot that is freely movable and that transmits and receives data through a computer network, and processes and data the data; A learning management computer for providing appropriate educational content to the intelligent robot via a computer network; As a result, the intelligent robot outputs education contents provided from the learning management computer to the trainee through voice, image, and motion, and the trainee can transmit his / her intention to the learning management computer through the intelligent robot. Do.

또한, 상기 교육시스템은 컴퓨터 네트워크를 통해 상기 지능형 로봇에 교육자의 음성 이나 모션을 전달하기 위한 교육자 정보단말을 더 포함한다. 이때, 상기 학습관리 컴퓨터는 상기 지능형 로봇과 상기 교육자 정보단말을 정보의 송, 수신이 가능하도록 상호 접속시키는 역할을 더 수행할 수 있다. In addition, the education system further includes an educator information terminal for transmitting an educator's voice or motion to the intelligent robot through a computer network. In this case, the learning management computer may further play a role of interconnecting the intelligent robot and the educator information terminal to transmit and receive information.

또한, 본 발명의 지능형 로봇은 피교육자가 부착하고 있는 RF모듈과 위치추적신호를 송, 수신하는 것에 의해 피교육자의 위치를 탐색하고, 위치가 탐색된 피교육자에 대해 일정한 거리로 접근하기 위한 위치추적시스템을 포함한다.In addition, the intelligent robot of the present invention provides a location tracking system for searching for the location of the trainees by transmitting and receiving an RF module and a location tracking signal attached to the trainees, and approaching the trainees whose location is found at a predetermined distance. Include.

본 발명의 지능형 로봇은 피교육자의 화상을 촬상하고, 이 촬상신호를 디지털화하여 이 디지털 촬상신호를 상기 교육자 정보단말에 전달하기 위한 화상처리시스템을 포함한다. 따라서, 상기 교육자는 피교육자의 학습상태를 수시로 관찰하여 효율적인 학습관리를 수행하는 것이 가능해진다.The intelligent robot of the present invention includes an image processing system for capturing an image of a trainee, digitizing the captured image signal, and delivering the digital captured signal to the educator information terminal. Therefore, the educator can observe the learning state of the trainees from time to time to perform efficient learning management.

본 발명의 또 다른 일 양태로서의 교육방법은 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과, 이 로봇에 다양한 교육정보를 제공하는 컴퓨터를 통해 교육자가 특정 피교육자를 학습시키는 방법으로서, 상기 피교육자가 상기 로봇을 통해 상기 컴퓨터에 학습요구를 입력하는 단계와; 상기 학습요구에 따라 대응하는 교육 컨텐츠를 상기 로봇에 다운로드하는 단계와; 상기 로봇이 음성, 화상 및 모션을 통해 상기 교육 컨텐츠를 상기 피교육자에게 출력하는 단계를 포함한다.As another aspect of the present invention, an educational method is freely movable, and includes an intelligent robot for transmitting and receiving data through a computer network, processing and informing the data, and a computer for providing various educational information to the robot. CLAIMS What is claimed is: 1. A method for teaching an educator to learn a specific educator, the method comprising: inputting a learning request to the computer through the robot; Downloading the corresponding educational content to the robot according to the learning request; And outputting, by the robot, the educational content to the trainee through voice, image, and motion.

상기 교육방법은 상기 학습요구에 따라 상기 로봇과 특정 교육자를 네트워크를 통해 접속시키는 단계와; 상기 피교육자가 질문을 포함하는 피교육자측 요구를 상기 로봇에 입력하는 단계와; 상기 피교육자측 요구를 대응하는 교육자에게 출력하는 단계와; 상기 피교육자측 요구에 기반한 교육자측 응답을 입력하는 단계와; 상기 로봇이 음성, 화상 및 모션을 통해 상기 교육자측 응답을 상기 피교육자에게 출력하는 단계를 더 포함할 수 있다. The education method includes the step of connecting the robot and a specific educator through a network according to the learning request; Inputting, by the trainee, a request from the trainee, the question including a question; Outputting the request from the participant to a corresponding educator; Inputting an educator's response based on the educator's request; The robot may further include outputting the educator's response to the educator through voice, image, and motion.

또한, 상기 교육방법은 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리내로 접근하기 위하여 이동하는 단계를 더 포함할 수 있다. In addition, the education method may further include the step of moving the robot to search for the location of the trainee, to approach within the distance available for the trainee.

이하, 첨부된 도면들을 참조로 본 발명의 바람직한 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

먼저, 도 1은 본 발명의 바람직한 실시예에 따른 로봇의 지능 보완 시스템을 나타낸 시스템구성도이다.First, Figure 1 is a system configuration diagram showing an intelligent complement system of a robot according to a preferred embodiment of the present invention.

도면에 도시된 바와 같이, 본 발명에 의한 로봇의 지능 보완 시스템은 무선데이타통신기능을 구비하고 프로그램상에서 처리할 수 없는 명령이나 상황 발생시 무선데이타통신기능을 통해 관리서버(300)에 접속하여 적절한 명령을 지시받아 수행하는 로봇(100)과, 상기 로봇(100)과 관리서버(300)간의 데이타 송수신 통로를 제공하는 통신네트워크(200)와, 다수의 상황에 대한 로봇(100)이 수행할 명령데이타를 저장하고 상기 로봇(100)으로부터 전송된 데이타를 입력받아 상기 로봇(100)의 상황을 인식하고 그에 따른 대응지시를 검색하거나 관리자단말기(400)로부터 제공받아 상기 로봇(100)에 제공하는 관리서버(300)와, 상기 관리서버(300)에 연결되어 있으며 관리서버(300)를 통해 로봇(100)의 정보를 전달받고 관리자가 그에 따른 지시를 내릴 수 있는 관리자 단말기(400)로 이루어진다.As shown in the drawings, the intelligent complement system of the robot according to the present invention is provided with a wireless data communication function and can not be processed in the program or when the situation occurs by connecting to the management server 300 through the wireless data communication function appropriate command The robot 100 to perform the instruction, the communication network 200 to provide a data transmission and reception path between the robot 100 and the management server 300, and the command data to be performed by the robot 100 for a number of situations The management server that stores and receives the data transmitted from the robot 100, recognizes the situation of the robot 100 and retrieves the corresponding instruction accordingly or is provided from the administrator terminal 400 and provided to the robot 100. 300 and the manager terminal 40 connected to the management server 300 and receiving the information of the robot 100 through the management server 300 and the administrator can give instructions accordingly. 0).

상기 통신네트워크(20)의 로봇(100)측과 연결되는 터미널은 상기 로봇(100)의 무선데이타를 송수신하기 위한 무선모뎀이 설치되고, 다른 터미널은 관리서버(300)에 연결되어 이루어지며, 상기 관리서버(300)와 관리자 단말기(400)의 하드웨어 구성은 일반적인 인터넷 서버와 단말기의 구성과 같다.The terminal connected to the robot 100 side of the communication network 20 is a wireless modem for transmitting and receiving wireless data of the robot 100 is installed, the other terminal is made is connected to the management server 300, The hardware configuration of the management server 300 and the manager terminal 400 is the same as that of the general Internet server and the terminal.

상기에서, 로봇(100)은 도 2a에 도시된 바와 같이, 자유롭게 이동가능하도록 전원을 공급하기 위한 밧데리(110)와, 상기 밧데리(110)로부터 제공된 전원을 각 부품이나 보드에 적절한 전압 및 전류로 변환하여 공급하는 전원부(120)와, 상기 로봇(100)에 장착된 다수의 센서 및 감지수단으로부터 입력된 신호를 통해 로봇의 상태를 인식하여 로봇이 수행할 명령을 생성하거나 및 외부 입력된 명령을 인식하여 명령을 수행하도록 행동을 지시하는 상위제어부(130)와, 상기 상위제어부(130)로부터의 지시에 따라 각종 구동장치를 실시간으로 제어하는 하위제어부(140)와, 상기 하위제어부(140)의 제어신호를 바탕으로 각각 로봇의 구동부 바퀴, 팔, 머리의 움직임을 만들어내며, 움직임 및 상태를 감지하는 구동/센서부(150)로 이루어진다.In the above, the robot 100, as shown in Figure 2a, the battery 110 for supplying power to move freely, and the power supplied from the battery 110 to the appropriate voltage and current for each component or board Generates a command to be executed by the robot by recognizing the state of the robot through a signal input from the power supply unit 120 to convert and supply, and a plurality of sensors and sensing means mounted to the robot 100 or to perform an externally input command The upper control unit 130 for instructing the action to recognize and perform a command, the lower control unit 140 for controlling various driving devices in real time according to the instructions from the upper control unit 130, and the lower control unit 140 On the basis of the control signal, the robot makes the movement of the wheel, arm, and head of the driving unit, and consists of a driving / sensor unit 150 for detecting the movement and state.

또한, 상기 로봇(100)의 제어처리구조는 도 2b에 도시한 바와 같이 구성된다. 먼저, 상기 로봇(100)의 상위제어부(130)는 네트윅 처리부(131)와, 명령생성부(132)와, 명령처리부(133)와, 제어통신부(134)로 이루어진다.In addition, the control processing structure of the robot 100 is configured as shown in Fig. 2b. First, the upper controller 130 of the robot 100 includes a network processor 131, a command generator 132, a command processor 133, and a control communication unit 134.

상기 네트윅처리부(131)는 인터넷(200) 상에 있는 관리서버(300)에 접속하여 상황을 보고하고, 그에 대한 적절한 행동명령을 서버(300)로부터 수신하는 기능을 수행한다.The network processing unit 131 connects to the management server 300 on the Internet 200, reports a situation, and performs a function of receiving an appropriate action command from the server 300.

그리고, 명령생성부(132)는 음성 또는 영상인식, 키보드 또는 버튼등으로부터 입력된 데이타를 이용하여 명령을 생성하는 곳으로, 명령 생성은 상기와 같은 외부 데이타 뿐만 아니라 로봇 내부의 상태 변환에 의해서 발생된다. 예를 들어, 밧데리 소모나 모터 고장 등과 같은 하드웨어 상태 변화나, 감정의 변화 같은 소프트웨어상의 상태 변화 등과 같은 내부 상태의 변화에 의해서도 명령이 생성된다.In addition, the command generation unit 132 generates a command using data input from voice or video recognition, a keyboard or a button, and the like. The command generation is generated not only by the external data but also by the state conversion inside the robot. do. For example, a command may be generated by a change in hardware state such as battery consumption or a motor failure, or a change in internal state such as software state change such as emotion change.

상기와 같이 명령생성부(132)에서 특정한 명령이 생성되면, 이 명령은 명령처리부(133)로 전달되어, 로봇이 수행할 수 있는 명령인지를 판단하게 된다. 또한, 명령처리부(133)는 로봇이 처리할 수 있는 명령이 입력된 경우, 현재 수행되고 있는 명령들과 우선순위를 비교하여, 우선순위에 따라 명령을 실행시킨다.When a specific command is generated in the command generation unit 132 as described above, the command is transferred to the command processing unit 133 to determine whether the command can be performed by the robot. In addition, when a command that can be processed by the robot is input, the command processing unit 133 compares the priority with commands currently being executed and executes the command according to the priority.

상기 명령처리부(133)로부터 내려온 명령은 제어통신부(134) 및 인터페이스(141)를 통해 하위제어부(140)의 콘트롤러(142)에 전달되고, 콘틀롤러(142)를 통해 행동제어가 이루어진다.The command issued from the command processor 133 is transmitted to the controller 142 of the lower controller 140 through the control communication unit 134 and the interface 141, and behavior control is performed through the controller 142.

즉, 콘트롤러(142)에서 행동제어명령에 따라 해당 장치의 드라이버(143)로 동작제어신호를 전달하면, 각 드라이버(143)에서는 해당 장치(144)를 구동시키고, 이에 의해 나타나는 변화는 센서부(150)에서 검출되어 다시 상기 하위제어부(140)로 전달된다.That is, when the controller 142 transmits the operation control signal to the driver 143 of the corresponding device according to the behavior control command, each driver 143 drives the corresponding device 144, and the change indicated by the sensor unit ( It is detected by the 150 and transmitted to the lower control unit 140 again.

그리고, 상기 로봇(100)에서 이루어지는 동작을 좀더 이해하기 쉽도록, 로봇(100)의 일실시예를 도 3에 보인다.In addition, an embodiment of the robot 100 is shown in FIG. 3 to make it easier to understand the operation performed in the robot 100.

이하에서, 도 3을 참조하여 상기 로봇(100)의 구체적인 구성을 설명한다. Hereinafter, a detailed configuration of the robot 100 will be described with reference to FIG. 3.

상기 로봇(100)은 기본적으로, 화상처리부(380), 음성처리부(390), 제어부(310), 저장장치(320), 모션제어부(360), 모션기구(365), 키입력부(350), 통신유닛(340), RF모듈(330), 안테나(335), 센서부(370)를 포함한다. The robot 100 basically includes an image processor 380, a voice processor 390, a controller 310, a storage device 320, a motion controller 360, a motion mechanism 365, a key input unit 350, The communication unit 340, the RF module 330, an antenna 335, and a sensor unit 370 are included.

상기 화상처리부(380)는 다시 CCD(charge coupled device)카메라로 이루어진 화상인식부(386)와, 액정표시패널(LCD)로 이루어진 화상표시부(385)로 구성된다. The image processing unit 380 is composed of an image recognition unit 386 made of a charge coupled device (CCD) camera and an image display unit 385 made of a liquid crystal display panel (LCD).

즉, 상기 화상인식부(386)는 주변의 상황을 촬상하고, 얻어진 촬상신호를 화상처리부(380)에 송출한다. 화상처리부(380)는 화상인식부(386)로부터 주어진 촬상신호나 상기 통신유닛(340)으로부터 공급되는 화상정보에 기초하여 화상인식부(386)에 의해 촬상된 외부의 상황이나, 외부로부터 전화회선 등을 통해 전달되는 화상의 내용을 인식하고, 이 인식결과를 화상인식신호로서 상기 제어부(310)에 송출한다.That is, the image recognition unit 386 captures the surrounding situation, and sends the obtained image pickup signal to the image processing unit 380. The image processing unit 380 is an external situation captured by the image recognition unit 386 based on an image signal supplied from the image recognition unit 386 or image information supplied from the communication unit 340, or a telephone line from the outside. The content of the image transmitted through the image is recognized, and the recognition result is sent to the controller 310 as an image recognition signal.

또, 상기 화상처리부(380)는 제어부(310)의 제어하에 화상인식부(386)로부터의 촬상신호에 대하여 소정의 신호처리를 수행하고, 얻어진 화상신호를 통신유닛(340)에 송출한다.In addition, the image processing unit 380 performs predetermined signal processing on the captured image signal from the image recognition unit 386 under the control of the control unit 310, and transmits the obtained image signal to the communication unit 340.

상기 음성처리부(390)는 다시 마이크(396)와 스피커(395)로 구성된다. The sound processor 390 is composed of a microphone 396 and a speaker 395 again.

상기 마이크(396)는 사용자로부터 주어지는 소리 등의 외부음을 집음하여 얻어진 집음신호를 음성처리부(390)에 송출한다.The microphone 396 transmits a sound collecting signal obtained by collecting external sound such as a sound from a user to the voice processing unit 390.

음성처리부(390)는 마이크(396)로부터 공급된 집음신호나 상기 통신유닛(340)으로부터 공급된 음성정보에 기초하여 마이크(396)를 통하여 집음한 단어 등이나 외부로부터 전화회선 등을 통하여 전달되는 단어의 의미를 인식하고, 이 인식결과를 음성인식신호로서 제어부(310) 및 통신유닛(340)에 송출한다. 또, 음성처리부(390)는 제어부(310)의 제어하에 합성음성을 생성하고, 이것을 음성신호로서 스피커(395)나 통신유닛(340)에 송출한다.The voice processing unit 390 is transmitted through a telephone line or the like collected from the microphone 396 based on a sound collecting signal supplied from the microphone 396 or the voice information supplied from the communication unit 340 or the like. The meaning of the word is recognized and the recognition result is sent to the control unit 310 and the communication unit 340 as a voice recognition signal. The voice processing unit 390 also generates a synthesized voice under the control of the control unit 310 and transmits it to the speaker 395 or the communication unit 340 as a voice signal.

상기 통신유닛(340)은 상기 제어부(310)가 전화회선, 인터넷 전용회선 등을 통해 외부와 통신하기 위한 무선 모뎀 등으로 구성된다.The communication unit 340 is configured as a wireless modem for the control unit 310 to communicate with the outside through a telephone line, an Internet dedicated line, and the like.

상기 키입력부(350)는 사용자가 입력한 코드번호에 기초하여 지령내용을 인식하고, 이 인식결과를 키입력신호로서 제어부(310)에 송출한다.The key input unit 350 recognizes the instruction content based on the code number input by the user, and transmits the recognition result to the control unit 310 as a key input signal.

상기 모션제어부(360)는 상기 제어부(310)로부터 전달되는 모션제어신호를 해석하여 모션구동신호를 생성하고, 이 모션구동신호를 상기 모션기구(365)에 전달하는 것에 의해 상기 로봇(300)을 전, 후, 좌, 우로 이동시키거나 로봇의 팔과 다리를 일정한 방향으로 유동시킨다.The motion controller 360 generates a motion drive signal by analyzing a motion control signal transmitted from the controller 310, and transmits the motion drive signal to the motion mechanism 365 to provide the robot 300. Move it to the front and back, left and right, or move the robot's arms and legs in a constant direction.

상기 RF모듈(330)은 로봇이 인식하는 사용자를 식별하기 위한 코드를 포함한 위치추적신호를 생성하여 이를 안테나(335)를 통해 외부로 송출하고, 안테나(335)를 통해 수신되는 외부 위치추적신호를 소정의 신호처리후에 제어부(310)로 송출한다.The RF module 330 generates a location tracking signal including a code for identifying a user recognized by the robot and transmits the location tracking signal to the outside through the antenna 335 and receives the external location tracking signal received through the antenna 335. The signal is sent to the control unit 310 after the predetermined signal processing.

상기 저장장치(320)는 하드디스크와 같은 보조기억장치의 일종으로서, 관리서버(300)로부터 전송되는 데이타를 사용자가 인식할 수 있는 형태로 전환하여 상기 화상표시부(385)를 통해 디스플레이하는 브라우저 프로그램과, 상기 관리서버(400)로부터 다운로드된 컨텐츠 및 이 컨텐츠에 포함된 프로그램과, 로봇을 스케쥴에 따라 제어하기 위한 로봇제어 프로그램과, 피교육자의 위치를 탐색하고, 추적하기 위한 위치추적프로그램 및 이들 프로그램을 실행하기 위한 플랫폼을 제공하는 운영체제 프로그램 등을 내장한다.The storage device 320 is a type of auxiliary memory device such as a hard disk. The storage device 320 converts the data transmitted from the management server 300 into a form that can be recognized by a user and displays the image on the image display unit 385. And contents downloaded from the management server 400 and programs included in the contents, a robot control program for controlling the robot according to a schedule, a location tracking program for searching and tracking the location of the trainees, and these programs. Built-in operating system programs that provide a platform to run

상기 센서부(370)는 다수의 센서로 이루어져 로봇의 상태 및 주변환경을 검출한다.The sensor unit 370 consists of a plurality of sensors to detect the state of the robot and the surrounding environment.

상기 제어부(310)는 음성처리부(390), 화상처리부(380), 통신유닛(340), 키입력부(350), RF모듈(330) 및 센서부(370) 로부터 각각 주어진 음성인식신호, 화상인식신호, 수신정보신호, 키입력신호, 센서신호 등에 기초하여 주변의 상황이나 사용자로부터의 동작 유무, 이상 유무, 사용자 또는 외부의 지령유무, 사용자의 학습상태 및 자기자신의 자세 및 위치 등을 판단한다.The controller 310 is a voice recognition signal, image recognition given from the voice processing unit 390, the image processing unit 380, the communication unit 340, the key input unit 350, the RF module 330 and the sensor unit 370, respectively Based on the signal, the received information signal, the key input signal, the sensor signal, etc., it is determined whether the surrounding situation, the operation from the user, the abnormality, the user or the external command, the learning state of the user, and the posture and position of the user. .

그리고, 제어부(310)는 이 판단결과 상기 로봇 제어프로그램에 기초하여 다음에 이어지는 자기의 행동을 결정하고, 결정결과에 기초하여 필요한 모션기구(365)를 구동시킴으로써 로봇의 머리나 팔, 다리를 상, 하, 좌, 우로 흔들거나, 다리를 구동하여 보행시키는 등의 행동이나 동작을 하게한다.Based on the determination result, the control unit 310 determines the next self action based on the robot control program, and drives the necessary motion mechanism 365 based on the determination result to raise the head, arms, and legs of the robot. Have them act or move, such as shaking up, down, left, or right, or driving with legs.

또, 제어부(310)는 필요에 따라 음성처리부(390), 화상처리부(380)를 제어함으로써 통신유닛(340)을 거쳐서 수신된 음성정보에 기초한 음성이나 음성처리부(390)에서 생성한 합성음성을 스피커(395)를 거쳐서 외부에 출력하거나 통신유닛(340)을 거쳐서 수신된 외부 화상정보에 기초한 화상이나 화상처리부(380)에서 생성한 화상을 화상표시부(385)에 표시하거나 외부로 송출할 위치추적신호를 상기 RF모듈(330)에 송출한다.In addition, the control unit 310 controls the voice processing unit 390 and the image processing unit 380 as necessary to synthesize the voice generated by the voice information or the voice processing unit 390 based on the voice information received through the communication unit 340. Position tracking for displaying or transmitting an image based on external image information received through the speaker 395 or received through the communication unit 340 or an image generated by the image processing unit 380 on the image display unit 385 The signal is sent to the RF module 330.

또한, 제어부(310)는 필요에 따라 통신유닛(340)을 제어함으로써 음성처리부(390)로부터의 음성신호에 기초한 음성정보나 화상처리부(380)로부터의 화상신호에 기초한 화상정보 및 외부조작 등에 따라 제어부(310) 자신이 생성한 명령정보를 학습관리서버(400)나 교육자 정보단말(500)에 송신한다.In addition, the control unit 310 controls the communication unit 340 as necessary, in accordance with the voice information based on the audio signal from the audio processing unit 390, the image information based on the image signal from the image processing unit 380, and external operations. The control unit 310 transmits the command information generated by itself to the learning management server 400 or the educator information terminal 500.

상기 제어부는 CPU(central processing unit), ROM(read only memory), 및 RAM(random access memory)을 포함하는 구조를 갖는다.The controller has a structure including a central processing unit (CPU), read only memory (ROM), and random access memory (RAM).

상기와 같이 구성된 로봇(100)에서 키입력부(350) 또는 음성처리부(390)를 통해 명령이 입력되거나, 다수의 센서등을 통해 로봇 자체의 상태를 감지하여 로봇상태에 따른 소정의 명령이 생성된 경우, 로봇(100)은 자체 프로그램에 따라 상기 명령에 따라 수행할 행동정의가 존재하는 지를 검색한다. 이때, 로봇(100)내에서 지시된 명령에 대한 로봇의 행동이 정의되어 있으면, 해당 정의에 따라 상기 명령을 수행하고, 자체 데이타베이스에 해당 명령에 대한 행동이 정의되어 있지 않는 경우, 상기 관리서버(300)에 접속하여, 상기 관리서버(300)의 데이타베이스에서 상기 명령에 대한 행동이 정의되어 있는지를 검색한다. 상기 관리서버(300)에 해당 명령에 대한 행동이 정의되어 있으면, 해당 행동명령을 전송받아 수행한다.In the robot 100 configured as described above, a command is input through the key input unit 350 or the voice processing unit 390, or a predetermined command according to the robot state is generated by detecting a state of the robot itself through a plurality of sensors. In this case, the robot 100 searches for whether there is an action definition to be performed according to the command according to its own program. At this time, if the behavior of the robot for the command instructed in the robot 100 is defined, the command is performed according to the definition, and if the behavior for the command is not defined in its own database, the management server Access 300, and search the database of the management server 300 whether the behavior for the command is defined. If the action for the command is defined in the management server 300, and receives the action command to perform.

또한, 상기와 같이 구성된 로봇으로 이루어진 도 1의 시스템은, 로봇의 사용자가 로봇(100)에 1:1 대화를 요구하면, 로봇(100)은 인터넷(200)을 통해 서버(300)에 접속하여 사용자의 1:1 대화요구를 전달한 후, 사용자의 음성 및 영상을 전송한다. 그리고, 상기 서버(300)는 1:1대화요구를 체크하여, 상기 로봇(100)과 임의의 관리자 단말기(400)를 연결시켜 주고, 이에, 로봇(100)으로부터 전송된 음성 및 영상은 해당 관리자 단말기(400)로 전달되고, 관리자는 상기 관리자 단말기(400)로 출력되는 로봇(100)으로부터 전달된 음성 및 영상을 보고 대화를 입력하거나 명령을 지시한다. 이러한 관리자의 지시 내용은 소정 방식으로 관리자 단말기(400)으로부터 로봇(100)으로 전송되고, 로봇(100)은 전송된 명령을 해석하여 지시된 음성이나 영상을 출력하거나, 지시된 명령을 실행한다.In addition, in the system of FIG. 1 including the robot configured as described above, when the user of the robot requests a 1: 1 conversation with the robot 100, the robot 100 is connected to the server 300 through the Internet 200. After transmitting the user's 1: 1 conversation request, the user's voice and video are transmitted. In addition, the server 300 checks a 1: 1 conversation request, connects the robot 100 with an arbitrary manager terminal 400, and the voice and video transmitted from the robot 100 are corresponding managers. The controller 400 is transmitted to the terminal 400, and the manager views a voice and an image transmitted from the robot 100 output to the manager terminal 400, and inputs a conversation or instructs a command. The instructions of the manager are transmitted from the manager terminal 400 to the robot 100 in a predetermined manner, and the robot 100 interprets the transmitted command to output the voice or video, or executes the command.

상기 처리에 의해, 사용자는 로봇(100)과 자연스러운 1:1 대화를 할 수 있다.By the above process, the user can have a natural 1: 1 conversation with the robot 100.

이상의 지능 보완 시스템에 의한 명령처리과정은 첨부된 도면을 참조하여 이하에 상술한다.The command processing process by the intelligent complement system is described below with reference to the accompanying drawings.

도 4는 상술한 설명중 로봇의 명령 처리 과정을 보인 플로우챠트로서, 로봇(100)은 사용자의 음성을 주명령원으로 사용하지만, 다른 수단, 예를 들어 키보드나 버튼으로부터 입력된 데이타를 명령원으로 사용할 수 있고, 또한 로봇내부의 상태에 따라 스스로 명령을 생성해내는 등 다양한 방법으로 명령을 받을 수 있다.FIG. 4 is a flowchart showing a command processing process of a robot in the above description, wherein the robot 100 uses a user's voice as the main command source, but uses data input from other means, for example, a keyboard or a button. It can also be used in various ways, such as generating a command by itself according to the state of the robot.

어떠한 방식이든 간에 로봇(100)에 명령이 주어지면, 로봇(100)은 먼저, 내부 제어부에 장착된 데이터베이스를 검색하여 주어진 명령에 대한 지시가 있는 지를 검색한다(S402). 이때, 자체 데이터베이스에 해당 명령이 존재하면(S403), 검색된 데이타에 따라 명령을 수행한다(S404).In any case, when a command is given to the robot 100, the robot 100 first searches a database mounted on the internal controller to search whether there is an instruction for a given command (S402). At this time, if the corresponding command exists in its own database (S403), the command is executed according to the retrieved data (S404).

상기에서, 로봇 자체의 데이터베이스에 주어진 명령과 관련된 데이타가 존재하지 않는다면, 로봇(100)은 네트웍처리부(131)가 구동하여 서버(300)에 접속하고(S405), 상기 서버(300)의 데이타베이스내에서 해당 명령이 있는 지를 검색한다(S406).In the above, if there is no data associated with a given command in the database of the robot itself, the robot 100 is driven by the network processing unit 131 to connect to the server 300 (S405), the database of the server 300 Search whether there is a corresponding command within (S406).

상기 서버(300)의 데이터베이스에 해당 명령에 대한 지시가 있다면(407), 상기 서버(300)로부터 명령을 수신받아(408), 해당 명령을 수행한다(404).If there is an instruction for the command in the database of the server 300 (407), the server 300 receives the command (408), and performs the command (404).

반대로, 서버(300)의 데이터베이스에도 관련된 명령이 존재하지 않는다면, 명령을 수행할 수 없음을 알리는 메시지를 출력한다(409).On the contrary, if there is no related command in the database of the server 300, a message indicating that the command cannot be performed is output (409).

상기에 의하여, 로봇(100)은 자체 데이터베이스에서 보유하고 있는 명령보다 더 많은 명령의 처리가 가능해진다.By this, the robot 100 can process more instructions than the instructions held in its database.

상기에서, 로봇(100)에 주어지는 명령은 스크립트 언어 방식으로 구현한다.In the above, the commands given to the robot 100 are implemented in a script language manner.

스크립트 언어로 로봇의 명령을 구성하는 경우, 여러가지 환경에 대한 로봇의 행동을 쉽게 구현할 수 있으며, 확장이 용이하다.When constructing a robot command in a scripting language, the robot's behavior for various environments can be easily implemented and easily extended.

상기 로봇(100)의 명령은 기본명령과, 상기 기본명령을 바탕으로 이루어지는 확장명령으로 구성된다. 상기 기본명령은 로봇(100)의 제어부를 위해 주어지며, 하나의 기본명령이 로봇(100)이 수행할 하나의 행동이 된다.The command of the robot 100 is composed of a basic command and an extended command based on the basic command. The basic command is given to the controller of the robot 100, and one basic command becomes one action to be performed by the robot 100.

그리고, 확장명령은 로봇(100)의 여러가지 상태에 따라서 다르게 반응하여야 할 경우를 위해서 존재한다.In addition, the extension command exists for the case where the robot 100 needs to react differently according to various states of the robot 100.

예를 들어, 기본명령으로 이동명령이 내려진 경우, 밧데리가 거의 다 소비된 경우와, 전원 공급이 충분히 된 경우 각각 다르게 움직일 필요가 있다. 이와 같은 상황을 위해서, 내부 하나의 확장명령이 갖는 기본명령들은 내부 상태에 따라 동일하다면, 하나의 기본 명령을 갖고, 내부 상태에 따라 틀리다면, 상태 개수만큼의 확장명령을 갖는다. 이러한 구조를 채택함으로서, 사용자가 로봇(100)의 명령체계를 더 쉽게 이해할 수 있으며, 그 결과 사용자의 로봇 조작이 용이해진다.For example, when a movement command is issued as a basic command, when the battery is almost exhausted and when the power supply is sufficient, the movement needs to be different. For such a situation, the basic instructions of an internal one extension instruction have one basic instruction if they are identical according to the internal state, and have as many extension instructions as the number of states if they are different according to the internal state. By adopting such a structure, the user can more easily understand the command system of the robot 100, and as a result, the user's robot manipulation becomes easier.

도 5는 상기 확장명령의 구조를 도시한 도면으로서, 확장명령ID와, 사용자의 음성명령을 인식하기 위한 음성인식용 키워드, 그리고, 명령처리의 우선순위, 이어서 로봇(100)의 내부 상태수만큼의 기본명령들과, 마지막으로 확장명령정보로 이루어진다.5 is a diagram showing the structure of the extended command, in which the extended command ID, the voice recognition keyword for recognizing the voice command of the user, and the priority of command processing, and then the number of internal states of the robot 100 are shown. It consists of the basic commands of and finally extended command information.

도 6은 본 발명에 따라 스크립트를 이용하여 구성된 명령의 한 예를 보인 것이다.6 shows an example of a command constructed using a script in accordance with the present invention.

서비스용 로봇은 단순히 움직이는 것이 아니라, 사용자가 원하는 서비스를 제공하여야 한다. 따라서, 사용자가 원하는 하나의 서비스를 제공하기 위해서는 이러한 명령들이 모여서 새로운 단위를 이루어야 한다. 즉, 사용자의 명령과 환경에 따라서 확장명령이 모여져 있는 명령 단위가 필요하다. 상기 도 6은 스크립트 언어를 이용하여 이와 같은 명령을 구현한 예를 보인 것으로서, 하나의 확장 명령에 대응하는 하나의 스트립트 함수가 존재하며, 이들 스크립트 함수를 이용하여, 로봇의 행동을 정의할 수 있다. The service robot should not simply move, but provide a service desired by the user. Therefore, in order to provide one service desired by the user, these commands must be gathered to form a new unit. In other words, it is necessary to have a command unit in which extended commands are gathered according to a user's command and environment. 6 illustrates an example of implementing such a command using a script language, and there is one script function corresponding to one extension command. By using these script functions, the behavior of a robot can be defined. .

그러나, 기본 명령에 대한 스크립트도 존재하며, 전문가등이 보다 세부적인 로봇의 움직임을 정의하기 위해서 기본명령을 사용할 수 도 있다. 로봇의 움직임을 제어하기 위한 스크립트 이외에도 보다 손쉽게 로봇의 행동을 프로그래밍하기 위한 if, switch, repeat 등과 같은 논리적인 스크립트도 존재한다. However, scripts exist for basic commands, and experts can use them to define more detailed robot movements. In addition to scripts for controlling robot movement, there are also logical scripts such as if, switch, repeat, etc. to more easily program robot behavior.

이렇게 구현된 스크립트의 종류는 도 7과 같다. 이와 같이, 하나의 일련된 행동을 조합하여 이루어지는 로봇의 행동은 상기 도 7과 같은 스크립트를 이용하여 용이하게 프로그래밍할 수 있다.The type of script implemented as described above is illustrated in FIG. 7. In this way, the behavior of the robot that combines a series of actions can be easily programmed using the script as shown in FIG.

도 6은 상기와 같은 스크립트로 구현된 명령의 일례를 보인 것으로서, 사용자와 간단한 대화를 하는 명령을 보여주는 것이다. 이 명령의 이름은 Hello로 정의되며 함수로 저장되게 된다. Hello 함수는 실행이 되면서 Move 함수를 호출하게 된다. 여기서, Move 함수는 사용자에게 이동하는 것으로 정의되어 있다고 가정하자. Hello 명령이 실행되면, 로봇은 먼저 Move 함수 호출을 통해서 사용자에게 이동해가고, TTS 스크립트를 통해서 사용자에게 "안녕하세요"라는 말을 내보낸다. 그 다음, REPLY 스크립트를 통해서 사용자로부터 "응"이나 "아니"라는 음성을 받게 되며, 이 결과는 a라는 임시 변수에, "응"이 응답될 경우 "1"로 저장되고, "아니"라는 응답을 받는 경우 2로 저장된다. 상기 a라는 임시변수의 값에 따라서, switch 스크립트는 결과가 1인 경우, 즉 "응"으로 대답한 경우, TTS 스크립트를 통해서 사용자에게 "무엇을 도와드릴까요?"라는 메시지를 내보내게 되고, 2인 경우 즉 "아니"로 대답한 경우, MoveHome 스크립트를 호출하게 된다. 여기서 MoveHome이 로봇이 원위치로 돌아가는 함수로 정의되어 있다고 가정하면, 사용자가 "아니"라고 대답한 경우 로봇은 원래 있던 위치로 돌아가게 되는 것이다.6 shows an example of a command implemented by the above script, and shows a command for simple conversation with a user. The name of this command is defined as Hello and will be stored as a function. As the Hello function executes, it calls the Move function. Here, assume that the Move function is defined as moving to the user. When the Hello command is executed, the robot first moves to the user through a call to the Move function, and then sends a "hello" message to the user through a TTS script. Then, through the REPLY script, the user receives a voice of "yes" or "no". The result is stored in a temporary variable called a as "1" if "yes" is answered, and "no". If received, it is stored as 2. Depending on the value of the temporary variable a, the switch script sends a message "What can I do for you?" To the user via the TTS script if the result is 1, that is, "yes". If the answer is no, then the MoveHome script will be called. Assuming that MoveHome is defined as a function that returns the robot to its original position, if the user answers "no", the robot will return to the original position.

그리고, 사용자가 음성을 이용하여 로봇(100)에게 명령을 내린 경우의 로봇의 처리는 앞서 설명한 도 4의 명령처리과정과 유사하게 이루어진다.In addition, the processing of the robot when the user gives a command to the robot 100 using voice is similar to the command processing of FIG. 4 described above.

먼저, 로봇(100)의 상위제어부(130)에서 사용자가 명령한 음성명령을 인식하여, 명령처리부(133)로 인식된 결과를 보낸다. 상기 명령처리부(133)는 앞서와 같이 음성명령을 자체 데이타베이스내에서 검색한다. 이때, 내부 데이타베이스에서 적절한 명령을 찾게 되면, 해당 명령을 수행하고, 그렇지 못할 경우에는 네트웍처리부(131)를 통해 서버(300)에서 그와 같은 명령에 대한 스크립트 명령이 있는 지를 검색한다. 상기 결과, 서버(300)에 주어진 명령에 대한 로봇의 행동이 정의되어 있는 경우, 로봇(100)은 서버(300)로부터 상기 정의된 로봇의 행동을 다운로드 받고, 다운로드받은 스크립트를 이용하여 행동을 제어한다.First, the upper controller 130 of the robot 100 recognizes a voice command commanded by a user, and sends the result recognized by the command processor 133. The command processing unit 133 searches for a voice command in its own database as described above. At this time, if a suitable command is found in the internal database, the command is executed. If not, the server 300 searches whether the server 300 has a script command for such a command through the network processor 131. As a result, when the behavior of the robot for the command given to the server 300 is defined, the robot 100 downloads the behavior of the defined robot from the server 300, and controls the behavior using the downloaded script do.

따라서, 사용자는 로봇이 미리 프로그램되어 있지 않은 상황에 대해서도, 스스로 판단하여 움직이는 것처럼 느끼게 된다.Therefore, the user feels as if he or she judges itself even in a situation where the robot is not programmed in advance.

또한, 상기 로봇(100)은 정기적으로 서버(300)에 접속하여, 새로운 행동정의 스크립트를 자체 데이타베이스에 다운로드받는다. 이렇게 함으로서, 상기 로봇(100)의 능력에 대한 확장 및 변경이 가능해진다.In addition, the robot 100 periodically accesses the server 300 and downloads a new behavior definition script into its own database. By doing so, it is possible to expand and change the capabilities of the robot 100.

상술한 바와 같이, 상기 시스템은 로봇(100)의 자체 데이타 베이스에 주어진 명령에 대한 로봇의 행동이 정의되어 있지 않은 경우, 더 많은 데이타를 저장한 서버(300)에 접속하여, 서버(300)로부터 행동지시를 받는다.As described above, when the robot's behavior for a given command is not defined in its own database of the robot 100, the system connects to the server 300 that stores more data, and from the server 300. Receive instructions for action.

그런데, 상기 서버(300)의 데이타베이스에 주어진 명령에 대한 로봇의 행동이 정의되어 있지 않은 경우, 로봇(100)에서 명령수행이 불가함을 알리는 에러메시지를 출력할 수 도 있지만, 이 경우, 사용자는 로봇(100)으로부터 원하는 서비스를 제공받지 못하게 된다.By the way, if the behavior of the robot for a given command is not defined in the database of the server 300, the robot 100 may output an error message indicating that the command is not possible, in this case, the user Is not provided with the desired service from the robot (100).

이를 해결하는 방법으로, 상기 서버(300)는 로봇(100)측에서 요구하는 명령에 대한 행동데이타가 존재하지 않는 경우, 상기 로봇(100)으로 에러 메시지를 전송하는 대신, 상기 로봇(100)으로부터 전송된 명령을 관리자 단말기(400)로 보내어, 답을 요구할 수 있다.In order to solve this problem, if there is no action data for the command requested by the robot 100, the server 300 transmits an error message to the robot 100, instead of transmitting the error message to the robot 100. The transmitted command may be sent to the manager terminal 400 to request an answer.

관리자 단말기(400)에는 한명 이상의 관리자가 배치되어 있어, 서버(300)로부터의 요구를 확인한 후, 로봇(100)으로부터 전달된 명령에 대한 적절한 해답(행동 또는 메시지출력등과 같은 로봇(100)의 대처방안)을 관리자 클라언트(400)를 통해 서버(300)에 제공한다.One or more managers are arranged in the manager terminal 400, and after confirming a request from the server 300, an appropriate answer to the command transmitted from the robot 100 (behavior or message output of the robot 100, etc.) Countermeasures) are provided to the server 300 through the manager client (400).

서버(300)는 관리자 단말기(400)로부터 제시된 행동정의를 로봇(100)으로 전달하고, 상기 로봇(100)은 관리자의 지시를 바탕으로 주어진 명령을 수행한다.The server 300 transmits the action definitions proposed from the manager terminal 400 to the robot 100, and the robot 100 performs a given command based on the manager's instructions.

이에 의하여, 로봇(100)은 보다 다양한 명령수행이 가능하게 되며, 사용자 입장에서는 로봇(100)의 수행능력이 더 높게 평가된다.As a result, the robot 100 can perform more various commands, and the performance of the robot 100 is evaluated higher from the user's point of view.

더하여, 상기 시스템은 사용자에게 1:1 대화 서비스를 제공할 수 있다.In addition, the system can provide 1: 1 conversation service to the user.

도 8은 상기 시스템을 통해 사용자에게 1:1 대화 서비스를 제공하는 과정을 보인 플로우챠트로서, 앞서와 마찬가지로, 사용자로부터 로봇(100)에게 1:1 대화명령이 음성 또는 키입력등으로 주어지면(S801), 로봇(100)의 명령인식장치에서 명령을 인식하고(S802), 인식된 1:1 대화명령을 명령처리부(133)로 전달한다(S803).FIG. 8 is a flowchart illustrating a process of providing a 1: 1 conversation service to a user through the system. As described above, when a 1: 1 conversation command is given from the user to the robot 100 by voice or key input (see FIG. In step S801, the command recognition apparatus of the robot 100 recognizes the command (S802), and transfers the recognized 1: 1 conversation command to the command processor 133 (S803).

상기 명령처리부(133)는 1:1대화명령인 경우, 네트윅처리부(131)를 통해 로봇서버(300)에 접속하여, 이와 같은 1:1대화명령을 서버(300)에 전달한다(S804).When the command processing unit 133 is a 1: 1 conversation command, the command processing unit 133 connects to the robot server 300 through the network processing unit 131 and transmits the 1: 1 conversation command to the server 300 (S804).

이 경우, 서버(300)는 1:1대화명령이 요구된 경우, 로봇(100)과 접속이 가능한 관리자를 찾아 로봇(100)의 1:1대화요구를 전달하여, 접속이 가능한 관리자의 단말기(400)를 로봇(100)과 연결시킨다(S805). 예를 들어, 다수의 관리자 단말기(400)에 로봇(100)의 1:1 대화명령요구를 전달하고, 상기 요구를 접수한 다수의 관리자 단말기(400)중 응답이 온 관리자단말기(400)를 상기 로봇(100)과 연결시킬 수 있다.In this case, when a 1: 1 conversation command is requested, the server 300 searches for a manager that can be connected to the robot 100 and transmits a 1: 1 conversation request of the robot 100 to connect the manager's terminal ( 400 is connected to the robot 100 (S805). For example, the one-to-one dialogue command request of the robot 100 is transmitted to the plurality of manager terminals 400, and the manager terminal 400 of the plurality of manager terminals 400 that receives the request receives the response. It can be connected to the robot 100.

그런데, 상기에서 로봇(100)과 접속가능한 관리자가 없는 경우, 로봇(100)으로 에러메시지를 전송하고, 이에 로봇(100)은 명령수행불가 메시지를 출력하고 1:1대화를 종료하게 된다(S806, S807).By the way, when there is no manager that can be connected to the robot 100 in the above, an error message is transmitted to the robot 100, and the robot 100 outputs a command impossible execution message and ends the 1: 1 conversation (S806). , S807).

반대로, 상기와 같은 처리에 의해, 접속가능한 관리자가 존재할 경우, 로봇(100)과 해당 관리자 클라언트(400)를 접속시킨다(S808).On the contrary, if there is a manager that can be connected by the above process, the robot 100 and the manager client 400 are connected (S808).

감독자와 접속된 로봇(100)에서 사용자의 음성과 영상을 실시간으로 효과적으로 보내기 위해서는 음성 및 영상에 대해 압축이 이루어져야 한다. 이를 위해, 영상과 음성을 위한 코덱을 로드해서 실행한다. 이 과정이 끝나면 사용자의 음성을 분석하여, 명령 실행이나 1:1 대화의 종료 또는 자동화된 반복적인 대화처리등을 위해서 구문 분석기가 실행되게 된다. 상기 구문분석기에서 종료 명령이 호출되면 1:1 대화를 종료하게 된다.In order to effectively send the user's voice and video in real time from the robot 100 connected to the supervisor, the voice and video should be compressed. To do this, load and run codecs for video and audio. At the end of the process, the user's voice is analyzed and the parser is executed for command execution, termination of 1: 1 conversations, or automated repetitive conversation processing. When the end command is called in the parser, the 1: 1 conversation ends.

상기에 의해, 로봇(100)은 임의의 관리자 단말기(400)와 접속이 완료되면, 장착된 카메라와 마이크를 통해 사용자의 모습과 음성을 획득하여 관리자 클라이언트(400)로 전달하고, 관리자는 전달된 사용자의 상태를 확인하여, 응답내용을 입력한다. 이러한 관리자의 응답은 관리자클라이언트(400) 및 관리서버(300)를 통해 로봇(100)으로 전달되어, 로봇(100)을 통해 음성 또는 모션으로 구현된다(S809~S813).By the above, when the connection with the arbitrary manager terminal 400 is completed, the robot 100 obtains the user's appearance and voice through the mounted camera and microphone, and delivers it to the manager client 400, and the manager is transferred. Check the user's status and enter the response. The response of the manager is transmitted to the robot 100 through the manager client 400 and the management server 300, it is implemented as a voice or motion through the robot 100 (S809 ~ S813).

상기에서, 로봇(100)은 사용자의 영상과 음성을 전달함으로서, 관리자는 사용자의 상황을 정확하게 이해할 수 있으므로, 이에 대한 정확한 반응을 지시할 수 있다. 즉, 상기에서 관리자는 관리자단말기(400)를 통해 화상채팅과 같은 방법으로 사용자의 영상과 음성을 제공받고, 그에 따른 로봇(100)의 액션이나 로봇(100)이 해야할 말을 만들어주게 된다.In the above, the robot 100 transmits the user's image and voice, so that the administrator can accurately understand the user's situation, so that the robot 100 can instruct the correct response thereto. That is, the manager is provided with the user's video and audio in the same manner as the video chat through the manager terminal 400, according to the action of the robot 100 or to make the words that the robot 100 to say.

그런데, 상기에서 시간지연이 발생할 경우, 사용자와 로봇(100)간에 자연스러운 대화형식이 이루어지지 않을 수 있다. 그리고, 예를 들어, 실제 로봇(100)과 관리자 단말기(400)의 통신은 이더넷을 통해 TCP/IP 방식으로 직렬통신하게 된다. 따라서, HTML과 같은 데이터가 관리자단말기(400)으로부터 도착하면서 그것을 화면에 표시하거나 행동을 시작하게 되면, 로봇(100)의 제어가 불안정하게 되거나, 사용자가 무슨 의미인지 알수 없게 된다. 또한, 1:1대화의 경우, 로봇(100)은 행동을 하면서 동시에 말을 하거나, 표정을 지어야 한다. 또한, 화면으로 동영상이나 애니메이션을 보여주면서 행동을 취해야 할 경우도 있다.By the way, when the time delay occurs in the above, the natural conversation between the user and the robot 100 may not be made. For example, the communication between the actual robot 100 and the manager terminal 400 is serial communication in a TCP / IP method through Ethernet. Therefore, when data such as HTML arrives from the manager terminal 400 and displays it on the screen or starts an action, the control of the robot 100 becomes unstable or the user does not know what it means. In addition, in the case of 1: 1 conversation, the robot 100 should act or speak at the same time while making an action. You may also need to take action while showing video or animation on the screen.

따라서, 일반적이 인터넷 통신처럼, HTML과 같이 단순한 직렬 프로토콜을 사용하게 되면, 동기가 맞지 않을 수 도 있고, 원하는 행동을 할 수 없게 된다.Thus, if you use a simple serial protocol such as HTML, such as Internet communication in general, you may not be synchronized and you may not be able to do what you want.

본 발명에서는 이를 위해서, 앞서 설명한 바와 같이, 스크립트를 이용하여, 로봇이 취해야할 행동이나 동영상등이 객체화되고, 이벤트화된 프로토콜을 사용한다. 즉, 로봇이 취해야 할 행동이나 음성, 표정, 동영상, 애니메이션 등은 각각의 스크립트를 통해서 하나의 객체로 취급되며, 동시에 실행되어야 되는 객체들은 JOIN이라는 스크립트를 통해서, 하나의 커다란 스크립트로 인식된다.In the present invention, for this purpose, as described above, using a script, an action or video to be taken by the robot is objectized, and an eventized protocol is used. In other words, the actions, voices, facial expressions, videos, animations, etc. to be taken by the robot are treated as one object through each script, and the objects to be executed simultaneously are recognized as one big script through the script called JOIN.

따라서, 동시에 실행되야 하는 객체의 데이터길이가 다르더라도, 모든 객체가 로봇(100)으로 전달되어지고 난 후에야 같이 실행되게 된다. Therefore, even if the data length of the objects to be executed at the same time, all the objects are executed together after being delivered to the robot (100).

또한, 상기와 같이 통신네트워크를 통해 로봇(100)을 직접 제어하게 되면, 통신 지연시간에 의해 로봇(100)이 오작동하거나 불안정해질 수 있다. 그러나, 상기와 같이, 스크립트 방식을 이용하여 로봇(100)에 주어진 명령을 전달하는 경우, 로봇(100)은 통신지연과는 무관하게 로봇(100)에서 자연스런 모션이나 움직임이 기능해 진다.In addition, when the robot 100 is directly controlled through the communication network as described above, the robot 100 may malfunction or become unstable due to a communication delay time. However, as described above, in the case of transmitting a command given to the robot 100 by using a script method, the robot 100 may have a natural motion or motion in the robot 100 regardless of the communication delay.

이러한 방법에 의해 관리자가 로봇(100)을 제어하게 되면, 사용자는 로봇(100)과 대화하면서, 사람과 대화하는 것과 같은 자연스러움을 느낄 수 있게된다.When the administrator controls the robot 100 by this method, the user can feel the naturalness such as talking with a person while talking with the robot 100.

또한, 1:1대화에 있어서, 로봇(100)이 사용자에게 말해야할 내용은 관리자로부터 지시되는데, 관리자는 관리자단말기(400)를 통해 확인한 음성 및 영상정보를 바탕으로 로봇이 해야 할 말을 결정하고, 그 결정사항이 서버(300)에 저장된 유형의 데이타로 충분한 경우, 단순히 서버(300)에서 관리자단말기(400)에 제공하는 명령데이타를 선택만 하면 된다. 이때, 서버(300)로부터 저장되어 저장된 음성을 내보낼 수 있다. 상기 관리자가 선택한 내용은 텍스트 형태로 로봇에게 전달되게 되고, 로봇의 TTS 기능을 통해, 로봇이 가지고 있는 로봇 음성으로 사용자에게 전달된다.In addition, in a 1: 1 conversation, the contents of what the robot 100 should say to the user are instructed by the administrator, who determines the words that the robot should say based on the voice and video information checked through the administrator terminal 400. If the decision is sufficient as the type of data stored in the server 300, the server 300 simply selects the command data provided to the administrator terminal 400. At this time, the stored voice may be exported from the server 300. The contents selected by the administrator are transmitted to the robot in a text form, and are transmitted to the user through the robot's TTS function in a robot voice possessed by the robot.

따라서, 서로 다른 관리자들이 접속되더라도, 사용자는 항상 로봇(100) 고유의 음성을 듣게 된다. Therefore, even if different administrators are connected, the user always hears the voice unique to the robot 100.

상기에서, 답변내용이 서버(300)에 저장되어 있지 않은 유형이라면, 관리자는 관리자단말기(400)로 직접 답변을 입력하고, 이는 텍스트형태로 로봇(100)에 전달된어, 상기와 마찬가지로 로봇(100)의 음성으로 출력된다.In the above, if the answer is a type that is not stored in the server 300, the administrator inputs the answer directly to the administrator terminal 400, which is transmitted to the robot 100 in text form, as above 100) is output as voice.

이러한 지능 보안 시스템은 관리, 교육등 다양한 분야에서 이용될 수 있다.Such an intelligent security system can be used in various fields such as management and education.

예를 들어, 로봇(100)을 교육용으로 프로그래밍하고, 상기 서버(300)에서 다양한 명령에 대한 행동 정의데이타 뿐만아니라, 다양한 교육자료를 관리하도록 하여, 로봇(100)은 교육시마다 해당 교육자료를 서버(300)로부터 제공받아 사용자를 교육시키도록 할 수 있으며, 또 다른 실시예로서 상술한 1:1 대화서비스를 이용하여 노인들을 위한 대화상대 및 노인 관리 서비스도 제공가능하게 된다.For example, by programming the robot 100 for education, the server 300 to manage not only the behavior definition data for various commands, but also various educational materials, the robot 100 is a server for each training training Received from the (300) can be provided to educate the user, as another embodiment using the above-described 1: 1 chat service it is also possible to provide a chat partner and senior management services for the elderly.

이하, 본 발명의 변형예로서, 상술한 지능 보안 시스템을 이용하여 구축한 교육 서비스 제공 시스템에 대하여 상세하게 설명한다.Hereinafter, as a modification of the present invention, an education service providing system constructed by using the above-described intelligent security system will be described in detail.

도 10은 본 발명의 바람직한 실시예에 따른 로봇을 이용한 다이나믹 교육 서비스를 실현하기 위한 시스템구성도이다.10 is a system configuration diagram for realizing a dynamic education service using a robot according to a preferred embodiment of the present invention.

도면에 도시된 바와 같이, 상기 시스템은 교육 로봇(100a)과, 교육자 단말(400a)과, 학습관리 서버(300a)가 인터넷과 같은 네트워크망(200)을 통해 서로 접속되어 구성된다. 또한, 피교육자(600)는 RF모듈(610)을 통해 자신의 위치를 상기 교육로봇(100a)에 알린다.As shown in the figure, the system is configured by the educational robot 100a, the educator terminal 400a, and the learning management server 300a connected to each other through a network 200 such as the Internet. In addition, the trainee 600 notifies the education robot 100a of its location through the RF module 610.

특히, 상기 학습관리 서버(300a)는 인터넷과 같은 컴퓨터 네트워크(200)를 통해 특정 피교육자(600)와 교육자(500)를 커뮤니케이션이 가능하도록 연결하고, 피교육자(600)에게 소정의 교육 컨텐츠를 제공하는 컴퓨터 시스템이다. 상기 학습관리 서버(300a)의 구체적 기능에 대해서는 도 12를 참조하여 상세하게 후술한다.In particular, the learning management server 300a connects a specific trainee 600 and an educator 500 to communicate with each other via a computer network 200 such as the Internet, and provides predetermined education contents to the trainee 600. Computer system. Specific functions of the learning management server 300a will be described later in detail with reference to FIG. 12.

상기 교육 로봇(100a)은 상기 학습관리 서버(300a)로부터 교육 컨텐츠를 다운로드 받고, 이 교육 컨텐츠를 기반으로, 음성, 화상 및 모션을 상기 피교육자(600)에게 출력하며, 상기 교육자(500)와 피교육자(600) 사이의 커뮤니케이션을 인터페이싱하는 것으로. 내부 상세 구성은 도 3으로 참조가능하다.The education robot 100a downloads education content from the learning management server 300a, and outputs voice, image, and motion to the trainee 600 based on the education content, and the educator 500 and the trainee. By interfacing communication between 600. The internal detailed configuration can be referred to FIG. 3.

상기 교육자 단말기(400a)는 서버(300a) 및 네트워크(200)를 통해 상기 교육 로봇(100a)과 접속되는 개인용 컴퓨터로서, 로봇기능에 더하여, 데이터를 송,수신하기 위한 통신모듈과 운영체제 프로그램 및 웹브라우저 프로그램을 구비하고 있다. 따라서, 상기 교육자 단말기(400a)는 상기 교육 로봇(100a)으로부터 전송되는 음성, 화상정보를 교육자(500)에게 출력하고, 교육자(500)로부터 입력되는 정보를 네트워크를 통해 상기 학습관리 서버(300a) 또는 교육로봇(100a)에 전송한다.The educator terminal 400a is a personal computer connected to the educational robot 100a through a server 300a and a network 200. In addition to the robot function, a communication module, an operating system program, and a web for transmitting and receiving data are provided. It has a browser program. Therefore, the educator terminal 400a outputs voice and image information transmitted from the educational robot 100a to the educator 500, and the learning management server 300a transmits the information input from the educator 500 through a network. Or transmit to the training robot (100a).

상기 네트워크(200)는 대표적으로 인터넷을 지칭하지만, 반드시 이에 한정되지 않고, 인트라넷, 엑스트라넷, 전용선망을 모두 포함하는 것으로 이해되어야 한다. The network 200 representatively refers to the Internet, but is not necessarily limited thereto, and it should be understood that the network 200 includes all intranets, extranets, and dedicated networks.

그리고, 상기 교육로봇(100a)은 상기 관리 서버(300a)로부터 교육 컨텐츠를 다운로드 받고, 이 컨텐츠를 해석한 후 음성, 화상 및 모션을 통해 피교육자를 학습시키고, 피교육자의 음성이나 화상을 통신유닛(340)을 통해 상기 교육자 정보단말(400a)에 전달하며, 교육자 정보단말(400a)로부터 전송되는 교육자(500)의 응답정보를 음성, 화상 및 모션으로 전환하여 피교육자(600)에게 전달한다.The education robot 100a downloads education content from the management server 300a, analyzes the content, and trains the trainee through voice, video, and motion, and transmits the trainee's voice or video to the communication unit 340. ) Is transmitted to the educator information terminal 400a, and the response information of the educator 500 transmitted from the educator information terminal 400a is converted into voice, image, and motion and transmitted to the educator 600.

또한, 상기 교육로봇(100a)은 로봇 제어프로그램에 의해 셋팅된 스케쥴에 따라 상기 위치추적프로그램을 구동하고, RF모듈(330)을 통해 위치추적신호를 외부로 송출한다. 또한, 외부로부터 수신되는 대응 위치추적신호를 분석하여 피교육자(600)의 위치를 탐색하는 것에 의해 피교육자를 교육이 가능한 거리내로 이동한다.In addition, the educational robot 100a drives the location tracking program according to a schedule set by the robot control program, and transmits the location tracking signal to the outside through the RF module 330. In addition, by searching for the location of the trainee 600 by analyzing the corresponding position tracking signal received from the outside, the trainee is moved within a distance that can be trained.

이하에서는 도 11을 참조하여 피교육자(600)가 소지하는 위치추적용 RF모듈(radio frequency module)(610)에 대하여 설명한다.Hereinafter, with reference to FIG. 11, a position tracking RF module 610 possessed by the trainee 600 will be described.

도 11에 도시된 RF모듈(610)은 피교육자(600)의 위치를 상기 교육로봇(100a)에 알리기 위한 장치로서, 목걸이나 팔찌 등의 형태로 제작되어 피교육자(600)가 소지가능하게 된다.The RF module 610 illustrated in FIG. 11 is a device for notifying the location of the trainee 600 to the education robot 100a, and is manufactured in the form of a necklace or a bracelet, so that the trainee 600 can carry it.

그리고, 도11에서, 상기 RF모듈(610)의 RF수신모듈(613)은 교육로봇(100a)의 RF모듈(330)로부터 외부로 송출된 위치추적신호를 수신하여 이를 신호처리모듈(611)에 전달한다. 상기 신호처리모듈(611)은 상기 수신 위치추적신호를 분석하여 피교육자 식별코드를 추출하고, 추출된 식별코드가 해당 피교육자를 가리키는 경우 응답 위치추적신호를 생성하여 이를 RF송신모듈(612)에 송출한다. In FIG. 11, the RF receiving module 613 of the RF module 610 receives a position tracking signal transmitted from the RF module 330 of the educational robot 100a to the outside, and transmits it to the signal processing module 611. To pass. The signal processing module 611 analyzes the received position tracking signal to extract the trainee identification code, and if the extracted identification code indicates the trainee, generates a response position tracking signal and transmits it to the RF transmission module 612. .

상기 RF송신모듈(612)은 이 응답 위치추적신호를 미도시된 안테나를 통해 외부로 방출한다.The RF transmitting module 612 emits the response position tracking signal to the outside through an antenna (not shown).

다음으로, 도 12에는 학습관리 서버(300a)의 기능적인 구성이 도시되어 있다. Next, a functional configuration of the learning management server 300a is shown in FIG.

이 학습관리 서버(300a)는 상기 교육로봇(100a)과 통신하여 교육로봇(100a)에서 요구하는 소정 명령에 대한 행동정의를 자체 데이타베이스에서 검색하거나, 교육자 단말기(500a)로부터 입력받아 교육로봇(100a)에 제공한다. 더하여, 사용자가 요구하는 교육컨텐츠를 제공하고, 특정 교육로봇(100a)을 임의의 교육자 단말기(400a)와 네트워크적으로 연결하며, 교육로봇(100a)으로부터 제공되는 학습결과정보에 기초하여 학습에 대한 평가를 내리고, 이 학습평가에 근거하여 결과리포트를 작성하여 피교육자에게 전달하는 컴퓨터 시스템이다.The learning management server 300a communicates with the educational robot 100a to retrieve a behavior definition for a predetermined command required by the educational robot 100a from its own database, or receives an education robot 500a from an educator terminal 500a. 100a). In addition, it provides education content required by the user, and connects a specific educational robot 100a with an arbitrary educator terminal 400a, and based on the learning result information provided from the educational robot 100a. It is a computer system that makes an evaluation and produces a result report based on this learning evaluation and delivers it to the trainee.

이 학습관리 서버(300a)는 중앙처리장치, 램(RAM), 롬(ROM), 네트워크 인터페이스, 데이터 기억장치 등을 포함하는 대용량 컴퓨터 시스템이다. 상당한 양의 메모리와 처리능력을 갖춘 전통적인 개인 컴퓨터나 워크스테이션이 학습관리 서버(300a)로 사용될 수 있다.The learning management server 300a is a large-scale computer system including a central processing unit, a RAM, a ROM, a network interface, a data storage device, and the like. A traditional personal computer or workstation with a significant amount of memory and processing power can be used as the learning management server 300a.

상기 학습관리 서버(300a)는 정보처리나 데이터베이스 탐색에 있어 엄청난 양의 수학적 계산을 실행함으로써 대량의 업무처리를 할 수 있다.The learning management server 300a can perform a large amount of work by executing a huge amount of mathematical calculations in information processing or database search.

도 12는 상기 학습관리 서버(300a)의 롬에 로드되어 있는 프로그램 모듈들과, 데이터 기억장치를 구성하는 다수의 데이터베이스를 도시한 것이다.FIG. 12 shows program modules loaded into a ROM of the learning management server 300a and a plurality of databases constituting a data storage device.

이하에서, 상세히 설명하면 다음과 같다. Hereinafter, it will be described in detail as follows.

상기 학습관리 서버(300a)는 데이터베이스 관리모듈(410)과, 교육 컨텐츠 제공모듈(420)과, 교육자 연결모듈(430)과, 학습평가모듈(440)과, 결과리포트 생성 및 전송모듈(450)을 포함하는 프로그램 모듈과, 교육 컨텐츠 DB(460), 교육자 정보 DB(470), 로봇정보 DB(480)를 포함하는 데이터베이스 시스템으로 구성된다. The learning management server 300a includes a database management module 410, an education content providing module 420, an educator connection module 430, a learning evaluation module 440, and a result report generation and transmission module 450. And a database system including a program module including an education content DB 460, an educator information DB 470, and a robot information DB 480.

상기 데이터베이스 관리모듈(410)은 상기 교육 컨텐츠 DB(460), 교육자 정보 DB(470), 로봇정보 DB(480)를 구축하고, 구축된 데이터베이스에 변경사항이 발생하면 이 변경사항을 반영하여 데이터베이스를 수정하는 등 데이터베이스를 전체적으로 관리하기 위한 프로그램이다. The database management module 410 constructs the educational content DB 460, the educator information DB 470, and the robot information DB 480, and reflects these changes when a change occurs in the built database. This program is to manage the database as a whole.

상기 교육컨텐츠 제공모듈(420)은 교육로봇(300)으로부터 교유식별코드를 포함하는 학습요구가 입력되면, 상기 고유식별코드에 근거하여 피교육자를 식별하고, 해당하는 피교육자의 진도상태를 판별하여 해당 교육로봇에 제공할 교육 컨텐츠를 확정하며, 확정된 교육 컨텐츠를 네트워크를 통해 상기 교육로봇(300)에 다운로드시키기 위한 프로그램이다. The education content providing module 420, when a learning request including a teaching identification code is input from the education robot 300, identifies the trainee based on the unique identification code, determines the progress status of the corresponding trainee, and provides the corresponding training. It is a program to determine the educational content to be provided to the robot, and to download the determined educational content to the educational robot 300 through a network.

상기 교육자 연결모듈(430)은 상기 교육 컨텐츠내에 교육자 연결 명령이 존재하거나 또는 상기 로봇(100a)로부터 연결요청이 있을 경우 상기 교육자 정보 데이터베이스(470)를 검색하여 적절한 교육자를 선정한 후, 선정된 교육자의 정보단말(500)과 상기 피교육자의 교육로봇(300)을 네트워크적으로 연결하기 위한 프로그램이다. The educator connection module 430 selects an appropriate educator by searching the educator information database 470 when there is an educator connection command in the education content or a connection request from the robot 100a. It is a program for connecting the information terminal 500 and the education robot 300 of the trainee.

상기 학습평가모듈(440)은 상기 교육 컨텐츠에 따른 학습이 종료된 후, 상기 교육로봇(100a)으로부터 교육 수행결과정보를 전송받아 이 수행결과정보를 로봇정보 데이터베이스(480)에 저장하거나 해당하는 교육자 단말기(400a)에 전송한다. 또한, 상기 수행결과정보에 근거하여 자체적인 평가를 실행하고, 이 평가정보를 로봇정보 데이터베이스(480)에 저장하기 위한 프로그램이다. The learning evaluation module 440 receives education performance result information from the education robot 100a after the learning according to the education content is completed, and stores the performance result information in the robot information database 480 or the corresponding educator. It transmits to the terminal 400a. In addition, it is a program for executing its own evaluation based on the performance result information and storing the evaluation information in the robot information database 480.

도 12의 경우 이 학습평가모듈(440)이 학습관리 서버(300a)측에 있는 것으로 기술되고 있으나, 상기 학습평가모듈(440)은 상기 교육 컨텐츠내에 포함되어 상기 교육로봇(100a)내에 저장될 수도 있다. 이 경우, 앞서와는 반대로 자체적인 평가결과가 로봇(100a)에서 상기 학습관리 서버(300a)로 업로드되어야 할 것이다.In the case of FIG. 12, the learning evaluation module 440 is described as being on the learning management server 300a side. However, the learning evaluation module 440 may be included in the education content and stored in the education robot 100a. have. In this case, contrary to the foregoing, the evaluation result of itself should be uploaded from the robot 100a to the learning management server 300a.

또한, 상기 결과리포트 생성 및 전송모듈(450)은 상기 자체 평가결과와 상기 교육자로부터 전달되는 평가결과를 합산하여 해당 피교육자를 위한 결과 리포트를 생성하고, 이 리포트를 미리 설정되어 있는 피교육자의 이메일이나 핸드폰으로 전송하기 위한 프로그램이다. In addition, the result report generation and transmission module 450 generates the result report for the trainee by summing the self-evaluation result and the evaluation result delivered from the educator, and the e-mail or cellular phone of the trainee who is preset to the report. Program to send to.

상기 교육 컨텐츠 데이터베이스(460)는 상기 교육로봇(300)에 다운로드될 다양한 교육 컨텐츠를 저장, 관리하기 위한 것이다. 즉, 개별 피교육자의 교육 스케쥴 정보(또는, 교육 진도정보)와 이 스케쥴에 따른 교육 컨텐츠 정보가 개별 피교육자별로 저장되어 있다.The educational content database 460 is for storing and managing various educational contents to be downloaded to the educational robot 300. That is, the education schedule information (or education progress information) of the individual trainees and the education content information according to this schedule are stored for each individual learner.

상기 교육자 정보 데이터베이스(470)는 현재 학습관리 서버(300a)와 연결되어 있는 다수 클라이언(400) 및 교육자 리스트와, 각 교육자들의 신상정보(주민번호, 주소, 교육경력, 전공 등) 및 이 교육자들의 스케쥴 정보를 저장, 관리한다. 상기 스케쥴 정보를 파악하는 것에 의해 학습관리 서버는 현재 교육로봇과 연결이 가능한 교육자가 누구인지를 판별할 수 있다.The educator information database 470 is a list of a number of clients 400 and educators currently connected to the learning management server 300a, personal information of each educator (resident number, address, education career, major, etc.) and the educator's information. Save and manage schedule information. By grasping the schedule information, the learning management server may determine who is an educator currently connected to the educational robot.

상기 로봇정보 데이터베이스(480)는 로봇 고유식별코드, 대상 피교육자의 신상정보(주민번호, 학력, 주소, 이름 등), 매 교육별 학습평가결과, 결과리포트, 학습레벨, 학업진도 등의 정보를 저장, 관리한다.The robot information database 480 stores information such as a robot unique identification code, personal information (target number, education level, address, name, etc.) of the target trainee, learning evaluation results for each education, result report, learning level, and academic progress. , Manage.

이하에서는, 상기와 같은 시스템을 통해 구현되는 본 발명에 따른 다이나믹한 교육방법의 구체적인 프로세스를 도 13 내지 도 16을 참조하여 설명한다.Hereinafter, a detailed process of the dynamic teaching method according to the present invention implemented through the above system will be described with reference to FIGS. 13 to 16.

먼저, 도 13은 교육로봇이 피교육자를 교육이 가능한 거리내로 추적하는 과정을 설명하고 있다. First, FIG. 13 illustrates a process in which an educational robot tracks an educator within a distance from which an educator can be educated.

로봇의 제어부(310)는 저장장치(320)내에 내장된 로봇 제어프로그램을 로드하여 로봇을 초기화한 후(S1301), 로봇 스케쥴 정보내에 이동명령(즉, 학습타임에 도달되었는지 여부 확인)이 존재하는지 여부를 판별한다(S1303).The controller 310 of the robot loads the robot control program embedded in the storage device 320 to initialize the robot (S1301), and then there is a movement command (ie, whether the learning time has been reached) in the robot schedule information. It is determined whether or not (S1303).

이때, 로봇 스케쥴 정보내에 이동명령이 존재하면, 제어부(310)는 위치추적프로그램내의 위치추정 모듈을 초기화한다(S1305).At this time, if a movement command exists in the robot schedule information, the controller 310 initializes the position estimation module in the position tracking program (S1305).

상기 위치추정 모듈은 외부로 송출할 위치추적신호를 예를 들어, PSK 변조방법을 이용하여 생성하고, 이를 RF모듈(330)과 안테나(335)를 통해 외부로 송출한다(S1307).The position estimation module generates a position tracking signal to be transmitted to the outside using, for example, a PSK modulation method, and transmits it to the outside through the RF module 330 and the antenna 335 (S1307).

상기 위치추적신호에는 피교육자를 식별하기 위한 고유의 식별코드가 포함된다.The location tracking signal includes a unique identification code for identifying a trainee.

상기 위치추적신호가 외부로 송출되어, 피교육자(600)의 몸에 부착되어 있는 RF모듈(610)의 RF수신모듈(613)이 이 위치추적신호를 수신하면, 상기 수신된 위치추적신호를 신호처리모듈(611)로 전달한다(S1309).When the position tracking signal is transmitted to the outside and the RF receiving module 613 of the RF module 610 attached to the body of the trainee 600 receives the position tracking signal, the received position tracking signal is processed. Transfer to module 611 (S1309).

상기 신호처리모듈(611)은 입력된 위치추적신호를 복조하여 상기 고유 식별코드를 확인하고, 해당 위치추적신호가 피교육자용으로 판별되면, 위치 응답신호를 생성하여 이를 RF송신모듈(612)에 전달한다(S1311).The signal processing module 611 demodulates the input position tracking signal to confirm the unique identification code, and if the position tracking signal is determined for the trainee, generates a position response signal and transmits it to the RF transmission module 612. (S1311).

상기 RF송신모듈(612)은 이 위치 응답신호를 미도시된 안테나를 통해 외부로 송출한다(S1313).The RF transmission module 612 transmits this position response signal to the outside through an antenna (not shown) (S1313).

상기 로봇의 안테나(335)는 상기 RF송신모듈(612)로부터 송출된 위치 응답신호를 수신하여 이를 RF모듈(330)에 전달하고, 상기 RF모듈(330)은 이 위치 응답신호를 분석하여 상기 제어부(310)의 위치추정모듈에 전달한다(S1315).The antenna 335 of the robot receives the position response signal transmitted from the RF transmission module 612 and transmits it to the RF module 330, and the RF module 330 analyzes the position response signal to control the controller. Transfer to the position estimation module (310) (S1315).

상기 제어부(310)의 위치추정모듈은 송신된 위치추적신호와 수신된 위치응답신호의 전계강도 또는 위상차 또는 시간지연 등을 이용하여 피교육자와의 거리와 방향각을 계산한다(S1317).The position estimation module of the controller 310 calculates the distance and the direction angle from the trainee using the electric field strength or the phase difference or the time delay between the transmitted position tracking signal and the received position response signal (S1317).

상기와 같이, 피교육자와의 거리와 방향각이 계산되면, 이렇게 계산된 값으로부터 모션제어신호를 생성하고, 이 모션제어신호를 상기 모션제어부(360)에 전달한다(S1319).As described above, when the distance and the direction angle with the trainee are calculated, a motion control signal is generated from the calculated value, and the motion control signal is transmitted to the motion controller 360 (S1319).

상기 모션 제어부(360)는 이 모션제어신호에 기초하여 모션구동신호를 생성하고, 이 모션구동신호를 모션기구(365)로 전달하는 것에 의해 교육 로봇(100a)을 사용자 쪽으로 이동시킨다(S1321).The motion control unit 360 generates a motion drive signal based on the motion control signal, and transfers the motion drive signal to the motion mechanism 365 to move the educational robot 100a toward the user (S1321).

상기 단계 S1307 내지 S1321의 과정을 반복 수행하는 것에 의해 로봇(100a)은 피교육자를 교육이 가능한 거리내로 추적하게 된다.By repeatedly performing the processes of steps S1307 to S1321, the robot 100a tracks the trainee within a distance from which the trainee can be trained.

상기 도 13의 과정을 수행하는 것에 의해 로봇(100a)이 피교육자를 교육이 가능한 거리내로 추적하면, 도 14의 단계 S1401 내지 S1419를 통해 교육 컨텐츠 다운로드 및 교육자 연결과정이 수행된다.By performing the process of FIG. 13, when the robot 100a tracks the trainee within a distance from which the trainee can be trained, the educational content download and the educator connection process are performed through steps S1401 to S1419 of FIG. 14.

즉, 로봇의 화상인식부(386)를 통해 피교육자의 모습이 제어부(310)로 전달되면, 제어부(310)는 피교육자를 인식한다(S1401).That is, when the state of the trainee is transmitted to the controller 310 through the image recognition unit 386 of the robot, the controller 310 recognizes the trainee (S1401).

피교육자를 인식한 상태에서 상기 제어부(310)는 예를들어, "교육시간이 되었습니다. 학습을 수행하시겠습니까?"라는 안내 음성을 생성하고, 이를 스피커(395)를 통해 피교육자에게 출력한다(S1403).In the state of recognizing the trainee, the controller 310 generates a guide voice, for example, "It is time for training. Do you want to learn?" And outputs it to the trainee through the speaker 395 (S1403).

이때, 피교육자가 마이크(396)나 키입력부(350)를 통해 학습을 수행하겠다는 의사를 로봇(300)에 전달하면(S1405), 로봇의 제어부(310)는 통신유닛(340)을 통해 상기 학습관리 서버(300a)에 접속한다(S1407).In this case, when the trainee transmits the intention to perform the learning through the microphone 396 or the key input unit 350 to the robot 300 (S1405), the controller 310 of the robot controls the learning through the communication unit 340. The server 300a is connected (S1407).

이때, 로봇의 제어부(310)는 도시하지 않은 내부 메모리에 저장되어 있는 로봇 고유식별코드를 판독하여 이를 학습관리 서버(300a)의 교육컨텐츠 제공모듈(420)에 전송한다(S1409).At this time, the controller 310 of the robot reads the robot unique identification code stored in the internal memory (not shown) and transmits it to the education content providing module 420 of the learning management server 300a (S1409).

상기 교육로봇(100a)으로부터 로봇 고유식별코드를 전송받은 교육 컨텐츠 제공모듈(420)은 로봇정보 데이터베이스(480)에 엑세스하여 상기 고유식별코드에 대응하는 피교육자와 이 피교육자의 학습 진도를 확인한다(S1411).The education content providing module 420, which has received the robot unique identification code from the education robot 100a, accesses the robot information database 480 to check the learner and the learning progress of the trainee corresponding to the unique identification code (S1411). ).

학습진도를 확인한 교육컨텐츠 제공모듈(420)은 교육 컨텐츠 데이터베이스(460)로부터 상기 학습진도에 맞는 교육 컨텐츠를 추출하고, 이를 해당 교육 로봇(100a)에 다운로드시킨다(S1413).The education content providing module 420 confirming the learning progress extracts the education content corresponding to the learning progress from the education content database 460 and downloads the education content to the corresponding education robot 100a (S1413).

교육 컨텐츠를 다운로드 받은 로봇의 제어부(310)는 이 컨텐츠를 저장장치(320)에 저장한다. 이때, 상기 교육 컨텐츠에는 그림, 문자, 영상, 소리, 음성 등의 각종 멀티미디어 정보 뿐만 아니라 로봇의 모션을 지시하는 로봇 모션제어정보를 포함한다. 또한, 상기 교육 컨텐츠에는 상기한 멀티미디어 정보와 모션제어정보를 적절히 연동시켜 이를 로봇을 통해 실행시키기 위한 실행 프로그램(즉, 교육 프로그램)도 포함될 수 있다. 또는 상기 로봇의 저장장치에는 이미 상기 멀티미디어 정보와 모션제어정보를 해석하고, 실행하기 위한 실행 프로그램이 미리 저장되어 있을 수도 있다.The controller 310 of the robot, which has downloaded the education content, stores the content in the storage device 320. In this case, the educational content includes robot motion control information for instructing the motion of the robot as well as various multimedia information such as pictures, texts, images, sounds, and voices. In addition, the educational content may also include an execution program (ie, an education program) for properly interworking the multimedia information and motion control information and executing the same through a robot. Alternatively, an execution program for interpreting and executing the multimedia information and motion control information may already be stored in the storage device of the robot.

이와같이, 학습관리 서버(300a)로부터 교육 컨텐츠를 다운로드 받은 로봇 제어부(310)는 상기 교육 컨텐츠정보를 분석하여 컨텐츠 정보내에 교육자 접속명령이 존재하는지 여부를 판별한다(S1415).In this way, the robot control unit 310 having downloaded the education content from the learning management server 300a analyzes the education content information and determines whether an educator connection command exists in the content information (S1415).

이때, 상기 컨텐츠 정보내에 교육자 접속명령이 존재하면, 로봇 제어부(310)는 통신유닛을 통해 상기 학습관리 서버의 교육자 연결모듈에 교육자 연결요청을 요구한다. 로봇(100a)으로부터 교육자 연결요청을 받은 교육자 연결모듈(430)은 교육자 정보 데이터베이스(470)를 검색하여 상기 로봇(100a)과 접속이 가능한 교육자를 조사한다. 이때, 접속이 가능한 교육자가 존재하는 경우, 해당 로봇(100a)과 상기 교육자 단말기(400a)를 연결한다(S1417).At this time, if there is an educator connection command in the content information, the robot controller 310 requests an educator connection request to the educator connection module of the learning management server through a communication unit. The educator connection module 430 receiving the educator connection request from the robot 100a searches the educator information database 470 and examines an educator who can access the robot 100a. At this time, if there is an educator who can be connected, the corresponding robot (100a) and the educator terminal (400a) is connected (S1417).

물론, 상기 단계 S1415에 있어서, 로봇의 요청과 상관없이 컨텐츠의 다운로드와 동시에 자동으로 로봇과 특정 교육자를 네트워크적으로 연결할 수도 있다.Of course, in step S1415, the robot and a specific educator may be automatically connected to the network at the same time as downloading the content regardless of the robot's request.

상기 로봇(100a)과 교육자 단말기(400a)가 네트워크적으로 접속된 상태에서, 상기 로봇 제어부(310)는 다운로드되어 저장된 교육 컨텐츠를 분석하여 첨부도면 도 15 및 도 16과 같이 피교육자를 상대로 교육을 실행한다(S1419).In a state where the robot 100a and the educator terminal 400a are connected in a network, the robot controller 310 analyzes the downloaded and stored education content and executes training for the trainee as shown in FIGS. 15 and 16. (S1419).

즉, 로봇 제어부(310)가 다운로드된 교육 컨텐츠에 기초하여 화상표시부(385)와 스피커(395)를 통해 피교육자에게 음성 및 화상에 기반한 교육을 실행하는 중에 컨텐츠내에 액션명령이 존재하는 경우(S1501, S1502), 제어부(310)는 이 액션명령에 기초하여 모션제어신호를 생성하고, 이를 모션제어부(360)에 전달하여, 지시된 액션을 실행한다(S1503, S1504). 즉, 로봇(100a)이 전,후,좌,우로 이동하거나 팔이나 다리를 일정한 방향으로 움직임으로써 음성, 화상과 더불어 제스쳐가 가미된 다이나믹 교육을 실행한다.That is, when the robot control unit 310 executes training based on voice and image to the trainee through the image display unit 385 and the speaker 395 based on the downloaded education content, an action command exists in the content (S1501, S1502), the control unit 310 generates a motion control signal based on this action command, transfers it to the motion control unit 360, and executes the indicated action (S1503, S1504). That is, the robot 100a moves to the front, rear, left and right, or moves the arm or leg in a certain direction to execute dynamic education with a gesture and voice and image.

반면에, 컨텐츠내에 액션 명령이 존재하지 않는 경우에는 상기 단계 S1501로 복귀하여 음성 및 화상에 기반한 교육을 계속적으로 실행한다(S1502).On the other hand, if there is no action command in the content, the process returns to the step S1501 to continuously execute the education based on voice and image (S1502).

한편, 교육 컨텐츠에 기반한 교육을 실행하던 중에 피교육자로부터 질문과 같은 피교육자측 요구가 발생하면(S1505), 로봇 제어부(310)는 이 요구가 자체내의 프로그램내에서 처리가 가능한지 여부를 판별한다(S1506). 즉, 상기 사용자요구에 대한 자체 데이타베이스내에 적당한 행동정의나 행동수행데이타가 존재하는지를 검색하는 것이다.On the other hand, if a participant's request, such as a question, is generated from the participant while executing the education based on the educational content (S1505), the robot controller 310 determines whether the request can be processed in a program in the program (S1506). . In other words, it is to search whether there is an appropriate behavior definition or behavior performance data in its own database of user request.

이때, 자체내의 프로그램내에서 처리가 가능한 요구일 경우에는 프로그래밍에 따라서 응답을 피교육자에게 출력한다(S1507) 즉, 일정하게 셋팅된 음성, 화상 및 모션을 피교육자에게 출력한다.At this time, in the case of a request that can be processed in the program in the program itself, the response is outputted to the trainee according to the programming (S1507).

반면에, 해당 요구가 자체 프로그램내에서 처리가 불가능한 경우에는, 상기 피교육자(600)의 요구를 기 접속되어 있는 관리서버(300a)에 전달한다(S1508).On the other hand, if the request cannot be processed in its own program, the request of the trainee 600 is transmitted to the management server 300a which is connected in advance (S1508).

따라서, 상기 관리서버(300a)내에 해당 요구에 대한 행동정의가 존재하는 경우, 해당 행동정의를 로봇(100a)으로 전송하고, 관리서버(300a)내에 적절한 행동정의가 존재하지 않는 경우에는 교육자 단말기(400a)에 문의하여, 교육자(500)로부터 응답을 입력받는다(S1508, S1509).Therefore, if there is a behavior definition for the request in the management server 300a, the behavior definition is transmitted to the robot 100a, and if there is no appropriate behavior definition in the management server 300a, the educator terminal ( Inquiry to 400a), and receives a response from the educator 500 (S1508, S1509).

상기와 같은 피교육자의 요구에 대한 응답데이타는 네트워크를 통해 상기 로봇(100a)에 전달되고, 로봇 제어부(310)는 이 응답정보를 분석한 후(S1510), 이 교육자의 응답을 화상, 음성 및 모션을 통해 피교육자에게 출력한다(S1511).The response data for the request of the trainee is transmitted to the robot 100a through a network, and the robot controller 310 analyzes the response information (S1510), and then responds to the educator's response with video, audio, and motion. Output to the trainee through (S1511).

상술한 단계 S1501 내지 단계 S1511을 수행하는 과정에서 피교육자의 모습은 화상인식부(386)를 통해 촬상된 후, 통신유닛(340)을 거쳐 항상 상기 교육자 정보단말에 전달되기 때문에 교육자는 교육내내 피교육자의 학습상태를 관찰할 수 있다.In the process of performing the above steps S1501 to S1511, the image of the trainee is imaged through the image recognition unit 386, and is then transmitted to the educator information terminal through the communication unit 340, so that the educator can be trained throughout the training. Observe the learning state.

따라서, 교육자는 피교육자의 요청없이도 필요한 지시를 자신의 단말기(400a)를 통해 상기 로봇(100a)에 전달할 수 있고, 로봇(100a)은 상기 교육자의 지시를 음성, 화상 및 모션을 통해 피교육자에게 전달한다.Therefore, the educator can transmit necessary instructions to the robot 100a through his terminal 400a without the request of the trainee, and the robot 100a transmits the instruction of the educator to the learner through voice, image, and motion. .

한편, 교육 컨텐츠의 스케쥴에 따라 모든 교육이 종료되면(S1512), 로봇 제어부(310)는 지금까지의 교육 수행결과를 상기 학습관리 서버(300a)의 학습평가모듈(440)에 전달한다(S1514).On the other hand, when all the training is finished according to the schedule of the training content (S1512), the robot controller 310 transmits the results of the previous training to the learning evaluation module 440 of the learning management server 300a (S1514). .

상기 학습평가모듈(440)은 교육 수행결과를 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장함과 동시에 이 수행결과를 대응하는 교육자 단말기(500)에 전송한다(S1515, S1516).The learning evaluation module 440 stores the training result in the corresponding trainee directory of the robot information database 480 and transmits the training result to the corresponding educator terminal 500 (S1515 and S1516).

또한, 학습평가모듈(440)은 로봇 정보 데이터베이스(480)에 저장되어 있는 교육 수행결과에 근거하여 자동으로 해당 피교육자에 대한 평가정보를 생성하고, 이를 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장한다(S1518).In addition, the learning evaluation module 440 automatically generates the evaluation information for the trainee based on the training performance result stored in the robot information database 480, and stores it in the corresponding trainee directory of the robot information database 480. (S1518).

한편, 교육 수행결과정보를 전송받은 교육자는 해당 피교육자에 대한 평가정보를 상기 학습관리서버의 학습평가모듈(440)에 입력하고, 학습평가모듈(440)은 이 교육자의 평가정보 역시 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장한다(S1517)On the other hand, the educator who received the training performance result information inputs the evaluation information for the trainee to the learning evaluation module 440 of the learning management server, the learning evaluation module 440 is the evaluation information of the educator also robot information database ( In operation S1517, the corresponding trainee directory is stored.

이와같이, 자동 평가정보와 교육자 평가정보가 저장된 상태에서, 상기 결과리포트 생성 및 전송모듈(450)은 상기 자동 평가정보와 교육자 평가정보에 근거하여 결과 리포트를 생성하고, 이를 로봇 정보 데이터베이스(480)의 대응 피교육자 디렉토리에 저장한다(S1519) As such, in the state in which the automatic evaluation information and the educator evaluation information are stored, the result report generation and transmission module 450 generates a result report based on the automatic evaluation information and the educator evaluation information, and the result of the robot information database 480 Store in the corresponding trainee directory (S1519)

또한, 상기 결과 리포트 생성 및 전송모듈은 이 결과 리포트를 해당 피교육자에게 이메일이나 핸드폰 문자메세지로 전달한다(S1520).In addition, the result report generation and transmission module delivers the result report to the trainee by e-mail or mobile phone text message (S1520).

이상, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조로 설명하였다. 여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.In the above, preferred embodiments of the present invention have been described with reference to the accompanying drawings. Herein, the terms or words used in the present specification and claims should not be interpreted as being limited to the ordinary or dictionary meanings, and the inventors properly define the concept of terms in order to explain their own invention in the best way. It should be interpreted as meaning and concept corresponding to the technical idea of the present invention based on the principle that it can. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

상술한 바와같이, 본 발명은 좀더 다양하고 정밀한 행동제어가 요구되는 서비스용 로봇에 무선모뎀을 장착하고, 상기 무선모뎀을 통해 로봇관리서버 및 관리자 단말기에 연결시켜, 로봇 자체에서 처리불가능한 명령이나 지시에 대한 행동정의를 상기 관리서버 또는 관리자 단말기에서 제공토록 함으로서, 로봇 자체에 프로그램된 기능이외에 더 다양한 기능을 처리할 수 있도록 하고, 사용자 입장에서 로봇의 지능이 인간에 가깝게 느낄 수 있도록 하는 효과가 있다.As described above, the present invention is equipped with a wireless modem in the service robot that requires more diverse and precise behavior control, and connected to the robot management server and the administrator terminal through the wireless modem, the command or instruction that can not be processed by the robot itself By providing the behavior definition for the management server or the administrator terminal, it is possible to process a variety of functions in addition to the function programmed in the robot itself, it is effective to make the robot's intelligence feel closer to human from the user's point of view. .

또한, 상기 로봇과 관리자 단말기를 1:1 연결하여, 관리자를 통해 로봇이 1:1 명령을 수행토록 함으로서, 로봇에게 더 인간적인 행동을 부여할 수 있는 우수한 효과가 있다.In addition, by connecting the robot and the administrator terminal 1: 1, the robot to perform a 1: 1 command through the manager, there is an excellent effect that can give a more human behavior to the robot.

더하여, 본 발명은 상기 로봇과 학습관리 서버 및 교육자 단말기 및 상기 장치간에 데이터 통신이 가능하도록 함으로서, 로봇을 통해 보다 다이나믹한 교육서비스를 제공할 수 있게 된다. In addition, the present invention enables data communication between the robot, the learning management server, the educator terminal, and the device, thereby providing a more dynamic education service through the robot.

또한, 본 발명은 로봇이 학습시점을 자동으로 체크하고, 학습시점이 되면 피교육자를 추적하여 교육을 시키기 때문에 보다 능동적인 학습관리가 가능하다.In addition, the present invention is more active learning management is possible because the robot automatically checks the learning time, and when the learning time to track the trainees to train.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.The following drawings attached to this specification are illustrative of preferred embodiments of the present invention, and together with the detailed description of the invention to serve to further understand the technical spirit of the present invention, the present invention is a matter described in such drawings It should not be construed as limited to

도 1은 본 발명에 의한 로봇의 지능 보완 시스템 구성을 보인 도면이다.1 is a view showing the intelligent complement system configuration of the robot according to the present invention.

도 2a는 본 발명에 사용되는 로봇의 개략적인 구성을 보인 블럭도이다.Figure 2a is a block diagram showing a schematic configuration of a robot used in the present invention.

도 2b는 상기 로봇의 제어구조를 보인 블럭구성도이다.Figure 2b is a block diagram showing the control structure of the robot.

도 3은 본 발명에 사용되는 로봇의 상세 구성에 대한 실시예를 보인 블럭도이다.3 is a block diagram showing an embodiment of a detailed configuration of a robot used in the present invention.

도 4는 본 발명에 따른 로봇의 지능 보완을 위한 명령 처리 과정을 보인 플로우차트이다.4 is a flowchart illustrating a command processing process for supplementing intelligence of a robot according to the present invention.

도 5는 본 발명에 의한 로봇의 지능 보완 시스템에서 이용되는 확장명령의 구조도이다.5 is a structural diagram of an extension command used in the intelligent complement system of the robot according to the present invention.

도 6은 스크립트를 이용하여 구성된 본 발명에 따른 로봇의 명령을 보인 예시도이다.6 is an exemplary view showing a command of a robot according to the present invention configured using a script.

도 7은 본 발명에 의한 로봇의 지능 보완 시스템에 명령어로 사용되는 스크립트의 집합을 도시한 테이블이다.7 is a table showing a set of scripts used as instructions in the robot's intelligent complement system according to the present invention.

도 8은 본 발명에 의한 로봇의 지능 보완 시스템을 통해 이루어지는 1:1 대화 수행과정을 보인 플로우챠트이다.8 is a flowchart showing a 1: 1 conversation process performed through the robot's intelligent complement system according to the present invention.

도 9는 본 발명에 의한 로봇의 지능 보완 시스템에서 이루어지는 음성 및 영상 신호 처리 과정을 보인 흐름도이다.9 is a flowchart illustrating a process of processing voice and video signals in an intelligent complement system of a robot according to the present invention.

도 10은 본 발명에 의한 로봇의 지능 보완 시스템을 적용하여 구현된 다이나믹 교육 시스템의 구성도이다.10 is a configuration diagram of a dynamic education system implemented by applying an intelligent complement system of a robot according to the present invention.

도 11는 본 발명에 의한 교육시스템에서 피교육자가 소지하는 위치추적장치의 개략적인 구성도이다.11 is a schematic configuration diagram of a location tracking device possessed by a trainee in an education system according to the present invention.

도 12은 본 발명에 따른 학습관리서버의 기능적인 구성도이다.12 is a functional configuration diagram of the learning management server according to the present invention.

도 13은 본 발명에 따른 바람직한 실시예의 피교육자 위치추정 과정을 나타내는 흐름도이다.13 is a flowchart illustrating a trainee location estimation process according to an embodiment of the present invention.

도 14는 본 발명에 따른 교육 컨텐츠 다운로드 및 교육자 단말과의 접속과정을 나타내는 흐름도이다. 14 is a flowchart illustrating a process of downloading educational content and accessing an educator terminal according to the present invention.

도 15 및 도 16은 교육 로봇을 이용하여 피교육자를 상대로 다이나믹한 교육을 실행하는 과정을 나타내는 흐름도이다. 15 and 16 are flowcharts illustrating a process of executing dynamic education for an educator using an education robot.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100 : 로봇100: robot

200 : 인터넷200: Internet

300 ; 관리서버300; Management Server

500 : 관리자 단말기500: administrator terminal

Claims (26)

여러가지 상황에 대한 로봇의 행동을 정의한 데이타를 저장관리하고, 새로운 상황이 발생시 로봇의 행동정의데이타를 새로 갱신하여 관리하며, 로봇으로부터의 요구에 따라 저장된 행동 정의 데이터를 검색하여 제공하거나, 대응한 행동정의가 존재하지 않는 경우 임의의 관리자 단말기를 선택하여 로봇과 연결시키는 관리서버;Store and manage data defining the robot's behavior for various situations, update and manage the robot's behavior definition data when new situations occur, retrieve and provide stored behavior definition data according to the request from the robot, or respond to the behavior A management server that selects any manager terminal and connects it to the robot when no definition exists; 상기 관리서버를 통해 로봇과 연결되어, 상기 로봇으로부터 전달된 데이타를 출력하여 관리자가 로봇의 상황을 인식할 수 있도록 하고, 그에 따른 행동정의 지시를 관리자로부터 입력받고, 이를 상기 관리서버를 통해 로봇에 제공하는 하나 이상의 관리자 단말기;Connected to the robot through the management server, and outputs the data transmitted from the robot so that the administrator can recognize the situation of the robot, and receives the action definition instructions from the manager, and receives the instruction from the manager through the management server Providing one or more administrator terminals; 외부에서 또는 자체 판단에 의해 명령 생성시, 자체 행동정의데이타베이스를 검색하여 적절한 행동정의를 얻거나, 통신네트워크를 통해 상기 관리서버에 접속하여, 관리서버 혹은 관리자 단말기로부터 인식된 명령에 대한 적절한 행동 정의를 수신받아, 이를 수행하는 이동가능한 로봇; 및In case of command generation from outside or by self judgment, appropriate action definition can be obtained by searching its own action definition database, or by accessing the management server through a communication network, and appropriate action on commands recognized from the management server or administrator terminal. A mobile robot that receives the definition and performs it; And 상기 관리서버와 관리자단말기와 로봇간에 데이타통신을 가능하게 하는 통신네트워크로 이루어특징으로 하는 로봇의 지능 보완 시스템.An intelligent complement system of a robot comprising a communication network that enables data communication between the management server, a manager terminal, and a robot. 제 1 항에 있어서, 상기 로봇에 주어지는 명령은The method of claim 1, wherein the command given to the robot is: 로봇이 수행할 하나의 행동을 정의하는 기본명령과,Basic commands that define an action for the robot to perform, 상기 기본명령을 바탕으로 이루어지는 것으로, 로봇이 수행할 하나의 행동에 대하여 로봇의 상태에 따라서 각각 정의되는 다수의 기본명령으로 이루어지는 확장명령으로 구성되는 것을 특징으로 하는 로봇의 지능 보완 시스템.Comprising the basic command, the robot's intelligent complementary system comprising an extended command consisting of a plurality of basic commands each defined according to the state of the robot for one action to be performed by the robot. 제 2 항에 있어서, 상기 로봇에 주어지는 명령은 스크립트 언어 방식으로 구현되는 것을 특징으로 하는 로봇의 지능 보완 시스템.The system of claim 2, wherein the instructions given to the robot are implemented in a script language manner. 삭제delete 제 1 항에 있어서,The method of claim 1, 상기 로봇은 1;1 대화요구가 인식되면, 1:1대화요구를 관리서버로 전달하고,When the robot recognizes a 1: 1 conversation request, the robot transmits a 1: 1 conversation request to the management server. 이를 수신한 관리서버는 접속가능한 관리자를 검색하여, 해당 관리자 단말기와 상기 로봇의 통화로를 연결시켜, 로봇으로 입력된 사용자의 음성 및 영상이 관리자 단말기로 전달되고, 관리자가 관리자 단말기로 입력한 응답이 로봇에게 전달되어 수행됨으로서, 1:1 대화 서비스를 수행하도록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.The management server receives the searchable manager, connects the manager terminal with the communication path of the robot, and the voice and video of the user inputted by the robot are transmitted to the manager terminal, and the manager inputs the manager terminal. The intelligent complement system of the robot, characterized in that to perform a 1: 1 conversation service by being delivered to the robot. 제 1 항에 있어서, The method of claim 1, 상기 관리서버는 상기 관리자단말기로 입력된 관리자의 로봇에 대한 응답 명령을 스크립트를 이용하여 로봇이 취해야할 행동 및 동영상을 객체화하고, 이벤트화하며, 하나의 명령과 관련된 객체들은 묶어 로봇으로 전달하고, The management server uses a script to respond to the robot's response command input to the manager terminal by using a script to objectize, event, and transfer objects related to one command to the robot. 상기 로봇은 관리서버로부터 모든 명령데이타가 수신된 후 행동을 수행토록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.The robot is an intelligent complement system of the robot to perform an action after all the command data is received from the management server. 제 1 항에 있어서,The method of claim 1, 상기 관리자 단말기는 관리서버를 통해 로봇에 연결되면, 상기 관리서버에 저장된 명령 수행 및 행동 정의 데이타 목록을 관리자에게 제공하여, 관리자가 상기 제공되는 관리서버의 정의 행동을 선택하거나, 상기 목록에 적절한 행동이 존재하지 않으면 직접 입력하도록 하는 것을 특징으로 하는 로봇의 지능 보완 시스템.When the manager terminal is connected to the robot through a management server, the manager terminal provides a list of command execution and behavior definition data stored in the management server, so that the administrator selects the defined behavior of the provided management server, or the action appropriate to the list. Intelligent complementary system of the robot, characterized in that the direct input if it does not exist. 제 1 항에 있어서,The method of claim 1, 관리자가 관리자 단말기로 입력한 데이타중, 응답내용은 텍스트형태로 로봇에 전달되고, Of the data input by the administrator to the administrator's terminal, the response is transmitted to the robot in text form. 상기 로봇은 수신된 텍스트형태의 내용을 TTS 기능을 통해 로봇의 음성으로 출력하는 것을 특징으로 하는 로봇의 지능 보완 시스템.The robot is an intelligent complement system of the robot, characterized in that for outputting the contents of the received text form in the voice of the robot through the TTS function. 로봇과 관리서버와 관리자 단말기를 통신네트워크로 연결하여 로봇의 지능을 보완하는 방법에 있어서,In a method of supplementing the intelligence of the robot by connecting the robot, the management server and the manager terminal in a communication network, a) 로봇에서 사용자의 지시 또는 내부 상태변화에 따라 소정의 명령이 생성되는 단계;a) generating a predetermined command according to a user's instruction or internal state change in a robot; b) 로봇이 상기 단계에서 생성된 명령을 인식하고, 생성된 명령에 대한 행동정의가 존재하는지 자체 데이타를 검색하는 단계;b) the robot recognizes the command generated in the step and retrieves its own data whether there is a behavior definition for the generated command; c) 상기 검색결과 해당 명령에 대한 행동정의가 존재하면, 검색된 행동정의를 수행하고, 행동정의가 존재하지 않으면 무선네트워크를 통해 관리서버에 접속하여 상기 명령에 대한 행동정의의 검색을 요구하는 단계;c) performing a searched behavior definition if the search result exists for the command, and if the behavior definition does not exist, accessing a management server through a wireless network and requesting a search for the behavior definition for the command; d) 상기 관리서버는 로봇으로부터 전달된 명령에 대한 행동 정의가 데이타베이스에 존재하는지 검색하여, 존재하는 경우 해당 행동정의를 로봇으로 전송해주는 단계;d) the management server searching for whether a behavior definition for a command transmitted from the robot exists in the database, and if present, transmitting the behavior definition to the robot; e) 상기 d)단계에서, 관리서버내에 해당 명령에 대한 행동 정의가 존재하지 않는 경우, 상기 로봇의 요구를 관리자 단말기로 전달하는 단계;e) in step d), if there is no action definition for the command in the management server, transmitting a request of the robot to an administrator terminal; f) 관리자가 로봇으로부터 전달된 명령에 대해 로봇이 수행할 내용을 관리자 단말기로 입력하면, 관리자 단말기는 관리서버를 통해 관리자가 입력된 내용을 로봇으로 전달하는 단계; 및f) when the administrator inputs contents to be performed by the robot with respect to the command transmitted from the robot to the administrator terminal, the administrator terminal delivers the contents input by the administrator to the robot through the management server; And g) 로봇이 상기 관리서버 및 관리자 단말기로부터 전송된 데이타를 수신하여, 수신된 데이타의 행동정의에 따라 명령을 수행하는 단계로 이루어지는 것을 특징으로 하는 로봇의 지능 보완 방법.g) the robot receiving the data transmitted from the management server and the administrator terminal, and performing a command according to the behavior definition of the received data. 삭제delete 로봇과 관리서버와 관리자 단말기를 통신네트워크로 연결하여 로봇의 지능을 보완하는 방법에 있어서,In a method of supplementing the intelligence of the robot by connecting the robot, the management server and the manager terminal in a communication network, 사용자가 로봇에게 1:1 대화명령을 지시하는 단계;A user instructing a robot in a 1: 1 conversation command; 로봇이 사용자가 지시한 1:1 대화명령을 인식하여 관리서버로 전달하는 단계;Recognizing, by the robot, the 1: 1 conversation command instructed by the user and transmitting the same to the management server; 관리서버가 상기 로봇으로부터 1:1 대화명령을 수신하면, 접속가능한 관리자를 검색하여, 해당 관리자의 단말기로 로봇의 1:1 대화요구를 전달하고, 해당 관리자 단말기와 로봇의 통신로를 연결시키는 단계; 및 When the management server receives a 1: 1 chat command from the robot, searching for an accessible manager, transmitting a 1: 1 chat request to the terminal of the manager, and connecting the manager terminal to the communication path of the robot ; And 상기 로봇은 관리자 단말기와 1:1로 연결되면, 사용자의 음성 및 영상을 수집하여 관리자 단말기로 보내고, 이에 대한 응답내용을 관리자로부터 관리자 단말기로 입력받아 로봇에게 지시하는 단계로 이루어지는 것을 특징으로 하는 로봇의 지능 보완 방법.When the robot is connected 1: 1 with the manager terminal, the robot collects a voice and an image of the user and sends the user's voice to the manager terminal. Intelligence complementary method. 제 11 항에 있어서, 상기 방법은The method of claim 11, wherein the method is 관리서버가 관리자 단말기로 미리 설정된 행동정의 목록을 제공하고, 관리자가 관리자 단말기를 통해 상기 목록을 검색하여, 적절한 대응명령이 있는 경우, 해당 명령을 선택하는 단계;A management server providing a list of predefined action definitions to a manager terminal, and the manager searching the list through the manager terminal and selecting a corresponding command if an appropriate corresponding command exists; 상기 관리자가 선택한 대응명령이 관리서버를 통해 로봇으로 전달되어 수행되는 단계;The corresponding command selected by the manager is transmitted to the robot through a management server to be performed; 상기 관리서버에서 제공하는 목록에 적절한 대응명령이 없는 경우, 관리자가 직접 입력한 대응 명령을 관리자 단말기가 입력받아 로봇으로 전달하여 수행시키는 단계를 더 포함하는 것을 특징으로 하는 로봇의 지능 보완 방법.If there is no appropriate corresponding command in the list provided by the management server, the intelligent command method for the robot further comprising the step of receiving the response command directly input by the administrator to the robot terminal to perform the execution. 제 11 항에 있어서, 상기 관리자 단말기로부터 로봇으로 전달되는 대응명령은 텍스트형태로 제공되고, 로봇은 수신된 텍스트 형태의 명령을 TTS 기능을 통해 로봇음성으로 출력하는 것을 특징으로 하는 로봇의 지능 보완 방법.The method of claim 11, wherein the corresponding command transmitted from the manager terminal to the robot is provided in a text form, and the robot outputs the received text form command to the robot voice through a TTS function. . 자유롭게 이동가능하고, 컴퓨터 네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 로봇과, 이 로봇과 네트워크로 연결된 서버를 통해 교육자가 특정 피교육자를 학습시키는 방법에 있어서,In a robot which is freely movable, sends and receives data through a computer network, processes and informatizes the data, and a method for teaching an educator to learn a specific subject through a server connected to the robot and the network, 상기 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리로 접근하기 위하여 이동하는 단계;The robot searching for the location of the trainee and moving to approach the trainable distance to the trainee; 피교육자가 교육 가능범위내에 포함되면, 상기 서버에 접속하여 로봇의 고유식별코드를 전송하는 단계;Transmitting the unique identification code of the robot by accessing the server when the trainee is included in the education possible range; 상기 서버에서 로봇으로부터 전송된 식별코드에 해당하는 교육 컨텐츠를 로봇으로 다운로드시키는 단계;Downloading the educational content corresponding to the identification code transmitted from the robot to the robot in the server; 상기 교육 컨텐츠내에 교육자의 학습지도를 요구하는 정보가 포함되어 있는지 여부를 판별하여, 학습 지도요구가 있는 경우, 상기 접속가능한 교육자를 검색하여 해당 교육자 단말기를 로봇과 연결시키는 단계;Determining whether the educational content includes information requesting an educator's learning, and if there is a learning instruction request, searching for the accessible educator and connecting the educator's terminal to the robot; 상기 로봇이 다운로드 받은 교육컨텐츠 및 교육자 단말기로부터 지시된 명령을 실행하여 피교육자를 교육시키는 단계;Training the trainee by executing instructions indicated by the downloaded education content and an educator terminal by the robot; 를 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법. Dynamic education method using a robot comprising a. 삭제delete 제 14 항에 있어서, 상기 방법은The method of claim 14 wherein the method is 상기 로봇이 상기 다운받은 교육 컨텐츠에 액션 명령이 존재하는지 여부를 판별하는 단계와; Determining, by the robot, whether an action command exists in the downloaded educational content; 액션 명령이 존재하는 경우, 해당 액션 명령을 분석하고, 이 액션명령에 따라 로봇이 특정한 모션을 수행하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.If there is an action command, analyzing the action command, and further comprising the step of performing a specific motion of the robot in accordance with the action command. 제 14 항에 있어서,The method of claim 14, 상기 피교육자가 특정한 질문과 같은 피교육자측 요구를 상기 로봇에 입력하는 단계와;Inputting, by the trainee, a request from the trainee such as a specific question to the robot; 상기 로봇이 상기 피교육자측 요구를 상기 교육자 단말기로 전송하는 단계와; Transmitting, by the robot, the request from the participant to the educator terminal; 상기 교육자단말기에서 상기 교육자로부터 상기 피교육자측 요구에 상응하는 응답을 입력받아, 로봇으로 전달되는 단계와;Receiving, from the educator terminal, a response corresponding to the request from the educator and transmitted to the robot; 상기 로봇이 상기 응답을 상기 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.The robot further comprises the step of outputting the response to the trainee. 제 14 항에 있어서, 상기 방법은The method of claim 14 wherein the method is 상기 교육 컨텐츠에 기반한 교육스케쥴이 종료되면, 교육수행결과를 상기 서버로 전송하는 단계와;Transmitting an education performance result to the server when an education schedule based on the education content is completed; 상기 서버에서 교육수행결과를 저장하고, 이 교육수행결과를 상기 교육자 단말기로 출력하는 단계와;Storing the training performance result at the server and outputting the training performance result to the educator terminal; 상기 교육자가 상기 교육수행결과에 근거하여 평가를 내리고, 이 평가정보를 상기 서버에 입력하는 단계와;The educator making an evaluation based on the education performance result and inputting the evaluation information to the server; 상기 서버에서 상기 평가정보를 상기 로봇을 통해 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.The server further comprises the step of outputting the evaluation information to the trainee through the robot Dynamic education method using a robot. 제 18 항에 있어서, 상기 방법은19. The method of claim 18, wherein the method is 상기 서버가 상기 교육수행결과에 근거하여 자체적으로 평가를 내리고, 이 평가정보를 상기 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.The server further evaluates itself based on the result of the training, and outputs the evaluation information to the trainee. 여러가지 상황에 대한 로봇의 행동을 정의한 데이타 및 다수의 교육컨텐츠를 제공하기 위한 교육서버;An education server for providing a plurality of educational contents and data defining the behavior of the robot for various situations; 상기 교육서버를 통해 상기 로봇에 연결되어, 상기 지능형 로봇으로부터 전달된 상황정보에 따라 교육자가 피교육자에게 교육지시를 내리는 교육자 정보단말;An educator information terminal connected to the robot through the education server, the educator giving education instructions to the trainee according to the situation information transmitted from the intelligent robot; 자유롭게 이동가능하고 통신네트워크를 통해 상기 교육서버 및 교육자 정보단말에 접속하여 교육 컨텐츠 및 피교육자의 교육지시를 수신하여, 수신된 교육 컨텐츠를 음성, 화상, 모션형태로 출력하는 로봇을 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육시스템.And a robot which is freely movable and connects to the education server and the educator information terminal through a communication network, receives education contents and education instructions of the trainees, and outputs the received education contents in the form of voice, video, and motion. Dynamic education system using a robot. 삭제delete 제 20 항에 있어서, 상기 시스템은The system of claim 20 wherein the system is 피교육자가 소지하고 위치추적신호를 송출하는 RF모듈과, 상기 로봇에 설치되어 상기 피교육자가 부착하고 있는 RF모듈과 위치추적신호를 송, 수신하는 것에 의해 피교육자의 위치를 탐색하고, 위치가 탐색된 피교육자에 대해 일정한 거리로 접근하기 위한 방향 및 거리를 산출하는 위치추적부로 이루어진 위치추적장치를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육시스템.An RF module carried by a trainee and transmitting a position tracking signal, an RF module installed in the robot and attached to the trainee, and a position tracking signal is searched for by the trainee. And a position tracking device comprising a position tracking unit for calculating a direction and a distance for approaching a predetermined distance with respect to the robot. 제 21 항에 있어서, The method of claim 21, 상기 로봇은 피교육자의 화상을 촬상하고, 이 촬상신호를 디지털화하여 이 디지털 촬상신호를 상기 교육자 정보단말에 전달하기 위한 화상처리장치를 더 포함하여, 피교육자의 학습상태를 교육자 단말기로 전송하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육시스템.The robot further includes an image processing apparatus for capturing an image of the educated subject, and digitizing the captured image signal to transmit the digital captured image signal to the educator information terminal. Dynamic education system using a robot. 자유롭게 이동가능하고, 통신네트워크를 통해 데이터를 송, 수신하고, 이 데이터를 가공하여 정보화하는 지능형 로봇과, 이 로봇에 다양한 교육정보를 제공하는 서버를 통해 교육자가 특정 피교육자를 학습시키는 방법으로서, As a method for educators to learn specific trainees through an intelligent robot that is freely moveable, transmits and receives data through a communication network, processes and informatizes the data, and provides a server with various educational information. 상기 피교육자가 상기 로봇을 통해 상기 컴퓨터에 학습요구를 입력하는 단계와; Inputting, by the trainee, a learning request into the computer through the robot; 상기 학습요구에 따라 대응하는 교육 컨텐츠를 상기 로봇에 다운로드하는 단계와; Downloading the corresponding educational content to the robot according to the learning request; 상기 로봇이 음성, 화상 및 모션을 통해 상기 교육 컨텐츠를 상기 피교육자에게 출력하는 단계;Outputting, by the robot, the educational content to the trainee through voice, image, and motion; 상기 학습요구에 따라 상기 로봇과 특정 교육자를 네트워크를 통해 접속시키는 단계;Connecting the robot and a specific educator through a network according to the learning request; 상기 피교육자가 질문을 포함하는 피교육자측 요구를 상기 로봇에 입력하면, 상기 피교육자측 요구를 대응하는 교육자 단말기로 전달하는 단계; Transmitting, by the trainee, a request to the trainee side including a question to the robot, the request from the trainee side to a corresponding educator terminal; 상기 교육자단말기에서 피교육자측 요구에 기반한 교육자측 응답을 입력받아 로봇으로 전달하는 단계; 및Receiving, by the educator terminal, an educator's response based on the request of the educator's side and delivering the response to the robot; And 상기 로봇이 음성, 화상 및 모션을 통해 상기 교육자측 응답을 상기 피교육자에게 출력하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다아나믹 교육방법.The robot further comprises the step of outputting the educator-side response to the trainee through the voice, image and motion. 삭제delete 제 24 항에 있어서, 상기 방법은The method of claim 24, wherein the method is 상기 로봇이 상기 피교육자의 위치를 탐색하고, 상기 피교육자에 대해 교육이 가능한 거리내로 접근하기 위하여 이동하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 다이나믹 교육방법.And moving the robot to search for the location of the trainee and to approach a distance within which the trainee is able to be trained.
KR10-2002-0050726A 2001-08-28 2002-08-27 Method and system for developing intelligence of robot, method and system for educating robot thereby KR100486382B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20010051964 2001-08-28
KR1020010051964 2001-08-28

Publications (2)

Publication Number Publication Date
KR20030019125A KR20030019125A (en) 2003-03-06
KR100486382B1 true KR100486382B1 (en) 2005-04-29

Family

ID=19713620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0050726A KR100486382B1 (en) 2001-08-28 2002-08-27 Method and system for developing intelligence of robot, method and system for educating robot thereby

Country Status (2)

Country Link
KR (1) KR100486382B1 (en)
WO (1) WO2003019452A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101209012B1 (en) * 2012-01-31 2012-12-24 한성대학교 산학협력단 Play interface device for education using character robot

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040042242A (en) * 2002-11-13 2004-05-20 삼성전자주식회사 home robot using home server and home network system having the robot
KR100627506B1 (en) * 2004-07-05 2006-09-21 한국과학기술원 Netwofk-based software tobot system with own Internet Protocol address
CN100360204C (en) * 2005-06-16 2008-01-09 上海交通大学 Control system of intelligent perform robot based on multi-processor cooperation
KR100678728B1 (en) * 2005-06-16 2007-02-05 에스케이 텔레콤주식회사 Interaction between mobile robot and user, System for same
KR100824314B1 (en) * 2006-08-01 2008-04-22 주식회사 유진로봇 Image Compositing System for Motivation Using Robot
KR101456554B1 (en) * 2012-08-30 2014-10-31 한국과학기술원 Artificial Cognitive System having a proactive studying function using an Uncertainty Measure based on Class Probability Output Networks and proactive studying method for the same
US20170046965A1 (en) * 2015-08-12 2017-02-16 Intel Corporation Robot with awareness of users and environment for use in educational applications
HK1204748A2 (en) * 2015-08-20 2015-11-27 Smart Kiddo Education Ltd An education system using connected toys
JP2017047519A (en) * 2015-09-04 2017-03-09 Rapyuta Robotics株式会社 Cloud robotics system, information processor, program, and method for controlling or supporting robot in cloud robotics system
KR20180018211A (en) * 2016-08-12 2018-02-21 엘지전자 주식회사 Self-learning robot
CN108377251A (en) * 2018-05-08 2018-08-07 山西乐博特机器人教育科技有限公司 Educational robot tutoring system
KR102026338B1 (en) * 2018-10-08 2019-09-27 엘지전자 주식회사 Artificial intelligence ficself-learning robot
CN110827179A (en) * 2019-10-18 2020-02-21 引力互联国际有限公司 Method, apparatus and storage medium for providing artificial intelligence education
CN110861085B (en) * 2019-11-18 2022-11-15 哈尔滨工业大学 VxWorks-based mechanical arm instruction interpreter system
CN111429263B (en) * 2019-12-11 2024-04-26 南京奥拓电子科技有限公司 Robot information interaction method, device, server and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (en) * 1997-08-22 1999-05-11 Sony Corp Storage medium, robot, information processing device and electronic pet system
WO2000035548A1 (en) * 1998-12-15 2000-06-22 Tiger Electronics, Ltd. Interactive toy
KR20020037618A (en) * 2000-11-15 2002-05-22 윤종용 Digital companion robot and system thereof
KR20020043982A (en) * 2000-12-05 2002-06-12 구자홍 An intelligent robotic bird based on speaking and learning
KR20020090506A (en) * 2001-05-28 2002-12-05 주식회사 새손텔레콤 a fuzzy toy robot system and drive method studied possible using radio frequency communication

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2873222B2 (en) * 1997-05-12 1999-03-24 川崎重工業株式会社 Robot information processing device
KR100316630B1 (en) * 1999-04-22 2001-12-12 윤덕용 Internet control system and method thereof for remote Mobile Robots Via internet control
KR20010095514A (en) * 2000-04-10 2001-11-07 김성헌 Toy system which have medical function by remote control
JP2002120184A (en) * 2000-10-17 2002-04-23 Human Code Japan Kk Robot operation control system on network
KR20020000538A (en) * 2001-12-05 2002-01-05 이정욱 Remote robot control system using ethernet

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126017A (en) * 1997-08-22 1999-05-11 Sony Corp Storage medium, robot, information processing device and electronic pet system
WO2000035548A1 (en) * 1998-12-15 2000-06-22 Tiger Electronics, Ltd. Interactive toy
KR20020037618A (en) * 2000-11-15 2002-05-22 윤종용 Digital companion robot and system thereof
KR20020043982A (en) * 2000-12-05 2002-06-12 구자홍 An intelligent robotic bird based on speaking and learning
KR20020090506A (en) * 2001-05-28 2002-12-05 주식회사 새손텔레콤 a fuzzy toy robot system and drive method studied possible using radio frequency communication

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101209012B1 (en) * 2012-01-31 2012-12-24 한성대학교 산학협력단 Play interface device for education using character robot

Also Published As

Publication number Publication date
WO2003019452A1 (en) 2003-03-06
KR20030019125A (en) 2003-03-06

Similar Documents

Publication Publication Date Title
KR100486382B1 (en) Method and system for developing intelligence of robot, method and system for educating robot thereby
KR101925440B1 (en) Method for providing vr based live video chat service using conversational ai
CN108297098A (en) The robot control system and method for artificial intelligence driving
US11468885B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
JP2022524944A (en) Interaction methods, devices, electronic devices and storage media
CN111801730A (en) System and method for artificial intelligence driven automated companion
Scheutz et al. Novel mechanisms for natural human-robot interactions in the diarc architecture
JP7260221B2 (en) Robot interaction method and device
Lee A survey of robot learning from demonstrations for human-robot collaboration
CN105126355A (en) Child companion robot and child companioning system
US20190180089A1 (en) Simulated Sandtray System
CN112204654A (en) System and method for predictive-based proactive dialog content generation
CN112204565A (en) System and method for inferring scenes based on visual context-free grammar model
CN112204563A (en) System and method for visual scene construction based on user communication
CN106446141B (en) Interactive data processing method for intelligent robot system and robot system
Kanda et al. Person identification and interaction of social robots by using wireless tags
KR20210033809A (en) Control server and method for controlling robot using artificial neural network, and the robot implementing the same
CN111515970A (en) Interaction method, mimicry robot and related device
Inamura et al. SIGVerse: A cloud-based VR platform for research on social and embodied human-robot interaction
Kapadia et al. EchoBot: Facilitating data collection for robot learning with the Amazon echo
Cho et al. Implementation of human-robot VQA interaction system with dynamic memory networks
Hartholt et al. Multi-platform expansion of the virtual human toolkit: ubiquitous conversational agents
Bukhari et al. Machine Imagination: A Step Toward the Construction of Artistic World Through Storytelling
Kanda et al. Development of Robovie as a platform for everyday‐robot research
Lopes et al. Towards grounded human-robot communication

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130416

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140411

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160412

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20170413

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190415

Year of fee payment: 15