KR100779088B1 - Apparatus for controlling robot and method thereof - Google Patents

Apparatus for controlling robot and method thereof Download PDF

Info

Publication number
KR100779088B1
KR100779088B1 KR1020060058892A KR20060058892A KR100779088B1 KR 100779088 B1 KR100779088 B1 KR 100779088B1 KR 1020060058892 A KR1020060058892 A KR 1020060058892A KR 20060058892 A KR20060058892 A KR 20060058892A KR 100779088 B1 KR100779088 B1 KR 100779088B1
Authority
KR
South Korea
Prior art keywords
robot
situation
state
unit
action
Prior art date
Application number
KR1020060058892A
Other languages
Korean (ko)
Other versions
KR20070061189A (en
Inventor
장민수
손주찬
고영철
강상승
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US11/591,275 priority Critical patent/US7797079B2/en
Publication of KR20070061189A publication Critical patent/KR20070061189A/en
Application granted granted Critical
Publication of KR100779088B1 publication Critical patent/KR100779088B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1658Programme controls characterised by programming, planning systems for manipulators characterised by programming language

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)

Abstract

본 발명에 의한 로봇 제어 장치 및 그 방법은 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및 상기 현재의 상황과 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하는 것을 특징으로 하며, 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 각종 불안정 상태를 해소하도록 하는 처리 절차와 가치 체계를 로봇에게 주입함으로써 로봇이 능동적으로 행위를 유도해낼 수 있다.Robot control apparatus and method according to the present invention comprises a state analysis unit for determining whether to belong to a predetermined instability state by evaluating the current situation based on at least one or more perception information; And a target generation unit configured to set a behavior target of the robot based on the result of the current situation and the instability state and compare it with a predetermined value system, and then receive and correct the result of the behavior of the robot as the perceptual information. The robot can actively induce behavior by injecting the robot into a processing procedure and a value system to solve various unstable states that may occur in the situation of the user and the surrounding environment of the robot.

Description

로봇 제어 장치 및 그 방법{Apparatus for controlling robot and method thereof}Apparatus for controlling robot and method

도 1은 본 발명에 의한 로봇 제어 장치의 구성을 보여주는 블록도이다.1 is a block diagram showing the configuration of a robot control apparatus according to the present invention.

도 2는 본 발명에 의한 로봇 제어 방법의 과정을 보여주는 흐름도이다.2 is a flowchart illustrating a process of a robot control method according to the present invention.

도 3은 도 2의 불안정상태 판단 단계(S220)를 보다 구체적으로 보여주는 흐름도이다.FIG. 3 is a flowchart illustrating the instability determination step S220 of FIG. 2 in more detail.

도 4는 도 2의 로봇에게 목표 행위를 지시하는 단계(S230)를 보다 구체적으로 보여주는 단계이다.FIG. 4 is a step illustrating in more detail the step S230 of instructing a target action to the robot of FIG. 2.

도 5는 본 발명에 의한 로봇 제어 장치가 실제 다른 장치와 연동되는 모습을 개략적으로 보여주는 도면이다.5 is a view schematically showing how the robot control apparatus according to the present invention is actually linked with other devices.

본 발명은 로봇이 스스로 목적을 가지고 작동하도록 제어하는 장치 및 그 방법에 관한 것으로서, 보다 상세하게는 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 다양한 불안정한 상태를 해소하기 위한 행위를 로봇이 능동적으로 발현할 수 있는 장치 및 그 방법을 제공하는 것이다.The present invention relates to a device and a method for controlling the robot to operate with its own purpose, and more particularly, to solve the various unstable conditions that may occur in the situation of the user and the environment of the robot surroundings the robot The present invention provides an apparatus and a method capable of actively expressing the same.

본 발명과 관련한 종래 기술 분야의 대표적인 것으로는 일본 소니의 아이보(AIBO)로 대표되는 일명 애완 로봇(Pat Robot) 群의 로봇들에 채용된 욕구 및 감정을 기반으로 한 능동 제어 기술이다. 예를 들면, 아이보에는 배고픔, 꾸중 등 내외부 자극을 動因으로 하여 행위를 도출하는 방법이 내장되어 있다. 이 방법에 의하면 아이보는 복수개의 지각 평가와 동기 상태를 입력으로 받고 입력을 구성하는 각 요소 간의 상관관계를 계산할 수 있는 다양한 산술식과 행렬 연산을 반복적용함으로써 능동적으로 행동 출현 경향을 해낸다. 다음의 수학식 1은 본능적인 욕구로부터 행동 출현 경향을 유도하는 계산식의 일례를 보여준다.Representative of the prior art in connection with the present invention is an active control technology based on desires and emotions employed in robots of the so-called Pet Robot 群, represented by AIBO of Sony, Japan. For example, Aibo has a built-in method of deriving actions by using internal and external stimuli such as hunger and scolding. According to this method, Aibo actively receives the behavior trend by repeatedly applying various arithmetic and matrix operations that can receive a plurality of perceptual evaluations and synchronization states as inputs and calculate correlations between the elements constituting the inputs. Equation 1 below shows an example of a formula for deriving a tendency of appearance from instinctive desire.

Figure 112006046473981-pat00001
Figure 112006046473981-pat00001

위 수학식 1에 의하면 피로도(Fatigue)가 높고 호기심(Curiosity)이 낮으면 쉬는(Resting) 행동 경향이 강화될 것임을 알 수 있다. 피로도와 호기심 등은 로봇의 욕구 및 감성 모델을 기초로 하고 로봇에 배치된 각종 센서들로부터 감지된 외부 자극값들을 종합하여 지속적으로 계산되며 상기와 같은 행동 선택 산술식에 입력된다. 이를 통해 로봇은 능동적으로 일련의 행동들을 표출한다.According to Equation 1, high fatigue and low curiosity indicate that the tendency of resting behavior will be enhanced. Fatigue, curiosity, and the like are continuously calculated based on the needs and emotion models of the robot and combined with the external stimulus values detected from various sensors arranged in the robot, and are input to the behavior selection arithmetic equation as described above. This allows the robot to actively express a series of actions.

그런데, 상기와 같은 욕구와 감성을 기반으로 한 능동적 행위 표출 방법은 본능적인 행위의 도출에는 유용할 수 있으나, 보다 고차원적인 취지의 행위를 이끌 어내는데 활용하기 어려운 문제점이 있다. 여기서 고차원적인 취지의 행위란 다음과 같은 것들이다.By the way, an active expression method based on desire and emotion may be useful for deriving an instinctive behavior, but there is a problem that it is difficult to use for eliciting higher-level behavior. Here, the high-level acts are as follows.

첫째, 사용자를 고려한 행위이다. 즉, 로봇 자체적인 욕구 및 감성에 충실하는 것이 아니라 사용자의 편안함, 쾌적함, 즐거움 등을 향상시킬 수 있는 행위, 즉 서비스를 능동적으로 도출해낼 수 있어야 한다. 예를 들어, 상황 해석 결과 사용자가 거실에 있고 거실의 기온이 높고 습도가 낮아 사용자가 짜증을 낼 만 한 상태인 경우, 로봇은 사용자를 위해 실내 상태를 쾌적하게 만들고자 하는 목표를 생성하고 이를 기반으로 적절한 서비스를 제공할 수 있어야 한다.First, it is an act that considers users. In other words, the robot should not be faithful to its own desires and emotions, but should be able to actively derive its services, that is, services that can enhance user's comfort, comfort, and enjoyment. For example, if the situation analysis indicates that the user is in a living room and the living room is hot and low in humidity, and the user is annoyed, the robot creates and based on the goal to make the room comfortable for the user. Must be able to provide adequate services.

둘째, 주변 상황 변화를 지속적으로 해석함으로써 불안정한 상황 발생 여부를 판별하고 발생한 불안정성을 해소할 수 있는 목표 지향적 행위를 도출해낼 수 있어야 한다. 예를 들어, 늦은 밤 시간에 실내 특정 지역의 온도가 지속적으로 상승하고 있는 상황을 감지하였다면 로봇은 비상 상황이 발생했다고 판단하고 이를 해소할 수 있도록 사용자에게 경보를 울리거나 비상 상황이 발생했다고 판단되는 영역을 보다 자세히 검사할 수 있어야 한다.Second, by continuously interpreting changes in the surrounding situation, it should be possible to determine whether an unstable situation occurs and to derive goal-oriented actions that can solve the instability that occurred. For example, if it detects a situation where the temperature in a particular area of the room is constantly rising late at night, the robot determines that an emergency has occurred and alerts or alerts the user to resolve it. You should be able to examine the area in more detail.

본 발명이 이루고자 하는 기술적 과제는 상기의 문제점 및 필요성을 해결하기 위하여 안출된 것으로서, 로봇이 상기의 고차원적인 취지의 행위를 능동적으로 발현할 수 있는 내부 지식 처리 기제를 제공하는 장치 및 그 방법을 제시하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems and needs, and proposes an apparatus and method for providing an internal knowledge processing mechanism capable of actively expressing the behavior of the high-level object of the robot. It is.

상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 로봇 제어 장치는 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및 상기 현재의 상황과 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, the robot control apparatus according to the present invention includes: a state analysis unit that determines whether the device belongs to a predetermined instability state by evaluating a current situation based on at least one or more perceptual information input from the outside; And a target generation unit configured to set a behavior target of the robot based on the result of the current situation and the instability state and compare it with a predetermined value system, and then receive and correct the result of the behavior of the robot as the perceptual information. It is characterized by.

상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 로봇 제어 방법은 로봇이 수행하여야할 적어도 하나 이상의 의무를 구축하는 단계; 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 단계; 상기 현재의 상황과 불안정 상태 판단 결과를 상기 의무와 비교하여 로봇의 행위 목표를 설정한 후 상기 행위를 지시하는 단계; 및 상기 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 단계;단계를 포함하는 능동적 로봇 제어 방법 및 그 시스템을 특징으로 한다.In order to solve the above technical problem, the robot control method according to the present invention includes: establishing at least one duty to be performed by a robot; Evaluating a current situation based on at least one piece of perceptual information input from the outside to determine whether the device belongs to a predetermined instability state; Instructing the action after setting the action target of the robot by comparing the current situation and the instability state determination result with the duty; And receiving and correcting the result of performing the action as the perceptual information. The method may further include an active robot control method and system.

이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시예에 대하여 상세히 설명하도록 한다. 설명의 편의와 이해의 용이함을 위하여 본 발명에 의한 로봇 제어 장치와 그 방법을 함께 서술하도록 한다. 도 1은 본 발명에 의한 로봇 제어 장치의 구성을 보여주는 블록도이다. 도 2는 본 발명에 의한 로봇 제어 방법의 과정을 보여주는 흐름도이다. 그리고 도 3은 도 2의 불안정상태 판단 단계(S220)를 보다 구체적으로 보여주는 흐름도이며, 도 4는 도 2의 로봇에게 목표 행위를 지시하는 단계(S230)를 보다 구체적으로 보여주는 단계이다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention. For convenience of description and easy understanding, the robot control apparatus and the method according to the present invention will be described together. 1 is a block diagram showing the configuration of a robot control apparatus according to the present invention. 2 is a flowchart illustrating a process of a robot control method according to the present invention. 3 is a flowchart illustrating the instability state determination step S220 of FIG. 2 in more detail, and FIG. 4 is a step illustrating the step S230 of instructing a target action to the robot of FIG. 2 in more detail.

본 발명에 의한 로봇 제어 장치는 크게 상태해석부(110)와 목표생성부(120)로 이루어진다. 상태해석부(110)는 외부에서 입력되는 적어도 하나 이상의 지각 정보를 구축된 수행 의무(S210)를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하게 된다(S220). 목표생성부(120)는 상기 현재의 상황과 상기 상태해석부(110)의 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 그 행위를 지시하고(S230), 그에 따른 로봇의 행위 수행 결과를 상기 지각 정보로서 피드백 받아 목표치에 접근하도록 수정한다(S240).Robot control apparatus according to the present invention is largely composed of the state analysis unit 110 and the target generation unit 120. The state analysis unit 110 evaluates the current situation based on the at least one perceptual information input from the outside based on the built duty S210 to determine whether it belongs to a predetermined instability state (S220). The target generation unit 120 sets an action target of the robot by comparing with a predetermined value system based on the current situation and the instability state determination result of the state analysis unit 110, and then directs the action (S230). In response to the feedback of the performance of the robot, the feedback is received as the perceptual information and modified to approach the target value (S240).

먼저 상기 상태해석부(110)와 목표생성부(120)의 세부 구성 블록을 살펴본 후 보다 상세하게 설명하도록 한다.First, detailed configuration blocks of the state analysis unit 110 and the target generation unit 120 will be described in detail.

상태해석부(110)는 상기 불안정 상태로 해석할 수 있는 판단기준이 되는 기호들을 요주의단서로서 저장하는 주의목록부(111), 상기 지각 정보를 일대일 대응되는 기호로 기호화하여 출력하는 상황해석부(113), 상기 기호화된 지각 정보를 저장하는 상황부(115), 상기 상황부(115)의 내용이 바뀔 때마다 상기 상황부(115)를 검색하여 상기 요주의단서가 존재하는지 확인하여, 존재하면 추론 시작을 지시하는 구동신호를 출력하는 상황모니터(117), 그리고 상기 구동신호에 따라 소정의 규칙을 기반으로 하는 추론을 수행하여 불안정상태에 돌입하였는지를 판단하는 불안정상태해석부(119)로 구성된다.State analysis unit 110 is a attention list unit 111 for storing the symbols that are the criterion that can be interpreted as the unstable state as the main cues, the situation analysis unit for encoding the perceptual information into a symbol corresponding to the one-to-one correspondence ( 113, the contextual unit 115 storing the symbolized perceptual information, and whenever the contents of the contextual unit 115 is changed, the contextual unit 115 is searched to determine whether the critical clue exists, and if inferred, A situation monitor 117 for outputting a driving signal indicating a start, and an instability analysis unit 119 for determining whether or not entering into an unstable state by performing inference based on a predetermined rule according to the drive signal.

한편 목표생성부(120)는 상기 로봇이 수행하여야할 의무를 저장하는 가치체계부(121), 상기 상태해석부(110)의 판단 결과와 현재의 상황을 입력받아 상기 가 치체계부(121)를 억세스하여 상기 의무와 비교한 후 상기 로봇이 수행하여야할 행위목표를 설정하는 목표설정부(123) 및 상기 설정된 행위목표를 수행하도록 상기 로봇에게 행동지침을 출력하는 행위선택부(125)로 구성된다.On the other hand, the target generation unit 120 receives the determination result of the value system unit 121, the state analysis unit 110 and the current situation to store the obligation to be performed by the robot the value system unit 121 A goal setting unit 123 for setting an action target to be performed by the robot after comparing the duty with the duty, and an action selection unit 125 for outputting an action guide to the robot to perform the set action target. do.

이제 상기와 같은 구성하에서 상세한 동작을 설명하도록 한다. 먼저 주의목록부(111)는 로봇이 주의를 기울여야 하는 상황이 발생했음을 발견하는 단서 정보를 저장하고 있는다(S221). 상태해석부(110)는 각종 센서, 카메라, 음성인식장치를 포함하는 외부 지각 수단(100)으로부터 각종 지각 정보를 입력받는다. 지각 정보는 상황해석부(113)에 입력되며 상황해석부(113)는 상기 입력된 각 지각 정보를 해석하여 기호화하거나 여러 지각 정보를 결합하여 기호화함으로써 상황 상술 데이터를 생성한다(S223). 이렇게 생성된 상황 상술 데이터는 상황부(115)에 기록된다. 상황부(115)에 기록된 상황 상술 데이터 중 일부는 상황해석부(113)로 재입력되어 변형 혹은 삭제 과정을 거친다. 이는 상황부(115)에 기재되는 상황 상술 데이터 내용의 일관성 유지를 위한 것이다. 상황부(115)는 상황 해석 결과로 생성되는 상황 상술 데이터를 지속적으로 받아들이므로 그 내용이 동적으로 변화한다. 상황 모니터(117)는 상황부(115)의 변화 내용을 지속적으로 감시한다. 상황 모니터(117)는 상황부(115)에 주의목록부(111)에 저장되어 있는 데이터가 등장하면 그 사실을 불안정 상태 해석부(119)로 전달한다. 불안정 상태 해석부(119)는 상황 모니터(117)가 전달한 주의집중단서와 상황부(115)의 내용을 종합하여 판단함으로써 불안정 상태가 발생하였는지 판단한다(S225 내지 S227). 불안정 상태가 발생했다는 결정이 내려지면, 불안정 상태 해석부(119)는 발생한 불안정 상태를 목표 생성부(120)로 전달한다(S229). 목표 생성부(120)의 목표설정부(123)는 불안정 상태와 상황부(115)의 내용을 종합 판단하고 이를 가치체계부(121)에 비추어봄으로써 사용자를 위해 어떤 행위 목표를 설정할지 결정하여 행위 선택부(125)로 전달한다. 행위 선택부(125)는 설정된 목표를 달성할 수 있는 행위를 선택한다(S231 내지 S233). 이렇게 선택된 행위를 수신한 외부의 행위 구체화 및 실행 수단(예를 들면, 로봇)은 그 선택된 행위를 어떻게 수행할지 결정하고 실제로 수행한다. 수행 결과는 지각정보로 다시 상태해석부(110)로 입력되는데, 수행 결과가 성공적이면 설정했던 목표를 달성한 것으로 해석 판단한다. 수행 결과가 성공적이지 못했다면 설정했던 목표가 달성되지 않았으므로 상술한 바와 같은 절차를 통해 새로운 목표를 설정하거나 목표 달성 행위를 중지한다(S235).The detailed operation will now be described under the above configuration. First, the attention list 111 stores clue information for discovering that a situation in which the robot should pay attention has occurred (S221). The state analysis unit 110 receives various perception information from the external perception means 100 including various sensors, cameras, and voice recognition devices. Perception information is input to the situation analysis unit 113, and the situation analysis unit 113 generates the situation detailed data by analyzing and encoding each of the input perception information or by combining various perception information (S223). The situation detailed data generated in this way is recorded in the situation unit 115. Some of the situation-specific data recorded in the situation unit 115 is re-entered into the situation analysis unit 113 to be modified or deleted. This is for maintaining consistency of the context-specific data content described in the context section 115. The situation unit 115 continuously receives the situation-specific data generated as a result of the situation analysis, and its contents change dynamically. The situation monitor 117 continuously monitors the change contents of the situation unit 115. The situation monitor 117 transmits the fact that the data stored in the attention list unit 111 appears in the situation unit 115 to the instability state analysis unit 119. The unstable state analysis unit 119 determines whether an unstable state has occurred by combining the contents of the attentional cues transmitted by the situation monitor 117 and the contents of the situation unit 115 (S225 to S227). When it is determined that the instability state has occurred, the instability state analysis unit 119 transmits the generated instability state to the target generation unit 120 (S229). The goal setting unit 123 of the goal generation unit 120 comprehensively determines the instability state and the contents of the situation unit 115 and reflects it on the value system unit 121 to determine which action goal to set for the user. Transfer to action selector 125. The action selector 125 selects an action that can achieve the set goal (S231 to S233). The external action specification and execution means (for example, the robot) that has received the selected action thus determines and actually performs the selected action. The execution result is input to the state analysis unit 110 again as perceptual information, and if the execution result is successful, it is determined that the target set is achieved. If the execution result is not successful, since the set goal is not achieved, a new goal is set or the goal achievement behavior is stopped through the above-described procedure (S235).

상기와 같은 기능 수행에 있어 각 기능을 수행하는 구성요소간에 주고 받는 데이터는 지식 표현 언어(Knowledge Representation Language)에 의해 기술된 데이터이며, 각 구성요소는 이를 기반으로 일련의 논리적인 추론 기능을 수행함으로써 필요한 판단 기능을 수행한다. 또한, 가치체계부(121)는 로봇이 준수해야 할 의무 사항, 임무 사항 등을 기술한 지식베이스(Knowledge Base)로서 로봇 행위의 안전성을 도모하고 로봇 행위의 근본적인 지향점을 설정하는 데이터의 집합이다.In performing the above functions, data transmitted and received between components that perform each function is data described by Knowledge Representation Language, and each component performs a series of logical inference functions based thereon. Perform the necessary judgment function. In addition, the value system unit 121 is a knowledge base that describes obligations, missions, and the like to be adhered to by the robot. The value system unit 121 is a set of data that promotes the safety of the robot behavior and sets the fundamental direction of the robot behavior.

이하 본 발명의 일 실시예에 대하여 보다 구체적인 예와 함께 설명한다. 본 실시예는 본 발명을 실내 상황 해석을 통해 능동적으로 사용자에게 쾌적한 실내 환경을 제공하는 로봇에 적용한 것이다.Hereinafter, an embodiment of the present invention will be described with more specific examples. This embodiment applies the present invention to a robot that actively provides a comfortable indoor environment to a user through an indoor situation analysis.

먼저 로봇 장치의 구성에 대하여 간략히 설명한다. 본 실시예에서 보이는 로 봇과 로봇 운영 환경의 구성은 도 5에 제시한 바와 같다. 도 5는 본 발명에 의한 로봇 제어 장치가 실제 다른 장치와 연동되는 모습을 개략적으로 보여주는 도면이다.First, the configuration of the robot device will be briefly described. The configuration of the robot and the robot operating environment shown in this embodiment is as shown in FIG. 5 is a view schematically showing how the robot control apparatus according to the present invention is actually linked with other devices.

로봇 장치(540)는 구동부(미도시)와 함께 온도 및 습도를 측정하기 위한 센서(545), 카메라(547), 경보기(543), 통신 모듈(541)을 탑재한다. 통신 모듈(541)은 홈게이트웨이(520)와 무선으로 통신기능을 수행한다. 홈게이트웨이(520)는 원격 제어 기능을 보유한 에어컨(530) 및 전동창문(510)을 제어하는 제어 센터 역할을 수행하며, 로봇은 홈게이트웨이(520)에 기능 요청을 전달함으로써 상기의 장치들을 제어한다.The robot device 540 includes a sensor 545, a camera 547, an alarm 543, and a communication module 541 for measuring temperature and humidity together with a driving unit (not shown). The communication module 541 performs a wireless communication function with the home gateway 520. The home gateway 520 serves as a control center for controlling the air conditioner 530 and the electric window 510 having a remote control function, and the robot controls the devices by transmitting a function request to the home gateway 520. .

다음으로 본 발명에 의한 능동적 로봇 제어 장치 및 그 방법이 함께 동작하는 방식을 설명한다. 로봇 장치(540)에 장착된 온도 및 습도 센서(545)는 지속적으로 로봇이 위치한 공간의 온도 및 습도 데이터를 감지하여 상황 해석부(113)으로 전달한다. 상황 해석부(113)는 일정한 규칙을 이용하여 상황을 기호화한다. 예를 들면, 온도가 25도 이상이면 '덥다'에 해당하는 기호를 생성하고, 온도가 10도 이하이면 '서늘하다'에 해당하는 기호를 생성한다. 또한, 로봇의 카메라(547)는 정해진 바에 의하여 지속적으로 영상을 촬영하여 상황 해석부(113)로 전달한다. 동시에 도면에는 도시되지 않았지만 다양한 외부 지각 수단에 의하여 획득된 인식 결과도 상황 해석부(113)로 전달된다. 예를 들어, 영상 인식을 통해 특정 사용자를 인식한 경우 인식된 사용자의 아이디를 상황해석부(113)에 전달한다. 상황 해석부(113)는 전달받은 아이디를 이용하여 어떤 사용자와 마주쳤는지를 알려주는 기호를 상황 부(115)에 기재한다. 다음의 표 1은 임의 시점에 상황부(115)에 기재된 데이터의 내용을 기술한 것이다. Next, an active robot control apparatus and a method of operating the method according to the present invention will be described. The temperature and humidity sensor 545 mounted on the robot device 540 continuously detects the temperature and humidity data of the space where the robot is located and transmits the data to the situation analyzer 113. The situation analysis unit 113 signs the situation using a predetermined rule. For example, if the temperature is 25 degrees or more, a symbol corresponding to 'hot' is generated. If the temperature is 10 degrees or less, a symbol corresponding to 'cool' is generated. In addition, the camera 547 of the robot continuously photographs the image and transmits the image to the situation analyzer 113. At the same time, although not shown in the drawing, recognition results obtained by various external perception means are also transmitted to the situation analysis unit 113. For example, when a specific user is recognized through image recognition, the ID of the recognized user is transmitted to the situation analysis unit 113. The situation analysis unit 113 writes to the situation unit 115 a symbol indicating which user is encountered using the received ID. Table 1 below describes the contents of the data described in the situation section 115 at any point in time.

LocatedAt(Me,101)LocatedAt (Me, 101) 나(로봇)는 101이란 장소에 위치하고 있다.I (robot) is located at place 101. LocatedAt(Cheolsu,101)LocatedAt (Cheolsu, 101) Cheolsu란 아이디를 가진 사용자는 101에 있다.The user with the ID Cheolsu is at 101. Confrented(Cheolsu, 2005-1023T10:20:30)Confrented (Cheolsu, 2005-1023T10: 20: 30) Cheolsu란 아이디를 가진 사용자와 마주쳤다.Cheolsu encountered a user with an ID. Temperature(101,28)Temperature (101,28) 101의 온도는 28도이다.The temperature of 101 is 28 degrees. Humidity(101,80)Humidity (101,80) 101의 습도는 80%이다.The humidity of 101 is 80%. Hot(101)Hot (101) 101은 덥다.101 is hot Very Humidity(101)Very Humidity (101) 101은 매우 습하다.101 is very humid.

로봇 출고자, 또는 사용자는 환경의 불안정 상태에 대한 단서가 되는 Hot이나 VeryHumid같은 기호를 주의목록부(111)에 등록한다. 또한, 사용자와 마주쳤을 때 사용자에 대한 서비스 제공이 필요할 수 있으므로 Confronted와 같은 기호도 등록한다. 상황 모니터(117)는 상황부(115)의 내용이 바뀔 때마다 상황부(115)의 내용을 점검하여 주의집중단서가 존재하는지 여부를 판단한다. 앞서 예시한 바와 같은 내용인 경우, 상황 모니터(117)는 Hot과 VeryHumid를 단서로 하여 불안정 상태 해석부(119)를 구동한다. 불안정 상태 해석부(119)는 현재 상황부(115)의 내용을 종합 분석하여 불안정 상태가 발생하였는지 판단한다. 불안정 상태 해석부(119)는 다음과 같은 규칙을 기반으로 추론을 수행함으로써 불안정 상태 발생 여부를 판단한다.The robot issuer or the user registers a symbol such as Hot or VeryHumid in the attention list section 111, which is a clue about the instability of the environment. It also registers symbols, such as Confronted, as it may be necessary to provide services to users when they encounter them. The situation monitor 117 checks the contents of the situation unit 115 whenever the contents of the situation unit 115 changes, and determines whether there is a focused attention clue. In the case as described above, the situation monitor 117 drives the unstable state analysis unit 119 with Hot and VeryHumid as cues. The instability analysis unit 119 comprehensively analyzes the contents of the current situation unit 115 to determine whether an instability state has occurred. The unstable state analysis unit 119 determines whether an unstable state occurs by performing inference based on the following rule.

R10: Hot(?loc) and VeryHumid(?loc) and LocatedAt(?someone,?loc) and ~CaughtCold(?someone)R10: Hot (? Loc) and VeryHumid (? Loc) and LocatedAt (? Someone,? Loc) and ~ CaughtCold (? Someone)

-> Instability(HotAndHumid,Uncomfortable,?someone,?loc)Instability (HotAndHumid, Uncomfortable,? Someone,? Loc)

R11: TooNoisy(?loc) and LocatedAt(?someone,?loc) and ~PlayingMedia(?someone,?loc)R11: TooNoisy (? Loc) and LocatedAt (? Someone,? Loc) and ~ PlayingMedia (? Someone,? Loc)

-> Instability(Noisy,Uncomfortable,?someone,?loc)Instability (Noisy, Uncomfortable, someone, loc)

규칙 R10은 "어떤 장소가 덥고 매우 습한데 그 장소에 어떤 사람이 있다면, 그 장소가 덥고 습하므로 불안정하다"라고 판단한다는 것이다. 이 규칙에 의하면, 덥고 습한 그 장소에 사람이 없다면 불안정 상태가 발생했다고 판단하지 않는다. 더불어 R10은 그 장소에 있는 사용자가 감기에 걸렸다면 해당 상태를 불안정한 상태로 보지 않겠다는 조건(~CaughtCold(?someone))을 포함하고 있다. 사용자가 감기에 걸려 일부러 보일러 온도를 높이고 가습기를 많이 틀어놓았을 수도 있기 때문이다. 규칙 R11은 어떤 장소가 매우 시끄럽고 사용자가 그 장소에 있는 경우 만약 그 사용자가 영화나 음악 등의 미디어를 튼 것이 아니라면 해당 상태를 불안정한 상태로 보겠다는 의미이다.Rule R10 determines that "if a place is hot and very humid and there is someone there, it is unstable because it is hot and humid." According to this rule, it is not judged that an unstable condition has occurred if no one is in the hot and humid place. In addition, R10 includes a condition (~ CaughtCold (? Someone)) that if a user in the place has a cold, he will not see it as unstable. This is because the user may catch a cold and intentionally increase the boiler temperature and turn on the humidifier. Rule R11 means that if a place is very noisy and the user is there, the user will see the state as unstable unless the user has burned media such as a movie or music.

불안정 상태 해석부(119)는 감지된 불안정 상태를 목표 생성부(120)로 전달함으로써 로봇의 행위 목표가 생성될 수 있도록 한다. 목표 설정부(123)는 발생한 불안정 상태와 사전 설정된 가치체계부(121)의 데이터, 그리고 상황부(1152)의 여타 상황들을 종합함으로써 목표를 생성한다. 먼저 가치체계부(121)는 다음과 같은 지식을 포함한다.The instability state analysis unit 119 transmits the sensed instability state to the target generation unit 120 so that an action target of the robot can be generated. The goal setting unit 123 generates a goal by combining the generated instability state, the data of the preset value system unit 121, and other situations of the situation unit 1152. First, the value system unit 121 includes the following knowledge.

R20: User(?someone)→ OughtToMake(?someone, Comfortable)R20: User (? Someone) → OughtToMake (? Someone, Comfortable)

R21: User(?someone)→OughtToBeTo(?someone, Polite)R21: User (? Someone) → OughtToBeTo (? Someone, Polite)

R22: Uncomfortable = ~ComfortableR22: Uncomfortable = ~ Comfortable

R23: Impolite = ~PoliteR23: Impolite = ~ Polite

규칙 R20은 사용자를 편안하게 만들어줘야 한다는 임무 사항으로, 규칙 R21은 사용자에게 예의바르게 행동해야 한다는 임무 사항으로 해석할 수 있다. 논리식 R22와 R23은 각각 두 개념이 상충되는 개념임을 표현해 주고 있다. 이러한 가치체계는 발생한 불안정 상태가 로봇의 임무 준수를 방해하는지 검증하는 단서 정보가 되어 로봇이 구체적으로 어떤 의도를 가지고 행위를 도출하게 되는지 설명해준다. 목표 설정부(123)는 다음과 같은 규칙을 통해 로봇의 가치 체계에 불일치가 발생했음과 그 불일치를 해결하기 위해 어떤 목표를 설정해야 하는지 결정한다.Rule R20 can be interpreted as a task to make the user comfortable, and Rule R21 can be interpreted as a task to behave politely to the user. The expressions R22 and R23 each represent a conflicting concept. This value system provides clue information that verifies whether the instability that occurs prevents robots from complying with their missions and explains what the robots intend to do with their intentions. The goal setting unit 123 determines that a discrepancy has occurred in the robot's value system through the following rule and what goal should be set to resolve the discrepancy.

R30: OughtToMake(?someone,?x) and Instability(?cause,?y,?someone,?loc) and ?x = ~?yR30: OughtToMake (? Someone,? X) and Instability (? Cause,? Y, someone,? Loc) and? X = ~? Y

-> Resolve(?cause,?someone,?loc)-> Resolve (? Cause,? Someone,? Loc)

R31: Resolve(?cause,?someone,?loc) and Resolvent(?cause, ?goal) -> Goal(?goal,?someone,?loc)R31: Resolve (? Cause,? Someone,? Loc) and Resolvent (? Cause,? Goal)-> Goal (? Goal,? Someone,? Loc)

R32: Resolvent(HotAndHumid, CoolAndDry)R32: Resolvent (HotAndHumid, CoolAndDry)

규칙 R30은 가치체계를 통해 어떤 임무가 주어졌는데 불안정 상태에 의해 그 임무를 완수할 수 없게 되었을 때 (?x = ~?y에 의해 기술된 바와 같이), 그 원인 요소를 해소하라는 의미이다. 규칙 R31은 원인 요소에 대한 해소 단서를 찾아 그것을 목표로 설정하는 규칙이다. 그리고, R32는 하나의 사실(Fact)로서 HotAndHumid에 대한 원인 해소책은 CoolAndDry임을 기술하고 있다. 따라서 지금까지의 데이터 흐름을 비추어 보면 목표 설정부(123)는 다음과 같이 목표를 설정하게 된다.Rule R30 means that when a task is given through the value system and the instability makes it impossible to complete the task (as described by? X = ~? Y), the causal factor is to be resolved. Rule R31 is a rule that finds a resolving clue for a cause factor and sets it as a target. And, R32 is a fact that states that the solution to HotAndHumid is CoolAndDry. Therefore, in view of the data flows thus far, the target setting unit 123 sets the target as follows.

Goal(CoolAndDry, Cheolsu, 101)Goal (CoolAndDry, Cheolsu, 101)

즉, "장소 l01을 시원하고 건조하게 만드는데 이는 Cheolsu라는 아이디를 가진 사용자를 위한 것이다"란 의미이다.This means "make the place l01 cool and dry, for a user with the ID Cheolsu".

최종적으로 행위 선택부(125)는 목표로 설정된 CoolAndDry를 달성할 수 있는 수단을 설정한다. 행위 선택부(125)는 다음과 같은 지식을 활용한다.Finally, the action selector 125 sets a means for achieving CoolAndDry set as a target. The action selector 125 utilizes the following knowledge.

R40: Action(OpenWindow, WindowClosed, ClearWether, CoolAndDry)R40: Action (OpenWindow, WindowClosed, ClearWether, CoolAndDry)

R41: Action(TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)R41: Action (TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)

R42: Goal(?resolvent, ?someone, ?loc) and Action(?action, ?precondition1, ?precondition2, ?resolvent) and ?precondition1(?loc) andR42: Goal (? Resolvent,? Someone,? Loc) and Action (? Action,? Precondition1,? Precondition2,? Resolvent) and? Precondition1 (? Loc) and

?precondition(?loc) ->Perform(?action, ?loc)? precondition (? loc)-> Perform (? action,? loc)

규칙 R40과 R41은 특정 목표를 달성할 수 있는 수단들을 지시한다. 먼저 R40은 창문을 여는 행위를 제시하는데 사전 조건으로 창문이 닫혀있어야 하며 날씨는 쾌청해야 함을 지시하고 있다. 그리고, 행위의 효과는 CoolAndDry이다. 다음 R41은 에어컨을 켜는 행위를 제시하는데 사전 조건으로 창문과 문이 닫혀있어야 함을 지정하고 있다.Rules R40 and R41 dictate the means by which a certain goal can be achieved. First, the R40 suggests opening the window, indicating that the window must be closed and the weather should be pleasant. And the effect of the action is CoolAndDry. The next R41 suggests the act of turning on the air conditioner, specifying that windows and doors must be closed as a precondition.

규칙 R42는 목표와 달성 수단, 그리고 현재의 상태를 종합하여 수행할 행위를 결정한다. 만약 창문과 문이 닫혀있고 날씨가 흐리다면 선택되는 행위는 에어컨을 켜는 행위가 될 것이다. 그러나, 문과 창문이 닫혀있고 날씨도 맑다면 R40과 R41이 모두 만족되므로 상충이 발생한다. 이런 경우 다음과 같이 행위간에 우선 순위를 설정함으로써 행위 선택 정책을 확장하여 상충을 해소할 수 있다.Rule R42 determines the actions to be performed by combining goals, means of achievement, and current status. If the windows and doors are closed and the weather is cloudy, the action of choice will be to turn on the air conditioner. However, if the doors and windows are closed and the weather is clear, a conflict arises because both R40 and R41 are satisfied. In this case, the conflict selection can be resolved by extending the behavior selection policy by setting the priority among the actions as follows.

R40: Action(OpenWindow, WindowClosed, ClearWether, CoolAndDry)R40: Action (OpenWindow, WindowClosed, ClearWether, CoolAndDry)

R41: Action(TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)R41: Action (TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)

R42: Superior(OpenWindow, TurnOnAirconditioner)R42: Superior (OpenWindow, TurnOnAirconditioner)

R43: Goal(?resolvent, ?someone, ?loc) and Action(?action, ?precondition1, ?precondition2, ?resolvent) and ?precondition(?loc) and ?precondion2(?loc) -> TemporaryPerform(?action, ?loc)R43: Goal (? Resolvent,? Someone,? Loc) and Action (? Action,? Precondition1,? Precondition2,? Resolvent) and? Precondition (? Loc) and? Precondion2 (? Loc)-> TemporaryPerform (? Action,? loc)

R44: TemporaryPerform (?action1, ?loc) and TemporaryPerform (?action2, ?loc) and Superior(?action1, ?action2) -> Perform(?action1, ?loc)R44: TemporaryPerform (? Action1,? Loc) and TemporaryPerform (? Action2,? Loc) and Superior (? Action1,? Action2)-> Perform (? Action1,? Loc)

지식 R42는 창문 열기가 에어컨 켜기보다 우선하는 행위라고 선언하고 있다. 그리고, R43은 최종 행위를 결정하는 대신 중간 결정을 하고 있으며 R44가 복수개 행위가 선택된 경우 우선 순위가 높은 행위를 선택하여 최종 결과를 결정한다.Knowledge R42 declares that the opening of windows is an act that takes precedence over turning on the air conditioner. In addition, R43 makes an intermediate decision instead of determining a final action, and when a plurality of actions are selected, R43 selects a high priority action to determine a final result.

이렇게 결정된 행위는 행위 구체화 및 실행 수단(예를 들면, 로봇)으로 전달되어 실제 물리적인 서비스 수행으로 발현된다. 예를 들어, 도 5에서 사용자가 방에 있고 방이 덥고 습한 이유로 인해 창문을 열겠다는 행위가 도출되었다면 로봇장치(540)는 통신 모듈을 통해 홈게이트웨이(520)로 방의 전동창문(510)을 열도록 명령하고 이 명령에 따라 전동창문(510)이 열리게 된다.The action thus determined is transferred to the action specification and execution means (for example, a robot) and expressed as actual physical service performance. For example, in FIG. 5, if the user is in the room and the act of opening the window due to the hot and humid reason is derived, the robot device 540 opens the electric window 510 of the room by the home gateway 520 through the communication module. The electric window 510 is opened according to the command.

한가지 주목할 것은 로봇 장치(540)는 지금까지 설명한 바와 같은 처리 과정상의 지식 처리 내용을 저장하여 둠으로써 행위 수행의 의도를 사용자에게 제시해줄 수 있다는 점이다. One thing to note is that the robot device 540 can present the intention of performing the action to the user by storing the knowledge processing content in the process described above.

즉, 상기의 예에서 로봇은 "Cheolsu를 편안하게 하려고 창문을 열였다고 답할 수 있다. 가치 체계 상에서 상충이 발생한 부분이 Cheolsu의 불편함이었기 때문이다. 또한 왜 Cheolsu가 불편하리라고 판단했는가에 대해서 로봇은 "방이 덥고 습해서"라고 답해줄 수 있다.In other words, in the above example, the robot said, "We opened the window to make Cheolsu comfortable. It was because of Cheolsu's discomfort that the conflicting part of the value system. He also asked why Cheolsu felt uncomfortable. You might answer, "The room is hot and humid."

이상에서 설명한 바와 같이 본 발명이 제시한 능동적 로봇 제어 방법은 로봇이 사용자와 환경을 지속적으로 안전 및 쾌적하게 유지하고자 하는 의도를 주입하고 이에 따라 행위하도록 만듦으로써 능동적으로 로봇을 제어할 수 있으며, 로봇으로 하여금 자신이 수행한 행위에 대해 왜 그러한 행위를 수행하게 되었는지를 가치체계상의 가치를 빌어 설명할 수 있게 만들 수 있다.As described above, the active robot control method proposed by the present invention can actively control the robot by injecting and inducing the robot to intentionally keep the user and the environment safe and comfortable and act accordingly. You can make it possible to explain the value system of why you did it for the actions you performed.

본 발명에 의한 로봇 제어 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.The robot control method according to the present invention can also be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD_ROM, magnetic tape, floppy disks, and optical data storage, and may also include those implemented in the form of carrier waves (e.g., transmission over the Internet). . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, optimal embodiments have been disclosed in the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not intended to limit the scope of the present invention as defined in the claims or the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

이상에서 설명한 바와 같이, 본 발명에 의한 로봇 제어 장치 및 그 방법은 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 각종 불안정 상태를 해소하도록 하는 처리 절차와 가치 체계를 로봇에게 주입함으로써 로봇이 능동적으로 행위를 유도해낼 수 있다.As described above, the robot control apparatus and method thereof according to the present invention inject a robot into a robot by injecting a processing procedure and a value system to solve various unstable states that may occur in a situation in which the user is present and a situation of the robot's surrounding environment. This can actively induce action.

그 결과로 로봇이 능동적으로 사용자의 안위를 보존하고 환경의 불안정성을 해결할 수 있으며, 로봇 제작자나 사용자는 가치체계를 통해 로봇에게 임무, 의무, 예절 등을 손쉽게 부여할 수 있다.As a result, the robot can actively preserve the user's safety and solve the instability of the environment, and the robot maker or the user can easily give the robot duties, duties, and manners through the value system.

또한 로봇이 행위를 수행하게 된 경위와 의도를 설명하도록 만들 수 있다.It can also be made to explain how and why the robot performed the action.

그리고 로봇의 능동적이고 지적인 행위 도출에 있어 보다 인간적 사고에 가깝게 제작할 수 있게 함으로써 로봇의 사용자 친화성과 안정성을 향상시킬 수 있기 때문에 개인용 및 가정용 로봇 산업을 신장시키는 원동력의 하나가 될 수 있다.In addition, it is possible to improve the user-friendliness and stability of the robot by making it more human-like in deriving the active and intellectual behavior of the robot, which can be one of the driving forces to expand the personal and home robot industry.

Claims (9)

외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및A state analysis unit for determining whether the current state is included in a predetermined instability state based on at least one piece of perceptual information input from the outside; And 상기 현재의 상황과 불안정 상태 판단 결과를 기초로 로봇의 수행의무를 규정한 가치체계와 비교하여 상기 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하고,Based on the present situation and the result of the unstable state determination, a goal generation is set by comparing the result of the performance of the robot with the perception information after setting the behavior goal of the robot by comparing with the value system that defines the performance obligation of the robot. Including; 상기 상태 해석부 및 목표생성부 간에 지식 표현 언어(Knowledge Representative Language)로 기술된 데이터로 송수신하는 것을 특징으로 하는 로봇 제어 장치.And transmitting and receiving data described in a Knowledge Representative Language between the state analyzer and the target generator. 삭제delete 제1항에 있어서, 상기 상태해석부는The method of claim 1, wherein the state analysis unit 상기 불안정 상태로 해석할 수 있는 판단기준이 되는 기호들을 요주의단서로서 저장하는 주의목록부;Attention list unit for storing the symbols that are the criterion that can be interpreted as the unstable state as the main cues; 상기 지각 정보를 일대일 대응되는 기호로 기호화하여 출력하는 상황해석부;A situation analysis unit for encoding the perceptual information into a symbol corresponding to one-to-one and outputting the symbol; 상기 기호화된 지각 정보를 저장하는 상황부;A situation unit which stores the encoded perceptual information; 상기 상황부의 내용이 바뀔 때마다 상기 상황부를 검색하여 상기 요주의단서 가 존재하는지 확인하여, 존재하면 추론 시작을 지시하는 구동신호를 출력하는 상황모니터; 및A situation monitor for searching for the situation unit and checking whether there is a key point of interest whenever the contents of the situation unit are changed, and outputting a driving signal instructing to start inference if present; And 상기 구동신호에 따라 소정의 규칙을 기반으로 하는 추론을 수행하여 불안정상태에 돌입하였는지를 판단하는 불안정상태해석부;를 포함하는 것을 특징으로 하는 로봇 제어 장치.And an unstable state analysis unit for determining whether the vehicle enters an unstable state by performing inference based on a predetermined rule according to the driving signal. 제1항에 있어서, 상기 목표생성부는The method of claim 1, wherein the target generation unit 상기 로봇이 수행하여야할 의무를 저장하는 가치체계부;A value system unit for storing duties to be performed by the robot; 상기 상태해석부의 판단 결과와 현재의 상황을 입력받아 상기 가치체계부를 억세스하여 상기 의무와 비교한 후 상기 로봇이 수행하여야할 행위목표를 설정하는 목표설정부; 및A goal setting unit which receives the determination result of the state analysis unit and the current situation, accesses the value system unit, compares the duty system, and sets an action target to be performed by the robot; And 상기 설정된 행위목표를 수행하도록 상기 로봇에게 행동지침을 출력하는 행위선택부;를 포함하는 것을 특징으로 하는 로봇 제어 장치.And a behavior selection unit for outputting a behavior instruction to the robot to perform the set behavior goal. (a) 로봇이 수행하여야할 적어도 하나 이상의 의무를 구축하는 단계;(a) establishing at least one or more duties the robot should perform; (b) 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 단계;(b) evaluating the current situation based on at least one of the perceptual information input from the outside to determine whether it belongs to a predetermined instability state; (c) 상기 현재의 상황과 불안정 상태 판단 결과를 상기 의무와 비교하여 로봇의 행위 목표를 설정한 후 상기 행위를 지시하는 단계; 및(c) instructing the action after setting the action target of the robot by comparing the current state and instability state determination result with the duty; And (d) 상기 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 단계;를 포함하고,(d) receiving and correcting the result of performing the action as the feedback information; 상기 의무, 현재의 상황 및 불안정 상태 판단 결과는 지식 표현 언어(Knowledge Representative Language)로 기술되는 것을 특징으로 하는 로봇 제어 방법.The robot control method, characterized in that the obligation, the current situation and the instability state determination results are described in Knowledge Representative Language. 제5항에 있어서, 상기 (b)단계는The method of claim 5, wherein step (b) (b1) 상기 불안정 상태로 해석할 수 있는 판단기준이 되는 기호들을 요주의단서로서 저장하는 단계;(b1) storing the symbols that serve as the criterion for determining the unstable state as key cues; (b2) 상기 지각 정보를 일대일 대응되는 기호로 기호화한 후 상황데이터로 저장하는 단계;(b2) encoding the perceptual information into a one-to-one corresponding symbol and storing the perceptual information as situation data; (b3) 상기 상황데이터가 바뀔 때마다 상기 요주의단서들과 비교하여 상기 요주의단서를 포함하면 추론을 시작하는 단계; 및(b3) starting to infer if the situation data includes the critical clue in comparison with the critical clues whenever the situation data is changed; And (b4) 소정의 규칙을 기반으로 하는 상기 추론을 수행하여 불안정상태에 돌입하였는지를 판단하는 단계;를 포함하는 것을 특징으로 하는 로봇 제어 방법.(b4) performing the inference based on a predetermined rule to determine whether or not entering into an unstable state; robot control method comprising a. 제5항에 있어서, 상기 (c)단계는The method of claim 5, wherein step (c) (c1) 상기 로봇이 수행하여야할 의무를 저장하는 단계;(c1) storing the duty that the robot should perform; (c2) 상기 불안정 상태 판단 결과와 현재의 상황을 상기 의무와 비교한 후 상기 로봇이 수행하여야할 행위목표를 설정하는 단계; 및(c2) setting an action target to be performed by the robot after comparing the result of the unstable state determination with the current situation; And (c3) 상기 로봇에게 상기 설정된 행위목표를 수행하도록 행동지침을 내리는 단계;를 포함하는 것을 특징으로 하는 로봇 제어 방법.(c3) giving a behavior instruction to the robot to perform the set behavior goal. 제7항에 있어서, 상기 (c1)단계는The method of claim 7, wherein step (c1) 상기 의무를 지식의 형태로 저장하는 것을 특징으로 하는 로봇 제어 방법.Robot control method, characterized in that for storing the obligation in the form of knowledge. (a) 로봇이 수행하여야할 적어도 하나 이상의 의무를 저장하는 단계;(a) storing at least one or more duties for the robot to perform; (b) 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 단계; (b) evaluating the current situation based on at least one of the perceptual information input from the outside to determine whether it belongs to a predetermined instability state; (c) 상기 현재의 상황과 불안정 상태 판단 결과를 상기 의무와 비교하여 로봇의 행위 목표를 설정한 후 상기 행위를 지시하는 단계; 및(c) instructing the action after setting the action target of the robot by comparing the current state and instability state determination result with the duty; And (d) 상기 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 단계;를 포함하는 것을 특징으로 하는 로봇 제어 방법을 컴퓨터에서 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.and (d) receiving and modifying the result of performing the action as the perceptual information. A computer-readable recording medium having recorded thereon a program that can be executed in a computer, the robot control method comprising: a;
KR1020060058892A 2005-12-09 2006-06-28 Apparatus for controlling robot and method thereof KR100779088B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/591,275 US7797079B2 (en) 2005-12-09 2006-11-01 Apparatus for controlling robot and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20050121046 2005-12-09
KR1020050121046 2005-12-09

Publications (2)

Publication Number Publication Date
KR20070061189A KR20070061189A (en) 2007-06-13
KR100779088B1 true KR100779088B1 (en) 2007-11-27

Family

ID=38357126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060058892A KR100779088B1 (en) 2005-12-09 2006-06-28 Apparatus for controlling robot and method thereof

Country Status (1)

Country Link
KR (1) KR100779088B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101239274B1 (en) * 2009-07-06 2013-03-06 한국전자통신연구원 Interactable Robot
CN113043274B (en) * 2021-03-25 2022-06-21 中车青岛四方车辆研究所有限公司 Robot performance evaluation method and system
CN114474150A (en) * 2021-12-31 2022-05-13 苏州通标检测科技有限公司 Stability testing method and system for seven-axis robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002205291A (en) 2000-10-23 2002-07-23 Sony Corp Leg type robot and movement control method for leg type robot, as well as recording medium
KR20040011010A (en) * 2002-07-26 2004-02-05 모스트아이텍 주식회사 Home secreting/home networking system by using robot and operating method thereof
KR20040098498A (en) * 2002-03-15 2004-11-20 소니 가부시끼 가이샤 Robot behavior control system, behavior control method, and robot device
KR20060021946A (en) * 2004-09-06 2006-03-09 한국과학기술원 Apparatus and method of emotional expression for a robot
KR20060039304A (en) * 2004-11-02 2006-05-08 화천기공 주식회사 Humanoid robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002205291A (en) 2000-10-23 2002-07-23 Sony Corp Leg type robot and movement control method for leg type robot, as well as recording medium
KR20040098498A (en) * 2002-03-15 2004-11-20 소니 가부시끼 가이샤 Robot behavior control system, behavior control method, and robot device
KR20040011010A (en) * 2002-07-26 2004-02-05 모스트아이텍 주식회사 Home secreting/home networking system by using robot and operating method thereof
KR20060021946A (en) * 2004-09-06 2006-03-09 한국과학기술원 Apparatus and method of emotional expression for a robot
KR20060039304A (en) * 2004-11-02 2006-05-08 화천기공 주식회사 Humanoid robot

Also Published As

Publication number Publication date
KR20070061189A (en) 2007-06-13

Similar Documents

Publication Publication Date Title
Matthews et al. Evolution and revolution: Personality research for the coming world of robots, artificial intelligence, and autonomous systems
US7242988B1 (en) Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
McNeal et al. Introducing chatbots in libraries
US5920477A (en) Human factored interface incorporating adaptive pattern recognition based controller apparatus
KR20190006403A (en) Voice processing method and system supporting the same
US20070150099A1 (en) Robot for generating multiple emotions and method of generating multiple emotions in robot
KR101119030B1 (en) Method of for editing scenario of intelligent robot and computer readable medium thereof, intelligent robot device and service method of intelligent robot
US11314548B2 (en) Electronic device and server for processing data received from electronic device
EP3373525A2 (en) Electronic device and method using machine learning for identifying characteristics of users located within a specific space
KR100779088B1 (en) Apparatus for controlling robot and method thereof
US7797079B2 (en) Apparatus for controlling robot and method thereof
CN113199472B (en) Robot control method, device, storage medium, electronic device, and robot
EP3963872B1 (en) Electronic apparatus for applying personalized artificial intelligence model to another model
Vastamäki et al. A behavioural model of temperature controller usage and energy saving
Honold et al. Context models for adaptive dialogs and multimodal interaction
KR20080006981A (en) System and method for offering intelligent home service
WO2021070732A1 (en) Information processing device, information processing method, and program
US11170661B2 (en) Physical software coding training apparatus
Kittle How (not) to think about the sense of ‘able’relevant to free will
Morris et al. Intensifying the burden: the implications of individual responsibility messages in HIV public service announcements aimed at Black women
WO2021045434A1 (en) Electronic device and control method therefor
KR100819237B1 (en) System and method for updating software robot platform
KR102612835B1 (en) Electronic device and method for executing function of electronic device
Cibralic et al. Machine agency and representation
Pasquier et al. An exploration in using cognitive coherence theory to automate BDI agents’ communicational behavior

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20121031

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131024

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141027

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee