KR100779088B1 - Apparatus for controlling robot and method thereof - Google Patents
Apparatus for controlling robot and method thereof Download PDFInfo
- Publication number
- KR100779088B1 KR100779088B1 KR1020060058892A KR20060058892A KR100779088B1 KR 100779088 B1 KR100779088 B1 KR 100779088B1 KR 1020060058892 A KR1020060058892 A KR 1020060058892A KR 20060058892 A KR20060058892 A KR 20060058892A KR 100779088 B1 KR100779088 B1 KR 100779088B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- situation
- state
- unit
- action
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1658—Programme controls characterised by programming, planning systems for manipulators characterised by programming language
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Manipulator (AREA)
Abstract
본 발명에 의한 로봇 제어 장치 및 그 방법은 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및 상기 현재의 상황과 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하는 것을 특징으로 하며, 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 각종 불안정 상태를 해소하도록 하는 처리 절차와 가치 체계를 로봇에게 주입함으로써 로봇이 능동적으로 행위를 유도해낼 수 있다.Robot control apparatus and method according to the present invention comprises a state analysis unit for determining whether to belong to a predetermined instability state by evaluating the current situation based on at least one or more perception information; And a target generation unit configured to set a behavior target of the robot based on the result of the current situation and the instability state and compare it with a predetermined value system, and then receive and correct the result of the behavior of the robot as the perceptual information. The robot can actively induce behavior by injecting the robot into a processing procedure and a value system to solve various unstable states that may occur in the situation of the user and the surrounding environment of the robot.
Description
도 1은 본 발명에 의한 로봇 제어 장치의 구성을 보여주는 블록도이다.1 is a block diagram showing the configuration of a robot control apparatus according to the present invention.
도 2는 본 발명에 의한 로봇 제어 방법의 과정을 보여주는 흐름도이다.2 is a flowchart illustrating a process of a robot control method according to the present invention.
도 3은 도 2의 불안정상태 판단 단계(S220)를 보다 구체적으로 보여주는 흐름도이다.FIG. 3 is a flowchart illustrating the instability determination step S220 of FIG. 2 in more detail.
도 4는 도 2의 로봇에게 목표 행위를 지시하는 단계(S230)를 보다 구체적으로 보여주는 단계이다.FIG. 4 is a step illustrating in more detail the step S230 of instructing a target action to the robot of FIG. 2.
도 5는 본 발명에 의한 로봇 제어 장치가 실제 다른 장치와 연동되는 모습을 개략적으로 보여주는 도면이다.5 is a view schematically showing how the robot control apparatus according to the present invention is actually linked with other devices.
본 발명은 로봇이 스스로 목적을 가지고 작동하도록 제어하는 장치 및 그 방법에 관한 것으로서, 보다 상세하게는 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 다양한 불안정한 상태를 해소하기 위한 행위를 로봇이 능동적으로 발현할 수 있는 장치 및 그 방법을 제공하는 것이다.The present invention relates to a device and a method for controlling the robot to operate with its own purpose, and more particularly, to solve the various unstable conditions that may occur in the situation of the user and the environment of the robot surroundings the robot The present invention provides an apparatus and a method capable of actively expressing the same.
본 발명과 관련한 종래 기술 분야의 대표적인 것으로는 일본 소니의 아이보(AIBO)로 대표되는 일명 애완 로봇(Pat Robot) 群의 로봇들에 채용된 욕구 및 감정을 기반으로 한 능동 제어 기술이다. 예를 들면, 아이보에는 배고픔, 꾸중 등 내외부 자극을 動因으로 하여 행위를 도출하는 방법이 내장되어 있다. 이 방법에 의하면 아이보는 복수개의 지각 평가와 동기 상태를 입력으로 받고 입력을 구성하는 각 요소 간의 상관관계를 계산할 수 있는 다양한 산술식과 행렬 연산을 반복적용함으로써 능동적으로 행동 출현 경향을 해낸다. 다음의 수학식 1은 본능적인 욕구로부터 행동 출현 경향을 유도하는 계산식의 일례를 보여준다.Representative of the prior art in connection with the present invention is an active control technology based on desires and emotions employed in robots of the so-called Pet Robot 群, represented by AIBO of Sony, Japan. For example, Aibo has a built-in method of deriving actions by using internal and external stimuli such as hunger and scolding. According to this method, Aibo actively receives the behavior trend by repeatedly applying various arithmetic and matrix operations that can receive a plurality of perceptual evaluations and synchronization states as inputs and calculate correlations between the elements constituting the inputs. Equation 1 below shows an example of a formula for deriving a tendency of appearance from instinctive desire.
위 수학식 1에 의하면 피로도(Fatigue)가 높고 호기심(Curiosity)이 낮으면 쉬는(Resting) 행동 경향이 강화될 것임을 알 수 있다. 피로도와 호기심 등은 로봇의 욕구 및 감성 모델을 기초로 하고 로봇에 배치된 각종 센서들로부터 감지된 외부 자극값들을 종합하여 지속적으로 계산되며 상기와 같은 행동 선택 산술식에 입력된다. 이를 통해 로봇은 능동적으로 일련의 행동들을 표출한다.According to Equation 1, high fatigue and low curiosity indicate that the tendency of resting behavior will be enhanced. Fatigue, curiosity, and the like are continuously calculated based on the needs and emotion models of the robot and combined with the external stimulus values detected from various sensors arranged in the robot, and are input to the behavior selection arithmetic equation as described above. This allows the robot to actively express a series of actions.
그런데, 상기와 같은 욕구와 감성을 기반으로 한 능동적 행위 표출 방법은 본능적인 행위의 도출에는 유용할 수 있으나, 보다 고차원적인 취지의 행위를 이끌 어내는데 활용하기 어려운 문제점이 있다. 여기서 고차원적인 취지의 행위란 다음과 같은 것들이다.By the way, an active expression method based on desire and emotion may be useful for deriving an instinctive behavior, but there is a problem that it is difficult to use for eliciting higher-level behavior. Here, the high-level acts are as follows.
첫째, 사용자를 고려한 행위이다. 즉, 로봇 자체적인 욕구 및 감성에 충실하는 것이 아니라 사용자의 편안함, 쾌적함, 즐거움 등을 향상시킬 수 있는 행위, 즉 서비스를 능동적으로 도출해낼 수 있어야 한다. 예를 들어, 상황 해석 결과 사용자가 거실에 있고 거실의 기온이 높고 습도가 낮아 사용자가 짜증을 낼 만 한 상태인 경우, 로봇은 사용자를 위해 실내 상태를 쾌적하게 만들고자 하는 목표를 생성하고 이를 기반으로 적절한 서비스를 제공할 수 있어야 한다.First, it is an act that considers users. In other words, the robot should not be faithful to its own desires and emotions, but should be able to actively derive its services, that is, services that can enhance user's comfort, comfort, and enjoyment. For example, if the situation analysis indicates that the user is in a living room and the living room is hot and low in humidity, and the user is annoyed, the robot creates and based on the goal to make the room comfortable for the user. Must be able to provide adequate services.
둘째, 주변 상황 변화를 지속적으로 해석함으로써 불안정한 상황 발생 여부를 판별하고 발생한 불안정성을 해소할 수 있는 목표 지향적 행위를 도출해낼 수 있어야 한다. 예를 들어, 늦은 밤 시간에 실내 특정 지역의 온도가 지속적으로 상승하고 있는 상황을 감지하였다면 로봇은 비상 상황이 발생했다고 판단하고 이를 해소할 수 있도록 사용자에게 경보를 울리거나 비상 상황이 발생했다고 판단되는 영역을 보다 자세히 검사할 수 있어야 한다.Second, by continuously interpreting changes in the surrounding situation, it should be possible to determine whether an unstable situation occurs and to derive goal-oriented actions that can solve the instability that occurred. For example, if it detects a situation where the temperature in a particular area of the room is constantly rising late at night, the robot determines that an emergency has occurred and alerts or alerts the user to resolve it. You should be able to examine the area in more detail.
본 발명이 이루고자 하는 기술적 과제는 상기의 문제점 및 필요성을 해결하기 위하여 안출된 것으로서, 로봇이 상기의 고차원적인 취지의 행위를 능동적으로 발현할 수 있는 내부 지식 처리 기제를 제공하는 장치 및 그 방법을 제시하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems and needs, and proposes an apparatus and method for providing an internal knowledge processing mechanism capable of actively expressing the behavior of the high-level object of the robot. It is.
상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 로봇 제어 장치는 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 상태해석부; 및 상기 현재의 상황과 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 상기 로봇의 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 목표생성부;를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, the robot control apparatus according to the present invention includes: a state analysis unit that determines whether the device belongs to a predetermined instability state by evaluating a current situation based on at least one or more perceptual information input from the outside; And a target generation unit configured to set a behavior target of the robot based on the result of the current situation and the instability state and compare it with a predetermined value system, and then receive and correct the result of the behavior of the robot as the perceptual information. It is characterized by.
상기의 기술적 과제를 해결하기 위하여 본 발명에 의한 로봇 제어 방법은 로봇이 수행하여야할 적어도 하나 이상의 의무를 구축하는 단계; 외부에서 입력되는 적어도 하나 이상의 지각 정보를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하는 단계; 상기 현재의 상황과 불안정 상태 판단 결과를 상기 의무와 비교하여 로봇의 행위 목표를 설정한 후 상기 행위를 지시하는 단계; 및 상기 행위 수행 결과를 상기 지각 정보로 피드백 받아 수정하는 단계;단계를 포함하는 능동적 로봇 제어 방법 및 그 시스템을 특징으로 한다.In order to solve the above technical problem, the robot control method according to the present invention includes: establishing at least one duty to be performed by a robot; Evaluating a current situation based on at least one piece of perceptual information input from the outside to determine whether the device belongs to a predetermined instability state; Instructing the action after setting the action target of the robot by comparing the current situation and the instability state determination result with the duty; And receiving and correcting the result of performing the action as the perceptual information. The method may further include an active robot control method and system.
이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시예에 대하여 상세히 설명하도록 한다. 설명의 편의와 이해의 용이함을 위하여 본 발명에 의한 로봇 제어 장치와 그 방법을 함께 서술하도록 한다. 도 1은 본 발명에 의한 로봇 제어 장치의 구성을 보여주는 블록도이다. 도 2는 본 발명에 의한 로봇 제어 방법의 과정을 보여주는 흐름도이다. 그리고 도 3은 도 2의 불안정상태 판단 단계(S220)를 보다 구체적으로 보여주는 흐름도이며, 도 4는 도 2의 로봇에게 목표 행위를 지시하는 단계(S230)를 보다 구체적으로 보여주는 단계이다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention. For convenience of description and easy understanding, the robot control apparatus and the method according to the present invention will be described together. 1 is a block diagram showing the configuration of a robot control apparatus according to the present invention. 2 is a flowchart illustrating a process of a robot control method according to the present invention. 3 is a flowchart illustrating the instability state determination step S220 of FIG. 2 in more detail, and FIG. 4 is a step illustrating the step S230 of instructing a target action to the robot of FIG. 2 in more detail.
본 발명에 의한 로봇 제어 장치는 크게 상태해석부(110)와 목표생성부(120)로 이루어진다. 상태해석부(110)는 외부에서 입력되는 적어도 하나 이상의 지각 정보를 구축된 수행 의무(S210)를 기초로 현재의 상황을 평가하여 기설정된 불안정 상태에 속하는 지를 판단하게 된다(S220). 목표생성부(120)는 상기 현재의 상황과 상기 상태해석부(110)의 불안정 상태 판단 결과를 기초로 소정의 가치체계와 비교하여 로봇의 행위 목표를 설정한 후 그 행위를 지시하고(S230), 그에 따른 로봇의 행위 수행 결과를 상기 지각 정보로서 피드백 받아 목표치에 접근하도록 수정한다(S240).Robot control apparatus according to the present invention is largely composed of the
먼저 상기 상태해석부(110)와 목표생성부(120)의 세부 구성 블록을 살펴본 후 보다 상세하게 설명하도록 한다.First, detailed configuration blocks of the
상태해석부(110)는 상기 불안정 상태로 해석할 수 있는 판단기준이 되는 기호들을 요주의단서로서 저장하는 주의목록부(111), 상기 지각 정보를 일대일 대응되는 기호로 기호화하여 출력하는 상황해석부(113), 상기 기호화된 지각 정보를 저장하는 상황부(115), 상기 상황부(115)의 내용이 바뀔 때마다 상기 상황부(115)를 검색하여 상기 요주의단서가 존재하는지 확인하여, 존재하면 추론 시작을 지시하는 구동신호를 출력하는 상황모니터(117), 그리고 상기 구동신호에 따라 소정의 규칙을 기반으로 하는 추론을 수행하여 불안정상태에 돌입하였는지를 판단하는 불안정상태해석부(119)로 구성된다.
한편 목표생성부(120)는 상기 로봇이 수행하여야할 의무를 저장하는 가치체계부(121), 상기 상태해석부(110)의 판단 결과와 현재의 상황을 입력받아 상기 가 치체계부(121)를 억세스하여 상기 의무와 비교한 후 상기 로봇이 수행하여야할 행위목표를 설정하는 목표설정부(123) 및 상기 설정된 행위목표를 수행하도록 상기 로봇에게 행동지침을 출력하는 행위선택부(125)로 구성된다.On the other hand, the
이제 상기와 같은 구성하에서 상세한 동작을 설명하도록 한다. 먼저 주의목록부(111)는 로봇이 주의를 기울여야 하는 상황이 발생했음을 발견하는 단서 정보를 저장하고 있는다(S221). 상태해석부(110)는 각종 센서, 카메라, 음성인식장치를 포함하는 외부 지각 수단(100)으로부터 각종 지각 정보를 입력받는다. 지각 정보는 상황해석부(113)에 입력되며 상황해석부(113)는 상기 입력된 각 지각 정보를 해석하여 기호화하거나 여러 지각 정보를 결합하여 기호화함으로써 상황 상술 데이터를 생성한다(S223). 이렇게 생성된 상황 상술 데이터는 상황부(115)에 기록된다. 상황부(115)에 기록된 상황 상술 데이터 중 일부는 상황해석부(113)로 재입력되어 변형 혹은 삭제 과정을 거친다. 이는 상황부(115)에 기재되는 상황 상술 데이터 내용의 일관성 유지를 위한 것이다. 상황부(115)는 상황 해석 결과로 생성되는 상황 상술 데이터를 지속적으로 받아들이므로 그 내용이 동적으로 변화한다. 상황 모니터(117)는 상황부(115)의 변화 내용을 지속적으로 감시한다. 상황 모니터(117)는 상황부(115)에 주의목록부(111)에 저장되어 있는 데이터가 등장하면 그 사실을 불안정 상태 해석부(119)로 전달한다. 불안정 상태 해석부(119)는 상황 모니터(117)가 전달한 주의집중단서와 상황부(115)의 내용을 종합하여 판단함으로써 불안정 상태가 발생하였는지 판단한다(S225 내지 S227). 불안정 상태가 발생했다는 결정이 내려지면, 불안정 상태 해석부(119)는 발생한 불안정 상태를 목표 생성부(120)로 전달한다(S229). 목표 생성부(120)의 목표설정부(123)는 불안정 상태와 상황부(115)의 내용을 종합 판단하고 이를 가치체계부(121)에 비추어봄으로써 사용자를 위해 어떤 행위 목표를 설정할지 결정하여 행위 선택부(125)로 전달한다. 행위 선택부(125)는 설정된 목표를 달성할 수 있는 행위를 선택한다(S231 내지 S233). 이렇게 선택된 행위를 수신한 외부의 행위 구체화 및 실행 수단(예를 들면, 로봇)은 그 선택된 행위를 어떻게 수행할지 결정하고 실제로 수행한다. 수행 결과는 지각정보로 다시 상태해석부(110)로 입력되는데, 수행 결과가 성공적이면 설정했던 목표를 달성한 것으로 해석 판단한다. 수행 결과가 성공적이지 못했다면 설정했던 목표가 달성되지 않았으므로 상술한 바와 같은 절차를 통해 새로운 목표를 설정하거나 목표 달성 행위를 중지한다(S235).The detailed operation will now be described under the above configuration. First, the
상기와 같은 기능 수행에 있어 각 기능을 수행하는 구성요소간에 주고 받는 데이터는 지식 표현 언어(Knowledge Representation Language)에 의해 기술된 데이터이며, 각 구성요소는 이를 기반으로 일련의 논리적인 추론 기능을 수행함으로써 필요한 판단 기능을 수행한다. 또한, 가치체계부(121)는 로봇이 준수해야 할 의무 사항, 임무 사항 등을 기술한 지식베이스(Knowledge Base)로서 로봇 행위의 안전성을 도모하고 로봇 행위의 근본적인 지향점을 설정하는 데이터의 집합이다.In performing the above functions, data transmitted and received between components that perform each function is data described by Knowledge Representation Language, and each component performs a series of logical inference functions based thereon. Perform the necessary judgment function. In addition, the
이하 본 발명의 일 실시예에 대하여 보다 구체적인 예와 함께 설명한다. 본 실시예는 본 발명을 실내 상황 해석을 통해 능동적으로 사용자에게 쾌적한 실내 환경을 제공하는 로봇에 적용한 것이다.Hereinafter, an embodiment of the present invention will be described with more specific examples. This embodiment applies the present invention to a robot that actively provides a comfortable indoor environment to a user through an indoor situation analysis.
먼저 로봇 장치의 구성에 대하여 간략히 설명한다. 본 실시예에서 보이는 로 봇과 로봇 운영 환경의 구성은 도 5에 제시한 바와 같다. 도 5는 본 발명에 의한 로봇 제어 장치가 실제 다른 장치와 연동되는 모습을 개략적으로 보여주는 도면이다.First, the configuration of the robot device will be briefly described. The configuration of the robot and the robot operating environment shown in this embodiment is as shown in FIG. 5 is a view schematically showing how the robot control apparatus according to the present invention is actually linked with other devices.
로봇 장치(540)는 구동부(미도시)와 함께 온도 및 습도를 측정하기 위한 센서(545), 카메라(547), 경보기(543), 통신 모듈(541)을 탑재한다. 통신 모듈(541)은 홈게이트웨이(520)와 무선으로 통신기능을 수행한다. 홈게이트웨이(520)는 원격 제어 기능을 보유한 에어컨(530) 및 전동창문(510)을 제어하는 제어 센터 역할을 수행하며, 로봇은 홈게이트웨이(520)에 기능 요청을 전달함으로써 상기의 장치들을 제어한다.The
다음으로 본 발명에 의한 능동적 로봇 제어 장치 및 그 방법이 함께 동작하는 방식을 설명한다. 로봇 장치(540)에 장착된 온도 및 습도 센서(545)는 지속적으로 로봇이 위치한 공간의 온도 및 습도 데이터를 감지하여 상황 해석부(113)으로 전달한다. 상황 해석부(113)는 일정한 규칙을 이용하여 상황을 기호화한다. 예를 들면, 온도가 25도 이상이면 '덥다'에 해당하는 기호를 생성하고, 온도가 10도 이하이면 '서늘하다'에 해당하는 기호를 생성한다. 또한, 로봇의 카메라(547)는 정해진 바에 의하여 지속적으로 영상을 촬영하여 상황 해석부(113)로 전달한다. 동시에 도면에는 도시되지 않았지만 다양한 외부 지각 수단에 의하여 획득된 인식 결과도 상황 해석부(113)로 전달된다. 예를 들어, 영상 인식을 통해 특정 사용자를 인식한 경우 인식된 사용자의 아이디를 상황해석부(113)에 전달한다. 상황 해석부(113)는 전달받은 아이디를 이용하여 어떤 사용자와 마주쳤는지를 알려주는 기호를 상황 부(115)에 기재한다. 다음의 표 1은 임의 시점에 상황부(115)에 기재된 데이터의 내용을 기술한 것이다. Next, an active robot control apparatus and a method of operating the method according to the present invention will be described. The temperature and
로봇 출고자, 또는 사용자는 환경의 불안정 상태에 대한 단서가 되는 Hot이나 VeryHumid같은 기호를 주의목록부(111)에 등록한다. 또한, 사용자와 마주쳤을 때 사용자에 대한 서비스 제공이 필요할 수 있으므로 Confronted와 같은 기호도 등록한다. 상황 모니터(117)는 상황부(115)의 내용이 바뀔 때마다 상황부(115)의 내용을 점검하여 주의집중단서가 존재하는지 여부를 판단한다. 앞서 예시한 바와 같은 내용인 경우, 상황 모니터(117)는 Hot과 VeryHumid를 단서로 하여 불안정 상태 해석부(119)를 구동한다. 불안정 상태 해석부(119)는 현재 상황부(115)의 내용을 종합 분석하여 불안정 상태가 발생하였는지 판단한다. 불안정 상태 해석부(119)는 다음과 같은 규칙을 기반으로 추론을 수행함으로써 불안정 상태 발생 여부를 판단한다.The robot issuer or the user registers a symbol such as Hot or VeryHumid in the
R10: Hot(?loc) and VeryHumid(?loc) and LocatedAt(?someone,?loc) and ~CaughtCold(?someone)R10: Hot (? Loc) and VeryHumid (? Loc) and LocatedAt (? Someone,? Loc) and ~ CaughtCold (? Someone)
-> Instability(HotAndHumid,Uncomfortable,?someone,?loc)Instability (HotAndHumid, Uncomfortable,? Someone,? Loc)
R11: TooNoisy(?loc) and LocatedAt(?someone,?loc) and ~PlayingMedia(?someone,?loc)R11: TooNoisy (? Loc) and LocatedAt (? Someone,? Loc) and ~ PlayingMedia (? Someone,? Loc)
-> Instability(Noisy,Uncomfortable,?someone,?loc)Instability (Noisy, Uncomfortable, someone, loc)
규칙 R10은 "어떤 장소가 덥고 매우 습한데 그 장소에 어떤 사람이 있다면, 그 장소가 덥고 습하므로 불안정하다"라고 판단한다는 것이다. 이 규칙에 의하면, 덥고 습한 그 장소에 사람이 없다면 불안정 상태가 발생했다고 판단하지 않는다. 더불어 R10은 그 장소에 있는 사용자가 감기에 걸렸다면 해당 상태를 불안정한 상태로 보지 않겠다는 조건(~CaughtCold(?someone))을 포함하고 있다. 사용자가 감기에 걸려 일부러 보일러 온도를 높이고 가습기를 많이 틀어놓았을 수도 있기 때문이다. 규칙 R11은 어떤 장소가 매우 시끄럽고 사용자가 그 장소에 있는 경우 만약 그 사용자가 영화나 음악 등의 미디어를 튼 것이 아니라면 해당 상태를 불안정한 상태로 보겠다는 의미이다.Rule R10 determines that "if a place is hot and very humid and there is someone there, it is unstable because it is hot and humid." According to this rule, it is not judged that an unstable condition has occurred if no one is in the hot and humid place. In addition, R10 includes a condition (~ CaughtCold (? Someone)) that if a user in the place has a cold, he will not see it as unstable. This is because the user may catch a cold and intentionally increase the boiler temperature and turn on the humidifier. Rule R11 means that if a place is very noisy and the user is there, the user will see the state as unstable unless the user has burned media such as a movie or music.
불안정 상태 해석부(119)는 감지된 불안정 상태를 목표 생성부(120)로 전달함으로써 로봇의 행위 목표가 생성될 수 있도록 한다. 목표 설정부(123)는 발생한 불안정 상태와 사전 설정된 가치체계부(121)의 데이터, 그리고 상황부(1152)의 여타 상황들을 종합함으로써 목표를 생성한다. 먼저 가치체계부(121)는 다음과 같은 지식을 포함한다.The instability
R20: User(?someone)→ OughtToMake(?someone, Comfortable)R20: User (? Someone) → OughtToMake (? Someone, Comfortable)
R21: User(?someone)→OughtToBeTo(?someone, Polite)R21: User (? Someone) → OughtToBeTo (? Someone, Polite)
R22: Uncomfortable = ~ComfortableR22: Uncomfortable = ~ Comfortable
R23: Impolite = ~PoliteR23: Impolite = ~ Polite
규칙 R20은 사용자를 편안하게 만들어줘야 한다는 임무 사항으로, 규칙 R21은 사용자에게 예의바르게 행동해야 한다는 임무 사항으로 해석할 수 있다. 논리식 R22와 R23은 각각 두 개념이 상충되는 개념임을 표현해 주고 있다. 이러한 가치체계는 발생한 불안정 상태가 로봇의 임무 준수를 방해하는지 검증하는 단서 정보가 되어 로봇이 구체적으로 어떤 의도를 가지고 행위를 도출하게 되는지 설명해준다. 목표 설정부(123)는 다음과 같은 규칙을 통해 로봇의 가치 체계에 불일치가 발생했음과 그 불일치를 해결하기 위해 어떤 목표를 설정해야 하는지 결정한다.Rule R20 can be interpreted as a task to make the user comfortable, and Rule R21 can be interpreted as a task to behave politely to the user. The expressions R22 and R23 each represent a conflicting concept. This value system provides clue information that verifies whether the instability that occurs prevents robots from complying with their missions and explains what the robots intend to do with their intentions. The
R30: OughtToMake(?someone,?x) and Instability(?cause,?y,?someone,?loc) and ?x = ~?yR30: OughtToMake (? Someone,? X) and Instability (? Cause,? Y, someone,? Loc) and? X = ~? Y
-> Resolve(?cause,?someone,?loc)-> Resolve (? Cause,? Someone,? Loc)
R31: Resolve(?cause,?someone,?loc) and Resolvent(?cause, ?goal) -> Goal(?goal,?someone,?loc)R31: Resolve (? Cause,? Someone,? Loc) and Resolvent (? Cause,? Goal)-> Goal (? Goal,? Someone,? Loc)
R32: Resolvent(HotAndHumid, CoolAndDry)R32: Resolvent (HotAndHumid, CoolAndDry)
규칙 R30은 가치체계를 통해 어떤 임무가 주어졌는데 불안정 상태에 의해 그 임무를 완수할 수 없게 되었을 때 (?x = ~?y에 의해 기술된 바와 같이), 그 원인 요소를 해소하라는 의미이다. 규칙 R31은 원인 요소에 대한 해소 단서를 찾아 그것을 목표로 설정하는 규칙이다. 그리고, R32는 하나의 사실(Fact)로서 HotAndHumid에 대한 원인 해소책은 CoolAndDry임을 기술하고 있다. 따라서 지금까지의 데이터 흐름을 비추어 보면 목표 설정부(123)는 다음과 같이 목표를 설정하게 된다.Rule R30 means that when a task is given through the value system and the instability makes it impossible to complete the task (as described by? X = ~? Y), the causal factor is to be resolved. Rule R31 is a rule that finds a resolving clue for a cause factor and sets it as a target. And, R32 is a fact that states that the solution to HotAndHumid is CoolAndDry. Therefore, in view of the data flows thus far, the
Goal(CoolAndDry, Cheolsu, 101)Goal (CoolAndDry, Cheolsu, 101)
즉, "장소 l01을 시원하고 건조하게 만드는데 이는 Cheolsu라는 아이디를 가진 사용자를 위한 것이다"란 의미이다.This means "make the place l01 cool and dry, for a user with the ID Cheolsu".
최종적으로 행위 선택부(125)는 목표로 설정된 CoolAndDry를 달성할 수 있는 수단을 설정한다. 행위 선택부(125)는 다음과 같은 지식을 활용한다.Finally, the
R40: Action(OpenWindow, WindowClosed, ClearWether, CoolAndDry)R40: Action (OpenWindow, WindowClosed, ClearWether, CoolAndDry)
R41: Action(TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)R41: Action (TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)
R42: Goal(?resolvent, ?someone, ?loc) and Action(?action, ?precondition1, ?precondition2, ?resolvent) and ?precondition1(?loc) andR42: Goal (? Resolvent,? Someone,? Loc) and Action (? Action,? Precondition1,? Precondition2,? Resolvent) and? Precondition1 (? Loc) and
?precondition(?loc) ->Perform(?action, ?loc)? precondition (? loc)-> Perform (? action,? loc)
규칙 R40과 R41은 특정 목표를 달성할 수 있는 수단들을 지시한다. 먼저 R40은 창문을 여는 행위를 제시하는데 사전 조건으로 창문이 닫혀있어야 하며 날씨는 쾌청해야 함을 지시하고 있다. 그리고, 행위의 효과는 CoolAndDry이다. 다음 R41은 에어컨을 켜는 행위를 제시하는데 사전 조건으로 창문과 문이 닫혀있어야 함을 지정하고 있다.Rules R40 and R41 dictate the means by which a certain goal can be achieved. First, the R40 suggests opening the window, indicating that the window must be closed and the weather should be pleasant. And the effect of the action is CoolAndDry. The next R41 suggests the act of turning on the air conditioner, specifying that windows and doors must be closed as a precondition.
규칙 R42는 목표와 달성 수단, 그리고 현재의 상태를 종합하여 수행할 행위를 결정한다. 만약 창문과 문이 닫혀있고 날씨가 흐리다면 선택되는 행위는 에어컨을 켜는 행위가 될 것이다. 그러나, 문과 창문이 닫혀있고 날씨도 맑다면 R40과 R41이 모두 만족되므로 상충이 발생한다. 이런 경우 다음과 같이 행위간에 우선 순위를 설정함으로써 행위 선택 정책을 확장하여 상충을 해소할 수 있다.Rule R42 determines the actions to be performed by combining goals, means of achievement, and current status. If the windows and doors are closed and the weather is cloudy, the action of choice will be to turn on the air conditioner. However, if the doors and windows are closed and the weather is clear, a conflict arises because both R40 and R41 are satisfied. In this case, the conflict selection can be resolved by extending the behavior selection policy by setting the priority among the actions as follows.
R40: Action(OpenWindow, WindowClosed, ClearWether, CoolAndDry)R40: Action (OpenWindow, WindowClosed, ClearWether, CoolAndDry)
R41: Action(TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)R41: Action (TurnOnAirconditioner, WindowClosed, DoorClosed, CoolAndDry)
R42: Superior(OpenWindow, TurnOnAirconditioner)R42: Superior (OpenWindow, TurnOnAirconditioner)
R43: Goal(?resolvent, ?someone, ?loc) and Action(?action, ?precondition1, ?precondition2, ?resolvent) and ?precondition(?loc) and ?precondion2(?loc) -> TemporaryPerform(?action, ?loc)R43: Goal (? Resolvent,? Someone,? Loc) and Action (? Action,? Precondition1,? Precondition2,? Resolvent) and? Precondition (? Loc) and? Precondion2 (? Loc)-> TemporaryPerform (? Action,? loc)
R44: TemporaryPerform (?action1, ?loc) and TemporaryPerform (?action2, ?loc) and Superior(?action1, ?action2) -> Perform(?action1, ?loc)R44: TemporaryPerform (? Action1,? Loc) and TemporaryPerform (? Action2,? Loc) and Superior (? Action1,? Action2)-> Perform (? Action1,? Loc)
지식 R42는 창문 열기가 에어컨 켜기보다 우선하는 행위라고 선언하고 있다. 그리고, R43은 최종 행위를 결정하는 대신 중간 결정을 하고 있으며 R44가 복수개 행위가 선택된 경우 우선 순위가 높은 행위를 선택하여 최종 결과를 결정한다.Knowledge R42 declares that the opening of windows is an act that takes precedence over turning on the air conditioner. In addition, R43 makes an intermediate decision instead of determining a final action, and when a plurality of actions are selected, R43 selects a high priority action to determine a final result.
이렇게 결정된 행위는 행위 구체화 및 실행 수단(예를 들면, 로봇)으로 전달되어 실제 물리적인 서비스 수행으로 발현된다. 예를 들어, 도 5에서 사용자가 방에 있고 방이 덥고 습한 이유로 인해 창문을 열겠다는 행위가 도출되었다면 로봇장치(540)는 통신 모듈을 통해 홈게이트웨이(520)로 방의 전동창문(510)을 열도록 명령하고 이 명령에 따라 전동창문(510)이 열리게 된다.The action thus determined is transferred to the action specification and execution means (for example, a robot) and expressed as actual physical service performance. For example, in FIG. 5, if the user is in the room and the act of opening the window due to the hot and humid reason is derived, the
한가지 주목할 것은 로봇 장치(540)는 지금까지 설명한 바와 같은 처리 과정상의 지식 처리 내용을 저장하여 둠으로써 행위 수행의 의도를 사용자에게 제시해줄 수 있다는 점이다. One thing to note is that the
즉, 상기의 예에서 로봇은 "Cheolsu를 편안하게 하려고 창문을 열였다고 답할 수 있다. 가치 체계 상에서 상충이 발생한 부분이 Cheolsu의 불편함이었기 때문이다. 또한 왜 Cheolsu가 불편하리라고 판단했는가에 대해서 로봇은 "방이 덥고 습해서"라고 답해줄 수 있다.In other words, in the above example, the robot said, "We opened the window to make Cheolsu comfortable. It was because of Cheolsu's discomfort that the conflicting part of the value system. He also asked why Cheolsu felt uncomfortable. You might answer, "The room is hot and humid."
이상에서 설명한 바와 같이 본 발명이 제시한 능동적 로봇 제어 방법은 로봇이 사용자와 환경을 지속적으로 안전 및 쾌적하게 유지하고자 하는 의도를 주입하고 이에 따라 행위하도록 만듦으로써 능동적으로 로봇을 제어할 수 있으며, 로봇으로 하여금 자신이 수행한 행위에 대해 왜 그러한 행위를 수행하게 되었는지를 가치체계상의 가치를 빌어 설명할 수 있게 만들 수 있다.As described above, the active robot control method proposed by the present invention can actively control the robot by injecting and inducing the robot to intentionally keep the user and the environment safe and comfortable and act accordingly. You can make it possible to explain the value system of why you did it for the actions you performed.
본 발명에 의한 로봇 제어 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD_ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.The robot control method according to the present invention can also be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD_ROM, magnetic tape, floppy disks, and optical data storage, and may also include those implemented in the form of carrier waves (e.g., transmission over the Internet). . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, optimal embodiments have been disclosed in the drawings and the specification. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not intended to limit the scope of the present invention as defined in the claims or the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
이상에서 설명한 바와 같이, 본 발명에 의한 로봇 제어 장치 및 그 방법은 사용자가 처한 상황과 로봇의 주변 환경의 상황에서 발생할 수 있는 각종 불안정 상태를 해소하도록 하는 처리 절차와 가치 체계를 로봇에게 주입함으로써 로봇이 능동적으로 행위를 유도해낼 수 있다.As described above, the robot control apparatus and method thereof according to the present invention inject a robot into a robot by injecting a processing procedure and a value system to solve various unstable states that may occur in a situation in which the user is present and a situation of the robot's surrounding environment. This can actively induce action.
그 결과로 로봇이 능동적으로 사용자의 안위를 보존하고 환경의 불안정성을 해결할 수 있으며, 로봇 제작자나 사용자는 가치체계를 통해 로봇에게 임무, 의무, 예절 등을 손쉽게 부여할 수 있다.As a result, the robot can actively preserve the user's safety and solve the instability of the environment, and the robot maker or the user can easily give the robot duties, duties, and manners through the value system.
또한 로봇이 행위를 수행하게 된 경위와 의도를 설명하도록 만들 수 있다.It can also be made to explain how and why the robot performed the action.
그리고 로봇의 능동적이고 지적인 행위 도출에 있어 보다 인간적 사고에 가깝게 제작할 수 있게 함으로써 로봇의 사용자 친화성과 안정성을 향상시킬 수 있기 때문에 개인용 및 가정용 로봇 산업을 신장시키는 원동력의 하나가 될 수 있다.In addition, it is possible to improve the user-friendliness and stability of the robot by making it more human-like in deriving the active and intellectual behavior of the robot, which can be one of the driving forces to expand the personal and home robot industry.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/591,275 US7797079B2 (en) | 2005-12-09 | 2006-11-01 | Apparatus for controlling robot and method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20050121046 | 2005-12-09 | ||
KR1020050121046 | 2005-12-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070061189A KR20070061189A (en) | 2007-06-13 |
KR100779088B1 true KR100779088B1 (en) | 2007-11-27 |
Family
ID=38357126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060058892A KR100779088B1 (en) | 2005-12-09 | 2006-06-28 | Apparatus for controlling robot and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100779088B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101239274B1 (en) * | 2009-07-06 | 2013-03-06 | 한국전자통신연구원 | Interactable Robot |
CN113043274B (en) * | 2021-03-25 | 2022-06-21 | 中车青岛四方车辆研究所有限公司 | Robot performance evaluation method and system |
CN114474150A (en) * | 2021-12-31 | 2022-05-13 | 苏州通标检测科技有限公司 | Stability testing method and system for seven-axis robot |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002205291A (en) | 2000-10-23 | 2002-07-23 | Sony Corp | Leg type robot and movement control method for leg type robot, as well as recording medium |
KR20040011010A (en) * | 2002-07-26 | 2004-02-05 | 모스트아이텍 주식회사 | Home secreting/home networking system by using robot and operating method thereof |
KR20040098498A (en) * | 2002-03-15 | 2004-11-20 | 소니 가부시끼 가이샤 | Robot behavior control system, behavior control method, and robot device |
KR20060021946A (en) * | 2004-09-06 | 2006-03-09 | 한국과학기술원 | Apparatus and method of emotional expression for a robot |
KR20060039304A (en) * | 2004-11-02 | 2006-05-08 | 화천기공 주식회사 | Humanoid robot |
-
2006
- 2006-06-28 KR KR1020060058892A patent/KR100779088B1/en not_active IP Right Cessation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002205291A (en) | 2000-10-23 | 2002-07-23 | Sony Corp | Leg type robot and movement control method for leg type robot, as well as recording medium |
KR20040098498A (en) * | 2002-03-15 | 2004-11-20 | 소니 가부시끼 가이샤 | Robot behavior control system, behavior control method, and robot device |
KR20040011010A (en) * | 2002-07-26 | 2004-02-05 | 모스트아이텍 주식회사 | Home secreting/home networking system by using robot and operating method thereof |
KR20060021946A (en) * | 2004-09-06 | 2006-03-09 | 한국과학기술원 | Apparatus and method of emotional expression for a robot |
KR20060039304A (en) * | 2004-11-02 | 2006-05-08 | 화천기공 주식회사 | Humanoid robot |
Also Published As
Publication number | Publication date |
---|---|
KR20070061189A (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Matthews et al. | Evolution and revolution: Personality research for the coming world of robots, artificial intelligence, and autonomous systems | |
US7242988B1 (en) | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore | |
McNeal et al. | Introducing chatbots in libraries | |
US5920477A (en) | Human factored interface incorporating adaptive pattern recognition based controller apparatus | |
KR20190006403A (en) | Voice processing method and system supporting the same | |
US20070150099A1 (en) | Robot for generating multiple emotions and method of generating multiple emotions in robot | |
KR101119030B1 (en) | Method of for editing scenario of intelligent robot and computer readable medium thereof, intelligent robot device and service method of intelligent robot | |
US11314548B2 (en) | Electronic device and server for processing data received from electronic device | |
EP3373525A2 (en) | Electronic device and method using machine learning for identifying characteristics of users located within a specific space | |
KR100779088B1 (en) | Apparatus for controlling robot and method thereof | |
US7797079B2 (en) | Apparatus for controlling robot and method thereof | |
CN113199472B (en) | Robot control method, device, storage medium, electronic device, and robot | |
EP3963872B1 (en) | Electronic apparatus for applying personalized artificial intelligence model to another model | |
Vastamäki et al. | A behavioural model of temperature controller usage and energy saving | |
Honold et al. | Context models for adaptive dialogs and multimodal interaction | |
KR20080006981A (en) | System and method for offering intelligent home service | |
WO2021070732A1 (en) | Information processing device, information processing method, and program | |
US11170661B2 (en) | Physical software coding training apparatus | |
Kittle | How (not) to think about the sense of ‘able’relevant to free will | |
Morris et al. | Intensifying the burden: the implications of individual responsibility messages in HIV public service announcements aimed at Black women | |
WO2021045434A1 (en) | Electronic device and control method therefor | |
KR100819237B1 (en) | System and method for updating software robot platform | |
KR102612835B1 (en) | Electronic device and method for executing function of electronic device | |
Cibralic et al. | Machine agency and representation | |
Pasquier et al. | An exploration in using cognitive coherence theory to automate BDI agents’ communicational behavior |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Publication of correction | ||
FPAY | Annual fee payment |
Payment date: 20121031 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20131024 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20141027 Year of fee payment: 8 |
|
LAPS | Lapse due to unpaid annual fee |