KR100914309B1 - Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent - Google Patents

Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent Download PDF

Info

Publication number
KR100914309B1
KR100914309B1 KR1020070078146A KR20070078146A KR100914309B1 KR 100914309 B1 KR100914309 B1 KR 100914309B1 KR 1020070078146 A KR1020070078146 A KR 1020070078146A KR 20070078146 A KR20070078146 A KR 20070078146A KR 100914309 B1 KR100914309 B1 KR 100914309B1
Authority
KR
South Korea
Prior art keywords
emotion
intelligent agent
stimulus
emotions
generating
Prior art date
Application number
KR1020070078146A
Other languages
Korean (ko)
Other versions
KR20090013968A (en
Inventor
서일홍
이상훈
김종복
장국현
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020070078146A priority Critical patent/KR100914309B1/en
Publication of KR20090013968A publication Critical patent/KR20090013968A/en
Application granted granted Critical
Publication of KR100914309B1 publication Critical patent/KR100914309B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0235Character input methods using chord techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3089Monitoring arrangements determined by the means or processing involved in sensing the monitored data, e.g. interfaces, connectors, sensors, probes, agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Quality & Reliability (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성 방법에 관한 것이다. 본 발명은, 지능형 에이전트 시스템의 외부 또는 내부의 자극을 감지하는 단계; 상기 감지된 자극을 감정과 관련된 감정 자극으로 변환하는 단계; 상기 감정 자극을 기초로 상기 지능형 에이전트의 감정을 생성하는 단계; 상기 시스템의 내부 환경 및 외부 환경에 관한 환경 정보를 획득하는 단계; 상기 획득된 환경 정보를 고려하여 상기 생성된 감정의 강도를 조정하는 단계; 및 상기 강도가 조정된 감정을 출력하는 단계를 포함하는 지능형 에이전트의 감정 생성 방법과, 이를 구현할 수 있는 지능형 에이전트 시스템을 제공한다.The present invention relates to an intelligent agent system and a method for generating emotion of an intelligent agent. The present invention includes the steps of sensing the external or internal stimulus of the intelligent agent system; Converting the sensed stimulus into an emotional stimulus associated with the emotion; Generating an emotion of the intelligent agent based on the emotion stimulus; Obtaining environmental information about an internal environment and an external environment of the system; Adjusting the intensity of the generated emotion in consideration of the obtained environmental information; And an emotion generating method of the intelligent agent comprising the step of outputting the emotion whose intensity is adjusted, and an intelligent agent system capable of implementing the same.

지능형 에이전트, 감정, 성격, 환경 Intelligent agent, emotion, personality, environment

Description

지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성 방법 {Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent}Intelligent Agent System and Method of Generating Emotion Of Intelligent Agent

본 발명은 사용자와 대화를 수행할 수 있는 지능형 캐릭터, 감정을 표현할 수 있는 로봇과 같은 지능형 에이전트에 관한 것으로서, 지능형 에이전트 및 지능형 에이전트 시스템이 처한 환경을 인지하고 이를 지능형 에이전트의 감정 생성에 반영함으로써 지능형 에이전트의 감정 생성 및 감정 표현의 신뢰도를 향상시킬 수 있는 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성 방법에 관한 것이다.The present invention relates to an intelligent agent such as an intelligent character that can communicate with a user and a robot that can express emotions. The present invention recognizes an environment in which an intelligent agent and an intelligent agent system are located and reflects it in the emotion generation of an intelligent agent. The present invention relates to an intelligent agent system and an intelligent agent emotion generating method capable of improving the reliability of the emotion generation and the expression of the emotion.

종래의 지능형 에이전트(Intelligent System)의 감정 생성 및 표현 방법에 의하면, 주로 외부 센서에서 입력되는 물리적인 자극 또는 지능형 에이전트 내부에서 모델링된 주기적인 생체 리듬을 근거로 감정을 생성하여 표현한다. 예를 들어, 지능형 에이전트는 자신과 상호작용을 진행하는 인간이 표출하는 감정을 인식하고 이에 맞게 감정을 적절히 표현하거나 특정 부위에 대한 접촉, 외부에서 발생하는 음성 신호 등 물리적인 센서 신호값에 대해 적절한 감정 반응을 나타낸다.According to the conventional method of generating and expressing an emotion of an intelligent agent, an emotion is generated and expressed mainly based on a physical stimulus input from an external sensor or a periodic biorhythm modeled inside the intelligent agent. For example, an intelligent agent recognizes the emotions expressed by humans interacting with them and appropriately expresses them accordingly, or is appropriate for physical sensor signal values such as contact with specific areas or external voice signals. Represents an emotional response.

지능형 에이전트는 생명체를 모델링한 메커니즘으로서, 생명체의 특징인 동 기와 생체적인 리듬 변화를 포함할 수 있고, 이러한 요소들의 변화 또한 지능형 에이전트의 감정 표현에 사용될 수 있다.The intelligent agent is a mechanism that models life. It can include the motives and biological rhythm changes that are the characteristics of life, and the change of these factors can also be used for expressing emotions of intelligent agents.

지능형 에이전트가 외부로부터 보상을 받을 경우 기뻐하고, 싫어하는 물건에 대해서 피하거나 혐오하며, 지능형 에이전트 내부의 배고픔이나 호기심과 같은 생체 신호의 변화에 따라 감정 표현을 달리할 수 있다.When an intelligent agent is rewarded from the outside, it can rejoice, avoid or dislike disliked things, and change its emotional expression according to changes in biological signals such as hunger or curiosity inside the intelligent agent.

도 1은 종래 기술에 따른 지능형 에이전트의 감정 생성 및 표현 과정을 도시한 도면이다. 즉 종래 기술에 따르면, 자극을 인식하고, 인식된 자극을 기초로 하여 감정을 생성한 후, 생성된 감정을 표현하는 단순한 메커니즘에 의해 지능형 에이전트의 감정을 생성 및 표현한다.1 is a diagram illustrating a emotion generation and expression process of an intelligent agent according to the prior art. That is, according to the related art, after generating a emotion based on the recognized stimulus, the emotion of the intelligent agent is generated and expressed by a simple mechanism of expressing the generated emotion.

이와 같이, 특정 자극이나 내부 상태 변화에 대해서만 감정 생성 및 표현을 진행하는 방법에 의하면, 주어진 입력 값에 대해 단순히 반응하는 구조를 취하고 있어, 지능형 에이전트가 처한 물리적인 환경 정보와 사회적인 환경 정보에 대해서는 고려하지 못하는 문제점이 있다. 따라서 실제 생명체를 모델로 하는 지능형 에이전트가 출력하는 감정 표현의 신뢰도를 저해하는 결과를 초래한다.As described above, according to the method of generating and expressing emotions only for a specific stimulus or internal state change, it takes a structure that simply responds to a given input value, and considers the physical and social environment information of the intelligent agent. There is a problem that can not be. As a result, the intelligent agent modeling the real life causes the reliability of the emotional expression to be output.

본 발명은 상기와 같은 문제점을 해결하고 최근의 추세와 요청에 따라 제안된 것으로서, 지능형 에이전트가 처한 외부 환경과 지능형 에이전트가 속한 시스템의 내부 환경을 고려하여, 생성된 감정을 증폭하거나 억제할 수 있는, 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성 방법을 제공하는데 그 목적이 있다.The present invention solves the above problems and has been proposed in accordance with recent trends and requests, and can amplify or suppress the generated emotion in consideration of the external environment encountered by the intelligent agent and the internal environment of the system to which the intelligent agent belongs. The purpose of the present invention is to provide an intelligent agent system and a method for generating emotions of intelligent agents.

본 발명의 다른 목적은, 입력되는 자극과 출력되는 감정 모두에 대해 지능형 에이전트의 성격을 반영함으로써 실제 생명체에 가까운 감정을 생성 및 표현할 수 있는 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성 방법을 제공하는 것이다.Another object of the present invention is to provide an intelligent agent system and an intelligent agent's emotion generating method capable of generating and expressing an emotion close to a real life by reflecting the nature of the intelligent agent on both an input stimulus and an output emotion.

본 발명의 또 다른 목적은, 복수 개의 자극들이 동시에 입력되는 경우에 지능형 에이전트의 감정을 생성하고 관리할 수 있는 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성 방법을 제공하는 것이다.Still another object of the present invention is to provide an intelligent agent system and an intelligent agent's emotion generating method capable of generating and managing an emotional of an intelligent agent when a plurality of stimuli are simultaneously input.

상기의 목적을 달성하기 위한 본 발명의 일 양상으로서, 본 발명에 따른 지능형 에이전트의 감정 생성 방법은, 지능형 에이전트의 감정 생성 기능을 갖는 시스템에서 상기 지능형 에이전트의 감정을 생성하는 방법에 있어서, 상기 시스템의 외부 또는 내부의 자극을 동시에 둘 이상 감지하는 단계; 상기 외부 또는 내부의 자극에 대해 감정과 관련된 감정 자극을 매칭시킨 데이터베이스를 참조하여, 상기 감지된 자극을 상기 감정 자극으로 변환하는 단계; 상기 변환된 감정 자극을 기초로, 사용자에 의해 설정되거나 학습에 의해 기 형성되는 상기 지능형 에이전트의 성격(personality) 및 복수의 감정들 간의 관계 정보를 고려하여 상기 지능형 에이전트의 감정을 생성하는 단계; 상기 시스템의 내부 환경 및 외부 환경에 대한 환경 정보를 획득하는 단계; 상기 지능형 에이전트의 성격 및 상기 획득된 환경 정보를 고려하여 상기 생성된 감정의 강도를 조정하는 단계; 및 상기 강도가 조정된 감정을 출력하는 단계를 포함하여 이루어진다.As an aspect of the present invention for achieving the above object, the intelligent agent emotion generating method according to the present invention, in the system having the intelligent agent emotion generating function of the emotion generating method of the intelligent agent, the system Detecting at least two external or internal stimuli simultaneously; Converting the sensed stimulus into the emotional stimulus by referring to a database that matches the emotional stimulus associated with the emotion with respect to the external or internal stimulus; Generating emotions of the intelligent agent in consideration of personality of the intelligent agent set by the user or pre-formed by learning and relationship information between a plurality of emotions based on the converted emotional stimulus; Obtaining environmental information about an internal environment and an external environment of the system; Adjusting the intensity of the generated emotion in consideration of the personality of the intelligent agent and the obtained environmental information; And outputting the emotion whose intensity is adjusted.

삭제delete

상기의 목적을 달성하기 위한 본 발명의 또 다른 양상으로서, 본 발명에 따른 지능형 에이전트 시스템은, 상기 지능형 에이전트 시스템의 외부 또는 내부의 자극을 동시에 둘 이상 감지하는 자극 감지부; 상기 외부 또는 내부의 자극에 대해 감정과 관련된 감정 자극을 매칭시킨 데이터베이스, 및 사용자에 의해 설정되거나 학습에 의해 기 형성되는 상기 지능형 에이전트의 성격(personality)을 저장하는 저장부; 상기 데이터베이스를 참조하여, 상기 자극 감지부로부터 전달된 상기 자극을 감정과 관련된 감정 자극으로 변환하는 감정 자극 변환부; 상기 감정 자극 변환부에서 전달된 상기 감정 자극을 기초로, 상기 지능형 에이전트의 성격 및 복수의 감정들 간의 관계 정보를 고려하여 상기 지능형 에이전트의 감정을 생성하는 감정 생성부; 상기 시스템의 내부 환경 및 외부 환경에 관한 환경 정보를 획득하는 환경 정보 획득부; 및 상기 지능형 에이전트의 성격과 상기 환경 정보를 모두 고려하여 상기 감정 생성부에서 생성된 감정의 강도를 조정하는 강도 조정부를 포함하여 이루어진다.As another aspect of the present invention for achieving the above object, the intelligent agent system according to the present invention, the stimulus detector for detecting at least two external or internal stimulus of the intelligent agent system at the same time; A storage unit for storing the personality of the intelligent agent set by the user or pre-formed by learning; An emotional stimulation converter for converting the stimulus transmitted from the stimulus detector into an emotional stimulus related to the emotion by referring to the database; An emotion generation unit generating emotions of the intelligent agent in consideration of the personality of the intelligent agent and relationship information between a plurality of emotions based on the emotional stimulus transmitted from the emotional stimulation converter; An environment information acquisition unit for obtaining environment information about an internal environment and an external environment of the system; And an intensity adjusting unit adjusting the intensity of the emotion generated by the emotion generating unit in consideration of both the personality of the intelligent agent and the environment information.

본 발명에 따른 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성 방법에 의하면 다음과 같은 효과가 있다.According to the intelligent agent system and the emotion generating method of the intelligent agent according to the present invention, the following effects are obtained.

첫째, 지능형 에이전트가 처한 외부 환경과 지능형 에이전트가 속한 시스템의 내부 환경을 고려하여, 생성된 감정을 증폭하거나 억제할 수 있으므로, 종래 기술에 비해 보다 복잡하고 신뢰도가 높은 감정 표현이 가능하다.First, since the generated emotion can be amplified or suppressed in consideration of the external environment in which the intelligent agent is located and the internal environment of the system to which the intelligent agent belongs, more complicated and reliable emotion expression is possible than in the prior art.

둘째, 입력되는 자극과 출력되는 감정 모두에 대해 지능형 에이전트의 성격을 반영함으로써 실제 생명체에 가까운 감정을 생성 및 표현할 수 있다.Second, by reflecting the nature of the intelligent agent for both the input stimulus and the output emotion, it is possible to generate and express emotions close to real life.

셋째, 복수 개의 자극들이 동시에 입력되는 경우에 지능형 에이전트의 감정을 생성하고 관리할 수 있으므로, 동시에 여러 자극들을 처리하여 복잡한 감정을 표현하는 실제 생명체와 같은 메커니즘의 구현이 가능하다.Third, since the emotion of the intelligent agent can be generated and managed when a plurality of stimuli are input at the same time, it is possible to implement a real life-like mechanism that expresses complex emotions by simultaneously processing multiple stimuli.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예들을 상세히 설명한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 상세한 설명을 생략한다.The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like numbers refer to like elements throughout. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 2는 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 기능을 갖는 지능형 에이전트 시스템의 블록 구성도이다. 도 3은 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 관리 모듈의 블록 구성도이다. 도 2 및 도 3을 참조하여, 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 기능을 갖는 지능형 에이전트 시스템을 상세히 설명하기로 한다.2 is a block diagram of an intelligent agent system having an emotion generating function of an intelligent agent according to an embodiment of the present invention. 3 is a block diagram of an emotion management module of an intelligent agent according to an embodiment of the present invention. 2 and 3, an intelligent agent system having an emotion generating function of the intelligent agent according to an embodiment of the present invention will be described in detail.

본 발명의 일 실시예에 따른 지능형 에이전트 시스템은, 감정 관리 모듈(103)과 지능형 에이전트 관리 모듈(105)를 포함하는 지능형 에이전트 모듈(100), 저장부(110), 입력부(120), 표시부(130), 오디오 처리부(140), 진동부(150) 및 제어부(160)를 포함할 수 있다.Intelligent agent system according to an embodiment of the present invention, the intelligent agent module 100, including the emotion management module 103 and intelligent agent management module 105, storage unit 110, input unit 120, display unit ( 130, the audio processor 140, the vibration unit 150, and the controller 160 may be included.

상기 감정 관리 모듈(103)은, 상기 지능형 에이전트의 감정의 생성, 관리 및 표현 등 상기 지능형 에이전트의 감정과 관련된 데이터를 처리하는 모듈이다. 상기 감정 관리 모듈(103)은, 자극 감지부(11), 환경 정보 획득부(13), 감정 자극 변환부(15), 감정 생성부(17) 및 강도 조정부(19)를 포함할 수 있다. 상기 감정 관리 모듈(103)에 관한 자세한 특징은 후술하기로 한다.The emotion management module 103 is a module that processes data related to emotion of the intelligent agent, such as generation, management, and expression of the emotion of the intelligent agent. The emotion management module 103 may include a stimulus detector 11, an environment information acquirer 13, an emotion stimulus converter 15, an emotion generator 17, and an intensity adjuster 19. Detailed features of the emotion management module 103 will be described later.

상기 지능형 에이전트 관리 모듈(105)은, 상기 지능형 에이전트의 감정 이외에 상기 지능형 에이전트가 인공 생명체로서 상기 지능형 에이전트 시스템 내부에서 생명을 유지하기 위해 필요한 모든 것들을 관리한다.The intelligent agent management module 105 manages everything necessary for the intelligent agent to maintain life inside the intelligent agent system as an artificial life in addition to the emotion of the intelligent agent.

상기 저장부(110)는, 상기 지능형 에이전트 시스템의 전반적인 동작을 제어하는 소정의 프로그램을 저장하고 있으며, 상기 제어부(160)에 의해 상기 지능형 에이전트 시스템의 전반적인 동작이 수행될 때 입출력되는 데이터 및 처리되는 각종 데이터를 저장한다.The storage unit 110 stores a predetermined program for controlling the overall operation of the intelligent agent system, and the data inputted and outputted when the overall operation of the intelligent agent system is performed by the controller 160 is processed. Store various data.

특히 상기 저장부(110)는, 상기 지능형 에이전트 시스템의 외부 및 내부 자극에 대해, 감정과 관련된 감정 자극을 매칭시킨 데이터베이스를 저장한다. 즉 상기 데이터베이스는, 특정 자극이 상기 지능형 에이전트에 대해 어떤 감정을 유발하는지에 관한 정보를 포함한다. 상기 감정 자극이란, 감정을 유발시키는 자극으로서 감정과 관련된 자극을 말한다.In particular, the storage unit 110 stores a database in which emotional stimuli related to emotion are matched with respect to external and internal stimuli of the intelligent agent system. In other words, the database contains information about what emotion a particular stimulus causes to the intelligent agent. The emotional stimulus refers to a stimulus associated with emotion as a stimulus for inducing emotion.

상기 지능형 에이전트 모듈(100)은, 감정을 생성하는 자극에 대해 특정 물체, 행동 또는 이벤트로 인식할 수 있다. 상기 물체, 행동 또는 이벤트는 그 종류와 발생 배경에 의해 특정 감정을 유발할 수 있는 감정 자극으로 분류될 수 있다. 예를 들어, 시각, 촉각, 청각, 후각, 온도, 습도, 조명 등 물리적인 센서와 상기 지능형 에이전트 시스템 또는 상기 지능형 에이전트의 내부 상태로부터 전송된 자극은 다시 조합되어 물체, 행동, 이벤트를 구성하고 분류되며, 이는 다시 6가지의 기본 감정 중 어떤 감정의 생성에 기여하는지 여부에 따라 기쁨을 유발하는 자극, 슬픔을 유발하는 자극, 혐오를 유발하는 자극, 화남을 유발하는 자극, 공포를 유발하는 자극, 놀람을 유발하는 자극 등 6가지 기본 감정을 유발하는 자극으로 분류될 수 있다. 상기 데이터베이스는, 이와 같이 특정 자극에 대해 감정을 유발하는 감정 자극을 매칭시킨 정보를 갖는다. 단, 상기 6가지 기본 감정은 일 실시예에 불과한 것이고, 상기 6가지 기본 감정 이상의 다양한 감정들이 본 발명에 적용될 수 있음을 밝혀둔다.The intelligent agent module 100 may recognize a stimulus that generates an emotion as a specific object, action, or event. The object, action or event may be classified as an emotional stimulus that may cause a specific emotion depending on the kind and the occurrence background. For example, physical sensors such as visual, tactile, auditory, olfactory, temperature, humidity, and light and stimuli transmitted from the intelligent agent system or the internal state of the intelligent agent are combined again to construct and classify objects, behaviors, and events. This, in turn, depends on which of the six basic emotions contributes to the generation of emotions, which can cause joy, sadness, hate, anger, fear, It can be categorized into six basic emotion-stimulating stimuli, including surprise-inducing stimuli. The database has information thus matching the emotional stimulus that causes the emotion with respect to the specific stimulus. However, it is noted that the six basic emotions are merely examples, and various emotions of the six basic emotions or more may be applied to the present invention.

또한 상기 저장부(110)는, 상기 지능형 에이전트의 성격을 저장할 수 있다. 상기 지능형 에이전트의 성격은, 사용자에 의해 설정되거나, 학습에 의해 형성될 수 있다. 예를 들어, 상기 지능형 에이전트 관리 모듈(105)은, 상기 지능형 에이전트의 성격에 관한 학습 알고리즘을 포함할 수 있다. 상기 지능형 에이전트 관리 모듈(105)은 상기 학습 알고리즘을 이용하여 시간의 경과에 따라 발생하는 각종 이벤트에 대해 상기 지능형 에이전트의 성격을 학습시킬 수 있다.In addition, the storage unit 110 may store the personality of the intelligent agent. The personality of the intelligent agent may be set by a user or formed by learning. For example, the intelligent agent management module 105 may include a learning algorithm regarding the nature of the intelligent agent. The intelligent agent management module 105 may learn the characteristics of the intelligent agent with respect to various events occurring over time using the learning algorithm.

상기 입력부(120)는, 사용자로부터 각종 정보나 명령을 입력받기 위한 장치로서, 각종 숫자키, 방향키 등을 구비하는 키 패드 혹은 터치 입력 장치로 구현될 수 있다. 터치 입력 장치의 일 예로서 터치 스크린은, 입력 기능과 표시 기능을 동시에 수행할 수 있다.The input unit 120 is a device for receiving various information or commands from a user, and may be implemented as a keypad or a touch input device having various numeric keys, direction keys, and the like. As an example of the touch input device, the touch screen may simultaneously perform an input function and a display function.

상기 표시부(130)는, 상기 제어부(160)로부터 출력되는 제어 신호에 의해 상기 지능형 에이전트 시스템의 상태 혹은 각종 정보를 디스플레이하기 위한 표시 장치이다.The display unit 130 is a display device for displaying the state or various information of the intelligent agent system by a control signal output from the control unit 160.

상기 오디오 처리부(140)는, 마이크(MIC)와 스피커(SPK)를 통해 오디오를 입출력하도록 오디오를 처리한다. 상기 오디오 처리부(140)는, 상기 지능형 에이전트 시스템의 각종 처리 및 제어 동작을 스피커(SPK)를 통해 오디오로 출력하거나, 각종 정보나 명령을 마이크(MIC)를 통해 오디오로 입력하도록 오디오를 처리한다.The audio processor 140 processes audio to input and output audio through a microphone MIC and a speaker SPK. The audio processor 140 outputs various processing and control operations of the intelligent agent system as audio through a speaker SPK, or processes audio to input various information or commands as audio through a microphone MIC.

상기 진동부(150)는, 상기 제어부(160)의 제어 신호에 따라 상기 지능형 에 이전트 시스템의 진동을 발생하도록 하는 진동 모터와 진동 소자를 포함하는 진동 장치이다. 상기 진동 소자는 상기 진동 모터에 의해 진동을 발생시킨다. 진동 장치의 세부적인 구성과 그 동작은 공지된 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다.The vibration unit 150 is a vibration device including a vibration motor and a vibration element for generating a vibration of the intelligent agent system according to the control signal of the control unit 160. The vibration element generates vibration by the vibration motor. Since the detailed configuration and operation of the vibration device is a known technique, a detailed description thereof will be omitted.

상기 제어부(160)는, 상기 구성 요소들을 제어하고, 본 발명의 일 실시예에 따른 지능형 에이전트 시스템의 전반적인 동작을 총괄한다.The controller 160 controls the components and controls the overall operation of the intelligent agent system according to an embodiment of the present invention.

전술한 바와 같이, 상기 감정 관리 모듈(103)은, 자극 감지부(11), 환경 정보 획득부(13), 감정 자극 변환부(15), 감정 생성부(17) 및 강도 조정부(19)를 포함할 수 있다.As described above, the emotion management module 103 may include a stimulus detector 11, an environment information acquirer 13, an emotion stimulus converter 15, an emotion generator 17, and an intensity adjuster 19. It may include.

상기 자극 감지부(11)는, 상기 지능형 에이전트 시스템의 외부 및 내부의 자극을 감지한다.The stimulus detector 11 detects stimuli of the outside and the inside of the intelligent agent system.

상기 외부 자극은, 상기 지능형 에이전트 시스템의 외부에서 일어나는 환경 요소들의 변화를 포함한다. 상기 자극 감지부(11)는, 상기 외부 자극을 감지하기 위해, 시각 센서, 후각 센서, 촉각 센서, 거리 센서 및 온도, 습도, 조명 등 각종 환경 요소들을 감지할 수 있는 각종 감지 센서들을 포함할 수 있다. 상기 자극 감지부(11)가 반드시 상기 감지 센서들을 포함해야 하는 것은 아니다. 상기 지능형 에이전트 시스템이 상기 감지 센서들을 구비하고, 상기 자극 감지부(11)는, 상기 감지 센서들로부터 상기 감지 센서들에 의해 감지된 값을 전달받을 수도 있다.The external stimulus includes changes in environmental factors that occur outside of the intelligent agent system. The stimulus detector 11 may include a visual sensor, an olfactory sensor, a tactile sensor, a distance sensor, and various sensing sensors capable of sensing various environmental elements such as temperature, humidity, and light in order to detect the external stimulus. have. The stimulus detector 11 does not necessarily include the detection sensors. The intelligent agent system may include the detection sensors, and the stimulus detection unit 11 may receive a value detected by the detection sensors from the detection sensors.

상기 내부 자극은, 상기 지능형 에이전트 시스템의 위치, 이동 속도, 부품 상태, 배터리 잔량 등 상기 지능형 에이전트 시스템의 상태와 관련된 요소를 포함한다. 또한 상기 내부 자극은, 상기 지능형 에이전트가 인공 생명체로서 항상 유지하고 있어야 하는 내부 상태 값으로서 감정 상태, 배고픔, 심심함, 흥미로움, 신기함 등의 정보를 포함한다. 상기 내부 자극에 관한 정보는, 상기 지능형 에이전트 관리 모듈(105)로부터 전달받을 수 있다.The internal stimulus includes elements related to the status of the intelligent agent system, such as the location of the intelligent agent system, the moving speed, the part status, the battery level, and the like. The internal stimulus may also include information such as emotional state, hunger, boredom, interest, and novelty as an internal state value that the intelligent agent should always maintain as an artificial life. Information about the internal stimulus may be received from the intelligent agent management module 105.

상기 자극 감지부(11)는, 상기 외부 자극 또는 내부 자극을 동시에 둘 이상 감지할 수 있다. 예를 들어, 상기 자극 감지부(11)가 2개의 외부 자극-예를 들어, 온도의 변화와 조명의 변화-과 1개의 내부 자극-예를 들어, 배터리 잔량이 설정치를 벗어남-을 동시에 감지할 수 있다. The stimulus detector 11 may simultaneously detect two or more external stimuli or internal stimuli. For example, the stimulus detector 11 may simultaneously detect two external stimuli-for example, a change in temperature and a light-and an internal stimulus-for example, the battery level is outside the set value. Can be.

상기 환경 정보 획득부(13)는, 상기 지능형 에이전트 시스템의 내부 환경 및 외부 환경에 관한 환경 정보를 획득한다. 상기 내부 환경의 예를 들면, 상기 지능형 에이전트 시스템의 배터리의 잔량이나 부품 상태가 있다. 상기 외부 환경의 예를 들면, 상기 지능형 에이전트 시스템이 위치하는 장소가 있다. 상기 환경 정보 획득부(13)는, 상기 자극 감지부(11)와 같이, 시각 센서, 후각 센서, 촉각 센서, 거리 센서 및 온도, 습도, 조명 등 각종 환경 요소들을 감지할 수 있는 각종 감지 센서들을 포함할 수 있다. 또한 상기 지능형 에이전트 시스템이 상기 감지 센서들을 구비하고, 상기 환경 정보 획득부(13)는, 상기 감지 센서들로부터 상기 감지 센서들에 의해 감지된 값을 전달받을 수도 있다. 상기 환경 정보는, 사용자로부터 상기 입력부(120)를 통해 입력될 수 있다. 이때 상기 환경 정보 획득부(13)는, 상기 입력부(120)를 통해 환경 정보를 전달받는다. 예를 들어, 사용자는 상기 지능형 에 이전트 시스템이 현재 위치하고 있는 장소가 "회의실" 또는 "운동장"이라고 상기 입력부(120)를 통해 입력할 수 있다.The environment information acquisition unit 13 obtains environment information regarding an internal environment and an external environment of the intelligent agent system. An example of the internal environment is the remaining battery capacity or part status of the intelligent agent system. For example of the external environment, there is a place where the intelligent agent system is located. The environmental information acquisition unit 13, like the stimulus detection unit 11, includes a visual sensor, an olfactory sensor, a tactile sensor, a distance sensor, and various detection sensors capable of detecting various environmental elements such as temperature, humidity, and lighting. It may include. In addition, the intelligent agent system may include the detection sensors, and the environment information acquisition unit 13 may receive a value sensed by the detection sensors from the detection sensors. The environment information may be input from the user through the input unit 120. In this case, the environmental information acquisition unit 13 receives environmental information through the input unit 120. For example, the user may input through the input unit 120 that the place where the intelligent agent system is currently located is a “room” or a “playground”.

상기 감정 자극 변환부(15)는, 상기 저장부(110)에 저장된 상기 데이터베이스를 참조하여, 상기 자극 감지부(11)로부터 전달된 상기 자극을 감정과 관련된 감정 자극으로 변환한다. 상기 감정 자극 변환부(15)는, 상기 데이터베이스를 참조하여 변환된 상기 감정 자극에 대해 상기 지능형 에이전트의 성격을 반영하여 상기 감정 생성부(17)로 전달할 수 있다.The emotional stimulus converter 15 converts the stimulus transmitted from the stimulus detector 11 into an emotional stimulus related to the emotion with reference to the database stored in the storage 110. The emotion stimulus converter 15 may transmit the emotion stimulus converted with reference to the database to the emotion generator 17 by reflecting the characteristics of the intelligent agent.

상기 감정 생성부(17)는, 상기 감정 자극 변환부(15)에서 전달된 상기 감정 자극을 기초로, 상기 지능형 에이전트의 감정을 생성한다. 상기 감정 생성부(17)는, 상기 지능형 에이전트의 성격과, 복수의 감정들 간의 관계 정보를 고려하여 상기 지능형 에이전트의 감정을 생성할 수 있다.The emotion generator 17 generates an emotion of the intelligent agent based on the emotion stimulus transmitted from the emotion stimulus converter 15. The emotion generating unit 17 may generate the emotion of the intelligent agent in consideration of the nature of the intelligent agent and relationship information between a plurality of emotions.

상기 강도 조정부(19)는, 상기 지능형 에이전트의 성격과 상기 환경 정보 중 적어도 하나를 고려하여 상기 감정 생성부(17)에서 생성된 상기 지능형 에이전트의 감정의 강도를 조정한다.The strength adjusting unit 19 adjusts the strength of the emotion of the intelligent agent generated by the emotion generating unit 17 in consideration of at least one of the personality of the intelligent agent and the environment information.

상기 강도 조정부(19)는, 상기 자극 감지부(11)에 의해 감지된 자극이 복수 개인 경우, 상기 복수 개의 감지된 자극의 강도를 조정할 수 있다. 특히 상기 감지된 복수 개의 감정들 중 동시에 출력할 수 없는 것으로 설정된 감정들이 존재할 수 있다. 예를 들어, 상기 자극 감지부(11)에 의해 제1 자극과 제2 자극이 동시에 감지되었다고 가정하자. 이때 상기 제1 자극이 유발하는 감정은 "기쁨"이고, 상기 제2 자극이 유발하는 감정은 "슬픔"이라고 할 때, "기쁨"과 "슬픔"은 동시에 표현될 수 없는 감정으로 설정될 수 있다. 상기 강도 조정부(19)는, 상기 동시에 출력할 수 없는 감정들 중 강도가 가장 높은 감정만을 존속시키고 나머지 감정들은 소멸시킬 수 있다. 예를 들어, 상기 제1 자극이 유발하는 감정인 "기쁨"이 2.0의 값을 갖고, 상기 제2 자극이 유발하는 감정인 "슬픔"이 0.7의 값을 갖는다고 가정하자. 상기 강도 조정부(19)는, "기쁨"과 "슬픔"을 동시에 출력할 수 없으므로, "기쁨"의 강도와 "슬픔"의 강도의 차이에 해당하는 1.3의 강도로 "기쁨"을 출력할 수 있다. 이때 "슬픔"이라는 감정은 출력되지 않는다.The intensity adjuster 19 may adjust the intensities of the plurality of sensed stimuli when there are a plurality of stimuli sensed by the stimulus detector 11. In particular, there may be emotions that are set to not be output at the same time among the plurality of detected emotions. For example, assume that the first stimulus and the second stimulus are simultaneously sensed by the stimulus detector 11. In this case, when the emotion caused by the first stimulus is "joy" and the emotion induced by the second stimulus is "sorrow," "joy" and "sorrow" may be set to emotions that cannot be simultaneously expressed. . The intensity adjusting unit 19 may persist only the emotion with the highest intensity among the emotions that cannot be output at the same time, and extinguish the remaining emotions. For example, assume that "joy", which is an emotion caused by the first stimulus, has a value of 2.0, and "sorrow," which is an emotion caused by the second stimulus, has a value of 0.7. Since the intensity adjusting unit 19 cannot output "joy" and "sadness" at the same time, it is possible to output "joy" at an intensity of 1.3 corresponding to the difference between the intensity of "joy" and the intensity of "sadness". . At this time, the feeling of sadness is not output.

도 4는 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 방법을 설명하기 위한 개념도이다. 도 5는 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 방법의 흐름도이다. 도 4 및 도 5를 참조하여, 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 방법을 상세히 설명하기로 한다. 이하 언급되는 용어는, 상술한 지능형 에이전트 시스템에 관한 설명에서 언급된 용어와 동일하다.4 is a conceptual diagram illustrating a method for generating emotion of an intelligent agent according to an embodiment of the present invention. 5 is a flowchart of a method for generating emotion of an intelligent agent according to an embodiment of the present invention. 4 and 5, the emotion generating method of the intelligent agent according to an embodiment of the present invention will be described in detail. The terms mentioned below are the same as the terms mentioned in the above description of the intelligent agent system.

본 발명에 의하면, 도 1을 참조하여 설명한 종래 기술과는 달리, 도 4에 도시된 바와 같이 상기 지능형 에이전트의 성격(personality)과 상기 환경 정보를 반영하여 상기 지능형 에이전트의 감정을 표현할 수 있다.According to the present invention, unlike the prior art described with reference to FIG. 1, as shown in FIG. 4, the emotion of the intelligent agent may be expressed by reflecting the personality of the intelligent agent and the environment information.

먼저 상기 지능형 에이전트 시스템의 외부 또는 내부의 자극을 감지한다[S500].First, an external or internal stimulus of the intelligent agent system is detected [S500].

그리고 상기 감지된 자극을 감정과 관련된 감정 자극으로 변환한다[S510]. 상기 S510 단계는, 상기 저장부(110)에 저장된 상기 데이터베이스를 참조하여 수행 될 수 있다. 전술한 바와 같이, 상기 데이터베이스는, 상기 외부 또는 내부의 자극에 대해 상기 감정 자극을 매칭시킨 정보를 포함한다.The detected stimulus is converted into an emotional stimulus related to the emotion [S510]. The step S510 may be performed by referring to the database stored in the storage unit 110. As described above, the database includes information that matches the emotional stimulus with respect to the external or internal stimulus.

상기 S510 단계는, 상기 데이터베이스를 참조하여 변환된 상기 감정 자극에 대해 상기 지능형 에이전트의 성격을 반영할 수 있다. 상기 감정 자극에 대해 상기 지능형 에이전트의 성격을 반영하는 이유는, 상기 지능형 에이전트의 성격에 따라 자극에 반응하는 정도 또는 자극을 수용하는 정도가 다를 수 있기 때문이다.In step S510, the personality of the intelligent agent may be reflected on the emotional stimulus converted with reference to the database. The reason for reflecting the personality of the intelligent agent with respect to the emotional stimulus is that the degree of responding to the stimulus or the degree of accepting the stimulus may vary depending on the personality of the intelligent agent.

그리고 상기 감정 자극을 기초로 상기 지능형 에이전트의 감정을 생성한다[S520]. 상기 S520 단계는, 상기 지능형 에이전트의 성격을 고려하여 수행될 수 있다. 여기서 상기 지능형 에이전트의 성격을 고려하는 것은, 동일한 자극이라 하더라도 상기 지능형 에이전트의 성격에 따라 자극을 받아들이는 정도가 다르기 때문에 이를 반영하기 위함이다.The emotion of the intelligent agent is generated based on the emotional stimulus [S520]. The step S520 may be performed in consideration of the nature of the intelligent agent. Here, the nature of the intelligent agent is considered to reflect this, even if the same stimulus, the degree of accepting the stimulus is different depending on the nature of the intelligent agent.

그리고 상기 지능형 에이전트 시스템의 내부 환경 및 외부 환경에 관한 환경 정보를 획득한다[S530]. 상기 환경 정보는, 사용자로부터 입력되거나 상기 지능형 에이전트 시스템의 자동 감지에 의해 획득될 수 있다.In addition, environment information regarding an internal environment and an external environment of the intelligent agent system is acquired [S530]. The environment information may be input from a user or obtained by automatic detection of the intelligent agent system.

그리고 상기 획득된 환경 정보와 상기 지능형 에이전트의 성격을 고려하여 상기 S520 단계에서 생성된 감정의 강도를 조정한다[S540]. 예를 들어, 상기 지능형 에이전트 또는 상기 지능형 에이전트 시스템의 외부 환경이 정숙을 요하는 "회의실"에 해당하는 경우, 상기 생성된 감정의 강도를 약하게 조정할 수 있다. 또한 예를 들어, 상기 외부 환경이 시끄러운 "운동장"에 해당하는 경우, 상기 생성된 감정의 강도를 강하게 증폭시킬 수 있다.The strength of the emotion generated in step S520 is adjusted in consideration of the obtained environment information and the personality of the intelligent agent [S540]. For example, when the intelligent agent or the external environment of the intelligent agent system corresponds to a "room" requiring quietness, the intensity of the generated emotion may be weakly adjusted. Also, for example, when the external environment corresponds to a noisy "playground", the intensity of the generated emotion may be strongly amplified.

상기 S540 단계에서 상기 지능형 에이전트의 성격을 고려하는 것은, 동일한 감정이라 하더라도 상기 지능형 에이전트의 성격에 따라 감정을 표현하는 종류와 정도가 다르기 때문에 이를 반영하기 위함이다.Considering the nature of the intelligent agent in the step S540, even if the same feeling is to reflect this because the type and degree of expressing the emotion is different depending on the nature of the intelligent agent.

그리고 상기 S540 단계에서 상기 강도가 조정된 감정을 표현한다[S550]. 상기 S540 단계에서 상기 감정을 표현하는 방식은 다양할 수 있다. 예를 들어, 상기 지능형 에이전트 시스템에 구비된 상기 표시부(130)에 상기 감정과 상기 감정의 강도를 나타내는 정보를 표시하거나, 상기 오디오 처리부(140) 및 스피커를 통해 오디오를 출력하거나, 상기 진동부(150)를 통해 진동을 발생시킬 수 있다.In operation S540, the emotion of which the intensity is adjusted is expressed (S550). At step S540, the emotion may be expressed in various ways. For example, the emotion information may be displayed on the display unit 130 provided in the intelligent agent system, and the audio intensity may be output through the audio processor 140 and the speaker, or the vibration unit ( 150 may generate vibration.

도 6은 본 발명의 다른 실시예에 따른 지능형 에이전트의 감정 생성 방법의 흐름도이다. 도 6을 참조하여, 본 발명의 다른 실시예에 따른 지능형 에이전트의 감정 생성 방법을 상세히 설명하기로 한다. 도 6에 의한 감정 생성 방법은, 외부 또는 내부의 자극을 동시에 둘 이상 감지한 경우에 해당한다. 이하 언급되는 용어는, 상술한 지능형 에이전트 시스템에 관한 설명에서 언급된 용어와 동일하다.6 is a flowchart of a method for generating emotion of an intelligent agent according to another embodiment of the present invention. Referring to Figure 6, it will be described in detail the emotion generation method of the intelligent agent according to an embodiment of the present invention. The emotion generating method of FIG. 6 corresponds to a case in which two or more external or internal stimuli are simultaneously detected. The terms mentioned below are the same as the terms mentioned in the above description of the intelligent agent system.

먼저 상기 지능형 에이전트 시스템의 외부 또는 내부의 자극을 복수 개 감지한다[S600]. 2개 이상의 자극이 상기 자극 감지부(11)에 의해 감지된다. 예를 들어, 상기 자극 감지부(11)가 "외부 온도의 변화"와 "지능형 에이전트의 배고픔"을 동시에 감지하는 경우이다. "외부 온도의 변화"는 외부 자극에 해당하고, "지능형 에이전트의 배고픔"은 내부 자극에 해당한다.First, a plurality of external or internal stimuli of the intelligent agent system are detected [S600]. Two or more stimuli are detected by the stimulus detector 11. For example, the stimulus detector 11 simultaneously detects "change in external temperature" and "hunger of an intelligent agent." "Change in external temperature" corresponds to an external stimulus, and "hunger of an intelligent agent" corresponds to an internal stimulus.

한편 인간의 오감과 같이 상기 지능형 에이전트가 입력받는 외부 자극을, 시 각, 청각, 촉각, 온도, 후각에 대한 5가지 자극 S로 정의하고 아래의 수학식 1로 표현할 수 있다.On the other hand, the external stimulus received by the intelligent agent, such as the five senses of the human, can be defined as five stimulus S for the visual, auditory, tactile, temperature, olfactory and can be expressed by Equation 1 below.

Figure 112007056738066-pat00001
Figure 112007056738066-pat00001

여기서, SVS는 시각, SAS는 청각, STS는 촉각, SHS는 온도, SOS는 후각을 각각 나타낸다.Here, S VS is visual, S AS is auditory, S TS is tactile, S HS is temperature, and S OS is olfactory.

그리고 상기 감지된 자극을 감정과 관련된 감정 자극으로 변환한다[S610]. 상기 S610 단계는, 상기 S510 단계에 대응된다. 즉 상기 S610 단계는, 상기 저장부(110)에 저장된 상기 데이터베이스를 참조하여 수행될 수 있다. 전술한 바와 같이, 상기 데이터베이스는, 상기 외부 또는 내부의 자극에 대해 상기 감정 자극을 매칭시킨 정보를 포함한다. 상기 S610 단계는, 상기 S510 단계와 마찬가지로, 상기 데이터베이스를 참조하여 변환된 상기 감정 자극에 대해 상기 지능형 에이전트의 성격을 반영할 수 있다.In operation S610, the detected stimulus is converted into an emotional stimulus related to the emotion. The step S610 corresponds to the step S510. That is, step S610 may be performed by referring to the database stored in the storage unit 110. As described above, the database includes information that matches the emotional stimulus with respect to the external or internal stimulus. In step S610, as in step S510, the personality of the intelligent agent may be reflected on the emotional stimulus converted with reference to the database.

아래의 수학식 2는, 상기 감정 자극을 표현한 예이다.Equation 2 below is an example of expressing the emotional stimulus.

Figure 112007056738066-pat00002
Figure 112007056738066-pat00002

여기서, UHappy는 기쁨을 유발하는 감정 자극, USad는 슬픔을 유발하는 감정 자극, UDisgust는 혐오를 유발하는 감정 자극, UAnger는 화남을 유발하는 감정 자극, UFear 는 공포를 유발하는 감정 자극, USurprise는 놀람을 유발하는 감정 자극을 각각 나타낸다. 여기서, 감정을 "기쁨, 슬픔, 혐오, 화남, 공포, 놀람"으로 분류하는 것은, 에크만(P.Ekman)의 얼굴 표정에 따른 6가지 기본 감정 분류법에 의한 것이다.Where U Happy is an emotional stimulus that induces joy, U Sad is an emotional stimulus that induces sadness, U Disgust is an emotional stimulus that causes disgust, U Anger is an emotional stimulus that causes anger, and U Fear is a fear-induced emotion The stimulus, U Surprise , represents an emotional stimulus, each causing a surprise. The categorization of emotions as “joy, sadness, disgust, anger, fear, surprise” is based on six basic emotion classifications according to P.Ekman's facial expressions.

예를 들어, 도 6에 도시된 바와 같이, 상기 S610 단계에 의해, 감정 자극 u = {2.0, 1.0, 0, 0, 0, 0}가 생성된다. 즉 어떤 복수 개의 자극에 의해, "기쁨"과 "슬픔"을 유발하는 감정 자극이 각각 "2.0"과 "1.0"의 크기를 가지고 생성된다.For example, as shown in FIG. 6, by the step S610, an emotional stimulus u = {2.0, 1.0, 0, 0, 0, 0} is generated. In other words, by a plurality of stimuli, emotional stimuli that cause "joy" and "sorrow" are generated with sizes of "2.0" and "1.0", respectively.

그리고 상기 감정 자극을 기초로 상기 지능형 에이전트의 감정을 생성한다[S620]. 상기 S620 단계는, 상기 지능형 에이전트의 성격과, 복수의 감정들 간의 관계 정보를 고려하여 수행될 수 있다.The emotion of the intelligent agent is generated based on the emotional stimulus [S620]. The step S620 may be performed in consideration of the personality of the intelligent agent and relationship information between a plurality of emotions.

상기 복수의 감정들 간의 관계 정보는, 서로 상반된 감정들이 서로 생성을 억제하는 것과, 어느 시점에서 감정이 생성되고 더 이상 자극이 감지되지 않는 경우에 시간이 흐름에 따라 상기 생성된 감정이 점차 소멸되는 것에 관한 정보를 포함할 수 있다.The relationship information between the plurality of emotions may include information that mutually opposing emotions suppress generation of each other, and that the generated emotions gradually disappear as time passes when the emotions are generated at some point and no further stimulation is detected. It may include information about things.

아래의 수학식 3은 상기 S620 단계에서 감정을 생성하기 위한 관계식의 예를 나타낸다.Equation 3 below shows an example of a relation for generating emotion in step S620.

Figure 112007056738066-pat00003
Figure 112007056738066-pat00003

여기서, x는 상기 지능형 에이전트의 감정, u는 상기 감정 자극, A는 상기 복수의 감정들 간의 관계 정보, B는 상기 지능형 에이전트의 성격, a는 상기 감정을 생성하는 속도를 결정하기 위한 파라미터를 나타낸다. x, u, A 및 B는 벡터 또는 행렬로 표현될 수 있다.Here, x denotes the emotion of the intelligent agent, u denotes the emotional stimulus, A denotes relationship information between the plurality of emotions, B denotes the personality of the intelligent agent, and a denotes a parameter for determining the speed of generating the emotion. . x, u, A and B can be represented by a vector or a matrix.

도 7은 감정 x와 감정 자극 u를 벡터로 표현한 예를 도시한 도면이고, 도 8은 복수의 감정들 간의 관계 정보 A를 행렬로 표현한 예를 도시한 도면이다. 도 8에서, "기쁨(Happy)"이라는 감정과 "슬픔(Sad)"이라는 감정이 동시에 표현될 수 없는 감정들이므로, 참조번호 30이 나타내는 영역에 의해 "기쁨"과 "슬픔"이 서로 생성을 억제하게 된다. 또한 도 8에서, "분노(Anger)"라는 감정과 "공포(Fear)"라는 감정이 동시에 표현될 수 없는 감정들이므로, 참조번호 40이 나타내는 영역에 의해 "분노"와 "공포"가 서로 생성을 억제하게 된다.FIG. 7 is a diagram illustrating an example in which emotion x and emotion stimulus u are expressed as vectors, and FIG. 8 is a diagram illustrating an example in which relationship information A between a plurality of emotions is expressed in a matrix. In FIG. 8, since the feelings of "happy" and the feelings of "sad" cannot be expressed at the same time, "joy" and "sorrow" are generated from each other by the area indicated by reference numeral 30. Will be suppressed. In addition, in FIG. 8, since the emotion of "Anger" and the feeling of "Fear" are emotions that cannot be expressed at the same time, "anger" and "fear" are generated by the area indicated by reference numeral 40. Will be suppressed.

예를 들어, 도 6에 도시된 바와 같이, 상기 S620 단계에 의해, 감정 x = {1.85, 0.78, 0, 0, 0, 0}가 생성된다. 즉 각각 "1.85"과 "0.78"의 크기를 갖는 "기쁨"과 "슬픔"이 생성된다.For example, as shown in FIG. 6, by step S620, emotion x = {1.85, 0.78, 0, 0, 0, 0} is generated. That is, "joy" and "sorrow" are generated, having sizes of "1.85" and "0.78", respectively.

그리고 상기 지능형 에이전트 시스템의 내부 환경 및 외부 환경에 관한 환경 정보를 획득한다[S630]. 상기 환경 정보는, 사용자로부터 입력되거나 상기 지능형 에이전트 시스템의 자동 감지에 의해 획득될 수 있다.In addition, environment information regarding an internal environment and an external environment of the intelligent agent system is acquired [S630]. The environment information may be input from a user or obtained by automatic detection of the intelligent agent system.

그리고 상기 획득된 환경 정보와 상기 지능형 에이전트의 성격을 고려하여 상기 S620 단계에서 생성된 감정의 강도를 조정한다[S640]. 상기 S640 단계는, 도 5의 S540 단계에 대응된다.The strength of the emotion generated in step S620 is adjusted in consideration of the obtained environment information and the personality of the intelligent agent [S640]. The step S640 corresponds to step S540 of FIG. 5.

아래의 수학식 4는 감정의 강도를 조정하기 위한 관계식의 예를 나타낸다.Equation 4 below shows an example of a relationship for adjusting the intensity of emotion.

Figure 112007056738066-pat00004
Figure 112007056738066-pat00004

여기서, y는 상기 강도가 조정된 감정, C는 상기 환경 정보, D는 상기 지능형 에이전트의 성격을 각각 나타낸다. 전술한 바와 같이, 수학식 3에서 사용되는 성격 B는 성격에 따라 자극을 받아들이는 정도가 다름을 반영하는 것이고, 수학식 4에서 사용되는 성격 D는 성격에 따라 감정을 표현하는 정도가 다름을 반영하기 위한 것이다. 도 9는 강도가 조정된 감정 y를 벡터로 표현한 예를 도시한 도면이다. Here, y represents the emotion whose intensity is adjusted, C represents the environment information, and D represents the personality of the intelligent agent. As described above, the personality B used in Equation 3 reflects the degree of accepting the stimulus according to the personality, and the personality D used in Equation 4 reflects the degree of expressing the emotion according to the personality. It is to. 9 is a diagram illustrating an example in which the emotion y whose intensity is adjusted is represented by a vector.

아래의 수학식 5는 환경 정보 C를 표현하기 위한 관계식의 예이다.Equation 5 below is an example of a relational expression for expressing environmental information C.

Figure 112007056738066-pat00005
Figure 112007056738066-pat00005

여기서, β는 상기 획득된 환경 정보에 따라 정해지는 환경 지수, I는 단위 행렬을 각각 나타낸다.Here, β represents an environmental index determined according to the obtained environmental information, and I represents an identity matrix.

아래의 표 1은 상기 환경 지수 β의 예를 나타낸다.Table 1 below shows an example of the environmental index β.

외부 및 내부 환경External and internal environment β(환경지수)β (Environmental Index) 고려하지 않는 경우If not considered 00 감정을 억제하는 경우Suppress emotions 0 < β < 10 <β <1 감정을 증폭하는 경우Amplify emotions 1 < β1 <β

예를 들어, 상기 환경 지수 β는, "회의실"과 같이 감정의 강도를 줄여야 하는 경우 1보다 작은 값을 갖게 되고, "운동장"과 같이 감정의 강도를 크게 할 필요가 있을 때에는 1보다 큰 값을 갖게 된다. 표 1에 나타낸 상기 환경 지수 β는 일 예에 불과한 것이므로, 반드시 이에 한정되는 것은 아님을 밝혀둔다.For example, the environmental index β has a value less than 1 when the intensity of emotion is to be reduced, such as "meeting room", and a value greater than 1 when it is necessary to increase the intensity of emotion, such as "playground". Will have Since the environmental index β shown in Table 1 is merely an example, it is not necessarily limited thereto.

예를 들어, 도 6에 도시된 바와 같이, 상기 S630 단계에 의해 상기 환경 지수 β=1.2 가 획득되고, 상기 S640 단계에 의해 상기 강도가 조정된 감정 y = {2.22, 0.936, 0, 0, 0, 0}이 생성된다. 이는 상기 S620 단계의 수행 결과인 x에 상기 획득된 β=1.2를 곱한 결과이다.For example, as shown in FIG. 6, the emotion index β = 1.2 is obtained by step S630 and the intensity y is adjusted by step S640. Y = {2.22, 0.936, 0, 0, 0 , 0} is generated. This is the result of multiplying the obtained β = 1.2 by x, which is the result of the step S620.

그리고 상기 S640 단계의 수행 결과, 동시에 표현할 수 없는 감정들이 존재하는지를 판단한다[S650].As a result of performing step S640, it is determined whether there are emotions that cannot be expressed at the same time [S650].

상기 S650 단계의 판단 결과, 동시에 표현할 수 없는 감정들이 존재하지 않으면, 상기 S640 단계에서 상기 강도가 조정된 감정을 표현한다[S670]. 상기 S670 단계는, 도 5의 S550 단계에 대응된다.As a result of the determination of step S650, if there are no emotions that cannot be expressed at the same time, the emotion of which the intensity is adjusted is expressed in step S640 [S670]. The step S670 corresponds to the step S550 of FIG. 5.

상기 S650 단계의 판단 결과, 동시에 표현할 수 없는 감정들이 존재하면, 상기 동시에 표현할 수 없는 감정들 중 하나의 감정만을 선택하고 나머지 감정들은 소멸시킨[S660] 후, 감정을 표현한다[S670]. 여기서 상기 동시에 표현할 수 없는 감정들 중 강도가 가장 높은 감정이 선택되어 존속될 수 있다. 상대적으로 강도가 낮은 나머지 감정들은 소멸된다.As a result of the determination in step S650, if there are emotions that cannot be expressed at the same time, only one of the emotions that cannot be expressed at the same time is selected and the other emotions are extinguished (S660), and then the emotions are expressed [S670]. Here, among the emotions that cannot be expressed simultaneously, the emotion with the highest intensity may be selected and persisted. The remaining less intense emotions disappear.

도 6에 도시된 예에서, S640 단계의 수행 결과, "기쁨"과 "슬픔"의 감정이 존재한다. "기쁨"과 "슬픔"은 동시에 표현될 수 없으므로, 상기 S660 단계에 의해 하나의 감정만이 선택되고 나머지 하나의 감정은 소멸되어야 한다. 상기 S640 단계의 수행 결과, "기쁨"은 2.22의 강도를 갖고, "슬픔"은 0.936의 강도를 갖는다. 상기 S660 단계는, 2.22와 0.936의 차이에 해당하는 1.284를 "기쁨"의 강도로 설정할 수 있다. 따라서 S670 단계에서 최종 표현되는 감정은 1.284의 강도를 갖는 "기쁨"이다.In the example shown in FIG. 6, as a result of performing step S640, emotions of “joy” and “sorrow” exist. Since "joy" and "sorrow" cannot be expressed at the same time, only one emotion is selected by the step S660 and the other emotion must be extinguished. As a result of performing step S640, "joy" has an intensity of 2.22, and "sorrow" has an intensity of 0.936. In step S660, 1.284 corresponding to a difference between 2.22 and 0.936 may be set to an intensity of “joy”. Thus, the final emotion expressed at step S670 is "joy" with an intensity of 1.284.

상기에서 설명한 본 발명에 의한 지능형 에이전트의 감정 생성 방법은, 컴퓨터에서 실행시키기 위한 프로그램으로 컴퓨터로 읽을 수 있는 기록매체에 기록하여 제공될 수 있다.The emotion generating method of the intelligent agent according to the present invention described above may be provided by recording in a computer-readable recording medium as a program for executing in a computer.

본 발명에 의한 지능형 에이전트의 감정 생성 방법은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다.The emotion generation method of the intelligent agent according to the present invention can be executed through software. When implemented in software, the constituent means of the present invention are code segments that perform the necessary work. The program or code segments may be stored on a processor readable medium or transmitted by a computer data signal coupled with a carrier on a transmission medium or network.

컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는, ROM, RAM, CD-ROM, DVD±ROM, DVD-RAM, 자기 테이프, 플로피 디스크, 하드 디스크(hard disk), 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system. Examples of computer-readable recording devices include ROM, RAM, CD-ROM, DVD ± ROM, DVD-RAM, magnetic tape, floppy disks, hard disks, optical data storage devices, and the like. The computer readable recording medium can also be distributed over network coupled computer devices so that the computer readable code is stored and executed in a distributed fashion.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

도 1은 종래 기술에 따른 지능형 에이전트의 감정 생성 및 표현 과정을 도시한 도면이다.1 is a diagram illustrating a emotion generation and expression process of an intelligent agent according to the prior art.

도 2는 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 기능을 갖는 지능형 에이전트 시스템의 블록 구성도이다.2 is a block diagram of an intelligent agent system having an emotion generating function of an intelligent agent according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 관리 모듈의 블록 구성도이다.3 is a block diagram of an emotion management module of an intelligent agent according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 방법을 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating a method for generating emotion of an intelligent agent according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 지능형 에이전트의 감정 생성 방법의 흐름도이다.5 is a flowchart of a method for generating emotion of an intelligent agent according to an embodiment of the present invention.

도 6은 본 발명의 다른 실시예에 따른 지능형 에이전트의 감정 생성 방법의 흐름도이다.6 is a flowchart of a method for generating emotion of an intelligent agent according to another embodiment of the present invention.

도 7은 감정 x와 감정 자극 u를 벡터로 표현한 예를 도시한 도면이다.7 is a diagram illustrating an example of expressing an emotion x and an emotion stimulus u as a vector.

도 8은 복수의 감정들 간의 관계 정보 A를 행렬로 표현한 예를 도시한 도면이다.8 is a diagram illustrating an example of expressing relationship information A between a plurality of emotions in a matrix.

도 9는 강도가 조정된 감정 y를 벡터로 표현한 예를 도시한 도면이다. 9 is a diagram illustrating an example in which the emotion y whose intensity is adjusted is represented by a vector.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100: 지능형 에이전트 모듈 103: 감정 관리 모듈100: intelligent agent module 103: emotion management module

11: 자극 감지부 13: 환경정보 획득부11: stimulus detector 13: environmental information acquisition unit

15: 감정 자극 변환부 17: 감정 생성부15: emotion stimulation converter 17: emotion generator

19: 강도 조정부 105: 지능형 에이전트 관리 모듈19: strength adjuster 105: intelligent agent management module

110: 저장부 120: 입력부110: storage unit 120: input unit

130: 표시부 140: 오디오 처리부130: display unit 140: audio processing unit

150: 진동부 160: 제어부150: vibration unit 160: control unit

Claims (20)

삭제delete 삭제delete 삭제delete 삭제delete 지능형 에이전트의 감정 생성 기능을 갖는 시스템에서, 상기 시스템의 외부 또는 내부의 자극을 동시에 둘 이상 감지하고, 상기 외부 또는 내부의 자극에 대해 감정과 관련된 감정 자극을 매칭시킨 데이터베이스를 참조하여 상기 감지된 자극을 상기 감정 자극으로 변환하고, 그리고 상기 변환된 감정 자극을 기초로 상기 지능형 에이전트의 감정을 생성하는 방법에 있어서,In a system having an intelligent agent's emotion generating function, two or more stimuli externally or internally detected in the system are simultaneously detected, and the detected stimulus is referred to by referring to a database that matches an emotional stimulus related to emotion with respect to the external or internal stimulus. Converting to the emotional stimulus, and generating the emotion of the intelligent agent based on the converted emotional stimulus, 상기 지능형 에이전트의 감정 생성 방법은, 사용자에 의해 설정되거나 학습에 의해 기 형성되는 상기 지능형 에이전트의 성격(personality) 및 복수의 감정들 간의 관계 정보를 고려하는 수학식 1:
Figure 712009002980806-pat00020
에 의해 상기 지능형 에이전트의 감정(x)을 생성하고,
Emotional generation method of the intelligent agent, Equation 1: considering the relationship between the personality (personality) and a plurality of emotions of the intelligent agent is set by the user or pre-formed by learning;
Figure 712009002980806-pat00020
By generating the emotion (x) of the intelligent agent,
상기 지능형 에이전트의 감정 생성 방법은,The emotion generation method of the intelligent agent, 사용자로부터의 입력 또는 상기 시스템에 의한 자동 감지에 의해 상기 시스템의 내부 환경 및 외부 환경에 대한 환경 정보(C)를 획득하는 단계;Acquiring environmental information (C) of the internal environment and external environment of the system by input from a user or automatic detection by the system; 상기 생성된 감정(x)의 강도를, 상기 획득된 환경 정보 및 상기 지능형 에이전트의 성격을 고려하는 수학식 2: CDx 에 의해 조정하여 강도가 조정된 감정(y)을 생성하는 단계; 및Generating an emotion (y) is adjusted by adjusting the strength by y = CDx;: Equation (2) that the intensity of the generated feeling (x), of the above-obtained environmental information and the character of the intelligent agent And 상기 강도가 조정된 감정(y)을 출력하는 단계를 포함하고,Outputting the emotion y with the intensity adjusted; 상기 환경 정보(C)는, 수학식 3: =β 에 의해 결정되고,The environmental information (C) is determined by Equation 3: C = β I , 상기 수학식 1에서, u는 상기 감정 자극, A는 상기 복수의 감정들 간의 관계 정보, B는 상기 지능형 에이전트의 성격, a는 상기 감정을 생성하는 속도를 결정하기 위한 파라미터를 각각 나타내고,In Equation 1, u denotes the emotion stimulus, A denotes relationship information between the plurality of emotions, B denotes a personality of the intelligent agent, and a denotes a parameter for determining a rate of generating the emotion, respectively. 상기 수학식 2에서, C는 상기 환경 정보, D는 상기 지능형 에이전트의 성격을 각각 나타내고, 그리고In Equation 2, C represents the environment information, D represents the nature of the intelligent agent, and 상기 수학식 3에서, β는 상기 획득된 환경 정보에 따라 정해지는 환경 지수, I는 단위 행렬을 각각 나타내는 것을 특징으로 하는 지능형 에이전트의 감정 생성 방법.In Equation 3, β is an environment index determined according to the obtained environmental information, and I represents an identity matrix, respectively.
제 5 항에 있어서,The method of claim 5, wherein 상기 감정을 출력하는 단계의 수행 전, 상기 감지된 둘 이상의 감정들 중 동시에 출력할 수 없는 것으로 설정된 감정들이 존재하는 경우, 상기 동시에 출력할 수 없는 감정들 중 강도가 가장 높은 감정만을 존속시키고 나머지 감정들은 소멸시키는 감정 조정 단계를If there are emotions that are set to not be output at the same time among the two or more detected emotions before performing the outputting of the emotions, only the emotion with the highest intensity among the emotions that cannot be output at the same time lasts and the remaining emotions are maintained. They've gone through the emotional adjustment phase 더 포함하는 것을 특징으로 하는 지능형 에이전트의 감정 생성 방법.The emotion generating method of the intelligent agent further comprising. 제 6 항에 있어서, 상기 감정 조정 단계에서 상기 존속되는 감정은,The method of claim 6, wherein the persisting emotion in the emotion adjustment step is: 상기 감정 조정 단계의 수행 전에 상기 존속되는 감정이 갖는 강도와 상기 나머지 감정들이 갖는 강도의 차이에 해당하는 강도를 갖는 것을 특징으로 하는 지능형 에이전트의 감정 생성 방법.And a strength corresponding to a difference between the strength of the remaining emotion and the strength of the remaining emotions before performing the emotion adjustment step. 삭제delete 삭제delete 삭제delete 제 5 항 내지 제 7 항 중 어느 한 항의 방법을 컴퓨터로 실행시킬 수 있는 컴퓨터 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a computer program capable of executing the method of any one of claims 5 to 7. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 지능형 에이전트의 감정 생성 기능을 갖는 지능형 에이전트 시스템으로서, 상기 지능형 에이전트 시스템의 외부 또는 내부의 자극을 동시에 둘 이상 감지하는 자극 감지부, 상기 외부 또는 내부의 자극에 대해 감정과 관련된 감정 자극을 매칭시킨 데이터베이스를 저장하는 저장부, 상기 데이터베이스를 참조하여 상기 감지된 자극을 상기 감정 자극으로 변환하는 감정 자극 변환부, 및 상기 변환된 감정 자극을 기초로 상기 지능형 에이전트의 감정을 생성하는 감정 생성부를 포함하는 상기 지능형 에이전트 시스템에 있어서,An intelligent agent system having an emotion generating function of an intelligent agent, comprising: a stimulus detector configured to simultaneously detect at least two external or internal stimuli of the intelligent agent system, and a database matching the emotional stimuli related to the emotion with respect to the external or internal stimulus And a storage unit configured to store a memory, an emotional stimulus converter configured to convert the detected stimulus into the emotional stimulus, and an emotion generator configured to generate an emotion of the intelligent agent based on the converted emotional stimulus. In the intelligent agent system, 상기 저장부는, 사용자에 의해 설정되거나 학습에 의해 기 형성되는 상기 지능형 에이전트의 성격(personality)을 더 저장하고,The storage unit further stores the personality of the intelligent agent set by the user or pre-formed by learning, 상기 감정 생성부는, 상기 지능형 에이전트의 성격 및 복수의 감정들 간의 관계 정보를 고려하는 수학식 1:
Figure 712009002980806-pat00021
에 의해 상기 지능형 에이전트의 감정(x)을 생성하고,
Equation 1: considering the relationship between the personality and the plurality of emotions of the intelligent agent, the emotion generating unit;
Figure 712009002980806-pat00021
To generate the emotion ( x ) of the intelligent agent,
상기 지능형 에이전트 시스템은,The intelligent agent system, 사용자로부터의 입력 또는 상기 시스템에 의한 자동 감지에 의해 상기 시스템의 내부 환경 및 외부 환경에 대한 환경 정보(C)를 획득하는 환경 정보 획득부; 및An environment information acquisition unit for obtaining environment information (C) of the internal environment and the external environment of the system by an input from a user or automatic detection by the system; And 상기 생성된 감정(x)의 강도를, 상기 획득된 환경 정보 및 상기 지능형 에이전트의 성격을 고려하는 수학식 2: CDx 에 의해 조정하여 강도가 조정된 감정(y)을 생성하는 강도 조정부를 더 포함하고,The intensity of the generated feeling (x), the obtained setting information, and Equation (2) considering the character of the intelligent agent: the intensity adjusting unit for generating an adjusted by y = CDx the strength adjustment emotional (y) Including more, 상기 환경 정보(C)는, 수학식 3: =β 에 의해 결정되고,The environmental information (C) is determined by Equation 3: C = β I , 상기 수학식 1에서, u는 상기 감정 자극, A는 상기 복수의 감정들 간의 관계 정보, B는 상기 지능형 에이전트의 성격, a는 상기 감정을 생성하는 속도를 결정하기 위한 파라미터를 각각 나타내고,In Equation 1, u denotes the emotion stimulus, A denotes relationship information between the plurality of emotions, B denotes a personality of the intelligent agent, and a denotes a parameter for determining a rate of generating the emotion, respectively. 상기 수학식 2에서, C는 상기 환경 정보, D는 상기 지능형 에이전트의 성격을 각각 나타내고, 그리고In Equation 2, C represents the environment information, D represents the nature of the intelligent agent, and 상기 수학식 3에서, β는 상기 획득된 환경 정보에 따라 정해지는 환경 지수, I는 단위 행렬을 각각 나타내는 것을 특징으로 하는 상기 지능형 에이전트 시스템.In Equation 3, β is an environmental index determined according to the obtained environmental information, and I represents an identity matrix, respectively.
KR1020070078146A 2007-08-03 2007-08-03 Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent KR100914309B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070078146A KR100914309B1 (en) 2007-08-03 2007-08-03 Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070078146A KR100914309B1 (en) 2007-08-03 2007-08-03 Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent

Publications (2)

Publication Number Publication Date
KR20090013968A KR20090013968A (en) 2009-02-06
KR100914309B1 true KR100914309B1 (en) 2009-08-27

Family

ID=40684187

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070078146A KR100914309B1 (en) 2007-08-03 2007-08-03 Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent

Country Status (1)

Country Link
KR (1) KR100914309B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240051517A (en) 2022-10-13 2024-04-22 주식회사 로아이젠 Cognitive-based service response system accompanied by emotions of intelligent robots and cognitive-based service response method using the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101678018B1 (en) 2010-01-22 2016-11-22 삼성전자주식회사 An affective model device and method for determining a behavior of the affective model device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020067699A (en) * 2000-10-13 2002-08-23 소니 가부시끼 가이샤 Robot device and behavior control method for robot device
JP2004090109A (en) 2002-08-29 2004-03-25 Sony Corp Robot device and interactive method for robot device
JP2004160630A (en) 2002-09-27 2004-06-10 Sony Corp Robot device and controlling method of the same
KR20070061054A (en) * 2005-12-09 2007-06-13 한국전자통신연구원 Method for generating emotions and emotions generating robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020067699A (en) * 2000-10-13 2002-08-23 소니 가부시끼 가이샤 Robot device and behavior control method for robot device
JP2004090109A (en) 2002-08-29 2004-03-25 Sony Corp Robot device and interactive method for robot device
JP2004160630A (en) 2002-09-27 2004-06-10 Sony Corp Robot device and controlling method of the same
KR20070061054A (en) * 2005-12-09 2007-06-13 한국전자통신연구원 Method for generating emotions and emotions generating robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240051517A (en) 2022-10-13 2024-04-22 주식회사 로아이젠 Cognitive-based service response system accompanied by emotions of intelligent robots and cognitive-based service response method using the same

Also Published As

Publication number Publication date
KR20090013968A (en) 2009-02-06

Similar Documents

Publication Publication Date Title
US10628714B2 (en) Entity-tracking computing system
KR100825719B1 (en) Method for generating emotions and emotions generating robot
US11010601B2 (en) Intelligent assistant device communicating non-verbal cues
US11670302B2 (en) Voice processing method and electronic device supporting the same
US8644990B2 (en) Apparatus and method for providing robot interaction services using interactive behavior model
US20240194201A1 (en) Electronic device and controlling method thereof
CN107622770A (en) voice awakening method and device
CN209364629U (en) Information processing unit
WO2000015396A1 (en) Robot apparatus, method of controlling robot apparatus, method of display, and medium
US20190019509A1 (en) Voice data processing method and electronic device for supporting the same
KR20190106902A (en) Method and apparatus for sound analysis
KR100914309B1 (en) Intelligent Agent System And Method Of Generating Emotion Of Intelligent Agent
US20200098356A1 (en) Electronic device and method for providing or obtaining data for training thereof
KR102499379B1 (en) Electronic device and method of obtaining feedback information thereof
KR100423788B1 (en) The system and method of a dialogue form voice and multi-sense recognition for a toy
US20220020368A1 (en) Output apparatus, output method and non-transitory computer-readable recording medium
KR20230047434A (en) Inferring assistant action(s) based on ambient sensing of the assistant device(s)
CN111919250B (en) Intelligent assistant device for conveying non-language prompt
KR102553509B1 (en) Method for monitoring emotion and behavior during conversations for user in need of protection
KR20200077936A (en) Electronic device for providing reaction response based on user status and operating method thereof
EP4378638A2 (en) Method for controlling a plurality of effectors of a robot
JP7425681B2 (en) Social ability generation device, social ability generation method, and communication robot
Hou et al. STMMI: A Self‐Tuning Multi‐Modal Fusion Algorithm Applied in Assist Robot Interaction
WO2020153146A1 (en) Information processing device and information processing method
KR20230033624A (en) Voice trigger based on acoustic space

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120710

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130628

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee