KR100503652B1 - Artificial creature system and educational software system using this - Google Patents

Artificial creature system and educational software system using this Download PDF

Info

Publication number
KR100503652B1
KR100503652B1 KR10-2003-0013223A KR20030013223A KR100503652B1 KR 100503652 B1 KR100503652 B1 KR 100503652B1 KR 20030013223 A KR20030013223 A KR 20030013223A KR 100503652 B1 KR100503652 B1 KR 100503652B1
Authority
KR
South Korea
Prior art keywords
virtual
emotion
behavior
learning
value
Prior art date
Application number
KR10-2003-0013223A
Other languages
Korean (ko)
Other versions
KR20040078322A (en
Inventor
김종환
김용재
김용덕
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR10-2003-0013223A priority Critical patent/KR100503652B1/en
Publication of KR20040078322A publication Critical patent/KR20040078322A/en
Application granted granted Critical
Publication of KR100503652B1 publication Critical patent/KR100503652B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Educational Technology (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Toys (AREA)

Abstract

본 발명은 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어 시스템에 관한 것이다. 본 발명에 의한 가상 생명체는 '감정', '동기', '항상성'을 갖고 스스로 행동을 결정하며 주위 환경에 적응할 수 있으며 다양한 사용자의 명령에 적합한 행동을 학습할 수 있는 능력이 있다. 특히, 본 발명의 가상 생명체 시스템을 사용한 교육용 소프트웨어 시스템은 가상 생명체를 육성하며 생물, 무생물의 특성을 배우는 시스템, 교육 과정의 학습량에 따라 가상 생명체를 육성할 수 있는 시스템, 그리고 다른 성격의 가상 생명체 교사에게 학습을 받을 수 있는 교육 시스템으로 구성되어 있다.The present invention relates to a virtual living system and an educational software system using the same. The virtual living organism according to the present invention has the 'emotion', 'motivation', 'alwaysness' and decides its own behavior, adapts to the surrounding environment, and has the ability to learn a behavior suitable for various user's commands. In particular, the educational software system using the virtual life system of the present invention is a system for fostering virtual life and learning the characteristics of living things and inanimate objects, a system for fostering virtual life according to the learning amount of the curriculum, and a virtual life teacher of another nature. It is composed of an educational system that can be learned.

Description

가상 생명체 시스템과 이를 이용한 교육용 소프트웨어 시스템{Artificial creature system and educational software system using this}Virtual creature system and educational software system using this

본 발명은 교육용 소프트웨어 시스템에 가상 생명체를 이용하는 것과 관련된 것이다. 이를 위해서 먼저 새로운 가상 생명체 구조를 만들었고 사용자의 다양한 명령에 대해서 학습을 할 수 있는 가상 생명체의 학습 구조를 제안한다. 그리고 학습자가 제안된 가상 생명체와 가상 생명체의 학습 구조를 이용하여 학습을 받을 수 있는 교육용 소프트웨어 시스템을 구성하였다. 교육용 소프트웨어 시스템은 가상 생명체를 육성하며 생물, 무생물의 특성을 배우는 시스템, 학습량에 따라 가상 생명체를 육성할 수 있는 시스템, 다른 성격의 가상 생명체 교사에게 학습을 받는 시스템으로 이루어져 있다.The present invention relates to the use of virtual life in educational software systems. To this end, we first created a new virtual creature structure and propose a learning structure of a virtual creature that can learn various commands of users. In addition, we constructed an educational software system that enables learners to learn using the proposed virtual life and the learning structure of virtual life. The educational software system consists of a system for fostering virtual creatures, a system for learning the characteristics of living things and inanimate objects, a system for fostering virtual creatures according to the amount of learning, and a system for learning from virtual creature teachers of different characteristics.

일반적인 가상 생명체의 구성 개념도는 도 1과 같이, 외부 환경(10)을 인식하는 인식부(11), 가상 생명체의 감정, 동기와 같은 것을 나타내는 내부 상태부 (12), 외부 정보와 내부 상태를 이용하여 가상 생명체의 행동을 결정하는 행동 결정부(13), 외부 상태에 따라 가상 생명체를 적응시키는 학습부(14), 그리고 실제로 가상 생명체가 행동을 구현하는 행동 구현부(15)로 이루어져 있다.As shown in FIG. 1, a conceptual diagram of a general virtual creature uses a recognition unit 11 that recognizes the external environment 10, an internal state unit 12 that represents the emotions and motivations of the virtual creature, and external information and an internal state. Thus, it consists of a behavior determination unit 13 for determining the behavior of the virtual creature, a learning unit 14 for adapting the virtual creature according to the external state, and a behavior implementation unit 15 for actually implementing the behavior.

가상 생명체나 엔터테인먼트 로봇의 경우 사용자와의 상호작용에 의해서 가상 생명체가 진짜 생명체라는 느낌을 주는 것이 중요하다. 이러한 것을 위해서는 가상 생명체는 상황에 적절한 행동을 스스로 선택할 수 있어야 하고 또한 사용자의 어떠한 명령에 대해서도 반복 훈련을 통해 알맞은 행동을 할 수 있도록 학습 될 수 있어야 할 것이다.In the case of a virtual creature or an entertainment robot, it is important to give a feeling that the virtual creature is a real creature by interaction with the user. For this to happen, the virtual creature must be able to select the behavior appropriate for the situation by itself and be able to learn to perform the proper behavior through repetitive training for any instruction of the user.

하지만 종래 가상 생명체의 대부분의 음성 명령 학습은 단순히 정해진 명령 - 행동 쌍에 사용자의 음성을 인식시켜 가상 생명체가 반응하는 구조를 가지고 있다. 도 2는 이러한 일반적인 음성 인식에 의존하는 구조를 나타낸 것이다. 이 경우 미리 정해진 명령(22) - 행동(21) 규칙에 있는 것만 학습을 하며, 여기서 학습이란 단순히 음성인식(23) 과정을 말하는 것이다. 이러한 정해진 규칙 안에서의 학습은 가상 생명체나 엔터테인먼트용 로봇의 다양한 행동 구현을 가로막고 있으며 단순한 음성 인식에 그치고 있을 뿐 진정한 로봇의 학습을 통한 성장이라고 보기 어려운 단점이 있다. 또한 주어진 명령에 행동을 연결시키는 학습을 구현하는 방법에서 보통 수십 가지에 이르는 행동을 하나 하나씩 검색해가며 학습을 시킨다는 것은 시간상의 문제 뿐 아니라 학습이 될 확률도 너무 낮은 문제가 있었다.However, most voice command learning of the conventional virtual life has a structure in which the virtual life responds by simply recognizing the user's voice in a predetermined command-action pair. 2 shows a structure that depends on such general speech recognition. In this case, only the instruction in the predetermined command 22-action 21 is learned, where learning simply refers to the process of speech recognition (23). Learning within these rules prevents the implementation of various behaviors of virtual creatures or entertainment robots, and is not only simple speech recognition but also difficult to be seen as growth through real robot learning. In addition, learning how to implement learning that connects behavior to a given command, by searching for dozens of behaviors, one by one, was not only a matter of time, but also a very low probability of learning.

또한 이들을 교육용 목적에서 사용하는 교육용 소프트웨어의 경우에도 여러 가지 문제가 있었다. 보통 교육용 소프트웨어의 경우는 단순하게 학생들에게 문제를 제출하고 풀게 하는 고전적인 방법을 사용하여 왔다. 최근에는 교육 도우미로써 아바타 또는 단순한 그래픽 캐릭터를 이용하여 교육을 돕는 방식을 많이 사용하고 있는 추세이지만, 아바타 또는 그래픽 캐릭터가 미리 프로그램된 대로 단순히 보여지기만 하는 것들이기 때문에 이런 방법들은 다양한 교육 장면을 연출하기 힘들고 모든 학생들에게 똑같은 것을 보여주고 교육해 줄 수밖에 없었다. 결과적으로 다양하고 좀 더 인터렉티브한 교육에 한계가 있었다.There were also various problems with educational software that use them for educational purposes. In general, educational software has simply used the classic method of asking students to submit and solve problems. Recently, as a training assistant, a lot of methods are used to help education using avatars or simple graphic characters, but since the avatars or graphic characters are simply shown as pre-programmed, these methods create various educational scenes. It was hard and forced to show and educate all the same. As a result, there was a limit to diverse and more interactive education.

따라서 본 발명은 상기한 바와 같은 종래의 문제점을 해결하기 위한 것으로서, 본 발명은 새로운 가상 생명체 구조를 제안하고 사용자의 명령을 학습할 수 있는 효율적인 구조를 제시함과 더불어 교육용 소프트웨어에 인공 감정과 가상 성격을 갖는 본 발명의 가상 생명체를 이용하는 것을 그 목적으로 한다. Therefore, the present invention is to solve the conventional problems as described above, the present invention proposes a new virtual life structure and proposes an efficient structure that can learn the user's command, as well as artificial emotion and virtual personality in educational software It is an object of the present invention to use the virtual life of the present invention.

상기한 본 발명의 목적을 달성하기 위한 기술적 사상으로써 본 발명에 의하면, 1) 가상 생명체는 일반적인 아바타나 단순한 그래픽 캐릭터와 달리 스스로의 감정, 동기, 항상성에 따라서 다양한 행동을 할 수 있으며, 각각의 감정, 동기, 항상성의 특성을 조절해 줌으로써 그 가상 생명체만의 고유한 가상 성격을 만들어 줄 수도 있다. 또한 스스로 내부 상태와 외부환경에 의해서 행동을 확률적으로 선택하는 방식과 동물의 본능을 모사하여 행동을 확정적으로 선택하는 방식이 이를 보완하여 다양한 행동을 구현할 수 있다. 게다가 학습 대상이 되는 행동을 유사 행동끼리 집합으로 구성하고 행동의 결과를 강화 학습하여 사용자의 임의의 명령에 대해서도 수십 여 가지의 행동 중에서 원하는 행동을 효율적으로 학습시킬 수 있다.According to the present invention as a technical idea for achieving the above object of the present invention, 1) virtual creatures can perform a variety of actions according to their emotions, motives, homeostasis, unlike ordinary avatars or simple graphic characters, each emotion By controlling the traits of consciousness, motivation, and homeostasis, they can also create their own virtual personality. In addition, the method of probabilistically selecting behaviors by internal state and external environment and the method of decisively selecting behaviors by mimicking the instincts of animals can implement various behaviors. In addition, it is possible to efficiently learn the desired behavior among dozens of behaviors for any command of the user by constructing a set of similar behaviors among similar behaviors and reinforcing the result of the behavior.

2) 또한, 제시된 가상 생명체를 이용한 교육용 소프트웨어 시스템은 다음과 같은 것들로 이루어져 있다. 학습자가 각각의 생물, 무생물의 가상 성격을 갖는 가상 생명체를 육성하며 직접 그 대상을 접하지 않더라도, 그 가상 생명체를 육성함으로써 평소에 접하기 힘든 생물, 무생물의 특성을 배울 수 있다.2) Also, the educational software system using the proposed virtual life consists of the following. Even if a learner nurtures a virtual creature having the virtual personality of each creature or inanimate object and does not directly touch the object, the learner can learn the characteristics of living creatures and inanimate creatures that are difficult to meet.

3) 또한, 학습자의 교육 과정과 병행해 정해진 학습량을 만족했을 때만 가상 생명체를 육성할 수 있어서 학습자의 학습 의욕을 높일 수 있다. 그리고, 천편일률적인 교육용 도우미, 캐릭터와 달리 각각의 고유한 가상 성격을 갖는 가상 생명체를 통하여 다양한 성격, 개성의 교육용 가상 교사에게 교육을 받을 수 있다.3) In addition, the virtual creature can be nurtured only when the predetermined amount of learning is satisfied in parallel with the learner's curriculum, thereby increasing the learner's motivation to learn. And, unlike the unilateral educational helper, the character can be trained by the educational virtual teacher of various personalities, personalities through virtual life having their own virtual personality.

이하, 본 발명의 실시예에 대한 구성 및 그 작용을 첨부한 도면을 참조하면서 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, the configuration and operation of the embodiment of the present invention will be described in detail.

본 발명에서 제안된 가상 생명체의 구조는 도 3과 같이 이루어져 있다. 가상 생명체 구조는 크게 인식 시스템(Perception System)(32a, 32b, 32c), 내부 상태 시스템(Internal Status System)(33), 행동 시스템(Behavior System)(34a, 34b, 34c), 학습 시스템(Learning System)(35a, 35b), 그리고 운동 시스템(Motor System)(36)으로 이루어져 있다. 각 부분의 기능은 다음과 같다.The structure of the virtual creature proposed in the present invention is configured as shown in FIG. 3. The virtual life structure is largely composed of a perception system 32a, 32b, 32c, an internal status system 33, a behavior system 34a, 34b, 34c, a learning system. 35a, 35b, and a motor system 36. The functions of each part are as follows.

1) 인식 시스템1) recognition system

인식 시스템은 가상 생명체의 내부 상태 변화와 행동 선택, 학습에 사용되는 센서 정보(32a)를 입력받고, 전처리하는 부분(32b)이다. 또한 센서 우선도에 따라 현재 입력되는 많은 정보들 중에서 관심을 기울이는 대상을 선택하여(32c) 행동 선택을 할 때 이용한다. 이중 전처리하는 부분을 부호화 시스템(Symbolization system)이라 한다(32b). 이것은 가상 생명체의 외부와 내부로부터 입력되는 센서 정보를 의미 있는 정보로 변화시켜, 내부 상태와 행동을 변화시킬 때 사용한다. 입력된 정보는 수학식 1과 같이 boolean 형태의 벡터로 표현되는 정보로 변화되어 사용된다.The recognition system is a part 32b that receives and preprocesses sensor information 32a used for changing the internal state of a living creature, selecting a behavior, and learning. In addition, it selects an object of interest (32c) from among a lot of information currently input according to the sensor priority and is used to select an action. The double preprocessing part is called a symbolization system (32b). It converts sensor information input from outside and inside of virtual life into meaningful information and is used to change internal state and behavior. The input information is converted into information expressed as a boolean vector as in Equation 1 and used.

여기에 추가하여 좀 더 생명체다운 부호화 시스템을 모사하기 위하여 '순응'이라는 개념을 도입하였다. 순응이란 강한 자극이 지속될 때는 감수성이 둔해지는 현상을 말한다. 그 좋은 예는 시각에서 볼 수 있다. 밝은 곳에 장시간 있으면 시력이 저하되어 약간 어두운 곳으로 가면 잘 보이지 않으나, 장시간 있으면 망막의 감수성이 상승되어 점차 물체가 잘 보이게 된다. 이러한 순응은 동일한 자극이 연속해서 들어올 경우 민감도를 변화시키는 방법으로 구현되었다.In addition, the concept of 'compliance' was introduced to simulate a more lifelike encoding system. Adaptation refers to a phenomenon in which sensitivity is slowed down when a strong stimulus persists. A good example can be seen from the perspective. If you stay in a bright place for a long time, your vision will deteriorate. If you go to a dark place, you will not see it well. This adaptation was implemented by changing the sensitivity of the same stimulus in succession.

도 4와 같이 자극(41)이 연속해서 들어올 경우 그 센서 자극의 민감도(42)가 점점 줄어들어 크기가 최고 값인 1에서 0까지 변화한다. 자극이 일정 기간 들어오지 않으면 점차 원래의 민감도로 회복된다. 민감도는 각각의 자극마다 따로 설정이 되어 있으며 변화하는 값들도 자극마다 다르게 설정할 수 있다. 도 4의 순응을 도입한 가상 생명체의 알고리즘에서 보듯이, 자극이 연속해서 들어올 경우 샘플링 시간마다 감소정도 DT_DECAY(42a) 만큼씩 줄어들며 순응하는데 필요한 시간 T_IGNORE(43a) 시간 동안은 자극이 멈춘 후에도 민감도는 복구되지 않는다. T_IGNORE 시간 이상 자극이 없을 경우 복구정도 DT_RECOVER(42b) 만큼씩 점차 복구된다. 각 자극의 민감도는 수학식 2와 같은 민감도 벡터로 나타낼 수 있다. 각 원소들은 0에서 1사이의 값을 가진다.When the stimulus 41 continuously enters as shown in FIG. 4, the sensitivity 42 of the sensor stimulus gradually decreases, and the magnitude thereof changes from 1 to 0, which is the maximum value. If the stimulus does not enter for a period of time, it gradually returns to its original sensitivity. Sensitivity is set separately for each stimulus, and changing values can be set differently for each stimulus. As shown in the algorithm of the virtual creature that adopts the acclimation of FIG. It is not recovered. If there is no stimulus for more than T_IGNORE time, the recovery degree is gradually restored by DT_RECOVER (42b). The sensitivity of each stimulus may be represented by a sensitivity vector as shown in Equation 2. Each element has a value between 0 and 1.

자극 벡터 식 X와 민감도 벡터 식 P를 이용하여 수학식 3의 부호화 벡터 S를 만들 수 있다. 이 벡터가 부호화 시스템의 최종 출력값으로 내부 상태 시스템의 입력으로 이용된다.A coding vector S of Equation 3 may be generated using the stimulus vector equation X and the sensitivity vector equation P. This vector is used as the input to the internal state system as the final output of the coding system.

관심선택기(32c)는 인공 생명체에게 들어오고 있는 정보들 중에서 현재 관심을 기울이고 있는 대상을 정하고, 정해진 대상에 적합하지 않는 행동을 제외시키는 신호를 만들어 주는 부분이다. 관심 대상은 부호화 시스템에서 사용되는 부호화 벡터의 모든 값이 될 수 있다. 부호화 벡터 S에 우선도를 정해주어서, 관심 대상을 정하고 중요하지 않은 입력이 들어오더라도 쉽게 관심 대상이 바뀌지 않도록 하였다. 부호화 벡터 S의 값들 si의 우선도를 pri(s i )라 하면 선택된 관심 대상 si는 수학식 4와 같이 구해지며, 입력들 중에서 가장 큰 우선도를 갖는 관심대상이 선택된다.The interest selector 32c is a part that selects a target that is currently paying attention from information coming into the artificial life, and creates a signal for excluding an action that is not suitable for the predetermined target. The object of interest may be all values of the encoding vector used in the encoding system. Priority was assigned to the coding vector S so that the target of interest was determined and the target of interest was not easily changed even if an unimportant input came in. If the priority of the values s i of the encoding vector S is pri ( s i ), the selected interest s i is obtained as shown in Equation 4, and the interest having the highest priority among the inputs is selected.

2) 내부 상태 시스템2) internal state machine

내부 상태 시스템(33)은 '동기'(33a), '항상성'(33b), '감정'(33c), 이 세 개의 하부 시스템으로 구성되었다.The internal state system 33 is composed of three subsystems: 'synchronous' 33a, 'always' 33b, and 'emotion' 33c.

동기(Motivation system)는 인공 생명체의 주 행동을 결정하게 되는 원동력으로 호기심, 친근감, 지루함, 회피욕, 지배욕, 소유욕 등이 그 예가 될 수 있다. i를 동기 상태의 개수, mi(t)는 시간 t에서의 동기 값, 는 동기 변화 gain, S를 부호화 벡터, 는 S와 i번 째 동기 mi(t)와의 연결 강도라 하면, 동기 상태의 갱신식은 수학식 5와 같다.Motivation system is the driving force that determines the main behavior of artificial life. For example, curiosity, friendliness, boredom, avoidance, domination, possessive desire. i is the number of sync states, m i (t) is the sync value at time t, Is a synchronous change gain, S is an encoding vector, Is the connection strength between the S and the i-th synchronization m i (t), the update expression of the synchronization state is shown in Equation (5).

여기서 는 동기의 평균값으로 정의하였다. 동기의 평균값이란 입력이 없을 경우 해당 동기 상태 값이 수렴하는 값을 나타내며, 평균값이 클수록 평소에 해당 동기를 해결하기 위한 욕구가 큰 것을 의미한다. 는 외부 자극에 대해서 이 욕구가 얼마나 오래 유지되는지를 나타낸다. 이 두 값은 해당하는 동기에 대한 인공 생명체의 특성을 나타내고 있고, 인공 생명체의 성격의 일부를 구성한다. 부호화 벡터 S와의 연결 강도 은 센서 입력 값이 인공 생명체의 내부 상태에 어떤 영향을 미치는지를 나타낸다. 즉 가중치 값들에 의해 입력이 동기를 충족시키는지 증폭시키는지 혹은 입력과 무관한 것인지를 알 수 있다. 이 때 후술하는 4)에서 설명될 선호도 학습 부분을 이용하여 의 값을 변화시킴으로써 인공 생명체의 기호를 변화시키고 학습시킬 수 있다. 동기 시스템을 이루는 각각의 동기 상태 값들은 수학식 6과 같이 벡터로 정리된다.here Is defined as the mean value of motives. If there is no input, the average value of the synchronization indicates a value where the corresponding synchronization state value converges, and the larger the average value, the greater the desire to solve the synchronization is. Indicates how long this desire lasts for external stimuli. These two values represent the characteristics of the artificial creature with respect to the corresponding motives and form part of the character of the artificial creature. Connection strength with coding vector S Indicates how the sensor input value affects the internal state of artificial life. That is, the weight values indicate whether the input satisfies the synchronization, the amplification, or the input. At this time, by using the preference learning portion to be described in 4) By changing the value of, we can change and learn the signs of artificial life. Each sync state value constituting the sync system is arranged in a vector as shown in Equation (6).

항상성(Homeostasis system)은 인공 생명체의 생존을 유지시키는 욕구로 예를 들면, 피곤함이나 졸림 등이 있을 수 있다. 여기서 j를 항상성 상태의 개수, 를 시간 t에서의 항상성 값, 는 항상성 변화 gain, 를 부호화 벡터 S와 j번째 항상성 와의 연결 강도라 하면, 항상성 상태의 갱신 식은 다음과 같다.Homeostasis system is the desire to maintain the survival of artificial life, for example, may be tired or sleepy. Where j is the number of homeostatic states, Is the homeostasis value at time t, Is the homeostatic change gain, Is the coding vector S and the j th homeostasis Suppose the connection strength with, the update equation of the homeostatic state is as follows.

부호화 벡터 S와 연결 강도 은 센서 입력 값이 인공 생명체의 내부 상태에 어떤 영향을 미치는지를 나타낸다. 즉 가중치 값들에 의해 입력이 항상성을 증폭시키는지 감소시키는지 혹은 입력과 무관한 것인지를 알 수 있다. 이 항상성 상태 시스템은 다른 두 내부 상태와는 달리 학습이 되지 않는다. 또한, 항상성 시스템의 출력 값들은 다음과 같이 벡터로 정리되어 사용된다.Coupling Strength with Coding Vector S Indicates how the sensor input value affects the internal state of artificial life. That is, the weight values indicate whether the input amplifies or decreases the homeostasis or is independent of the input. This homeostatic state system is not trained like the other two internal states. In addition, the output values of the homeostasis system are arranged in a vector as follows.

마지막으로, 감정(Emotion system)은 가상 생명체의 감정 상태를 표현하는 것으로, 기쁨, 슬픔, 화남, 무서움 등이 있을 수 있다. 감정 상태는 가상 생명체의 행동을 선택하는데 있어서 간접적으로 영향을 주며, 얼굴 표정을 나타내는데 직접적으로 사용된다. 3)에서 설명할 행동 선택기에서 행동을 선택할 때, 동기와 항상성에 의해서 일차적으로 행동을 선택한 후에, 감정을 고려하여 최종적으로 행동을 선택하게 된다. 또한 감정은 인공 생명체의 얼굴 표정을 나타내는데 사용된다. 감정 모델의 갱신식도 다른 두 내부 상태와 같이 정의된다. k를 감정 상태의 개수, 를 시간 t에서의 감정 값, 를 감정 변화 gain, S는 부호화 벡터, 는 부호화 벡터 S와 k번째 감정 와의 연결 강도라 하면 다음과 같이 정리할 수 있다.Finally, the emotion (Emotion system) expresses the emotional state of the virtual life, there may be joy, sadness, anger, fear. The emotional state indirectly influences the choice of the behavior of the virtual creature and is used directly to express facial expressions. When selecting an action in the action selector described in 3), after selecting the action primarily by motivation and homeostasis, the action is finally selected in consideration of emotion. Emotions are also used to represent facial expressions of artificial life. The renewal expression of the emotional model is defined like the other two internal states. k is the number of emotional states, Is the emotional value at time t, To change the emotion gain, S is the encoding vector, Is the vector S and the kth emotion The connection strength with and can be summarized as follows.

여기서 는 감정의 평균값으로 정의하였다. 감정의 평균값이란 입력이 없을 경우 해당 감정 상태 값이 수렴하는 값을 나타내며, 외부 자극에 대해서 이 감정이 얼마나 오래 유지되는지를 나타낸다. 이 두 값은 해당하는 감정에 대한 인공 생명체의 특성을 나타내고 있고, 성격의 일부를 구성한다. S와의 연결 강도 은 센서 입력 값이 인공 생명체의 내부 상태에 어떤 영향을 미치는지를 나타낸다. 즉 가중치 값들에 의해 입력이 해당 감정을 증가시키는지 감소시키는지 결정된다. 이 때 뒤에서 설명될 선호도 학습을 이용하여 의 값을 변화시킴으로써 인공 생명체의 기호를 변화시키고 감정이 변하는 영향을 조절할 수 있다. 변화하는 감정 상태 시스템의 각 감정들은 수학식 10과 같이 벡터로 정리된다.here Is defined as the mean value of emotion. The average value of emotion refers to the value that the emotional state value converges when there is no input. It indicates how long this feeling lasts for external stimuli. These two values represent the characteristics of artificial life for the corresponding emotion and form part of the personality. Connection strength with S Indicates how the sensor input value affects the internal state of artificial life. That is, the weight values determine whether the input increases or decreases the emotion. In this case, we will use the preference learning Changing the value of can change the sign of artificial life and control the effects of changing emotions. Each emotion of the changing emotional state system is arranged in a vector as shown in Equation (10).

그러나, 감정을 각각의 상태로 나누어 모델링 하였을 때 감정이 갑자기 변하는 문제가 발생할 수 있다. 도 5에서와 같이, 두 감정값 사이의 차이가 작고 감정값의 변화가 클 때, 점유 감정이 해당하는 두 감정 사이에서 진동하는 경우가 발생 할 수 있다. 도 5의 왼쪽(51)에서는 m1의 값이 100이고 m3의 값이 95이므로 이 때 점유 감정은 m1이 된다. 하지만 오른쪽(52) 상황와 같이 m1이 짧은 시간 안에 90으로 바뀌게 되면 점유 감정이 m3로 바뀌게 되고, 이런 상황이 반복된다면 점유 감정은 두 감정 사이에서 진동하게 될 것이다.However, when modeling emotions by dividing them into states, emotions may suddenly change. As shown in FIG. 5, when the difference between the two emotion values is small and the change in the emotion value is large, the occupied emotion may vibrate between two corresponding emotions. In the left 51 of FIG. 5, since the value of m 1 is 100 and the value of m 3 is 95, the occupancy emotion is m 1 . However, if m 1 is changed to 90 in a short time, as in the right (52) situation, the occupied emotion is changed to m 3 , and if this situation is repeated, the occupied emotion will vibrate between the two emotions.

또한 감정값들의 차이가 미묘할 때 조금이라도 높은 감정 상태를 점유 감정으로 보는 것도 문제가 있다. 예를 들어, '기쁨'의 값이 90이고 나머지 감정값들이 0일때 점유 감정은 '기쁨'이 된다. 하지만, '기쁨'의 값이 100이고 나머지 다른 감정의 값이 110이라면 90이었을 때 점유 감정이었던 '기쁨'이 더 높은 값을 가지고 있음에도 불구하고 점유 감정이 되지 못하는 문제가 발생하게 된다.In addition, there is a problem in that even when the difference between emotion values is subtle, it is a problem to see the emotional state as high as a little. For example, when the value of 'joy' is 90 and the remaining emotion values are 0, the occupied emotion is 'joy'. However, if the value of 'joy' is 100 and the value of the other emotions is 110, the problem of not being occupied emotion occurs even though 'joy', which was an occupied emotion at 90, has a higher value.

이런 문제를 해결하기 위해, 감정값들의 차이가 정의된 '점유 감정 결정 한계값' 보다 작으면 점유 감정을 E내에서 찾지 않고 으로 표시되는 '평상심' 상태라고 가정한다. 도 6은 이러한 알고리즘을 설명하고 있다. 감정 상태를 이런 구조로 확장함으로써 도 7에서 보는 것과 같이 e1에서 e2로 갑자기 감정이 변하는 상황(71)을 로 변하게 할 수 있다. 즉 '기쁨' → '분노'로 갑자기 변하지 않고, '기쁨' →'평상심' →'분노'로 변하게 되어 좀 더 자연스럽게 감정을 변화시킬 수 있다. 감정 구조가 수정됨으로써 수학식 10의 감정 벡터는 이 추가되어 수학식 11과 같이 확장된다.To solve this problem, the 'occupation emotion determination threshold', in which the difference in emotion values is defined, is defined. Less than does not find occupied emotion in E Assume that the 'normal' state is indicated by. Figure 6 illustrates this algorithm. By extending the emotional state to this structure, as shown in FIG. 7, a situation 71 in which the emotion suddenly changes from e 1 to e 2 is solved. Can be changed to In other words, it does not suddenly turn into 'joy' → 'anger', but instead of 'joy' → 'normality' → 'anger', the emotion can be changed more naturally. By modifying the emotion structure, the emotion vector in Equation 10 Is added and expanded as shown in Equation (11).

3) 행동 시스템(Behavior System)3) Behavior System

행동 시스템이 행동을 만들어 내는 방식에는 두 가지 방법이 있다. 인식 시스템과 내부 상태 시스템으로부터 입력을 받아 들여 이를 바탕으로 확률적으로 행동을 선택을 선택하는 방법이 있으며, 경우에 따라 원하는 조건이 만족되면 적당한 행동하는 확정적인 행동 선택 방법이 있다. 이런 확률적인 방법과 확정적인 방법이 서로 보완적인 관계에서 행동 선택을 해준다. 행동 시스템은 행동 선택기 (Behavior Selector)(34a)와 본능 행동 논리(Inherent Behavior Logic)(34c)의 하부 시스템으로 구성되어 있다.There are two ways in which the behavior system produces behavior. There is a method of selecting an action probabilistically based on the input from a recognition system and an internal state system, and in some cases, there is a method of deciding an action to select an appropriate action when a desired condition is satisfied. These probabilistic and deterministic methods make action choices in a complementary relationship. The behavior system consists of a subsystem of a behavior selector 34a and an inherent behavior logic 34c.

행동 선택기는 내부 상태 시스템에서 구해진 동기 M, 항상성 H의 값을 이용하여 behavior를 확률적으로 선택한다. 선택은 확률적으로 이루어지며 도 8과 같은 알고리즘으로 구성되어 있다. 먼저 각 behavior에 대한 임시 투표값(81)은 수학식 12과 같이 구한다.The behavior selector probabilistically selects a behavior using values of motivation M and homeostasis H obtained from an internal state system. The selection is probabilistic and consists of an algorithm as shown in FIG. First, the provisional vote value 81 for each behavior is obtained as shown in Equation 12.

상기의 수학식 12와 같이, 동기 M, 항상성 H의 값과 동기, 항상성이 행동에 영향을 주는 가중치값 의 값을 이용하여 행동이 선택될 투표값 를 1차적으로 계산한다. 내부 상태 시스템의 각각의 상태값만을 가지고 확률적으로 구한 행동을 수행하면, 가상 생명체는 주변 상황과는 관계없이 자신의 상태만을 반영하여 행동하게 되므로 무의미한 행동을 하게 된다. 내부 행동과 외부 입력을 합께 고려하여 행동을 선택하기 위하여 다양한 차단 방법(masking)(34b)을 이용한다. 차단에는 네 가지가 있으며 각각 '관심 대상에 의한 차단(82)', '음성 명령에 의한 차단(83)', '감정에 의한 차단(84)' 그리고, '본능 행동에 따른 차단(85)'이 구현되어 있다.As in Equation 12, the values of the synchronization M, the homeostasis H, and the weight values of the synchronization, the homeostasis, affect the behavior. The vote value for which the action will be selected using the value of. Calculate first. If the probabilistic behavior is performed using only the state values of the internal state system, the virtual creature acts only its own state irrespective of its surroundings and thus makes sense. Various masking 34b is used to select an action by considering both internal and external inputs. There are four kinds of blocking, respectively, 'Block by Interest (82)', 'Block by Voice Command (83)', 'Block by Emotion (84)', and 'Block by Instinct Behavior (85)' Is implemented.

예를 들면, 현재 가상 생명체가 공을 인식하고 있지 않다면 공과 관련된 행동은 '관심 대상에 의한 차단 방법'에 의해서, 차단되어서 발현이 되지 않게 해야 하며, 음성 명령을 인식하면, '음성 명령에 의한 차단 방법'을 사용하여 음성 명령 이외의 행동들을 차단한다. 또한, 현재 감정 상태가 슬픔이라면, 기쁠 때 하는 행동들을 '감정 상태에 따른 차단 방법'을 사용하여 차단하여 인공 생명체가 감정 상태에 어울리지 않는 행동을 하는 것을 막아 준다.For example, if the virtual creature is not currently aware of the ball, the behavior related to the ball should be blocked by the 'blocking method by the object of interest' so that it cannot be expressed.If the voice command is recognized, 'blocking by the voice command' How to block actions other than voice commands. In addition, if the current emotional state is sad, blocking the behaviors that are happy when using the 'blocking method according to the emotional state' to prevent the artificial life to behave in an emotional state.

관심도 차단 행렬 는 관심 선택기에서 구한 관심 대상 에 의해서 결정된다. 각각의 관심 대상 f은 행동들에 대한 차단값을 가지고 있으며, 관심도 차단 행렬은 수학식 13과 같이 표현된다.Interest blocking matrix Is the object of interest obtained from the interest selector. Determined by Each object of interest f has a blocking value for actions, and the interest blocking matrix is expressed by Equation 13.

음성 명령 차단 행렬 는 음성 학습에서 음성 명령으로 정의된 에 의해서 결정된다. 각각의 x개의 음성 명령 는 행동들의 투표값에 영향을 주는 차단값을 가지고 있어서 음성 명령 결과로 행동을 선택할 수 있도록 해준다.Voice command blocking matrix Is defined as a voice command in voice learning. Determined by X voice commands each Has a blocking value that affects the vote value of the actions, allowing the action to be selected as a result of the voice command.

감정 상태에 따른 차단 행렬 는 현재 점유 감정에 따라 수행될 수 없는 행동을 차단시켜 준다. 현재의 점유 감정 는 행동들의 투표값에 영향을 주는 차단값을 가지고 있어서 현재 감정 상태에 어울리지 않거나, 수행하면 안되는 행동의 투표값을 감소시켜 준다.Blocking matrix based on emotional state Blocks actions that cannot be performed according to current emotions. Current occupancy feelings Has a blocking value that affects the ballot value of actions, which reduces the ballot value of actions that do not fit into the current emotional state or should not be performed.

본능 행동에 따른 차단 행렬 는 현재 본능 행동에 따라 수행될 수 없는 행동을 차단시켜 준다. 현재의 본능 행동은 행동들의 투표값에 영향을 주는 차단값을 가지고 있어서 본능 행동이 발현되어 현재 행동 수행에 영향을 주어야 할 때, 투표값을 조절해 주게 된다.Blocking matrices according to instinct behaviors block actions that cannot be performed according to current instinct behaviors. The current instinct behavior has a blocking value that affects the vote value of the actions, so that when the instinct behavior is manifested and affects the performance of the current action, it controls the vote value.

수학식 13,14,15,16 네가지 차단 행렬을 고려하여 마지막으로 투표값 V를 계산한다.Finally, the voting value V is calculated by considering four blocking matrices.

각 행동들에 대한 투표값 벡터 V가 계산되고 나면 마지막으로 이것을 이용하여 행동이 수행될 확률을 구하게 된다.Once the vote vector V for each action is calculated, it is finally used to determine the probability that the action will be performed.

마지막으로 행동는 수학식 16에서 구해지는 행동 선택 활률 에 따라서 행동이 선택되게 된다. 행동 선택 확률과 행동의 조건은 다음과 같다.Finally act Is the action selection rate obtained from Equation 16 The action is chosen accordingly. The probability of action selection and the conditions of action are as follows.

행동의 전환은 '행동 수행 종료 신호(end-signal)', '비상 호출(urgent flag)', '더 높은 우선도의 관심 대상 발견', 그리고 '확률적인 전환'이라는 네 가지 원인에 의해 이루어진다.Changes in behavior are caused by four causes: end-signal, urgent flag, higher priority interest discovery, and probabilistic transition.

첫 번째로 모터 시스템에서 수행 종료 신호가 들어올 때, 즉 해당 행동이 종료되었을 때 다른 행동을 선택하여 수행하게 된다. 두 번째는 본능 행동 선택기에서 비상 호출이 들어올 때이다. 현재 행동을 수행하고 있는 도중이라도 벽을 발견하거나, 장애물같은 것을 발견하게 되면 센서에서 비상 호출을 하여 행동을 바꾸어 로봇이 급한 환경 변화에 적절하게 대응한다. 세 번째로 더 높은 우선도의 관심 대상이 발견되었을 경우 인식된 관심 대상에 따라 적절한 행동으로 전환한다. 마지막으로 확률적인 전환이 있다. '쉬기' 행동 등의 종료 시간이 정해져 있지 않은 행동이 수행되고 있을 경우 확률에 따라 다른 행동으로 전환해 주어야지 그렇지 않다면 다른 외부의 자극이 없을 경우 계속 같은 행동을 보여주게 되어 재미있고, 다양한 행동을 보여줄 수가 없게 된다.First, when the execution end signal comes from the motor system, that is, when the action is completed, another action is selected and performed. The second is when an emergency call comes in from the instinct behavior selector. If you find a wall or find an obstacle, even if you are currently performing an action, the sensor makes an emergency call to change the behavior so that the robot responds to the urgent environment change. Third, if a higher priority interest is found, then the appropriate action is converted according to the perceived interest. Finally there is a stochastic shift. If there is an action that does not have an end time such as a 'rest' action, you should switch to another action according to the probability. Otherwise, if there is no external stimulus, it will continue to show the same action. I can't show it.

외부 입력과 내부 상태를 함께 고려하여 행동을 선택하는 행동 선택기로 구현되는 행동에는 한계가 존재한다. 따라서 내부 상태와는 무관하게 외부의 입력에 의해서만 확정적으로 행동을 선택하는 본능 행동 논리(34c)가 행동 선택기를 보완해준다. 본능 행동 선택 논리는 동물의 본능을 모델링한 것으로 벽이나 절벽같은 장애물을 발견했을 때 즉각적으로 피하는 행동을 발현하는 역할을 해준다.There is a limit to the behavior implemented by the behavior selector that selects the behavior by considering both external input and internal state. Thus, the instinct behavior logic 34c, which selects behavior decisively only by external input, independent of the internal state, complements the behavior selector. Instinct behavior selection logic models the animal's instincts and expresses immediate avoiding behavior when an obstacle such as a wall or cliff is found.

본능 행동 논리는 가상 생명체가 센서 정보와 내부 상태의 조건에 따라 적절히 취해야 할 행동을 발현해 준다. 이 기능은 인공 생명체의 반사행동 등에 이용 될 수 있다. 예를 들어 거리 센서가 갑자기 변하는 경우 놀라는 행동을 하거나, 갑자기 어두워지면 두리번거리는 것이 있을 수 있다. 낭떠러지 같은 위험한 상황이 발생하면 행동 선택기를 긴급 호출하여 현재 행동을 중지시키고 적당한 대응 행동을 취하게 해준다.Instinct behavioral logic expresses the behavior that virtual life must take according to the conditions of sensor information and internal state. This function can be used for reflection behavior of artificial life. For example, you may be surprised when the distance sensor changes suddenly, or you may be surprised when it suddenly darkens. When a dangerous situation such as a cliff occurs, the action selector is urgently called to stop the current action and take appropriate response.

4) 학습 시스템(Learning System)4) Learning System

칭찬이나 꾸중을 받을 경우 저장된 관심 대상을 파악하여, 관심대상에 따라 회피할 것인지 접근할 것인지 등의 경향을 변화시키는 선호도 학습기(35a)와 임의의 음성 명령에 대해 가상 생명체가 사용자가 원하는 행동을 할 수 있는 음성 학습기(35b)로 이루어져 있다.When praised or scolded, the virtual creature can perform the actions desired by the user in response to the preference learner 35a and the arbitrary voice command that change the tendency of identifying and storing the interest of interest and evading or approaching according to the interest of interest. It consists of a voice learner 35b.

선호도 학습기란 어떤 대상에 대한 인공 생명체의 좋아하고 싫어하는 기호를 학습 시켜주는 부분이다. 예를 들어 인공 생명체에게 칭찬을 해주면, 최근에 봤던 얼굴, 공등의 대상들이 인공 생명체의 기쁨 감정 상태를 높여주며, 회피 동기 상태를 낮추어 주도록, 부호화 벡터와 해당 내부 상태의 연결 강도를 조절해 주는 것이다. 선호도 학습은 동기와 감정 상태의 연결 강도 의 값을 조절하여, 해당하는 대상이 내부 상태에 미치는 효과를 조절하게 되어 있다. 시간 t에서 의 식은 다음과 같다.The preference learner is the part that learns the likes and dislikes of artificial life about an object. For example, complimenting artificial creatures adjusts the strength of the connection between the coding vector and its internal state so that the faces and fair objects you've seen recently raise the joyous emotional state of the creature and reduce its motivation to evade. . Preference learning is the strength of the connection between motivation and emotional state By adjusting the value of, the effect of the corresponding object on the internal state is controlled. At time t Wow The equation is as follows.

음성 학습기는 학습 대상이 되는 행동을 비슷한 행동끼리 유사 행동 집합으로 구성하여 학습 목표가 되는 행동을 줄이고 행동의 결과를 각각의 유사 행동 집합 별로 강화 학습하여 모든 행동 중에서도 임의의 명령에 알맞은 행동을 학습시킬 수 있도록 구성하였다. 음성 학습기의 내용은 도 11에 있다.The voice learner can learn the behaviors that are appropriate to any command among all behaviors by reducing the behaviors that are the targets of learning by constructing similar behaviors among similar behaviors among similar behaviors, and reinforcing the results of the behaviors for each similar behavior set. It was configured to be. The contents of the voice learner are in FIG.

먼저 도 9에서와 같이 전체 행동 집합 B(91)의 부분 집합으로 유사 행동 집합(Analogous Behavior Set) (92)을 구성한다. 여기서 a는 유사 행동의 개수이다. 전체 행동 집합의 원소로써 n개의 행동 은 하나 이상의 유사 행동 원소일 수 있고, 어떤 유사 행동 집합의 원소도 아닐 수 있다. 예를 들어 행등들을 행동 집합으로 재구성한다면 다음과 같이 할 수 있을 것이다. 도 10에서 C(101)는 명령들의 집합이고, B는 행동 집합들의 집합이 된다. 예들들어, 명령 집합 B의 원소들은 차례대로, '일어서', '앉아', '이리와', '멈춰', '앞으로 와', '뒤로 가', '왼쪽으로 가', '오른쪽으로 가', 그리고, '춤춰'를 나타내며, 행동 집합 B의 원소들도 이것과 같고 는 이것들을 제외한 나머지 행동들을 모은 집합이라고 하면 수학식 21과 같이 명령 집합과 유사 행동 집합을 만들 수 있다.First, as shown in FIG. 9, a subset of the entire behavior set B 91 is used as an analogous behavior set. Configure 92. Where a is the number of similar actions. N actions as elements of the full set of actions May be one or more similar behavior elements, and may not be elements of any similar behavior set. For example, if we reconstruct behaviors into behavior sets, we could do the following: In FIG. 10, C 101 is a set of instructions, and B is a set of behavior sets. For example, elements of instruction set B, in turn, stand up, sit down, come here, stop, come forward, go back, go left, go right , And "dancing," and the elements of behavior set B are the same, If the set is a collection of the remaining behaviors except these, it is possible to create a similar set of behaviors as in the set of the equation (21).

여기서 '앉아'와 '이리와' 행동 집합내의 행동들은 예를 들어 다음과 같이 정리될 수 있을 것이다. '앉아' 유사 행동 집합은 '앉기', '웅크리기', '눕기'로 이루어져 있으며, '이리와' 유사 행동 집힙은 '쫓아가기', '접근하기', '차기', '만지기'로 이루어져 있다.Here the actions in the 'sit' and 'come' behavior sets can be summarized as follows, for example: 'Sit' Similar behavior set consists of 'Sit', 'Squat', and 'Lying', and 'Come here' is composed of 'Follow', 'Access', 'Kick' and 'Touch' have.

이 때, 명령을 해서 원하는 행동이 나오면 해당하는 유사 행동 집합에 동시에 포상을 해주고, 잘못된 행동이 나올 경우에는 해당하는 유사 행동 집합에 벌칙을 준다(115). 이런 방식으로 명령 행동의 쌍의 강도(103)르 강화 학습(114)시키고 그 강도에 따라서 행동이 발형되도록 구성한다. 는 i번째 입력 명령, 를 j번째의 유사 행동 집합이라 하고, 를 시간 t에서 0에서 1사이의 값을 갖는 둘 사이의 연결 강도를 나타낸다고 하자. 명령 에 대해서 원하는 행동이 나오면 그 행동이 속한 유사 행동 집합 와 연결된 가 수학식 23과 같이 계산되어 갱신된다.At this time, if the desired behavior comes out from the command to reward the corresponding set of similar behaviors at the same time, if the wrong behavior comes out penalty for the similar set of behaviors (115). In this way, the strength 103 of the pair of command behaviors reinforces learning 114 and configures the behavior according to the strength. Is the i th input command, Is the jth set of similar behaviors, Assume the connection strength between the two having a value between 0 and 1 at time t. Command When a desired action comes up for, the set of similar actions the action belongs to Associated with Is calculated as in Equation 23 and updated.

수학식 23에서 인공 생명체가 만큼 상 또는 만큼 벌을 받으면 이 값은 감정 파라메터라 불리는 (113)가 곱해져서 가 변하게 된다. 이 감정 파라메터는 학습 능률에 영향을 주는 감정 상태의 값이다. 이것은 우리가 기쁠 때 학습능률이 좋고, 기분이 나쁘면 학습효율이 떨어지는 것을 고려한 인자이다. 따라서 감정 상태에 따라서 학습률, 즉 학습이 되는 속도가 조절되게 된다.In (23), artificial organisms As many phases or If you get a punishment, this value is called the emotion parameter (113) is multiplied Will change. This emotional parameter is the value of the emotional state that affects learning efficiency. This is a factor that considers that learning efficiency is good when we are happy, and learning efficiency is poor when we are in a bad mood. Therefore, according to the emotional state, the learning rate, that is, the speed of learning is controlled.

i번째 명령과 수행된 행동 b가 속한 j번째 유사 행동 집합 의 연결 강도 를 갱신하여 명령-행동 쌍의 강도를 조절한 후에는 명령이 들어온 후에 행동이 실행될 수 있도록, 수학식 14의 음성 명령 차단 행렬을 갱신시킨다. 다음의 수학식 25는 이것을 설명하고 있다.j-th set of similar behaviors to which the i-th command and the performed action b belong Connection strength After updating to adjust the strength of the command-action pair, the voice command blocking matrix of Equation 14 is updated so that the action can be executed after the command is entered. The following equation (25) illustrates this.

음성 명령 차단 행렬은 에 비례하지만, 방금 수행했던 행동과 나머지 행동들과 차이를 주어 투표값에 영향을 준다. 방금 수행했던 행동은 상을 받은 것에 직접적으로 영향이 있는 행동이므로 가중치를 더욱 주고 나머지 비슷한 행동에도 그것보다는 작은 양의 가중치를 주어 비슷한 행동을 한꺼번에 학습시키는 것이다. 즉 수학식 25의 α(112)와 β(111)는 α>β>0인 관계에 있다.The voice command blocking matrix In proportion to, the difference between the action just performed and the rest affects the vote. The behavior you just performed is a behavior that directly affects the award, so give more weight and give a smaller amount of weight to the other similar behaviors to learn similar behaviors at once. That is, α (112) and β (111) in the equation (25) have a relationship of α>β> 0.

이러한 강화 학습 후에 각 행동의 투표값이 각각 만큼씩 증가하므로, 학습 후 행동 선택기에서 행동을 선택할 때 유사 행동 집합 내의 행동은 선택될 확률이 증가하고, 특히 학습에 직접적으로 관여되었던 행동은 더욱 높은 확률로 높아지게 된다.After this reinforcement learning, each action's vote By increasing, the behavior in the similar behavior set increases the probability of being selected when the behavior is selected in the post-learning behavior selector, especially those that were directly involved in learning.

5) 교육용 소프트웨어 시스템으로의 응용5) Application to educational software system

이상의 발명된 가상 생명체와 새로운 학습 구조를 이용하여 교육용 소프트웨어 시스템으로는 다음과 같은 3가지로 이루어져 있다.The educational software system using the invented virtual life and the new learning structure consists of the following three types.

먼저, 학습자가 각각의 생물, 무생물의 고유한 가상 성격을 갖는 가상 생명체를 육성하며 직접 그것들을 접하지 않더라도, 그 가상 생명체를 육성함으로써 평소에 접하기 힘든 생물, 무생물의 특성을 간접적으로 배울 수 있는 교육용 소프트웨어는 일반적으로 도 12와 같이 구성되어 있다. 키보드와 마우스 그리고 스피커와 같은 장치로 이루어진 입력 장치를 이용하여 가상 생명체에게 자극을 주고 모니터와 스피커와 같은 출력장치를 통하여 가상 생명체의 응답을 받는다. 이 때 교육 콘텐츠 제공자가 도 13과 같이 여러 가지 생물, 무생물의 성질을 가상 생명체의 가상 성격을 제공하고 교육자는 도 12와 같은 교육 시스템을 통하여 그 가상 생명체와 상호 작용을 함으로써 학습자는 직접적으로 가상 생명체와 접촉하지 않더라고 제공되는 가상 생명체를 통하여 여러 가지 생물, 무생물에 대하여 간접적으로 학습을 할 수 있다.First, even if learners cultivate virtual creatures that have unique virtual characteristics of each creature or inanimate object and do not directly contact them, they can indirectly learn the characteristics of living creatures and inanimate creatures that are difficult to meet by nurturing the virtual creatures. Educational software is generally configured as shown in FIG. The input device consisting of a keyboard, a mouse, and a speaker is used to stimulate the virtual creature, and the virtual device receives a response from the output device, such as a monitor and a speaker. At this time, the educational content provider provides virtual characteristics of various living and non-living things as shown in FIG. 13, and the educator interacts with the virtual living things through the education system as shown in FIG. Even without contact with the virtual creatures provided, it is possible to indirectly learn about various living things.

또한, 학습자가 교육 과정과 병행해 정해진 학습량을 만족했을 때만 가상 생명체를 육성할 수 있어서 학습 의욕을 높일 수 있는 교육용 소프트웨어를 위한 설명은 도 14와 같다. 학습자는 교육용 소프트웨어를 통해 교육자가 제공하는 교육 프로그램을 수행하고(142), 정해진 학습량 또는 목표를 달성했는지를 평가받는다 (143). 이 때 학습량 또는 목표를 달성했을 시에는 가상 생명체를 육성할 수 있는 권한이 상으로 주어지고 목표를 달성하지 못했을 때는 가상 생명체에게 점점 안 좋은 영향이 벌로 주어지게 된다(144). 교육자는 이와 같은 과정을 통해 학습자에게 학습 의욕을 높여 줄 수 있다.In addition, the description for the educational software that can increase the motivation to learn virtual creatures can be raised only when the learner satisfies a predetermined amount of learning in parallel with the curriculum is shown in FIG. The learner performs the educational program provided by the educator through the educational software (142), and is assessed whether the specified learning amount or goal has been achieved (143). At this time, when the amount of learning or the goal is achieved, the right to nurture the virtual creature is given a prize, and when the goal is not achieved, the virtual life is gradually worsened (144). Educators can use this process to motivate learners.

또한, 천편일률적인 교육용 도우미, 캐릭터와 달리 각각의 고유한 가상 성격을 갖는 가상 생명체를 이용하여, 학습자가 다양한 성격, 개성의 교육용 가상 교사에게 교육을 받을 수 있는 교육용 소프트웨어는 도 15와 같이 구성되어있다. 가상 생명체로 구성된 가상 교사들은 각각의 고유한 가상 성격을 가지고 있다. 이것은 학습자에서 원하는 가상 교사의 성격을 선택해 원하는 학습 분위기에서 학습을 할 수 있거나 또는 학습자의 학습 태도에 따라서 가상 교사의 가상 성격의 변화를 초래해 학습자를 적절한 학습 분위기로 유도될 수 있는 기능을 제공한다.In addition, educational software that allows learners to be educated by educational virtual teachers of various personalities and personalities using virtual creatures having their own virtual personalities, unlike the unilateral educational helpers and characters, is configured as shown in FIG. 15. . Virtual teachers composed of virtual creatures have their own virtual personalities. This allows the learner to select the desired personality of the virtual teacher to learn in the desired learning atmosphere or to change the virtual personality of the virtual teacher according to the learner's learning attitude, leading to the learner in the appropriate learning atmosphere. .

이상에서와 같이 본 발명에 의하면, 동기, 항상성, 감정을 갖는 내부 상태를 모델링하고 이것을 모두 이용하여 행동을 선택함으로써 좀 더 사실적인 가상 생명체의 구현이 가능할 것이다. 또한 행동 선택 방식에서도 새로운 확률적인 행동 선택방식과 확정적인 행동 선택 방식을 이용하여 다양한 행동을 만들어 낼 수 있다.As described above, according to the present invention, a more realistic virtual life may be realized by modeling an internal state having motivation, homeostasis, and emotion, and using all of them to select an action. In addition, in the behavior selection method, various behaviors can be created by using the new probabilistic and definite behavior selection methods.

게다가, 사용자의 임의의 명령에 대해서도 가상 생명체의 수십 여 가지의 행동들 중 원하는 행동을 효율적으로 학습시킬 수 있을 것이다. 좀 더 효과적인 학습 방법으로 인하여 사용자들 각자가 자신만의 고유한 명령을 인식할 수 있는 가상 생명체를 가질 수 있게되고 또한 이 방식을 교육용 프로그램과 같은 곳에 응용할 수 있으리라 기대된다.In addition, any command of the user will be able to efficiently learn the desired behavior of dozens of virtual creatures. It is expected that more effective learning methods will allow each user to have a virtual creature that can recognize his or her own unique commands and be able to apply this method to educational programs.

발명된 가상 생명체 시스템 구조와 가상 생명체의 학습 방법을 응용하여 교육용 소프트웨어 시스템에 적용할 경우 다음과 같은 발명 효과를 기대할 수 있다.When the invention is applied to the educational software system by applying the invented virtual life system structure and the learning method of the virtual life, the following invention effects can be expected.

먼저, 학습자가 생물, 무생물의 성질을 모사한 가상 성격을 갖는 가상 생명체를 육성함으로써, 대상 생물, 무생물과의 직접적인 경험이 없이도, 인터렉티브한 간접 경험을 통하여 학습자에게 이와 유사한 교육 효과를 기대할 수 있다.First, learners can expect similar educational effects to learners through interactive indirect experiences, without direct experience with target organisms or inanimate objects, by fostering virtual creatures with virtual personalities that mimic the characteristics of living and inanimate objects.

또한, 학습자가 교육 프로그램 과정을 통해 정해진 학습량을 완수했을 때만 가상 생명체를 육성할 수 있어서 학습 의욕을 높일 수 있다.In addition, only when the learner completes a predetermined amount of learning through the educational program process, the virtual life can be nurtured, thereby increasing the motivation for learning.

또한, 학습자는 고유한 가상 성격을 갖는 가상 생명체 교사를 이용하여 학습자가 원하는 학습 분위기에서 학습을 할 수 있고, 혹은 학습자의 학습 태도에 따라서 가상 생명체 교사의 가상 성격이 변하게 되어 학습자에게 적합한 학습 분위기로 변할 수 있다. 따라서 학습자는 다양한 학습 분위기에서 학습할 수 있다.In addition, the learner can learn in the learning atmosphere desired by the virtual living teacher having a unique virtual personality, or the virtual personal teacher's virtual personality is changed according to the learning attitude of the learner, thereby providing a suitable learning atmosphere for the learner. Can change. Therefore, learners can learn in a variety of learning atmospheres.

도 1은 일반적인 가상 생명체의 구성 개념도이다.1 is a conceptual diagram of a configuration of a general virtual life.

도 2는 가상 생명체 또는 엔터테인먼트 로봇의 기존 음성학습부분을 나타낸 도면이다.2 is a diagram illustrating a conventional voice learning portion of a virtual creature or entertainment robot.

도 3은 본 발명에 따른 가상 생명체의 시스템 구성도이다.3 is a system configuration diagram of a virtual creature according to the present invention.

도 4는 도 3의 인식 시스템에서 순응 개념의 설명을 나타낸 도면이다.FIG. 4 is a diagram illustrating the concept of compliance in the recognition system of FIG. 3.

도 5는 state로 구성했을 때의 기존 감정의 문제점을 나타낸 도면이다.5 is a view showing a problem of the existing emotion when configured as a state.

도 6은 도 5에 도시된 기존 감정의 문제점을 해결하기 위한 알고리즘이다.FIG. 6 is an algorithm for solving the problem of the existing emotion shown in FIG. 5.

도 7은 기존 감정 모델과 본 발명의 감정 모델을 사용했을 때의 감정 변화 모식도이다.7 is a schematic diagram of emotion change when an existing emotion model and an emotion model of the present invention are used.

도 8은 본 발명에 의한 행동 선택기의 행동 선택 알고리즘이다.8 is a behavior selection algorithm of the behavior selector according to the present invention.

도 9는 본 발명에 의한 유사 행동 집합의 구성도이다.9 is a block diagram of a similar behavior set according to the present invention.

도 10은 본 발명에 의한 명령 집합과 유사 행동 집합과의 관계도이다.10 is a relationship diagram of a command set and a similar behavior set according to the present invention.

도 11은 본 발명에 의한 음성 학습기의 구성도이다.11 is a block diagram of a voice learner according to the present invention.

도 12는 본 발명에 의한 가상 생명체와 상호 작용을 통한 교육용 소프트웨어 시스템 구성도이다.12 is a block diagram of an educational software system through interaction with a virtual living organism according to the present invention.

도 13은 본 발명에 의한 다양한 가상 성격을 갖는 가상 생명체 육성을 통한 교육용 소프트웨어 시스템의 모식도이다.Figure 13 is a schematic diagram of a software system for education through the virtual living things having various virtual characteristics according to the present invention.

도 14는 본 발명에 의한 학습량에 따라 가상 생명체를 육성할 수 있는 교육용 소프트웨어 시스템의 알고리즘이다.14 is an algorithm of an educational software system capable of cultivating virtual life according to the learning amount according to the present invention.

도 15는 본 발명에 의한 다양한 가상 성격을 갖는 가상 생명체 교사를 통한 교육용 소프트웨어 시스템의 모식도이다.15 is a schematic diagram of a software system for education through a virtual creature teacher having various virtual personalities according to the present invention.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

10: 외부 환경10: external environment

11: 외부 환경을 인식하는 인식부11: recognizer recognizes the external environment

12: 가상 생명체의 감정, 동기, 항상성을 나타내는 내부 상태부12: Internal state part representing emotion, motivation, and homeostasis of virtual life

13: 외부 정보와 내부 상태를 이용하여 행동을 결정하는 행동 결정부13: Behavior decision unit that uses external information and internal state to determine behavior

14: 외부 상태에 따라 가상 생명체가 적응하는 학습부14: Learning unit that virtual life adapts to external state

15: 가상 생명체가 행동을 구현하는 행동 구현부15: Behavior implementation unit where virtual creatures implement behavior

21: 기존 음성학습기에서 행동21: Acting on a traditional voice learner

22: 기존 음성학습기에서 음성 명령22: Voice command from existing voice learner

23: 기존 음성학습기에서 음성인식부23: speech recognition unit in the existing speech learner

31: 외부 환경31: external environment

32a: 인식 시스템의 센서32a: sensor in recognition system

32b: 인식 시스템의 부호화 시스템32b: encoding system of recognition system

32c: 인식 시스템의 관심 선택기32c: Interest selector in recognition system

33: 내부 상태 시스템 33a: 동기33: Internal state system 33a: Synchronous

33b: 항상성 33c: 감정33b: homeostasis 33c: emotion

34a: 행동 시스템의 행동 선택기34a: behavior selector in behavior system

34b: 행동 시스템의 행동 선택기의 여러 가지 차폐34b: Various shielding of behavior selectors in the behavior system

34c: 행동 시스템의 본능 행동 논리34c: Instinct Behavioral Logic of the Behavioral System

35a: 학습 시스템의 선호도 학습기35a: Learning system preference learner

35b: 학습 시스템의 음성 명령 학습기35b: Voice Command Learner for Learning System

36: 모터 시스템36: motor system

41: 인식 시스템의 센서 자극41: Sensor stimulation of recognition system

42: 인식 시스템의 민감도42: Sensitivity of recognition system

42a: 민감도의 감소량42a: decrease in sensitivity

42b: 민감도의 복구량42b: Recovery of sensitivity

43: 센서 자극이 들어오는 것을 측정하는 시간43: Time to measure incoming sensor stimulus

43a: 센서 자극이 없던 시간43a: Time without sensor stimulation

51: 예를 들기 위한 감정 상태 151: Emotional state 1 for example

52: 예를 들기 위한 감정 상태 252: Emotional state 2 for example

71: 상태로 표현된 기존 감정 모델에서의 감정 변화71: Emotional change in existing emotional models expressed as states

72: 상태로 표현된 개선된 본 발명에 의한 감정 모델에서의 감정 변화72: Emotional change in the emotion model according to the improved invention expressed in state

81: 임시 투표값 벡터 V의 계산81: Calculation of Provisional Voting Value Vector V

82: 관심 대상에 따른 mask82: mask according to interest

83: 음성 명령에 따른 mask83: mask according to voice command

84: 감정 상태에 따른 mask84: mask according to the emotional state

85: 본능 행동에 따른 mask85: mask according to instinct behavior

86: 임시 투표값 벡터 V를 이용하여 각각의 행동의 수행 확률 P(b)의 계산86: Calculation of Probability P (b) of Each Action Using Temporary Voting Value Vector V

87: 확률 P(b)에 따라 행동이 확률적으로 선택87: Probabilistic selection of actions based on probability P (b)

91: 전체 행동 집합91: full set of actions

92: 유사 행동 집합92: similar behavior set

101: 전체 명령 집합101: complete command set

102: 개개의 명령102: individual commands

103: 명령과 유사 행동 집합과의 연결 강도103: Strength of association with command and similar behavior set

111: 연결 강도가 유사 행동 집합에 주는 영향, β111: Influence of link strength on a set of similar behaviors, β

112: 연결 강도가 유사 행동 집합에 주는 영향, α112: Influence of link strength on a set of similar behaviors, α

113: 감정 파라메터 ρ113: Emotional parameter ρ

114: 강화 학습 알고리즘114: Reinforcement Learning Algorithm

115: 사용자가 명령에 대한 행동을 판한한 후에 가상 생명체에 주는 상/벌115: Awards / penalties to virtual creatures after users have determined their actions on orders.

141: 학습량에 따라 학습하는 학습 프로그램의 시작141: Start the learning program to learn according to the amount of learning

142: 학습량에 따라 학습142: Learning according to the amount of learning

143: 학습량에 따라 학습하는 학습 프로그램의 학습량 평가143: Evaluation of the amount of learning of the learning program to learn according to the learning amount

144: 학습량에 따라 학습하는 학습 프로그램의 가상 생명체 육성144: foster virtual life of learning program to learn according to learning quantity

145: 학습량에 따라 학습하는 학습 프로그램의 종료145: End of the learning program to learn according to the learning amount

Claims (12)

가상(인공) 생명체를 구현하기 위한 시스템에 있어서,In the system for implementing virtual (artificial) life, 부호화 시스템을 구비하며, 가상 생명체의 내부상태 변화와 행동선택 및 학습에 사용되는 센서정보를 입력받아 전처리하기 위한 인식수단과; Recognition means having a coding system, for receiving the sensor information used for the change of the internal state of the virtual life and the behavior selection and learning; 상기 가상 생명체의 주 행동을 결정하게 되는 동기와, 생존을 유지시키기 위한 항상성 및 행동선택과 얼굴표정을 표현하는 감정 등의 하부 생명체 구조를 구비하며, 상기 인식수단의 출력정보를 바탕으로 가상 생명체의 내부상태에 영향을 끼치기 위한 내부 상태수단과;Motivation for determining the main behavior of the virtual creature, and lower life structures such as homeostasis for maintaining survival, emotion selection for expressing facial expression, and the like, and based on output information of the recognition means, Internal state means for affecting the internal state; 선호도 학습기와 음성 학습기를 구비하며, 상기 인식수단과 내부 상태수단의 출력정보를 바탕으로 외부 상태에 따라 가상 생명체의 학습을 적응시키기 위한 학습수단과;Learning means for adapting the learning of the virtual creature according to an external state based on the output information of the recognition means and the internal state means; 행동선택기와 본능 행동논리를 구비하며, 상기 인식수단과 내부 상태수단 및 학습수단의 출력정보를 바탕으로 가상 생명체의 행동을 결정하기 위한 행동선택수단과; 및A behavior selector having a behavior selector and an instinctive behavior logic, the behavior selection means for determining the behavior of the virtual creature based on the output information of the recognition means, the internal state means and the learning means; And 상기 행동선택수단의 출력정보를 바탕으로 가상 생명체의 행동을 구동하기 위한 운동수단을 포함하는 것을 특징으로 하는 가상 생명체 시스템.And a movement means for driving the action of the virtual creature based on the output information of the action selection means. 청구항 1에 있어서, 상기 인식수단의 부호화 시스템에서 센서 정보를 가상 생명체 내부에 사용하기 위해 부호화 한 후, 순응 개념을 도입하여 동일한 센서 자극이 연속해서 들어오는 경우 민감도를 변화시키는 것을 특징으로 하는 가상 생명체 시스템.The virtual living system according to claim 1, wherein after encoding the sensor information in the coding system of the recognizing means to use the inside of the virtual living body, the adaptation concept is introduced to change the sensitivity when the same sensor stimulus is continuously input. . 청구항 2에 있어서, 상기 민감도는 각각의 센서 자극마다 각기 설정되어 있으며, 변화하는 값들도 센서 자극마다 다르게 설정됨을 특징으로 하는 가상 생명체 시스템.The virtual living system according to claim 2, wherein the sensitivity is set for each sensor stimulus, and changing values are set differently for each sensor stimulus. 청구항 1에 있어서, 상기 내부 상태수단의 state로 이루어진 '감정'에서 가장 큰 값을 갖는 state의 감정을 점유 감정이라 할 때, 두 감정 사이의 작은 변화에 의해 점유 감정이 변하거나 낮은 감정값을 가지고도 점유 감정이 되는 현상을 방지하기 위해 감정 상태에 중간 감정 상태인 '평상심'이 추가됨을 특징으로 하는 가상 생명체 시스템.The method according to claim 1, wherein when the emotion of the state having the highest value in the 'emotion' made of the state of the internal state means the occupied emotion, the occupied emotion is changed or has a low emotion value by a small change between the two emotions. In addition, the virtual life system, characterized in that the normal emotional state is added to the emotional state to prevent the phenomenon of occupied emotion. 청구항 4에 있어서, 상기 가장 높은 감정값의 크기를 검사한 후, 그 결과 값이 '최소 점유 감정 결정값' 보다 작으면 점유 감정을 중간 감정인 '평상심'으로 하고, 상기 결과 값이 '최소 점유 감정 결정값' 보다 클 경우 가장 큰 감정값과 두번째 감정값과의 차이를 비교함을 특징으로 하는 가상 생명체 시스템.The method according to claim 4, wherein after checking the magnitude of the highest emotion value, if the result value is smaller than the 'minimum occupancy emotion determination value', the occupancy emotion is set as' intermediate feeling ', which is an intermediate emotion, and the result value is' minimum occupancy emotion. Virtual life system, characterized by comparing the difference between the largest emotional value and the second emotional value. 청구항 5에 있어서, 상기 가장 큰 감정값과 두번째 감정값과의 차이를 비교한 후 '비교 점유 감정 결정값' 보다 클 경우 현재의 점유 감정을 가장 큰 값으로 하여 감정이 갑자기 변하거나 각각의 감정 상태값이 낮은 경우에도 감정이 정해지는 것을 방지함을 특징으로 하는 가상 생명체 시스템.The method according to claim 5, wherein when the difference between the largest emotion value and the second emotion value is greater than the 'comparison occupancy emotion determination value', the emotion is suddenly changed or each emotion state with the current occupied emotion as the largest value. A virtual living system, characterized in that even if the value is low, emotions are prevented from being determined. 청구항 1에 있어서, 상기 행동선택수단에는 상기 인식수단과 내부 상태수단으로부터 입력된 정보를 바탕으로 행동을 확률적으로 결정하는 확률적 행동 선택방식과, 센서 입력을 직접 받아 본능 행동에서 행동을 확정적으로 결정하는 확정적 행동 선택방식이 적용됨을 특징으로 하는 가상 생명체 시스템.The method of claim 1, wherein the action selection means includes a probabilistic action selection method that probabilistically determines an action based on information input from the recognition means and the internal state means, and decisively determines the action in an instinct action by directly receiving a sensor input. A virtual living system, characterized in that the deterministic behavior selection method is applied. 청구항 1에 있어서, 상기 학습수단에서 사용자의 명령에 따라 가상 생명체의 행동을 결정하여 해당 명령에 대한 행동의 연결 쌍을 결정하는 학습 과정에서의 행동의 개수가 많을 경우 '전체 행동 집합'을 '유사 행동 집합'으로 묶은 후 사용자의 포상 또는 벌에 따라 그 집합에 포상 또는 벌을 주고 학습시키는 것을 특징으로 하는 가상 생명체 시스템.The method of claim 1, wherein when the learning means determines a behavior of a virtual creature according to a user's command to determine a connection pair of actions for a corresponding command, the total behavior set is similar to the entire set of actions. Virtual life system, characterized in that the group of 'action set' and then reward or punish the set according to the reward or punishment of the user. 청구항 8에 있어서, 상기 학습 과정에서 가상 생명체의 내부 상태값을 '유사 행동 집합'에 포상 또는 벌을 주는 과정을 고려하여 내부 상태값에 따라 가상 생명체의 학습 속도를 조절함을 특징으로 하는 가상 생명체 시스템. The virtual creature of claim 8, wherein the learning rate of the virtual creature is adjusted according to the internal state value in consideration of a process of rewarding or punishing the internal state value of the virtual creature in the 'like behavior set' in the learning process. system. 가상(인공) 생명체를 이용한 교육 및 학습을 위한 교육용 소프트웨어 시스템에 있어서,In the educational software system for education and learning using virtual (artificial) life, 각기 다른 고유한 가상 성격을 갖는 생물 및 무생물의 가상 생명체와;Virtual and nonliving virtual life, each having a unique virtual character; 키보드와 마우스를 구비하며, 학습자가 생물 및 무생물의 특성을 간적접으로 배울수 있는 교육용 소프트웨어를 이용하여 상기 가상 생명체에 간접적으로 학습 자극을 주기 위한 입력수단; 및An input means having a keyboard and a mouse and indirectly instructing the virtual living body using educational software that allows the learner to indirectly learn the characteristics of living and inanimate objects; And 모니터와 스피커를 구비하며, 상기 입력수단의 학습 자극에 대한 가상 생명체의 반응을 출력하기 위한 출력수단을 포함하는 것을 특징으로 하는 교육용 소프트웨어 시스템.And a monitor and a speaker, and output means for outputting a response of the virtual creature to the learning stimulus of the input means. 청구항 10에 있어서, 상기 학습자가 교육용 소프트웨어를 통해 교육자가 제공하는 교육 프로그램을 수행하고, 정해진 학습량 또는 목표를 달성했는지의 여부를 평가하여 그에 따른 상과 벌을 주는 것을 특징으로 하는 교육용 소프트웨어 시스템.The educational software system of claim 10, wherein the learner performs an educational program provided by the educator through the educational software, evaluates whether the learner achieves a predetermined amount of learning or a goal, and rewards the student with the reward. 청구항 10에 있어서, 상기 학습자가 가상 성격을 갖는 가상 교사의 역할을 하는 가상 생명체를 통하여 학습을 받을 수 있도록 하는 것을 특징으로 하는 교육용 소프트웨어 시스템.The educational software system of claim 10, wherein the learner is able to receive learning through a virtual living being acting as a virtual teacher having a virtual personality.
KR10-2003-0013223A 2003-03-04 2003-03-04 Artificial creature system and educational software system using this KR100503652B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0013223A KR100503652B1 (en) 2003-03-04 2003-03-04 Artificial creature system and educational software system using this

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0013223A KR100503652B1 (en) 2003-03-04 2003-03-04 Artificial creature system and educational software system using this

Publications (2)

Publication Number Publication Date
KR20040078322A KR20040078322A (en) 2004-09-10
KR100503652B1 true KR100503652B1 (en) 2005-07-22

Family

ID=37363637

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0013223A KR100503652B1 (en) 2003-03-04 2003-03-04 Artificial creature system and educational software system using this

Country Status (1)

Country Link
KR (1) KR100503652B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8204839B2 (en) 2007-02-08 2012-06-19 Samsung Electronics Co., Ltd Apparatus and method for expressing behavior of software robot

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834646B1 (en) 2006-09-05 2008-06-02 삼성전자주식회사 Method for transmitting software robot message
KR100827088B1 (en) 2006-09-07 2008-05-02 삼성전자주식회사 Software robot apparatus
KR100866212B1 (en) * 2007-02-08 2008-10-30 삼성전자주식회사 Genetic robot platform and genetic robot behavior manifestation method
KR101411304B1 (en) * 2011-05-12 2014-06-24 한양대학교 에리카산학협력단 Method and System for Providing Virtual Agent Synchronized Characteristic of Target Living Thing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287695A (en) * 1994-04-18 1995-10-31 Fujitsu Ltd Computer system and robot system able to learn and grow autonomously
KR19990023809A (en) * 1997-08-22 1999-03-25 이데이 노부유끼 Storage media, robots, information processing devices, and electronic PET systems
KR20010053322A (en) * 1999-04-30 2001-06-25 이데이 노부유끼 Electronic pet system, network system, robot, and storage medium
KR20010097766A (en) * 2000-04-26 2001-11-08 이승우 Method of progressing effect of internet education by virtual character
KR20010104847A (en) * 2000-05-16 2001-11-28 구자홍 Management method and system for growth type toy using web server

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287695A (en) * 1994-04-18 1995-10-31 Fujitsu Ltd Computer system and robot system able to learn and grow autonomously
KR19990023809A (en) * 1997-08-22 1999-03-25 이데이 노부유끼 Storage media, robots, information processing devices, and electronic PET systems
KR20010053322A (en) * 1999-04-30 2001-06-25 이데이 노부유끼 Electronic pet system, network system, robot, and storage medium
KR20010097766A (en) * 2000-04-26 2001-11-08 이승우 Method of progressing effect of internet education by virtual character
KR20010104847A (en) * 2000-05-16 2001-11-28 구자홍 Management method and system for growth type toy using web server

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8204839B2 (en) 2007-02-08 2012-06-19 Samsung Electronics Co., Ltd Apparatus and method for expressing behavior of software robot

Also Published As

Publication number Publication date
KR20040078322A (en) 2004-09-10

Similar Documents

Publication Publication Date Title
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
Holland et al. Robots with internal models a route to machine consciousness?
Grand et al. Creatures: Entertainment software agents with artificial life
Barto et al. Intrinsically motivated learning of hierarchical collections of skills
Sloman On designing a visual system (towards a Gibsonian computational model of vision)
Dawson Minds and machines: Connectionism and psychological modeling
Haazebroek et al. A computational model of perception and action for cognitive robotics
JP3211186B2 (en) Robot, robot system, robot learning method, robot system learning method, and recording medium
Yoon et al. Motivation driven learning for interactive synthetic characters
Yoon et al. Interactive training for synthetic characters
Clayton et al. Machine teaching in hierarchical genetic reinforcement learning: Curriculum design of reward functions for swarm shepherding
US8346699B2 (en) System and method for simulating conciousness
KR100503652B1 (en) Artificial creature system and educational software system using this
KR20210059390A (en) Learning Education Software System Using Virtual System
Kim et al. The origin of artificial species: Genetic robot
Yoon Affective synthetic characters
Yudanin Animal choice and human freedom: on the genealogy of self-determined action
CN113962353A (en) Method for establishing strong artificial intelligence
Policastro et al. Robotic architecture inspired on behavior analysis
Policastro et al. Learning of shared attention in sociable robotics
Gürkanlı Exploring design requirements for educational robots used in K-12 education from educator’s perspective
Stein FALCONET: Force-feedback approach for learning from coaching and observation using natural and experiential training
Popovici et al. Virtualdive-a vr-based educational virtual environment
Huang et al. Motivational system for human-robot interaction
Lemhaouri et al. The role of the caregiver’s responsiveness in affect-grounded language learning by a robot: Architecture and first experiments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130708

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140703

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150629

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee