KR20110100856A - Apparatus and method for generating autonomous behaviors - Google Patents

Apparatus and method for generating autonomous behaviors Download PDF

Info

Publication number
KR20110100856A
KR20110100856A KR1020100019911A KR20100019911A KR20110100856A KR 20110100856 A KR20110100856 A KR 20110100856A KR 1020100019911 A KR1020100019911 A KR 1020100019911A KR 20100019911 A KR20100019911 A KR 20100019911A KR 20110100856 A KR20110100856 A KR 20110100856A
Authority
KR
South Korea
Prior art keywords
avatar
behavior
main
neighboring
motivation
Prior art date
Application number
KR1020100019911A
Other languages
Korean (ko)
Other versions
KR101639190B1 (en
Inventor
박치연
장병탁
김정배
남진석
박상돈
Original Assignee
삼성전자주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 서울대학교산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020100019911A priority Critical patent/KR101639190B1/en
Publication of KR20110100856A publication Critical patent/KR20110100856A/en
Application granted granted Critical
Publication of KR101639190B1 publication Critical patent/KR101639190B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

자율 행동 생성 장치 및 방법이 개시된다. 자율 행동 생성 장치는, 가상 세계를 구성하는 복수의 아바타들 중 이웃 아바타의 감정 상태 및 행동 동기를 이용하여 메인 아바타의 감정 상태 및 행동 동기를 결정하고, 결정된 메인 아바타의 감정 상태 및 행동 동기를 이용하여 메인 아바타의 행동을 결정할 수 있다. Disclosed are an apparatus and method for generating autonomous behavior. The autonomous behavior generating apparatus determines the emotional state and the motivation of the main avatar by using the emotional state and the motivation of the neighboring avatar among the plurality of avatars constituting the virtual world, and uses the determined emotional state and the motivation of the main avatar. To determine the behavior of the main avatar.

Description

자율 행동 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING AUTONOMOUS BEHAVIORS}Apparatus and method for generating autonomous behavior {APPARATUS AND METHOD FOR GENERATING AUTONOMOUS BEHAVIORS}

가상 세계를 구성하는 복수의 아바타들의 행동을 추정하여 제어할 수 있는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for estimating and controlling the actions of a plurality of avatars constituting a virtual world.

일반적으로, 게임 등에서는 가상 세계를 구성하는 아바타들의 자율 행동을 생성하기 위해 FSM(Finite State Machine) 기법이 이용된다. FSM 기법은 게임 개발자가 아바타들의 행동 양식을 각각 설계하는 방식이다.In general, a finite state machine (FSM) technique is used to generate autonomous behavior of avatars constituting a virtual world in a game. FSM is a way for game developers to design avatars' behaviors.

이에 따라, 아바타들의 행동 양식을 설계하는 데 많은 소요 시간과 비용이 발생하게 된다. 또한, 복수의 아바타들은 정해신 상황에서 이미 설계된 행동 양식에 따라 행동하게 되므로, 행동 패턴이 반복되는 경우가 존재한다. 이러한, 행동 패턴의 반복으로 인해 가상 세계에서 현실감 있는 서비스를 제공하는 데 한계가 있으며, 예상치 못한 상황이 발생한 경우, 아바타들의 행동에 오류가 발생하게 된다.As a result, it takes a lot of time and money to design the behavior of the avatar. In addition, since a plurality of avatars behave according to a behavior pattern already designed in a predetermined situation, a behavior pattern may be repeated. Due to the repetition of behavior patterns, there is a limit to providing realistic services in the virtual world, and when an unexpected situation occurs, an error occurs in the behavior of avatars.

따라서, 아바타의 행동 양식을 설계하는 데 소요되는 시간 및 비용을 감소시키면서, 가상 세계에서 발생하는 상황에 따라 적응적으로 아바타들의 행동을 생성할 수 있는 기술이 필요하다.Accordingly, there is a need for a technology capable of adaptively generating avatars' behaviors according to a situation occurring in the virtual world while reducing the time and cost required to design the avatar's behavior.

자율 행동 생성 장치는, 복수의 단말들로부터 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정하고, 상기 이웃 아바타의 행동 동기를 설정하는 환경 인식부, 상기 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하고, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 결정부, 상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB을 이용하여 상기 메인 아바타의 행동을 결정하는 행동 결정부를 포함할 수 있다.The autonomous behavior generating apparatus estimates an emotional state of a neighboring avatar using surrounding environment information collected from a plurality of terminals, and uses an environment recognition unit configured to set behavioral motivation of the neighboring avatar, using the behavioral motivation of the neighboring avatar. Determining unit for determining the behavioral motivation of the main avatar, the emotional state of the main avatar using the behavioral motivation of the main avatar and the emotional state of the neighboring avatar, the determined emotional state and behavioral motivation of the main avatar, and behavior It may include a behavior determination unit for determining the behavior of the main avatar using a profile DB.

이때, 상기 행동 프로파일 DB는, 상기 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 가상 세계 종류, 상기 메인 아바타의 종류, 상기 메인 아바타의 행동 종류, 및 보상값을 포함할 수 있다. In this case, the behavior profile DB may include an emotional state of the main avatar, a behavior motivation of the main avatar, a virtual world type, a type of the main avatar, a behavior type of the main avatar, and a compensation value.

또한, 상기 행동 결정부는, 상기 메인 아바타의 감정 상태 및 행동 동기가 결정된 경우, 상기 행동 프로파일 DB에서 상기 결정된 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 상기 가상 세계 종류, 및 상기 메인 아바타의 종류에 해당하는 상기 메인 아바타의 행동 종류를 상기 메인 아바타의 행동으로 결정할 수 있다.In addition, when the emotional state and the behavior motivation of the main avatar is determined, the behavior determination unit, the emotional state of the main avatar determined in the behavior profile DB, the behavior motivation of the main avatar, the type of the virtual world, and the main avatar An action type of the main avatar corresponding to a type may be determined as an action of the main avatar.

또한, 환경 인식부는, 상기 주변 환경 정보 및 행동-감정 정보 DB를 이용하여 이웃 아바타의 감정 상태를 추정하는 감정 추정부, 및 상기 주변 환경 정보 및 행동-동기 정보 DB를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 동기 설정부를 포함할 수 있다.The environment recognition unit may further include: an emotion estimator estimating an emotional state of a neighboring avatar using the surrounding environment information and the behavior-emotion information DB, and an action of the neighboring avatar using the surrounding environment information and the behavior-synchronization information DB. It may include a synchronization setting unit for setting the synchronization.

여기서, 주변 환경 정보는, 상기 가상 세계를 구성하는 복수의 오브젝트 각각의 종류 및 위치, 상기 이웃 및 메인 아바타의 종류, 상기 이웃 및 메인 아바타의 표정 정보, 상기 이웃 및 메인 아바타의 행동 종류, 상기 이웃 및 메인 아바타의 이동 방향을 포함할 수 있다.Here, the surrounding environment information may include the type and location of each of the plurality of objects constituting the virtual world, the type of the neighbor and the main avatar, the facial expression information of the neighbor and the main avatar, the behavior type of the neighbor and the main avatar, and the neighborhood. And a moving direction of the main avatar.

또한, 상기 결정부는, 상기 추정된 이웃 아바타의 행동 동기, 상기 이웃 아바타의 종류, 및 상기 메인 아바타의 종류에 기초하여 상기 메인 아바타의 행동 동기를 결정할 수 있다.The determining unit may determine the behavioral motivation of the main avatar based on the estimated behavioral motivation of the neighboring avatar, the type of the neighboring avatar, and the type of the main avatar.

또한, 상기 결정부는, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태에 해당하는 파라미터 값에 기초하여 상기 메인 아바타의 감정 상태를 결정할 수 있다.The determining unit may determine the emotional state of the main avatar based on a behavioral motivation of the main avatar and a parameter value corresponding to the emotional state of the neighboring avatar.

또한, 상기 결정된 메인 아바타의 행동 및 기설정된 메인 아바타의 목적을 이용하여 상기 행동 프로파일 DB를 갱신하는 행동 학습부를 더 포함할 수 있다.The apparatus may further include a behavior learning unit updating the behavior profile DB using the determined behavior of the main avatar and a predetermined purpose of the main avatar.

또한, 자율 행동 생성 방법은, 복수의 단말들로부터 주변 환경 정보를 수집하는 단계, 상기 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정하는 단계, 상기 수집된 주변 환경 정보를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 단계, 상기 추정된 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하는 단계, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 단계, 상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB를 이용하여 상기 메인 아바타의 행동을 결정하는 단계를 포함할 수 있다.The autonomous behavior generating method may further include collecting surrounding environment information from a plurality of terminals, estimating an emotional state of a neighboring avatar using the collected surrounding environment information, and using the collected surrounding environment information. Setting a behavioral motivation of the neighboring avatar, determining a behavioral motivation of the main avatar using the estimated behavioral motivation of the neighboring avatar, using the behavioral motivation of the main avatar and the emotional state of the neighboring avatar Determining the emotional state of the, may include determining the behavior of the main avatar using the determined emotional state and behavioral motivation of the main avatar, and the behavior profile DB.

아바타의 목적만 설정해주면, 아바타의 행동 학습을 통해 아바타의 행동이 자율적으로 생성됨에 따라 아바타의 행동을 설계하는 데 소요되는 시간 및 비용을 감소시킬 수 있다.If only the purpose of the avatar is set, the time required for designing the avatar's behavior can be reduced as the avatar's behavior is autonomously generated through the learning of the avatar's behavior.

도 1은 자율 행동 생성 장치의 구성을 도시한 도면이다.
도 2는 자율 행동 생성 장치의 상세 구성을 도시한 도면이다.
도 3은 자율 행동 생성 장치의 동작을 설명하기 위해 제공되는 흐름도이다.
도 4는 러셀의 원형 모델을 기초로 아바타의 감정 상태를 도시한 도면이다.
1 is a diagram illustrating a configuration of an autonomous behavior generating device.
2 is a diagram illustrating a detailed configuration of an autonomous behavior generating device.
3 is a flowchart provided to explain the operation of the autonomous behavior generating apparatus.
4 is a diagram illustrating an emotional state of an avatar based on Russell's prototype model.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, with reference to the contents described in the accompanying drawings will be described in detail an embodiment according to the present invention. However, the present invention is not limited to or limited by the embodiments. Like reference numerals in the drawings denote like elements.

도 1은 자율 행동 생성 장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an autonomous behavior generating device.

도 1에 따르면, 자율 행동 생성 장치(100)는 환경 인식부(110), 결정부(120), 행동 결정부(130), 행동 프로파일 DB(140), 및 행동 학습부(150)를 포함할 수 있다.According to FIG. 1, the autonomous behavior generating apparatus 100 may include an environment recognition unit 110, a determination unit 120, a behavior determination unit 130, a behavior profile DB 140, and a behavior learning unit 150. Can be.

환경 인식부(110)는 복수의 단말들로부터 수집된 주변 환경 정보를 이용하여 이웃 아바타의 행동 동기를 설정하고, 이웃 아바타의 감정 상태를 추정할 수 있다. 여기서, 주변 환경 정보는, 가상 세계를 구성하는 복수의 오브젝트 각각의 종류, 위치, 이웃 및 메인 아바타의 종류, 이웃 및 메인 아바타의 표정 정보, 이웃 및 메인 아바타의 행동 종류, 이웃 및 메인 아바타의 이동 방향을 포함할 수 있다. 일례로, 오브젝트는 가상 세계를 구성하는 건물, 물건 등을 포함할 수 있다.The environment recognition unit 110 may set behavioral motivations of neighboring avatars using the surrounding environment information collected from the plurality of terminals, and estimate the emotional state of the neighboring avatars. Here, the surrounding environment information may include the types, locations, types of neighbors and main avatars, facial expression information of neighbors and main avatars, types of actions of neighbors and main avatars, and movements of neighbors and main avatars. Direction may be included. In one example, the object may include buildings, objects, and the like that make up the virtual world.

이때, 가상 세계를 구성하는 아바타들은 이웃 아바타와 메인 아바타를 포함하고, 이웃 및 메인 아바타들은 복수의 단말들을 이용하여 제어될 수 있다. 일례로, 메인 아바타는 제어하고자 하는 제어 대상 아바타이고, 이웃 아바타는 가상 세계를 구성하는 아바타들 중 메인 아바타를 제외한 다른 아바타들이될 수 있다. In this case, the avatars constituting the virtual world may include a neighboring avatar and a main avatar, and the neighboring and main avatars may be controlled using a plurality of terminals. For example, the main avatar may be a controlled avatar to be controlled, and the neighboring avatar may be other avatars except for the main avatar among avatars constituting the virtual world.

결정부(120)는 추정된 이웃 아바타의 행동 동기 및 이웃 아바타의 감정 상태를 이용하여 메인 아바타의 행동 동기를 결정할 수 있다.The determination unit 120 may determine the behavior motivation of the main avatar using the estimated behavior motivation of the neighboring avatar and the emotional state of the neighboring avatar.

또한, 결정부(120)는 이웃 아바타의 행동 동기 및 감정상태, 그리고 메인 아바타의 행동 동기를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다.In addition, the determination unit 120 may determine the emotional state of the main avatar by using the behavioral motivation and the emotional state of the neighboring avatar and the behavioral motivation of the main avatar.

행동 결정부(130)는 결정된 메인 아바타의 감정 상태 및 행동 동기를 이용하여행동 프로파일 DB(140)로부터 해당하는 메인 아바타의 행동을 결정할 수 있다.The behavior determiner 130 may determine the behavior of the corresponding main avatar from the behavior profile DB 140 using the determined emotional state and behavior motivation of the main avatar.

일례로, 행동 프로파일 DB(140)에는 메인 아바타의 감정 상태, 메인 아바타의 행동 동기, 가상 세계의 종류, 메인 아바타의 종류, 메인 아바타의 행동 종류, 및 보상값 등의 파라미터들이 데이터베이스화되어 수록될 수 있다.For example, the behavior profile DB 140 includes a database of parameters such as the emotional state of the main avatar, the behavior motivation of the main avatar, the type of the virtual world, the type of the main avatar, the type of the main avatar, and the compensation value. Can be.

행동 학습부(150)는 결정된 메인 아바타의 행동과 기설정된 메인 아바타의 목적을 이용하여 행동 프로파일 DB(140)를 갱신할 수 있다. The behavior learning unit 150 may update the behavior profile DB 140 by using the determined main avatar's behavior and a predetermined main avatar's purpose.

도 2는 자율 행동 생성 장치의 상세 구성을 도시한 도면이다.2 is a diagram illustrating a detailed configuration of an autonomous behavior generating device.

도 2에 따르면, 환경 인식부(110)는 감정 추정부(111), 행동-감정 정보 DB(112), 동기 추정부(113), 및 행동-동기 정보 DB(114)를 포함할 수 있다.According to FIG. 2, the environment recognizer 110 may include an emotion estimator 111, a behavior-emotion information DB 112, a motivation estimator 113, and a behavior-synchronization information DB 114.

감정 추정부(111)는 주변 환경 정보를 이용하여 행동-감정 정보 DB(112)로부터 해당하는 이웃 아바타의 감정 상태를 추정할 수 있다. 이때, 행동-감정 정보 DB(112)에는 도 4와 같이, 러셀의 원형 모델(Russell Circumplex)을 이용하여 유쾌함(가로축)과 활동성(세로축)을 기준으로 분류된 아바타의 감정 상태가 수록될 수 있다.The emotion estimation unit 111 may estimate the emotional state of the corresponding neighboring avatar from the behavior-emotional information DB 112 using the surrounding environment information. In this case, as shown in FIG. 4, the behavior-emotion information DB 112 may include emotion states of avatars classified based on pleasantness (horizontal axis) and activity (vertical axis) using the Russell Circumplex. .

일례로, 행동-감정 정보 DB(112)에는 이웃 아바타의 행동 종류와 이웃 아바타의 감정 상태가 일대일로 대응되도록 데이터베이스화되어 수록될 수 있다. 여기서, 이웃 아바타의 행동 종류는 이웃 아바타의 표정 종류, 및 이웃 아바타의 몸동작 종류를 포함할 수 있다. For example, the behavior-emotion information DB 112 may include a database such that the behavior type of the neighboring avatar and the emotional state of the neighboring avatar correspond one-to-one. Here, the behavior type of the neighboring avatar may include a facial expression type of the neighboring avatar and a gesture type of the neighboring avatar.

보다 상세하게는, 이웃 아바타의 얼굴 표정이 웃고 있는 경우, 감정 추정부(111)는 행동-감정 정보 DB(112)로부터 웃고 있는 표정에 해당하는 "행복(happy)"를 이웃 아바타의 감정 상태로 추정할 수 있다. 반면, 이웃 아바타의 얼굴 표정에서 입꼬리가 아래로 내려간 경우, 감정 추정부(111)는 행동-감정 정보 DB(112)로부터 입꼬리가 내려간 표정에 해당하는 "슬픔(sad)"를 이웃 아바타의 감정 상태로 추정할 수 있다.More specifically, when the facial expressions of the neighboring avatars are laughing, the emotion estimator 111 sets "happy" corresponding to the smiling expression from the behavior-emotion information DB 112 as the emotional state of the neighboring avatars. It can be estimated. On the other hand, when the mouth tail is lowered from the facial expressions of the neighboring avatars, the emotion estimation unit 111 expresses a "sad" corresponding to the expression of the mouth tails descending from the behavior-emotion information DB 112, and the emotional state of the neighboring avatars. It can be estimated as

동기 설정부(113)는 주변 환경 정보를 이용하여 행동-동기 정보 DB(114)로부터 해당하는 이웃 아바타의 행동 동기를 설정할 수 있다. The synchronization setting unit 113 may set the behavior motivation of the corresponding neighboring avatar from the behavior-synchronization information DB 114 using the surrounding environment information.

이때, 행동-동기 정보 DB(114)에는 이웃 아바타의 종류, 이웃 아바타의 행동 종류, 주변 환경 정보, 및 이웃 아바타의 행동 동기가 일대일로 대응되도록 데이터베이스화되어 수록될 수 있다. 즉, 이웃 아바타의 행동 동기를 설정하는 경우, 주변 환경 정보는 시장에서 있는 상인 아바타, 콘서트장 객석에 있는 아바타, 및 콘서트를 하고 있는 아바타 등의 행동이 서로 달라지는 것을 반영하기 위해 이용될 수 있다.In this case, the behavior-synchronization information DB 114 may include a database such that the type of the neighboring avatar, the type of the neighboring avatar's behavior, the surrounding environment information, and the behavioral motivation of the neighboring avatar correspond one-to-one. That is, when setting the behavioral motivations of the neighboring avatars, the surrounding environment information may be used to reflect the behaviors of the merchant avatars in the market, the avatars in the concert hall, and the avatars in the concert.

일례로, 동기 설정부(113)는 이웃 아바타의 종류, 이동 방향, 및 행동 종류에 기초하여 이웃 아바타의 행동 동기에 해당하는 동기 파라미터들을 설정할 수 있다. 여기서, 동기 파라미터는 사회적 동기, 직업적 동기, 및 군중 행동 동기 파라미터를 포함할 수 있다.For example, the synchronization setting unit 113 may set synchronization parameters corresponding to the behavior synchronization of the neighboring avatar based on the type, the moving direction, and the behavior type of the neighboring avatar. Here, the motivational parameter may include social motivation, professional motivation, and crowd behavioral motivation parameter.

일례로, 이웃 아바타의 종류가 시민인 경우, 사회적 동기 파라미터는, 이웃 아바타와 다른 이웃 아바타가 대화를 하거나 함께 걷는 등의 사회적 관계를 형성하는 동기의 강도를 나타내는 파라미터이다.For example, when the type of the neighboring avatar is a citizen, the social motivation parameter is a parameter representing the strength of motivation for forming a social relationship such as a conversation between the neighboring avatar and another neighboring avatar or walking together.

그리고, 이웃 아바타의 종류가 상인 경우, 직업적 동기 파라미터는 물건 판매, 호객 행위와 관련된 동기의 강도를 나타내는 파라미터이고, 이웃 아바타의 종류가 도둑인 경우, 직접적 동기 파라미터는 발각되지 않고 물건을 훔치는 것과 관련된 동기의 강도를 나타내는 파라미터이다.And, if the type of neighboring avatars is a merchant, the occupational motivation parameter is a parameter representing the strength of the motivation associated with selling goods and acts of a guest; if the type of neighboring avatar is a thief, the direct motivational parameter is not found and is related to stealing the goods. This parameter indicates the strength of synchronization.

그리고, 군중 행동 동기 파라미터는 이웃 아바타가 다른 이웃 아바타들과 동일한 행동을 하려는 동기의 강도를 나타내는 파라미터이다. 일례로, 궁중 행동은, 박수 치는 동기, 일어서는 동기 등을 포함할 수 있다.In addition, the crowd behavior motivation parameter is a parameter representing the strength of motivation for neighboring avatars to perform the same behavior as other neighboring avatars. In one example, the court action may include motivation to clap, motivation to stand up, and the like.

보다 상세하게는, 주변 환경 정보에 포함된 이웃 아바타의 종류가 시민이고, 이웃 아바타의 이동 방향이 메인 아바타를 가리키고, 이웃 아바타의 행동 종류가 걷는 행동인 경우, 동기 설정부(113)는 행동-동기 정보 DB(114)로부터 시민, 및 메인 아바타를 향하여 걷는 행동에 해당하는 사회적 동기를 이웃 아바타의 행동 동기로 추정할 수 있다. 그리고, 동기 설정부(113)는 사회적 동기 파라미터의 값을 증가시킬 수 있다.In more detail, when the type of the neighbor avatar included in the surrounding environment information is a citizen, the moving direction of the neighbor avatar indicates the main avatar, and the type of the action of the neighbor avatar is the walking action, the synchronization setting unit 113 performs the action-. The social motivation corresponding to the behavior of walking toward the citizen and the main avatar from the synchronization information DB 114 can be estimated as the behavior motivation of the neighboring avatar. In addition, the synchronization setting unit 113 may increase the value of the social synchronization parameter.

또한, 이웃 아바타의 종류가 상인이고, 이웃 아바타의 이동 방향이 메인 아바타를 가리키고, 이웃 아바타의 행동 종류가 걷는 행동인 경우, 동기 설정부(113)는 행동-동기 정보 DB(114)로부터 상인 및 메인 아바타를 향하여 걷는 행동에 해당하는 직업적 동기를 이웃 아바타의 행동 동기로 추정할 수 있다. 그리고, 동기 설정부(113)는 직업적 동기 파라미터의 값을 증가시킬 수 있다.In addition, when the type of the neighboring avatar is a merchant, the moving direction of the neighboring avatar points to the main avatar, and the type of the action of the neighboring avatar is the walking action, the synchronization setting unit 113 may determine the merchant from the action-synchronization information DB 114. The occupational motivation corresponding to the walking behavior toward the main avatar may be estimated as the behavioral motivation of the neighboring avatar. In addition, the synchronization setting unit 113 may increase the value of the occupational synchronization parameter.

또한, 이웃 아바타 주변에 위치하는 셋 이상의 다른 이웃 아바타들이 박수치는행동과 같이, 동일한 행동을 하는 경우, 동기 설정부(113)는 이웃 아바타의 행동 동기를 군중 행동 동기로 추정하고, 이웃 아바타의 군중 행동 동기 파라미터의 값을 증가시킬 수 있다.In addition, when three or more other neighboring avatars positioned around the neighboring avatars are clapping, the synchronization setting unit 113 estimates the behavioral motives of the neighboring avatars as the crowding behavioral motives, and the crowd of the neighboring avatars. It is possible to increase the value of the behavior motivation parameter.

결정부(120)는 행동 동기 결정부(121) 및 감정 상태 결정부(122)를 포함할 수 있다.The determination unit 120 may include an action motivation determination unit 121 and an emotional state determination unit 122.

행동 동기 결정부(121)는 이웃 및 메인 아바타의 종류, 그리고, 추정된 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정할 수 있다. 일례로, 행동 동기 결정부(121)는 아래의 수학식 1을 이용하여 메인 아바타의 행동 동기(

Figure pat00001
)를 결정할 수 있다.The behavior motivation determiner 121 may determine the behavior motivation of the main avatar by using the type of the neighbor and the main avatar and the estimated behavior motivation of the neighboring avatar. For example, the behavior motivation determiner 121 may use the behavior motivation of the main avatar using Equation 1 below.
Figure pat00001
) Can be determined.

Figure pat00002
Figure pat00002

수학식 1에서, Mi는 사회적 동기, 직업적 동기, 및 군중 행동 동기 등과 같이 여러 종류의 동기의 강도를 나타내는 동기 파라미터이다.In Equation 1, Mi is a motivation parameter indicating the strength of various kinds of motivations such as social motivation, occupational motivation, and crowd behavioral motivation.

일례로, 메인 아바타의 종류가 도둑, 이웃 아바타의 종류가 군인이고, 군인인 이웃 아바타의 직업적 동기 파라미터가 높은 경우, 행동 동기 결정부(121)는 메인 아바타의 직업적 동기 파라미터를 낮출 수 있다. 즉, 메인 아바타의 직업적 동기 파라미터를 낮춤으로써, 행동 동기 결정부(121)는 메인 아바타가 물건을 훔치는 행동을 생성하지 않도록 메인 아바타의 행동 동기를 결정할 수 있다.For example, when the type of the main avatar is a thief, the type of the neighbor avatar is a soldier, and the occupational motivation parameter of the neighboring avatar which is the soldier is high, the behavior motivation determining unit 121 may lower the occupation motivation parameter of the main avatar. That is, by lowering the occupational motivation parameter of the main avatar, the behavior motivation determining unit 121 may determine the behavior motivation of the main avatar so that the main avatar does not generate the stealing object.

또한, 이웃 및 메인 아바타의 종류가 시민이고, 이웃 아바타의 사회적 동기 파라미터가 높은 경우, 행동 동기 결정부(121)는 메인 아바타의 사회적 동기 파라미터를 증가시킬 수도 있다. In addition, when the types of the neighbor and the main avatar are citizens and the social motivation parameter of the neighboring avatar is high, the behavior motivation determining unit 121 may increase the social motivation parameter of the main avatar.

감정 상태 결정부(122)는 추정된 이웃 아바타의 감정 상태 및 메인 아바타의 행동 동기를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다.The emotional state determiner 122 may determine the emotional state of the main avatar using the estimated emotional state of the neighboring avatar and the behavioral motivation of the main avatar.

일례로, 메인 아바타의 직업적 동기 파라미터가 이전보다 증가된 경우, 감정 상태 결정부(122)는 메인 아바타의 행동 동기가 잘 달성 된 것으로 판단하여, 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "행복(happy)"을 향하도록 결정할 수 있다.For example, when the occupational motivation parameter of the main avatar is increased than before, the emotional state determination unit 122 determines that the behavioral motivation of the main avatar is well achieved, and the emotional state of the main avatar is “happy” in Russell's original model. (happy) ".

반대로, 메인 아바타의 직업적 동기 파라미터가 이전보다 감소된 경우, 감정 상태 결정부(122)는 메인 아바타의 행동 동기가 잘 달성되지 않은 것으로 판단하여, 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "슬픔(sad)"을 향하도록 결정할 수 있다.On the contrary, when the occupational motivation parameter of the main avatar is reduced than before, the emotional state determination unit 122 determines that the behavioral motivation of the main avatar is not well achieved, so that the emotional state of the main avatar is “sorrow” in Russell's original model. (sad) ".

또한, 메인 아바타의 사회적 동기 파라미터가 기설정된 제1 기준값 이상인 경우, 메인 아바타가 이웃 아바터들과 사회적 교류를 활발히 할 수 있도록 감정 상태 결정부(122)는 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "Excited"를 향하도록 결정할 수 있다. 반대로, 메인 아바타의 사회적 동기 파라미터가 기설정된 제1 기준값 미만인 경우, 감정 상태 결정부(122)는 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "Bored"를 향하도록 결정할 수 있다.In addition, when the social motivation parameter of the main avatar is greater than or equal to a predetermined first reference value, the emotional state determiner 122 may determine the emotional state of the main avatar as one of Russell's original models so that the main avatar can actively socialize with neighboring avatars. You can decide to point to "Excited". On the contrary, when the social motivation parameter of the main avatar is less than the first predetermined reference value, the emotional state determiner 122 may determine the emotional state of the main avatar to face "Bored" in Russell's original model.

또한, 메인 아바타의 궁중 행동 동기 파라미터가 기설정된 제2 기준값 이상인 경우, 감정 상태 결정부(122)는 이웃 아바타들의 감정 상태를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다. 일례로, 감정 상태 결정부(122)는 이웃 아바타들의 감정 상태에 해당하는 파라미터 값의 평균을 계산하고, 러셀의 원형 모델 중 계산된 평균에 해당하는 감정을 메인 아바타의 감정 상태로 결정할 수 있다.In addition, when the court action motivation parameter of the main avatar is equal to or greater than a second predetermined reference value, the emotional state determiner 122 may determine the emotional state of the main avatar using the emotional state of the neighboring avatars. For example, the emotional state determiner 122 may calculate an average of parameter values corresponding to emotional states of neighboring avatars, and determine an emotion corresponding to the calculated average among the prototype models of Russell as the emotional state of the main avatar.

이외에, 감정 상태 결정부(122)는 아래의 수학식 2를 이용하여 메인 아바타의 감정 상태(E)를 결정할 수도 있다.In addition, the emotional state determiner 122 may determine the emotional state E of the main avatar using Equation 2 below.

Figure pat00003
Figure pat00003

수학식 2에서, E'은 메인 아바타의 목표 감정 상태이고, γ는 감정 상태가 갱신되는 강도(weight)이다. 일례로, γ는 0 내지 1 사이의 임의의 값을 가질 수 있으며, γ가 1에 가까울수록 이웃 아바타들에게 빠르게 반응하는 감정을 나타내고, 0에 가까울수록 이웃 아바타들에게 무감각하게 반응하는 감정을 나타낼 수 있다.In Equation 2, E 'is a target emotional state of the main avatar, and γ is a weight at which the emotional state is updated. For example, γ can have any value between 0 and 1, and the closer γ is to 1, the faster the emotion responds to the neighboring avatars, and the closer to 0, the emotional response to the neighboring avatars is insensitive. Can be.

이때, 감정 상태 결정부(122)는 아래의 수학식 3과 같이, 메인 아바타의 성격(C)을 이용하여 메인 아바타의 감정 상태(E)를 결정할 수도 있다.In this case, the emotional state determiner 122 may determine the emotional state E of the main avatar using the personality C of the main avatar as shown in Equation 3 below.

Figure pat00004
Figure pat00004

여기서, M은 메인 아바타의 감정 상태와 메인 아바타 고유의 성격의 차를 의미하는 감정 상태 변이, E'은 메인 아바타의 목표 감정 상태, γ는 감정 상태가 갱신되는 강도(weight), C는 메인 아바타의 성격, α는 메인 아바타의 완고성을 나타내는 변수이다. Where M is an emotional state variation indicating a difference between the emotional state of the main avatar and the unique personality of the main avatar, E 'is a target emotional state of the main avatar, γ is a weight at which the emotional state is updated, and C is a main avatar. Is the variable representing the stubbornness of the main avatar.

일례로, α가 0에 가까울수록 메인 아바타의 감정 상태는 이성적인 성향이 강해지고, 1에 가까울수록 메인 아바타의 감정 상태는 감성적 성향이 강해지는 것을 의미한다. 여기서, 이성적 성향이란 자신의 원래 성격을 유지하려는 성향이고, 감성적 성향이란 순간적인 감정에 의존하려는 성향을 의미한다.For example, as α approaches 0, the emotional state of the main avatar becomes stronger in rationality, and as near to 1, the emotional state of the main avatar becomes stronger. Here, rational inclination is a propensity to maintain one's original personality, and emotional inclination is a propensity to rely on instant emotion.

행동 결정부(130)는 메인 아바타의 감정 상태 및 메인 아바타의 행동 동기를 이용하여 행동 프로파일 DB(140)로부터 해당하는 행동 종류를 메인 아바타의 행동을 결정할 수 있다.The behavior determiner 130 may determine the behavior of the main avatar from the behavior profile DB 140 using the emotional state of the main avatar and the behavior motivation of the main avatar.

일례로, 행동 결정부(130)는 행동 프로파일 DB에서 메인 아바타의 감정 상태, 행동 동기, 메인 아바타의 종류, 가상 세계 종류에 해당하는 행동 종류를 메인 아바타의 행동으로 결정할 수 있다.For example, the behavior determiner 130 may determine an action type corresponding to the emotional state of the main avatar, the behavior motivation, the type of the main avatar, and the type of the virtual world in the behavior profile DB as the action of the main avatar.

이때, 행동 프로파일 DB(140)에는 메인 아바타의 감정 상태, 메인 아바타의 행동 동기, 가상 세계 종류, 메인 아바타의 종류, 메인 아바타의 행동 종류, 및 보상값이 데이터베이스화되어 수록될 수 있다. 여기서, 메인 아바타의 행동 종류는 메인 아바타의 표정 종류, 및 메인 아바타의 몸동작 종류를 포함할 수 있다. In this case, the behavior profile DB 140 may include the emotion state of the main avatar, the behavior motivation of the main avatar, the virtual world type, the type of the main avatar, the type of action of the main avatar, and the compensation value in a database. Here, the action type of the main avatar may include an expression type of the main avatar and a gesture type of the main avatar.

일례로, 메인 아바타의 종류가 바이올린 연주자인 경우, 몸동작 종류는, 앉거나 혹은 일어서서 연주하는 행동, 또는 악장을 넘기는 행동 등을 포함할 수 있다. 그리고, 메인 아바타의 종류가 상인인 경우, 몸동작 종류는 걸어가는 동작, 대화하는 동작, 가만히 서 있는 동작, 및 물건을 판매하는 동작 등을 포함할 수 있다. 또한, 메인 아바타의 종류가 군인인 경우, 몸동작 종류는 칼 또는 총을 이용하는 행동을 포함할 수 있다.For example, when the type of the main avatar is a violinist, the type of gesture may include sitting or standing up, playing the movement, or the like. When the type of the main avatar is a merchant, the type of gesture may include a walking motion, a conversational motion, a standing motion, a motion of selling an object, and the like. Also, when the main avatar is a soldier, the gesture type may include an action using a knife or a gun.

이때, 메인 아바타의 감정 상태에 따라 해당하는 메인 아바타의 표정 종류는 바뀔 수도 있다.At this time, the facial expression type of the corresponding main avatar may change according to the emotional state of the main avatar.

일례로, 메인 아바타의 감정 상태가 "행복", 종류는 바이올린 연주자, 직업적 동기가 증가된 경우, 행동 결정부(130)는 웃으면서 악장을 넘기는 행동을 메인 아바타의 행동으로 결정할 수 있다. For example, when the emotional state of the main avatar is "happy", the type is a violinist, and the professional motivation is increased, the behavior determination unit 130 may determine the behavior of the main avatar as the laughter passes the movement.

행동 학습부(150)는 결정된 메인 아바타의 행동과 기설정된 메인 아바타의 목적을 이용하여 행동 프로파일 DB(140)를 갱신할 수 있다.The behavior learning unit 150 may update the behavior profile DB 140 by using the determined main avatar's behavior and a predetermined main avatar's purpose.

이때, 행동 학습부(150)는 메인 아바타의 종류, 감정 상태, 및 행동 동기를 이용하여 행동 프로파일 DB(140)에서 보상값을 조정할 수 있다. 그리고, 보상값을 조정함으로써 메인 아바타의 행동이 학습될 수 있다.In this case, the behavior learning unit 150 may adjust the compensation value in the behavior profile DB 140 using the type of the main avatar, the emotional state, and the behavioral motivation. And, by adjusting the compensation value, the behavior of the main avatar can be learned.

일례로, 메인 아바타의 종류가 상인, 감성 상태는 "행복", 직업적 동기 파라미터가 제3 기준값 이상이고, 행동 결정부(130)에서 메인 파라미터의 행동을 "이웃 아바타에 걸어가면서 물건 판매"로 결정되고, 메인 파라미터의 목적이 물건 판매로 기설정된 경우, 행동 학습부(150)는 행동 프로파일 DB(140)에서 해당하는 보상값을 증가시킬 수 있다. For example, the type of the main avatar is a merchant, the emotional state is "happy", the professional motivation parameter is greater than or equal to the third reference value, and the behavior determination unit 130 determines the action of the main parameter as "selling things while walking to the neighboring avatar". If the purpose of the main parameter is set to sell goods, the behavior learning unit 150 may increase a corresponding reward value in the behavior profile DB 140.

이때, 행동 결정부(130)에서 메인 파라미터의 행동을 "가만히 서서 물건 판매"로 결정되고, 메인 파라미터의 목적이 물건 판매로 기설정된 경우, 행동 학습부(150)는 행동 프로파일 DB(140)에서 해당하는 보상값을 낮출 수 있다. 그러면, 행동 결정부(130)는 이후에, 행동 프로파일 DB(140)에서 조건에 해당하는 행동 종류들 중 보상값이 가장 높은 것을 메인 아바타의 행동으로 결정할 수 있다.At this time, when the action of the main parameter is determined by the behavior determination unit 130 to "stand still" and the purpose of the main parameter is set to sell the object, the behavior learning unit 150 in the behavior profile DB 140 The corresponding compensation value can be lowered. Then, the behavior determiner 130 may determine, as the behavior of the main avatar, the highest reward value among the kinds of behaviors corresponding to the condition in the behavior profile DB 140.

또한, 아바타의 행동은 표정을 포함할 수도 있다. 즉, 웃는 표정으로 이웃 아바타에 걸어가면서 물건을 판매하는 경우, 행동 학습부(150)는 해당하는 보상값을 증가시킬 수 있다. 반면, 화난 표정으로 이웃 아바타에 걸어가면서 물건을 판매하는 경우, 행동 학습부(150)는 해당하는 보상값을 감소시킬 수 있다. In addition, the behavior of the avatar may include an expression. That is, when selling a product while walking to a neighboring avatar with a smile, the behavior learning unit 150 may increase a corresponding reward value. On the other hand, when selling goods while walking to a neighboring avatar with an angry expression, the behavior learning unit 150 may decrease a corresponding reward value.

일례로, 메인 아바타의 종류가 상인, 감성 상태는 "행복", 직업적 동기 파라미터가 제3 기준값 이상인 경우, 행동 프로파일 DB(140)는 "웃는 표정으로 이웃 아바타에 걸어가면서 물건 판매", "화난 표정으로 이웃 아바타에 걸어가면서 물건 판매", "웃는 표정으로 가만히 서서 물건 판매" 및 "화난 표정으로 가만히 서서 물건 판매" 중 "웃는 표정으로 이웃 아바타에 걸어가면서 물건 판매"를 메인 아바타의 행동으로 결정할 수 있다. For example, if the main avatar is a merchant, the emotional state is "happy", and the occupational motivation parameter is greater than or equal to the third reference value, the behavior profile DB 140 may "sold a product while walking to a neighboring avatar with a smile" or "an angry expression". "Sale stuff while walking to a neighbor's avatar", "Stand up with a smile and sell things", and "Stand up with a smile and sell things" as the action of the main avatar. have.

그러면, 결정된 메인 아바타의 행동이 디스플레이에 표시될 수 있다. 이때, 디스플레이는 자율 행동 생성 장치(100)에 마련될 수도 있고, 디스플레이는 자율 행동 생성 장치(100)의 외부에 위치할 수도 있다.Then, the determined main avatar's behavior may be displayed on the display. In this case, the display may be provided in the autonomous behavior generating apparatus 100, and the display may be located outside the autonomous behavior generating apparatus 100.

이외에, 행동 학습부(150)는 아래의 수학식 4와 같이, Q-Learning을 이용하여 보상값을 조정함으로써 행동 프로파일 DB(140)를 갱신할 수도 있다.In addition, the behavior learning unit 150 may update the behavior profile DB 140 by adjusting the reward value using Q-Learning as shown in Equation 4 below.

Figure pat00005
Figure pat00005

수학식 4에서, Q는 행동 프로파일 DB, s는 현재 상태, a는 메인 아바타의 행동, s'은 다음 상태, γ는 보상값이다. 여기서, 현재 상태 s는, 행동 a를 수행하기 직전의 메인 아바타의 상태이고, 다음 상태 s'은 행동 a를 수행한 후의 메인 아바타의 상태를 포함할 수 있다.In Equation 4, Q is a behavior profile DB, s is a current state, a is a main avatar's action, s' is a next state, and γ is a compensation value. Here, the current state s may be a state of the main avatar immediately before performing the action a, and the next state s' may include a state of the main avatar after performing the action a.

도 3은 자율 행동 생성 장치의 동작을 설명하기 위해 제공되는 흐름도이다.3 is a flowchart provided to explain the operation of the autonomous behavior generating apparatus.

도 3을 참조하면, 자율 행동 생성 장치(100)는 복수의 단말들로부터 주변 환경 정보를 수집할 수 있다(S310). Referring to FIG. 3, the autonomous behavior generating apparatus 100 may collect surrounding environment information from a plurality of terminals (S310).

일례로, 주변 환경 정보는, 가상 세계를 구성하는 복수의 오브젝트 각각의 종류, 위치, 이웃 및 메인 아바타의 종류, 이웃 및 메인 아바타의 표정 정보, 이웃 및 메인 아바타의 행동 종류, 이웃 및 메인 아바타의 이동 방향을 포함할 수 있다. 일례로, 오브젝트는 가상 세계를 구성하는 건물, 물건 등을 포함할 수 있다.For example, the surrounding environment information may include the types, locations, types of neighbors and main avatars, facial expression information of neighbors and main avatars, types of actions of neighbors and main avatars, and types of neighbors and main avatars. It may include the direction of movement. In one example, the object may include buildings, objects, and the like that make up the virtual world.

이어, 감정 상태 추정부(111)는 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정할 수 있다(S320).Next, the emotional state estimating unit 111 may estimate the emotional state of the neighboring avatar using the collected surrounding environment information (S320).

일례로, 감정 상태 추정부(111)는 행동-감정 정보 DB에서 이웃 아바타의 표정 정보에 해당하는 감정 상태를 이웃 아바타의 감정 상태로 추정할 수 있다. 이때, 행동-감정 정보 DB에는 러셀의 원형 모델을 이용하여 이웃 아바타의 표정 정보와 이웃 아바타의 감정 상태가 일대일로 대응되도록 데이터베이스화되어 수록될 수 있다.For example, the emotional state estimator 111 may estimate the emotional state corresponding to the facial expression information of the neighboring avatar from the behavior-emotion information DB as the emotional state of the neighboring avatar. At this time, the behavior-emotion information DB may be recorded as a database such that the facial expression information of the neighboring avatar and the emotional state of the neighboring avatar correspond one-to-one using the prototype model of Russell.

그리고, 동기 설정부(113)는 수집된 주변 환경 정보를 이용하여 이웃 아바타의 행동 동기를 추정하고, 추정된 행동 동기에 해당하는 파라미터 값을 설정할 수 있다(S330).The synchronization setting unit 113 may estimate the behavioral motivation of the neighboring avatar using the collected surrounding environment information and set a parameter value corresponding to the estimated behavioral motivation (S330).

일례로, 동기 설정부(113)는 이웃 아바타의 종류 및 이웃 아바타의 행동 종류에 해당하는 행동 동기를 행동-동기 정보 DB(114)로부터 추정하고, 추정된 행동 동기에 해당하는 파라미터 값을 설정할 수 있다. 이때, 행동 동기는, 사회적 동기, 직업적 동기, 및 군중 행동 동기를 포함할 수 있다.For example, the synchronization setting unit 113 may estimate the behavior motivation corresponding to the type of the neighboring avatar and the behavior type of the neighboring avatar from the behavior-synchronization information DB 114, and set a parameter value corresponding to the estimated behavior motivation. have. At this time, the behavioral motivation may include social motivation, occupational motivation, and crowd behavioral motivation.

이어, 행동 동기 결정부(121)는 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정할 수 있다(S340).Subsequently, the behavior motivation determining unit 121 may determine the behavior motivation of the main avatar by using the behavior motivation of the neighboring avatar (S340).

일례로, 행동 동기 결정부(121)는 메인 및 이웃 아바타의 종류, 그리고, 이웃 아바타의 행동 동기에 해당하는 파라미터 값을 이용하여 메인 아바타의 행동 동기에 해당하는 파라미터 값을 설정할 수 있다.For example, the behavior motivation determiner 121 may set parameter values corresponding to the behavior motivation of the main avatar by using the types of the main and neighbor avatars and parameter values corresponding to the behavior motivation of the neighbor avatars.

그리고, 감정 상태 결정부(122)는 메인 아바타의 행동 동기와 이웃 아바타의 감정 상태를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다(S350).In addition, the emotional state determiner 122 may determine the emotional state of the main avatar using the behavioral motivation of the main avatar and the emotional state of the neighboring avatar (S350).

일례로, 감정 상태 결정부(122)는 메인 아바타의 행동 동기에 해당하는 파라미터 값이 증가했는지 혹은 감소했는지에 따라, 메인 아바타의 감정 상태를 도 4와 같이, "행복" 또는 "슬픔"을 향하도록 결정할 수 있다.For example, the emotional state determiner 122 may change the emotional state of the main avatar toward "happy" or "sorrow" as shown in FIG. 4 according to whether the parameter value corresponding to the behavioral motivation of the main avatar increases or decreases. You can decide to.

또한, S340단계에서 메인 아바타의 행동 동기가 군중 행동 동기로 결정된 경우, 감정 상태 결정부(122)는 이웃 아바타들의 감정 상태에 해당하는 파라미터 값의 평균을 계산하고, 러셀의 원형 모델 중 계산된 평균에 해당하는 감정을 메인 아바타의 감정 상태로 결정할 수도 있다.In addition, when the behavioral motivation of the main avatar is determined as the crowd behavioral motivation in operation S340, the emotional state determination unit 122 calculates an average of parameter values corresponding to the emotional state of the neighboring avatars, and calculates the average of the circular models of Russell. The emotion corresponding to may be determined as the emotional state of the main avatar.

이어, 행동 결정부(130)는 메인 아바타의 감정 상태 및 행동 동기에 기초하여 행동 프로파일 DB(140)로부터 메인 아바타의 행동을 결정할 수 있다(S360).Subsequently, the behavior determination unit 130 may determine the behavior of the main avatar from the behavior profile DB 140 based on the emotional state and the behavior motivation of the main avatar (S360).

일례로, 행동 결정부(130)는 행동 프로파일 DB에서 메인 아바타의 감정 상태, 행동 동기, 메인 아바타의 종류, 가상 세계 종류에 해당하는 행동 종류를 메인 아바타의 행동으로 결정할 수 있다.For example, the behavior determiner 130 may determine an action type corresponding to the emotional state of the main avatar, the behavior motivation, the type of the main avatar, and the type of the virtual world in the behavior profile DB as the action of the main avatar.

이때, 행동 프로파일 DB(140)에는 메인 아바타의 감정 상태, 메인 아바타의 행동 동기, 가상 세계 종류, 메인 아바타의 종류, 메인 아바타의 행동 종류, 및 보상값이 데이터베이스화되어 수록될 수 있다. 여기서, 메인 아바타의 행동 종류는 메인 아바타의 표정 종류, 및 메인 아바타의 몸동작 종류를 포함할 수 있다. In this case, the behavior profile DB 140 may include the emotion state of the main avatar, the behavior motivation of the main avatar, the virtual world type, the type of the main avatar, the type of action of the main avatar, and the compensation value in a database. Here, the action type of the main avatar may include an expression type of the main avatar and a gesture type of the main avatar.

그리고, 행동 학습부(150)는 결정된 메인 아바타의 행동 동기 및 기설정된 메인 아바타의 목적을 이용하여 행동 프로파일 DB를 갱신할 수 있다. 이를 통해, 메인 아바타의 행동이 학습될 수 있다(S370).In addition, the behavior learning unit 150 may update the behavior profile DB using the determined behavior motivation of the main avatar and a predetermined purpose of the main avatar. Through this, the behavior of the main avatar may be learned (S370).

일례로, 행동 학습부(150)는 메인 아바타의 종류, 감정 상태, 및 행동 동기에 따라 행동 프로파일 DB(140)에서 보상값을 증가, 감소 또는 유지 시킬 수 있다. 그러면, 이후에 메인 아바타의 행동을 결정해야 하는 경우, 행동 결정부(130)는 조정된 보상값을 참조하여 이전에 결정된 메인 아바타의 행동 종류를 메인 아바타의 행동으로 다시 선택하도록 결정하거나, 혹은 다른 행동 종류를 선택하도록 결정할 수 있다.For example, the behavior learning unit 150 may increase, decrease or maintain the compensation value in the behavior profile DB 140 according to the type of the main avatar, the emotional state, and the behavioral motivation. Then, if it is necessary later to determine the action of the main avatar, the action determination unit 130 determines to reselect the action type of the previously determined main avatar as the action of the main avatar with reference to the adjusted compensation value, or other You can decide to choose the type of behavior.

지금까지, 감정 추정부(111)에서 이웃 아바타의 감정 상태를 추정하는 것에 대해 설명하였으나, 이는 실시예에 해당되며, 감정 추정부(111)는 메인 아바타의 감정 상태를 추정할 수도 있다.Up to now, the emotion estimation unit 111 has been described for estimating the emotional state of the neighboring avatar, but this is an embodiment, and the emotion estimation unit 111 may estimate the emotional state of the main avatar.

일례로, 메인 아바타의 얼굴 표정을 검출할 수 있는 경우, 감정 추정부(111)는 메인 아바타의 입꼬리가 올라가는 정도에 따라 러셀의 원형 모델 중 "유쾌함"에 해당하는 파라미터의 값을 증가시킬 수 있다. 또한, 감정 추정부(111)는 메인 아바타의 머리가 많이 움직일수록 "활동성"에 해당하는 파라미터 값을 증가시킬 수 있다.For example, when the facial expression of the main avatar can be detected, the emotion estimator 111 may increase the value of the parameter corresponding to "pleasantness" in the prototype model of Russell according to the extent to which the mouth avatar of the main avatar rises. . Also, the emotion estimator 111 may increase a parameter value corresponding to "activity" as the head of the main avatar moves more.

또한, 감정 추정부(111)는 외부로부터 입력되는 센싱 정보, 또는 버튼 값을 이용하여 메인 아바타의 감정 상태를 추정할 수도 있다.In addition, the emotion estimator 111 may estimate the emotion state of the main avatar using sensing information or a button value input from the outside.

일례로, 움짐임을 감지하는 가속 센서, 자이로 센서 등을 이용하여 센싱 정보가 입력될 수 있다. 여기서, 센싱 정보는 센서의 위치, 센서의 속도, 및 가속도, 센서의 방향 등을 포함할 수 있다.For example, sensing information may be input by using an acceleration sensor, a gyro sensor, or the like that detects the movement. Here, the sensing information may include the position of the sensor, the speed and acceleration of the sensor, the direction of the sensor, and the like.

또한, 버튼 값을 이용하는 경우, 감정 추정부(111)는 버튼이 1이면, 메인 아바타의 기분이 "나쁨"에 해당되고, 버튼이 2이면, 메인 아바타의 기분이 "좋음"에 해당하는 것으로 추정할 수도 있다.In addition, when the button value is used, the emotion estimator 111 estimates that if the button is 1, the mood of the main avatar corresponds to "bad", and if the button is 2, the mood of the main avatar corresponds to "good". You may.

또한, 이상에서는, 행도 학습부(150)에서 보상값을 조정하는 것으로 설명하였으나, 이는 실시예에 해당되며, 보상값은 게임 개발자에 의해 조정될 수도 있다.In addition, in the above, the row is also described as adjusting the compensation value in the learner 150, but this is an embodiment, and the compensation value may be adjusted by the game developer.

또한, 본 발명의 실시예들에 따른 통신 장치, 단말 장치, 및 그의 간섭 정렬 방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the communication apparatus, the terminal apparatus, and the interference alignment method according to the embodiments of the present invention include a computer readable medium including program instructions for performing various computer-implemented operations. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The media may be program instructions that are specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

110: 환경 인식부
111: 감정 추정부
112: 행동-감정 정보 DB
113: 동기 설정부
114: 행동-동기 정보 DB
120: 결정부
121: 행동 동기 결정부
122: 감정 상태 결정부
130: 행동 결정부
140: 행동 프로파일 DB
150: 행동 학습부
110: environmental recognition unit
111: emotion estimation unit
112: Behavioral-Emotional Information DB
113: synchronization setting unit
114: behavior-motivation information DB
120: decision
121: Motivation Decision Unit
122: emotional state determination unit
130: Behavior Decision Unit
140: behavioral profile DB
150: behavior learning unit

Claims (20)

복수의 단말들로부터 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정하고, 상기 이웃 아바타의 행동 동기를 설정하는 환경 인식부;
상기 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하고, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 결정부;
상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB을 이용하여 상기 메인 아바타의 행동을 결정하는 행동 결정부
를 포함하는 자율 행동 생성 장치.
An environment recognition unit for estimating an emotional state of a neighboring avatar using surrounding environment information collected from a plurality of terminals, and setting behavioral motivation of the neighboring avatar;
A decision unit to determine an action motive of the main avatar using the action motive of the neighboring avatar and to determine an emotion state of the main avatar using the action motive of the main avatar and the emotion state of the neighboring avatar;
Behavior determination unit for determining the behavior of the main avatar using the determined emotional state and behavior motivation of the main avatar, and the behavior profile DB
Autonomous action generation device comprising a.
제1항에 있어서,
상기 행동 프로파일 DB는,
상기 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 가상 세계 종류, 상기 메인 아바타의 종류, 상기 메인 아바타의 행동 종류, 및 보상값을 포함하고,
상기 행동 결정부는,
상기 메인 아바타의 감정 상태 및 행동 동기가 결정된 경우, 상기 행동 프로파일 DB에서 상기 결정된 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 상기 가상 세계 종류, 및 상기 메인 아바타의 종류에 해당하는 상기 메인 아바타의 행동 종류를 상기 메인 아바타의 행동으로 결정하는 것을 특징으로 하는 자율 행동 생성 장치.
The method of claim 1,
The behavior profile DB,
An emotional state of the main avatar, a behavioral motivation of the main avatar, a virtual world type, a type of the main avatar, a type of behavior of the main avatar, and a reward value,
The action determining unit,
If the emotional state and behavior motivation of the main avatar are determined, the main avatar corresponding to the emotional state of the main avatar determined from the behavior profile DB, the behavior motivation of the main avatar, the virtual world type, and the type of the main avatar And an action type of the main avatar as the action of the main avatar.
제1항에 있어서,
상기 환경 인식부는,
상기 주변 환경 정보 및 행동-감정 정보 DB를 이용하여 이웃 아바타의 감정 상태를 추정하는 감정 추정부; 및
상기 주변 환경 정보 및 행동-동기 정보 DB를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 동기 설정부
를 포함하는 자율 행동 생성 장치.
The method of claim 1,
The environmental recognition unit,
An emotion estimator estimating an emotional state of a neighboring avatar using the surrounding environment information and behavior-emotion information DB; And
Synchronization setting unit for setting the behavioral motivation of the neighboring avatar using the surrounding environment information and behavior-synchronous information DB
Autonomous action generation device comprising a.
제3항에 있어서,
상기 주변 환경 정보는, 상기 가상 세계를 구성하는 복수의 오브젝트 각각의 종류 및 위치, 상기 이웃 및 메인 아바타의 종류, 상기 이웃 및 메인 아바타의 표정 정보, 상기 이웃 및 메인 아바타의 행동 종류, 상기 이웃 및 메인 아바타의 이동 방향을 포함하고,
상기 행동-감정 정보 DB는, 러셀의 원형 모델(Russell Circumplex)을 이용하여 상기 이웃 아바타의 표정 정보와 상기 이웃 아바타의 감정 상태를 일대일로 대응하여 데이터베이스화되고,
상기 감정 추정부는,
상기 이웃 아바타의 표정 정보를 이용하여 상기 행동-감정 정보 DB로부터 상기 이웃 아바타의 감정 상태를 추정하는 것을 특징으로 하는 자율 행동 생성 장치.
The method of claim 3,
The surrounding environment information may include a type and a location of each of the plurality of objects constituting the virtual world, a type of the neighbor and the main avatar, facial expression information of the neighbor and the main avatar, an action type of the neighbor and the main avatar, the neighborhood and The direction of movement of the main avatar,
The behavior-emotion information DB is databased in a one-to-one correspondence between the facial expression information of the neighboring avatar and the emotional state of the neighboring avatar using a Russell Circumplex,
The emotion estimation unit,
And an emotional state of the neighboring avatar is estimated from the behavior-feeling information DB using the facial expression information of the neighboring avatar.
제4항에 있어서,
상기 행동-동기 정보 DB는, 상기 이웃 아바타의 종류, 상기 이웃 아바타의 행동 종류, 주변 환경 정보, 및 상기 이웃 아바타의 행동 동기를 일대일로 대응하여 데이터베이스화되고,
상기 동기 설정부는,
상기 이웃 아바타의 종류 및 상기 이웃 아바타의 행동 종류를 이용하여 상기 행동-동기 정보 DB로부터 상기 이웃 아바타의 행동 동기를 추정하고, 상기 추정된 이웃 아바타의 행동 동기에 해당하는 파라미터 값을 설정하는 것을 특징으로 하는 자율 행동 생성 장치.
The method of claim 4, wherein
The action-synchronization information DB is databased in a one-to-one correspondence with the type of the neighboring avatar, the action type of the neighboring avatar, the surrounding environment information, and the action motivation of the neighboring avatar.
The synchronization setting unit,
Estimating the behavior motivation of the neighboring avatar from the behavior-synchronization information DB using the type of the neighboring avatar and the behavior type of the neighboring avatar, and setting a parameter value corresponding to the estimated behavior of the neighboring avatar Autonomous behavior generator.
제1항에 있어서,
상기 이웃 및 메인 아바타의 행동 동기는, 사회적 동기, 직업적 동기, 및 군중 행동 동기를 포함하는 자율 행동 생성 장치.
The method of claim 1,
The behavioral motivations of the neighboring and main avatars include social, professional, and crowd behavioral motivation.
제1항에 있어서,
상기 결정부는,
상기 추정된 이웃 아바타의 행동 동기, 상기 이웃 아바타의 종류, 및 상기 메인 아바타의 종류에 기초하여 상기 메인 아바타의 행동 동기를 결정하는 것을 특징으로 하는 자율 행동 생성 장치.
The method of claim 1,
The determination unit,
And determining the behavior motive of the main avatar based on the estimated behavior motive of the neighboring avatar, the type of the neighboring avatar, and the type of the main avatar.
제1항에 있어서,
상기 결정부는,
상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태에 해당하는 파라미터 값에 기초하여 상기 메인 아바타의 감정 상태를 결정하는 자율 행동 생성 장치.
The method of claim 1,
The determination unit,
And determining an emotional state of the main avatar based on a parameter value corresponding to the behavioral motivation of the main avatar and the emotional state of the neighboring avatar.
제1항에 있어서,
상기 결정부는,
상기 메인 아바타의 성격이 설정된 경우, 상기 메인 아바타의 성격과 상기 메인 아바타의 감정 상태 변이를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 자율 행동 생성 장치.
The method of claim 1,
The determination unit,
And when the personality of the main avatar is set, determining the emotional state of the main avatar by using the personality of the main avatar and the emotional state variation of the main avatar.
제1항에 있어서,
상기 결정된 메인 아바타의 행동 및 기설정된 메인 아바타의 목적을 이용하여 상기 행동 프로파일 DB를 갱신하는 행동 학습부
를 더 포함하는 자율 행동 생성 장치.
The method of claim 1,
A behavior learning unit for updating the behavior profile DB using the determined behavior of the main avatar and a predetermined purpose of the main avatar
Autonomous action generating device further comprising.
제10항에 있어서,
상기 행동 학습부는,
상기 메인 아바타의 행동 및 상기 메인 아바타의 목적을 기초로 보상값을 조정하여 상기 행동 프로파일 DB를 갱신하는 것을 특징으로 하는 자율 행동 생성 장치.
The method of claim 10,
The behavior learning unit,
And adjusting the compensation value based on the action of the main avatar and the purpose of the main avatar to update the behavior profile DB.
복수의 단말들로부터 주변 환경 정보를 수집하는 단계;
상기 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정하는 단계;
상기 수집된 주변 환경 정보를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 단계;
상기 추정된 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하는 단계;
상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 단계;
상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB를 이용하여 상기 메인 아바타의 행동을 결정하는 단계
를 포함하는 자율 행동 생성 방법.
Collecting surrounding environment information from a plurality of terminals;
Estimating an emotional state of a neighboring avatar using the collected surrounding environment information;
Setting a behavioral motivation of the neighboring avatar using the collected surrounding environment information;
Determining behavior motivation of a main avatar using the estimated behavior motivation of the neighboring avatar;
Determining an emotional state of the main avatar using the behavioral motivation of the main avatar and the emotional state of the neighboring avatar;
Determining the behavior of the main avatar by using the determined emotional state, behavior motivation, and behavior profile DB of the main avatar;
Autonomous action generation method comprising a.
제12항에 있어서,
상기 행동 프로파일 DB는,
상기 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 가상 세계 종류, 상기 메인 아바타의 종류, 상기 메인 아바타의 행동 종류, 및 보상값을 포함하고,
상기 메인 아바타의 행동을 결정하는 단계는,
상기 메인 아바타의 감정 상태 및 행동 동기가 결정된 경우, 상기 행동 프로파일 DB에서 상기 결정된 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 상기 가상 세계 종류, 및 상기 메인 아바타의 종류에 해당하는 상기 메인 아바타의 행동 종류를 상기 메인 아바타의 행동으로 결정하는 것을 특징으로 하는 자율 행동 생성 방법.
The method of claim 12,
The behavior profile DB,
An emotional state of the main avatar, a behavioral motivation of the main avatar, a virtual world type, a type of the main avatar, a type of behavior of the main avatar, and a reward value,
Determining the action of the main avatar,
If the emotional state and behavior motivation of the main avatar are determined, the main avatar corresponding to the emotional state of the main avatar determined from the behavior profile DB, the behavior motivation of the main avatar, the virtual world type, and the type of the main avatar Autonomous action generation method, characterized in that for determining the type of action of the main avatar.
제12항에 있어서,
상기 이웃 아바타의 감정 상태를 추정하는 단계는,
상기 주변 환경 정보를 이용하여 상기 행동-감정 정보 DB로부터 해당하는 감정상태를 상기 이웃 아바타의 감정 상태로 추정하는 것을 특징으로 하는 자율 행동 생성 방법.
The method of claim 12,
Estimating the emotional state of the neighboring avatar,
And using the surrounding environment information to estimate a corresponding emotional state from the behavior-emotional information DB as the emotional state of the neighboring avatar.
제14항에 있어서,
상기 주변 환경 정보는, 상기 가상 세계를 구성하는 복수의 오브젝트 각각의 종류 및 위치, 상기 이웃 및 메인 아바타의 종류, 상기 이웃 및 메인 아바타의 표정 정보, 상기 이웃 및 메인 아바타의 행동 종류, 상기 이웃 및 메인 아바타의 이동 방향을 포함하고,
상기 행동-감정 정보 DB는, 러셀의 원형 모델(Russell Circumplex)을 이용하여 상기 이웃 아바타의 표정 정보와 상기 이웃 아바타의 감정 상태를 일대일로 대응하여 데이터베이스화되고,
상기 이웃 아바타의 감정 상태를 추정하는 단계는,
상기 이웃 아바타의 표정 정보를 이용하여 상기 행동-감정 정보 DB로부터 상기 이웃 아바타의 감정 상태를 추정하는 것을 특징으로 하는 자율 행동 생성 방법.
The method of claim 14,
The surrounding environment information may include a type and a location of each of the plurality of objects constituting the virtual world, a type of the neighbor and the main avatar, facial expression information of the neighbor and the main avatar, an action type of the neighbor and the main avatar, the neighborhood and The direction of movement of the main avatar,
The behavior-emotion information DB is databased in a one-to-one correspondence between the facial expression information of the neighboring avatar and the emotional state of the neighboring avatar using a Russell Circumplex,
Estimating the emotional state of the neighboring avatar,
And estimating the emotional state of the neighboring avatar from the behavior-emotion information DB using the facial expression information of the neighboring avatar.
제15항에 있어서,
상기 행동-동기 정보 DB는, 상기 이웃 아바타의 종류, 상기 이웃 아바타의 행동 종류, 주변 환경 정보, 및 상기 이웃 아바타의 행동 동기를 일대일로 대응하여 데이터베이스화되고,
상기 이웃 아바타의 행동 동기를 설정하는 단계는,
상기 이웃 아바타의 종류 및 상기 이웃 아바타의 행동 종류를 이용하여 상기 행동-동기 정보 DB로부터 상기 이웃 아바타의 행동 동기를 추정하고, 상기 추정된 이웃 아바타의 행동 동기에 해당하는 파라미터 값을 설정하는 것을 특징으로 하는 자율 행동 생성 방법.
16. The method of claim 15,
The action-synchronization information DB is databased in a one-to-one correspondence with the type of the neighboring avatar, the action type of the neighboring avatar, the surrounding environment information, and the action motivation of the neighboring avatar.
Setting the behavior motivation of the neighboring avatars,
Estimating the behavior motivation of the neighboring avatar from the behavior-synchronization information DB using the type of the neighboring avatar and the behavior type of the neighboring avatar, and setting a parameter value corresponding to the estimated behavior of the neighboring avatar How to create autonomous behavior.
제11항에 있어서,
상기 이웃 및 메인 아바타의 행동 동기는, 사회적 동기, 직업적 동기, 및 군중 행동 동기를 포함하는 자율 행동 생성 방법.
The method of claim 11,
The behavioral motivations of the neighboring and main avatars include social, professional, and crowd behavioral motivations.
제12항에 있어서,
상기 메인 아바타의 행동 동기를 결정하는 단계는,
상기 추정된 이웃 아바타의 행동 동기, 상기 이웃 아바타의 종류, 및 상기 메인 아바타의 종류에 기초하여 상기 메인 아바타의 행동 동기를 결정하는 것을 특징으로 하는 자율 행동 생성 방법.
The method of claim 12,
Determining the behavior motivation of the main avatar,
And determining the behavioral motivation of the main avatar based on the estimated behavioral motivation of the neighboring avatar, the type of the neighboring avatar, and the type of the main avatar.
제12항에 있어서,
상기 메인 아바타의 감정 상태를 결정하는 단계는,
상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태에 해당하는 파라미터 값에 기초하여 상기 메인 아바타의 감정 상태를 결정하는 자율 행동 생성 방법.
The method of claim 12,
Determining the emotional state of the main avatar,
And determining an emotional state of the main avatar based on a parameter value corresponding to the behavioral motivation of the main avatar and the emotional state of the neighboring avatar.
제12항에 있어서,
상기 결정된 메인 아바타의 행동 및 기설정된 메인 아바타의 목적을 이용하여상기 행동 프로파일 DB를 갱신하는 단계
를 더 포함하는 자율 행동 생성 방법.
The method of claim 12,
Updating the behavior profile DB using the determined main avatar action and a predetermined purpose of the main avatar
Autonomous action generation method further comprising.
KR1020100019911A 2010-03-05 2010-03-05 Apparatus and method for generating autonomous behaviors KR101639190B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100019911A KR101639190B1 (en) 2010-03-05 2010-03-05 Apparatus and method for generating autonomous behaviors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100019911A KR101639190B1 (en) 2010-03-05 2010-03-05 Apparatus and method for generating autonomous behaviors

Publications (2)

Publication Number Publication Date
KR20110100856A true KR20110100856A (en) 2011-09-15
KR101639190B1 KR101639190B1 (en) 2016-07-25

Family

ID=44953125

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100019911A KR101639190B1 (en) 2010-03-05 2010-03-05 Apparatus and method for generating autonomous behaviors

Country Status (1)

Country Link
KR (1) KR101639190B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017079731A1 (en) * 2015-11-06 2017-05-11 Mursion, Inc. Control system for virtual characters

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065987A (en) * 2002-08-07 2004-03-04 Sony Computer Entertainment America Inc Electronic device and method for correcting action of character group by interaction between groups
KR20100006263A (en) * 2008-07-09 2010-01-19 울산대학교 산학협력단 System and method of expressing character

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065987A (en) * 2002-08-07 2004-03-04 Sony Computer Entertainment America Inc Electronic device and method for correcting action of character group by interaction between groups
KR20100006263A (en) * 2008-07-09 2010-01-19 울산대학교 산학협력단 System and method of expressing character

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
‘3차원 가상환경을 위한 군중 아바타 행동 지능 기술’,(2009.12.)* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017079731A1 (en) * 2015-11-06 2017-05-11 Mursion, Inc. Control system for virtual characters
US10489957B2 (en) 2015-11-06 2019-11-26 Mursion, Inc. Control system for virtual characters
US10930044B2 (en) 2015-11-06 2021-02-23 Mursion, Inc. Control system for virtual characters

Also Published As

Publication number Publication date
KR101639190B1 (en) 2016-07-25

Similar Documents

Publication Publication Date Title
US8494982B2 (en) Emotion model, apparatus, and method for adaptively modifying personality features of emotion model
JP5423379B2 (en) Image processing apparatus, image processing method, and program
US9805493B2 (en) Social identity models for automated entity interactions
JP6446126B2 (en) Processing system and program
US20220226728A1 (en) Route navigation system within a game application environment
US9238175B2 (en) Natural movement in a virtual environment
KR101261737B1 (en) Retargeting method for characteristic facial and recording medium for the same
US20200122039A1 (en) Method and system for a behavior generator using deep learning and an auto planner
KR20110021330A (en) Apparatus and method for creating third dimension abatar
JPWO2020003670A1 (en) Information processing device and information processing method
US20150309583A1 (en) Motion recognizing method through motion prediction
JP2021077286A (en) Robot control model learning method, robot control model learning apparatus, robot control model learning program, robot control method, robot control apparatus, robot control program, and robot
JPWO2018101035A1 (en) Information processing apparatus and information processing method
KR102509698B1 (en) Dancing smart robot studied dance gesture
US20140170619A1 (en) Apparatus and method for creating artificial feelings
KR20110100856A (en) Apparatus and method for generating autonomous behaviors
KR20080099883A (en) Method for modeling emotion change according to character type and sysytem for modeling virtual character using the same method
CN111739134A (en) Virtual character model processing method and device and readable storage medium
JP7327391B2 (en) Control device, control method and program
US20190111563A1 (en) Custom Motion Trajectories for Robot Animation
US9259646B2 (en) Object control device, computer readable storage medium storing object control program, and object control method
JP7326707B2 (en) Robot, robot control method and program
EP3995377A1 (en) Latency mitigation system and method
JP7179672B2 (en) Computer system and machine learning method
KR102261055B1 (en) Method and system for optimizing design parameter of image to maximize click through rate

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190619

Year of fee payment: 4