KR20110100856A - Apparatus and method for generating autonomous behaviors - Google Patents
Apparatus and method for generating autonomous behaviors Download PDFInfo
- Publication number
- KR20110100856A KR20110100856A KR1020100019911A KR20100019911A KR20110100856A KR 20110100856 A KR20110100856 A KR 20110100856A KR 1020100019911 A KR1020100019911 A KR 1020100019911A KR 20100019911 A KR20100019911 A KR 20100019911A KR 20110100856 A KR20110100856 A KR 20110100856A
- Authority
- KR
- South Korea
- Prior art keywords
- avatar
- behavior
- main
- neighboring
- motivation
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
자율 행동 생성 장치 및 방법이 개시된다. 자율 행동 생성 장치는, 가상 세계를 구성하는 복수의 아바타들 중 이웃 아바타의 감정 상태 및 행동 동기를 이용하여 메인 아바타의 감정 상태 및 행동 동기를 결정하고, 결정된 메인 아바타의 감정 상태 및 행동 동기를 이용하여 메인 아바타의 행동을 결정할 수 있다. Disclosed are an apparatus and method for generating autonomous behavior. The autonomous behavior generating apparatus determines the emotional state and the motivation of the main avatar by using the emotional state and the motivation of the neighboring avatar among the plurality of avatars constituting the virtual world, and uses the determined emotional state and the motivation of the main avatar. To determine the behavior of the main avatar.
Description
가상 세계를 구성하는 복수의 아바타들의 행동을 추정하여 제어할 수 있는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for estimating and controlling the actions of a plurality of avatars constituting a virtual world.
일반적으로, 게임 등에서는 가상 세계를 구성하는 아바타들의 자율 행동을 생성하기 위해 FSM(Finite State Machine) 기법이 이용된다. FSM 기법은 게임 개발자가 아바타들의 행동 양식을 각각 설계하는 방식이다.In general, a finite state machine (FSM) technique is used to generate autonomous behavior of avatars constituting a virtual world in a game. FSM is a way for game developers to design avatars' behaviors.
이에 따라, 아바타들의 행동 양식을 설계하는 데 많은 소요 시간과 비용이 발생하게 된다. 또한, 복수의 아바타들은 정해신 상황에서 이미 설계된 행동 양식에 따라 행동하게 되므로, 행동 패턴이 반복되는 경우가 존재한다. 이러한, 행동 패턴의 반복으로 인해 가상 세계에서 현실감 있는 서비스를 제공하는 데 한계가 있으며, 예상치 못한 상황이 발생한 경우, 아바타들의 행동에 오류가 발생하게 된다.As a result, it takes a lot of time and money to design the behavior of the avatar. In addition, since a plurality of avatars behave according to a behavior pattern already designed in a predetermined situation, a behavior pattern may be repeated. Due to the repetition of behavior patterns, there is a limit to providing realistic services in the virtual world, and when an unexpected situation occurs, an error occurs in the behavior of avatars.
따라서, 아바타의 행동 양식을 설계하는 데 소요되는 시간 및 비용을 감소시키면서, 가상 세계에서 발생하는 상황에 따라 적응적으로 아바타들의 행동을 생성할 수 있는 기술이 필요하다.Accordingly, there is a need for a technology capable of adaptively generating avatars' behaviors according to a situation occurring in the virtual world while reducing the time and cost required to design the avatar's behavior.
자율 행동 생성 장치는, 복수의 단말들로부터 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정하고, 상기 이웃 아바타의 행동 동기를 설정하는 환경 인식부, 상기 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하고, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 결정부, 상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB을 이용하여 상기 메인 아바타의 행동을 결정하는 행동 결정부를 포함할 수 있다.The autonomous behavior generating apparatus estimates an emotional state of a neighboring avatar using surrounding environment information collected from a plurality of terminals, and uses an environment recognition unit configured to set behavioral motivation of the neighboring avatar, using the behavioral motivation of the neighboring avatar. Determining unit for determining the behavioral motivation of the main avatar, the emotional state of the main avatar using the behavioral motivation of the main avatar and the emotional state of the neighboring avatar, the determined emotional state and behavioral motivation of the main avatar, and behavior It may include a behavior determination unit for determining the behavior of the main avatar using a profile DB.
이때, 상기 행동 프로파일 DB는, 상기 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 가상 세계 종류, 상기 메인 아바타의 종류, 상기 메인 아바타의 행동 종류, 및 보상값을 포함할 수 있다. In this case, the behavior profile DB may include an emotional state of the main avatar, a behavior motivation of the main avatar, a virtual world type, a type of the main avatar, a behavior type of the main avatar, and a compensation value.
또한, 상기 행동 결정부는, 상기 메인 아바타의 감정 상태 및 행동 동기가 결정된 경우, 상기 행동 프로파일 DB에서 상기 결정된 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 상기 가상 세계 종류, 및 상기 메인 아바타의 종류에 해당하는 상기 메인 아바타의 행동 종류를 상기 메인 아바타의 행동으로 결정할 수 있다.In addition, when the emotional state and the behavior motivation of the main avatar is determined, the behavior determination unit, the emotional state of the main avatar determined in the behavior profile DB, the behavior motivation of the main avatar, the type of the virtual world, and the main avatar An action type of the main avatar corresponding to a type may be determined as an action of the main avatar.
또한, 환경 인식부는, 상기 주변 환경 정보 및 행동-감정 정보 DB를 이용하여 이웃 아바타의 감정 상태를 추정하는 감정 추정부, 및 상기 주변 환경 정보 및 행동-동기 정보 DB를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 동기 설정부를 포함할 수 있다.The environment recognition unit may further include: an emotion estimator estimating an emotional state of a neighboring avatar using the surrounding environment information and the behavior-emotion information DB, and an action of the neighboring avatar using the surrounding environment information and the behavior-synchronization information DB. It may include a synchronization setting unit for setting the synchronization.
여기서, 주변 환경 정보는, 상기 가상 세계를 구성하는 복수의 오브젝트 각각의 종류 및 위치, 상기 이웃 및 메인 아바타의 종류, 상기 이웃 및 메인 아바타의 표정 정보, 상기 이웃 및 메인 아바타의 행동 종류, 상기 이웃 및 메인 아바타의 이동 방향을 포함할 수 있다.Here, the surrounding environment information may include the type and location of each of the plurality of objects constituting the virtual world, the type of the neighbor and the main avatar, the facial expression information of the neighbor and the main avatar, the behavior type of the neighbor and the main avatar, and the neighborhood. And a moving direction of the main avatar.
또한, 상기 결정부는, 상기 추정된 이웃 아바타의 행동 동기, 상기 이웃 아바타의 종류, 및 상기 메인 아바타의 종류에 기초하여 상기 메인 아바타의 행동 동기를 결정할 수 있다.The determining unit may determine the behavioral motivation of the main avatar based on the estimated behavioral motivation of the neighboring avatar, the type of the neighboring avatar, and the type of the main avatar.
또한, 상기 결정부는, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태에 해당하는 파라미터 값에 기초하여 상기 메인 아바타의 감정 상태를 결정할 수 있다.The determining unit may determine the emotional state of the main avatar based on a behavioral motivation of the main avatar and a parameter value corresponding to the emotional state of the neighboring avatar.
또한, 상기 결정된 메인 아바타의 행동 및 기설정된 메인 아바타의 목적을 이용하여 상기 행동 프로파일 DB를 갱신하는 행동 학습부를 더 포함할 수 있다.The apparatus may further include a behavior learning unit updating the behavior profile DB using the determined behavior of the main avatar and a predetermined purpose of the main avatar.
또한, 자율 행동 생성 방법은, 복수의 단말들로부터 주변 환경 정보를 수집하는 단계, 상기 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정하는 단계, 상기 수집된 주변 환경 정보를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 단계, 상기 추정된 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하는 단계, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 단계, 상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB를 이용하여 상기 메인 아바타의 행동을 결정하는 단계를 포함할 수 있다.The autonomous behavior generating method may further include collecting surrounding environment information from a plurality of terminals, estimating an emotional state of a neighboring avatar using the collected surrounding environment information, and using the collected surrounding environment information. Setting a behavioral motivation of the neighboring avatar, determining a behavioral motivation of the main avatar using the estimated behavioral motivation of the neighboring avatar, using the behavioral motivation of the main avatar and the emotional state of the neighboring avatar Determining the emotional state of the, may include determining the behavior of the main avatar using the determined emotional state and behavioral motivation of the main avatar, and the behavior profile DB.
아바타의 목적만 설정해주면, 아바타의 행동 학습을 통해 아바타의 행동이 자율적으로 생성됨에 따라 아바타의 행동을 설계하는 데 소요되는 시간 및 비용을 감소시킬 수 있다.If only the purpose of the avatar is set, the time required for designing the avatar's behavior can be reduced as the avatar's behavior is autonomously generated through the learning of the avatar's behavior.
도 1은 자율 행동 생성 장치의 구성을 도시한 도면이다.
도 2는 자율 행동 생성 장치의 상세 구성을 도시한 도면이다.
도 3은 자율 행동 생성 장치의 동작을 설명하기 위해 제공되는 흐름도이다.
도 4는 러셀의 원형 모델을 기초로 아바타의 감정 상태를 도시한 도면이다.1 is a diagram illustrating a configuration of an autonomous behavior generating device.
2 is a diagram illustrating a detailed configuration of an autonomous behavior generating device.
3 is a flowchart provided to explain the operation of the autonomous behavior generating apparatus.
4 is a diagram illustrating an emotional state of an avatar based on Russell's prototype model.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.Hereinafter, with reference to the contents described in the accompanying drawings will be described in detail an embodiment according to the present invention. However, the present invention is not limited to or limited by the embodiments. Like reference numerals in the drawings denote like elements.
도 1은 자율 행동 생성 장치의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an autonomous behavior generating device.
도 1에 따르면, 자율 행동 생성 장치(100)는 환경 인식부(110), 결정부(120), 행동 결정부(130), 행동 프로파일 DB(140), 및 행동 학습부(150)를 포함할 수 있다.According to FIG. 1, the autonomous
환경 인식부(110)는 복수의 단말들로부터 수집된 주변 환경 정보를 이용하여 이웃 아바타의 행동 동기를 설정하고, 이웃 아바타의 감정 상태를 추정할 수 있다. 여기서, 주변 환경 정보는, 가상 세계를 구성하는 복수의 오브젝트 각각의 종류, 위치, 이웃 및 메인 아바타의 종류, 이웃 및 메인 아바타의 표정 정보, 이웃 및 메인 아바타의 행동 종류, 이웃 및 메인 아바타의 이동 방향을 포함할 수 있다. 일례로, 오브젝트는 가상 세계를 구성하는 건물, 물건 등을 포함할 수 있다.The
이때, 가상 세계를 구성하는 아바타들은 이웃 아바타와 메인 아바타를 포함하고, 이웃 및 메인 아바타들은 복수의 단말들을 이용하여 제어될 수 있다. 일례로, 메인 아바타는 제어하고자 하는 제어 대상 아바타이고, 이웃 아바타는 가상 세계를 구성하는 아바타들 중 메인 아바타를 제외한 다른 아바타들이될 수 있다. In this case, the avatars constituting the virtual world may include a neighboring avatar and a main avatar, and the neighboring and main avatars may be controlled using a plurality of terminals. For example, the main avatar may be a controlled avatar to be controlled, and the neighboring avatar may be other avatars except for the main avatar among avatars constituting the virtual world.
결정부(120)는 추정된 이웃 아바타의 행동 동기 및 이웃 아바타의 감정 상태를 이용하여 메인 아바타의 행동 동기를 결정할 수 있다.The
또한, 결정부(120)는 이웃 아바타의 행동 동기 및 감정상태, 그리고 메인 아바타의 행동 동기를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다.In addition, the
행동 결정부(130)는 결정된 메인 아바타의 감정 상태 및 행동 동기를 이용하여행동 프로파일 DB(140)로부터 해당하는 메인 아바타의 행동을 결정할 수 있다.The behavior determiner 130 may determine the behavior of the corresponding main avatar from the
일례로, 행동 프로파일 DB(140)에는 메인 아바타의 감정 상태, 메인 아바타의 행동 동기, 가상 세계의 종류, 메인 아바타의 종류, 메인 아바타의 행동 종류, 및 보상값 등의 파라미터들이 데이터베이스화되어 수록될 수 있다.For example, the behavior profile DB 140 includes a database of parameters such as the emotional state of the main avatar, the behavior motivation of the main avatar, the type of the virtual world, the type of the main avatar, the type of the main avatar, and the compensation value. Can be.
행동 학습부(150)는 결정된 메인 아바타의 행동과 기설정된 메인 아바타의 목적을 이용하여 행동 프로파일 DB(140)를 갱신할 수 있다. The
도 2는 자율 행동 생성 장치의 상세 구성을 도시한 도면이다.2 is a diagram illustrating a detailed configuration of an autonomous behavior generating device.
도 2에 따르면, 환경 인식부(110)는 감정 추정부(111), 행동-감정 정보 DB(112), 동기 추정부(113), 및 행동-동기 정보 DB(114)를 포함할 수 있다.According to FIG. 2, the
감정 추정부(111)는 주변 환경 정보를 이용하여 행동-감정 정보 DB(112)로부터 해당하는 이웃 아바타의 감정 상태를 추정할 수 있다. 이때, 행동-감정 정보 DB(112)에는 도 4와 같이, 러셀의 원형 모델(Russell Circumplex)을 이용하여 유쾌함(가로축)과 활동성(세로축)을 기준으로 분류된 아바타의 감정 상태가 수록될 수 있다.The
일례로, 행동-감정 정보 DB(112)에는 이웃 아바타의 행동 종류와 이웃 아바타의 감정 상태가 일대일로 대응되도록 데이터베이스화되어 수록될 수 있다. 여기서, 이웃 아바타의 행동 종류는 이웃 아바타의 표정 종류, 및 이웃 아바타의 몸동작 종류를 포함할 수 있다. For example, the behavior-emotion information DB 112 may include a database such that the behavior type of the neighboring avatar and the emotional state of the neighboring avatar correspond one-to-one. Here, the behavior type of the neighboring avatar may include a facial expression type of the neighboring avatar and a gesture type of the neighboring avatar.
보다 상세하게는, 이웃 아바타의 얼굴 표정이 웃고 있는 경우, 감정 추정부(111)는 행동-감정 정보 DB(112)로부터 웃고 있는 표정에 해당하는 "행복(happy)"를 이웃 아바타의 감정 상태로 추정할 수 있다. 반면, 이웃 아바타의 얼굴 표정에서 입꼬리가 아래로 내려간 경우, 감정 추정부(111)는 행동-감정 정보 DB(112)로부터 입꼬리가 내려간 표정에 해당하는 "슬픔(sad)"를 이웃 아바타의 감정 상태로 추정할 수 있다.More specifically, when the facial expressions of the neighboring avatars are laughing, the
동기 설정부(113)는 주변 환경 정보를 이용하여 행동-동기 정보 DB(114)로부터 해당하는 이웃 아바타의 행동 동기를 설정할 수 있다. The
이때, 행동-동기 정보 DB(114)에는 이웃 아바타의 종류, 이웃 아바타의 행동 종류, 주변 환경 정보, 및 이웃 아바타의 행동 동기가 일대일로 대응되도록 데이터베이스화되어 수록될 수 있다. 즉, 이웃 아바타의 행동 동기를 설정하는 경우, 주변 환경 정보는 시장에서 있는 상인 아바타, 콘서트장 객석에 있는 아바타, 및 콘서트를 하고 있는 아바타 등의 행동이 서로 달라지는 것을 반영하기 위해 이용될 수 있다.In this case, the behavior-
일례로, 동기 설정부(113)는 이웃 아바타의 종류, 이동 방향, 및 행동 종류에 기초하여 이웃 아바타의 행동 동기에 해당하는 동기 파라미터들을 설정할 수 있다. 여기서, 동기 파라미터는 사회적 동기, 직업적 동기, 및 군중 행동 동기 파라미터를 포함할 수 있다.For example, the
일례로, 이웃 아바타의 종류가 시민인 경우, 사회적 동기 파라미터는, 이웃 아바타와 다른 이웃 아바타가 대화를 하거나 함께 걷는 등의 사회적 관계를 형성하는 동기의 강도를 나타내는 파라미터이다.For example, when the type of the neighboring avatar is a citizen, the social motivation parameter is a parameter representing the strength of motivation for forming a social relationship such as a conversation between the neighboring avatar and another neighboring avatar or walking together.
그리고, 이웃 아바타의 종류가 상인 경우, 직업적 동기 파라미터는 물건 판매, 호객 행위와 관련된 동기의 강도를 나타내는 파라미터이고, 이웃 아바타의 종류가 도둑인 경우, 직접적 동기 파라미터는 발각되지 않고 물건을 훔치는 것과 관련된 동기의 강도를 나타내는 파라미터이다.And, if the type of neighboring avatars is a merchant, the occupational motivation parameter is a parameter representing the strength of the motivation associated with selling goods and acts of a guest; if the type of neighboring avatar is a thief, the direct motivational parameter is not found and is related to stealing the goods. This parameter indicates the strength of synchronization.
그리고, 군중 행동 동기 파라미터는 이웃 아바타가 다른 이웃 아바타들과 동일한 행동을 하려는 동기의 강도를 나타내는 파라미터이다. 일례로, 궁중 행동은, 박수 치는 동기, 일어서는 동기 등을 포함할 수 있다.In addition, the crowd behavior motivation parameter is a parameter representing the strength of motivation for neighboring avatars to perform the same behavior as other neighboring avatars. In one example, the court action may include motivation to clap, motivation to stand up, and the like.
보다 상세하게는, 주변 환경 정보에 포함된 이웃 아바타의 종류가 시민이고, 이웃 아바타의 이동 방향이 메인 아바타를 가리키고, 이웃 아바타의 행동 종류가 걷는 행동인 경우, 동기 설정부(113)는 행동-동기 정보 DB(114)로부터 시민, 및 메인 아바타를 향하여 걷는 행동에 해당하는 사회적 동기를 이웃 아바타의 행동 동기로 추정할 수 있다. 그리고, 동기 설정부(113)는 사회적 동기 파라미터의 값을 증가시킬 수 있다.In more detail, when the type of the neighbor avatar included in the surrounding environment information is a citizen, the moving direction of the neighbor avatar indicates the main avatar, and the type of the action of the neighbor avatar is the walking action, the
또한, 이웃 아바타의 종류가 상인이고, 이웃 아바타의 이동 방향이 메인 아바타를 가리키고, 이웃 아바타의 행동 종류가 걷는 행동인 경우, 동기 설정부(113)는 행동-동기 정보 DB(114)로부터 상인 및 메인 아바타를 향하여 걷는 행동에 해당하는 직업적 동기를 이웃 아바타의 행동 동기로 추정할 수 있다. 그리고, 동기 설정부(113)는 직업적 동기 파라미터의 값을 증가시킬 수 있다.In addition, when the type of the neighboring avatar is a merchant, the moving direction of the neighboring avatar points to the main avatar, and the type of the action of the neighboring avatar is the walking action, the
또한, 이웃 아바타 주변에 위치하는 셋 이상의 다른 이웃 아바타들이 박수치는행동과 같이, 동일한 행동을 하는 경우, 동기 설정부(113)는 이웃 아바타의 행동 동기를 군중 행동 동기로 추정하고, 이웃 아바타의 군중 행동 동기 파라미터의 값을 증가시킬 수 있다.In addition, when three or more other neighboring avatars positioned around the neighboring avatars are clapping, the
결정부(120)는 행동 동기 결정부(121) 및 감정 상태 결정부(122)를 포함할 수 있다.The
행동 동기 결정부(121)는 이웃 및 메인 아바타의 종류, 그리고, 추정된 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정할 수 있다. 일례로, 행동 동기 결정부(121)는 아래의 수학식 1을 이용하여 메인 아바타의 행동 동기()를 결정할 수 있다.The
수학식 1에서, Mi는 사회적 동기, 직업적 동기, 및 군중 행동 동기 등과 같이 여러 종류의 동기의 강도를 나타내는 동기 파라미터이다.In Equation 1, Mi is a motivation parameter indicating the strength of various kinds of motivations such as social motivation, occupational motivation, and crowd behavioral motivation.
일례로, 메인 아바타의 종류가 도둑, 이웃 아바타의 종류가 군인이고, 군인인 이웃 아바타의 직업적 동기 파라미터가 높은 경우, 행동 동기 결정부(121)는 메인 아바타의 직업적 동기 파라미터를 낮출 수 있다. 즉, 메인 아바타의 직업적 동기 파라미터를 낮춤으로써, 행동 동기 결정부(121)는 메인 아바타가 물건을 훔치는 행동을 생성하지 않도록 메인 아바타의 행동 동기를 결정할 수 있다.For example, when the type of the main avatar is a thief, the type of the neighbor avatar is a soldier, and the occupational motivation parameter of the neighboring avatar which is the soldier is high, the behavior
또한, 이웃 및 메인 아바타의 종류가 시민이고, 이웃 아바타의 사회적 동기 파라미터가 높은 경우, 행동 동기 결정부(121)는 메인 아바타의 사회적 동기 파라미터를 증가시킬 수도 있다. In addition, when the types of the neighbor and the main avatar are citizens and the social motivation parameter of the neighboring avatar is high, the behavior
감정 상태 결정부(122)는 추정된 이웃 아바타의 감정 상태 및 메인 아바타의 행동 동기를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다.The
일례로, 메인 아바타의 직업적 동기 파라미터가 이전보다 증가된 경우, 감정 상태 결정부(122)는 메인 아바타의 행동 동기가 잘 달성 된 것으로 판단하여, 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "행복(happy)"을 향하도록 결정할 수 있다.For example, when the occupational motivation parameter of the main avatar is increased than before, the emotional
반대로, 메인 아바타의 직업적 동기 파라미터가 이전보다 감소된 경우, 감정 상태 결정부(122)는 메인 아바타의 행동 동기가 잘 달성되지 않은 것으로 판단하여, 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "슬픔(sad)"을 향하도록 결정할 수 있다.On the contrary, when the occupational motivation parameter of the main avatar is reduced than before, the emotional
또한, 메인 아바타의 사회적 동기 파라미터가 기설정된 제1 기준값 이상인 경우, 메인 아바타가 이웃 아바터들과 사회적 교류를 활발히 할 수 있도록 감정 상태 결정부(122)는 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "Excited"를 향하도록 결정할 수 있다. 반대로, 메인 아바타의 사회적 동기 파라미터가 기설정된 제1 기준값 미만인 경우, 감정 상태 결정부(122)는 메인 아바타의 감정 상태를 러셀의 원형 모델 중 "Bored"를 향하도록 결정할 수 있다.In addition, when the social motivation parameter of the main avatar is greater than or equal to a predetermined first reference value, the
또한, 메인 아바타의 궁중 행동 동기 파라미터가 기설정된 제2 기준값 이상인 경우, 감정 상태 결정부(122)는 이웃 아바타들의 감정 상태를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다. 일례로, 감정 상태 결정부(122)는 이웃 아바타들의 감정 상태에 해당하는 파라미터 값의 평균을 계산하고, 러셀의 원형 모델 중 계산된 평균에 해당하는 감정을 메인 아바타의 감정 상태로 결정할 수 있다.In addition, when the court action motivation parameter of the main avatar is equal to or greater than a second predetermined reference value, the
이외에, 감정 상태 결정부(122)는 아래의 수학식 2를 이용하여 메인 아바타의 감정 상태(E)를 결정할 수도 있다.In addition, the
수학식 2에서, E'은 메인 아바타의 목표 감정 상태이고, γ는 감정 상태가 갱신되는 강도(weight)이다. 일례로, γ는 0 내지 1 사이의 임의의 값을 가질 수 있으며, γ가 1에 가까울수록 이웃 아바타들에게 빠르게 반응하는 감정을 나타내고, 0에 가까울수록 이웃 아바타들에게 무감각하게 반응하는 감정을 나타낼 수 있다.In Equation 2, E 'is a target emotional state of the main avatar, and γ is a weight at which the emotional state is updated. For example, γ can have any value between 0 and 1, and the closer γ is to 1, the faster the emotion responds to the neighboring avatars, and the closer to 0, the emotional response to the neighboring avatars is insensitive. Can be.
이때, 감정 상태 결정부(122)는 아래의 수학식 3과 같이, 메인 아바타의 성격(C)을 이용하여 메인 아바타의 감정 상태(E)를 결정할 수도 있다.In this case, the
여기서, M은 메인 아바타의 감정 상태와 메인 아바타 고유의 성격의 차를 의미하는 감정 상태 변이, E'은 메인 아바타의 목표 감정 상태, γ는 감정 상태가 갱신되는 강도(weight), C는 메인 아바타의 성격, α는 메인 아바타의 완고성을 나타내는 변수이다. Where M is an emotional state variation indicating a difference between the emotional state of the main avatar and the unique personality of the main avatar, E 'is a target emotional state of the main avatar, γ is a weight at which the emotional state is updated, and C is a main avatar. Is the variable representing the stubbornness of the main avatar.
일례로, α가 0에 가까울수록 메인 아바타의 감정 상태는 이성적인 성향이 강해지고, 1에 가까울수록 메인 아바타의 감정 상태는 감성적 성향이 강해지는 것을 의미한다. 여기서, 이성적 성향이란 자신의 원래 성격을 유지하려는 성향이고, 감성적 성향이란 순간적인 감정에 의존하려는 성향을 의미한다.For example, as α approaches 0, the emotional state of the main avatar becomes stronger in rationality, and as near to 1, the emotional state of the main avatar becomes stronger. Here, rational inclination is a propensity to maintain one's original personality, and emotional inclination is a propensity to rely on instant emotion.
행동 결정부(130)는 메인 아바타의 감정 상태 및 메인 아바타의 행동 동기를 이용하여 행동 프로파일 DB(140)로부터 해당하는 행동 종류를 메인 아바타의 행동을 결정할 수 있다.The
일례로, 행동 결정부(130)는 행동 프로파일 DB에서 메인 아바타의 감정 상태, 행동 동기, 메인 아바타의 종류, 가상 세계 종류에 해당하는 행동 종류를 메인 아바타의 행동으로 결정할 수 있다.For example, the
이때, 행동 프로파일 DB(140)에는 메인 아바타의 감정 상태, 메인 아바타의 행동 동기, 가상 세계 종류, 메인 아바타의 종류, 메인 아바타의 행동 종류, 및 보상값이 데이터베이스화되어 수록될 수 있다. 여기서, 메인 아바타의 행동 종류는 메인 아바타의 표정 종류, 및 메인 아바타의 몸동작 종류를 포함할 수 있다. In this case, the
일례로, 메인 아바타의 종류가 바이올린 연주자인 경우, 몸동작 종류는, 앉거나 혹은 일어서서 연주하는 행동, 또는 악장을 넘기는 행동 등을 포함할 수 있다. 그리고, 메인 아바타의 종류가 상인인 경우, 몸동작 종류는 걸어가는 동작, 대화하는 동작, 가만히 서 있는 동작, 및 물건을 판매하는 동작 등을 포함할 수 있다. 또한, 메인 아바타의 종류가 군인인 경우, 몸동작 종류는 칼 또는 총을 이용하는 행동을 포함할 수 있다.For example, when the type of the main avatar is a violinist, the type of gesture may include sitting or standing up, playing the movement, or the like. When the type of the main avatar is a merchant, the type of gesture may include a walking motion, a conversational motion, a standing motion, a motion of selling an object, and the like. Also, when the main avatar is a soldier, the gesture type may include an action using a knife or a gun.
이때, 메인 아바타의 감정 상태에 따라 해당하는 메인 아바타의 표정 종류는 바뀔 수도 있다.At this time, the facial expression type of the corresponding main avatar may change according to the emotional state of the main avatar.
일례로, 메인 아바타의 감정 상태가 "행복", 종류는 바이올린 연주자, 직업적 동기가 증가된 경우, 행동 결정부(130)는 웃으면서 악장을 넘기는 행동을 메인 아바타의 행동으로 결정할 수 있다. For example, when the emotional state of the main avatar is "happy", the type is a violinist, and the professional motivation is increased, the
행동 학습부(150)는 결정된 메인 아바타의 행동과 기설정된 메인 아바타의 목적을 이용하여 행동 프로파일 DB(140)를 갱신할 수 있다.The
이때, 행동 학습부(150)는 메인 아바타의 종류, 감정 상태, 및 행동 동기를 이용하여 행동 프로파일 DB(140)에서 보상값을 조정할 수 있다. 그리고, 보상값을 조정함으로써 메인 아바타의 행동이 학습될 수 있다.In this case, the
일례로, 메인 아바타의 종류가 상인, 감성 상태는 "행복", 직업적 동기 파라미터가 제3 기준값 이상이고, 행동 결정부(130)에서 메인 파라미터의 행동을 "이웃 아바타에 걸어가면서 물건 판매"로 결정되고, 메인 파라미터의 목적이 물건 판매로 기설정된 경우, 행동 학습부(150)는 행동 프로파일 DB(140)에서 해당하는 보상값을 증가시킬 수 있다. For example, the type of the main avatar is a merchant, the emotional state is "happy", the professional motivation parameter is greater than or equal to the third reference value, and the
이때, 행동 결정부(130)에서 메인 파라미터의 행동을 "가만히 서서 물건 판매"로 결정되고, 메인 파라미터의 목적이 물건 판매로 기설정된 경우, 행동 학습부(150)는 행동 프로파일 DB(140)에서 해당하는 보상값을 낮출 수 있다. 그러면, 행동 결정부(130)는 이후에, 행동 프로파일 DB(140)에서 조건에 해당하는 행동 종류들 중 보상값이 가장 높은 것을 메인 아바타의 행동으로 결정할 수 있다.At this time, when the action of the main parameter is determined by the
또한, 아바타의 행동은 표정을 포함할 수도 있다. 즉, 웃는 표정으로 이웃 아바타에 걸어가면서 물건을 판매하는 경우, 행동 학습부(150)는 해당하는 보상값을 증가시킬 수 있다. 반면, 화난 표정으로 이웃 아바타에 걸어가면서 물건을 판매하는 경우, 행동 학습부(150)는 해당하는 보상값을 감소시킬 수 있다. In addition, the behavior of the avatar may include an expression. That is, when selling a product while walking to a neighboring avatar with a smile, the
일례로, 메인 아바타의 종류가 상인, 감성 상태는 "행복", 직업적 동기 파라미터가 제3 기준값 이상인 경우, 행동 프로파일 DB(140)는 "웃는 표정으로 이웃 아바타에 걸어가면서 물건 판매", "화난 표정으로 이웃 아바타에 걸어가면서 물건 판매", "웃는 표정으로 가만히 서서 물건 판매" 및 "화난 표정으로 가만히 서서 물건 판매" 중 "웃는 표정으로 이웃 아바타에 걸어가면서 물건 판매"를 메인 아바타의 행동으로 결정할 수 있다. For example, if the main avatar is a merchant, the emotional state is "happy", and the occupational motivation parameter is greater than or equal to the third reference value, the
그러면, 결정된 메인 아바타의 행동이 디스플레이에 표시될 수 있다. 이때, 디스플레이는 자율 행동 생성 장치(100)에 마련될 수도 있고, 디스플레이는 자율 행동 생성 장치(100)의 외부에 위치할 수도 있다.Then, the determined main avatar's behavior may be displayed on the display. In this case, the display may be provided in the autonomous
이외에, 행동 학습부(150)는 아래의 수학식 4와 같이, Q-Learning을 이용하여 보상값을 조정함으로써 행동 프로파일 DB(140)를 갱신할 수도 있다.In addition, the
수학식 4에서, Q는 행동 프로파일 DB, s는 현재 상태, a는 메인 아바타의 행동, s'은 다음 상태, γ는 보상값이다. 여기서, 현재 상태 s는, 행동 a를 수행하기 직전의 메인 아바타의 상태이고, 다음 상태 s'은 행동 a를 수행한 후의 메인 아바타의 상태를 포함할 수 있다.In Equation 4, Q is a behavior profile DB, s is a current state, a is a main avatar's action, s' is a next state, and γ is a compensation value. Here, the current state s may be a state of the main avatar immediately before performing the action a, and the next state s' may include a state of the main avatar after performing the action a.
도 3은 자율 행동 생성 장치의 동작을 설명하기 위해 제공되는 흐름도이다.3 is a flowchart provided to explain the operation of the autonomous behavior generating apparatus.
도 3을 참조하면, 자율 행동 생성 장치(100)는 복수의 단말들로부터 주변 환경 정보를 수집할 수 있다(S310). Referring to FIG. 3, the autonomous
일례로, 주변 환경 정보는, 가상 세계를 구성하는 복수의 오브젝트 각각의 종류, 위치, 이웃 및 메인 아바타의 종류, 이웃 및 메인 아바타의 표정 정보, 이웃 및 메인 아바타의 행동 종류, 이웃 및 메인 아바타의 이동 방향을 포함할 수 있다. 일례로, 오브젝트는 가상 세계를 구성하는 건물, 물건 등을 포함할 수 있다.For example, the surrounding environment information may include the types, locations, types of neighbors and main avatars, facial expression information of neighbors and main avatars, types of actions of neighbors and main avatars, and types of neighbors and main avatars. It may include the direction of movement. In one example, the object may include buildings, objects, and the like that make up the virtual world.
이어, 감정 상태 추정부(111)는 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정할 수 있다(S320).Next, the emotional
일례로, 감정 상태 추정부(111)는 행동-감정 정보 DB에서 이웃 아바타의 표정 정보에 해당하는 감정 상태를 이웃 아바타의 감정 상태로 추정할 수 있다. 이때, 행동-감정 정보 DB에는 러셀의 원형 모델을 이용하여 이웃 아바타의 표정 정보와 이웃 아바타의 감정 상태가 일대일로 대응되도록 데이터베이스화되어 수록될 수 있다.For example, the
그리고, 동기 설정부(113)는 수집된 주변 환경 정보를 이용하여 이웃 아바타의 행동 동기를 추정하고, 추정된 행동 동기에 해당하는 파라미터 값을 설정할 수 있다(S330).The
일례로, 동기 설정부(113)는 이웃 아바타의 종류 및 이웃 아바타의 행동 종류에 해당하는 행동 동기를 행동-동기 정보 DB(114)로부터 추정하고, 추정된 행동 동기에 해당하는 파라미터 값을 설정할 수 있다. 이때, 행동 동기는, 사회적 동기, 직업적 동기, 및 군중 행동 동기를 포함할 수 있다.For example, the
이어, 행동 동기 결정부(121)는 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정할 수 있다(S340).Subsequently, the behavior
일례로, 행동 동기 결정부(121)는 메인 및 이웃 아바타의 종류, 그리고, 이웃 아바타의 행동 동기에 해당하는 파라미터 값을 이용하여 메인 아바타의 행동 동기에 해당하는 파라미터 값을 설정할 수 있다.For example, the
그리고, 감정 상태 결정부(122)는 메인 아바타의 행동 동기와 이웃 아바타의 감정 상태를 이용하여 메인 아바타의 감정 상태를 결정할 수 있다(S350).In addition, the
일례로, 감정 상태 결정부(122)는 메인 아바타의 행동 동기에 해당하는 파라미터 값이 증가했는지 혹은 감소했는지에 따라, 메인 아바타의 감정 상태를 도 4와 같이, "행복" 또는 "슬픔"을 향하도록 결정할 수 있다.For example, the
또한, S340단계에서 메인 아바타의 행동 동기가 군중 행동 동기로 결정된 경우, 감정 상태 결정부(122)는 이웃 아바타들의 감정 상태에 해당하는 파라미터 값의 평균을 계산하고, 러셀의 원형 모델 중 계산된 평균에 해당하는 감정을 메인 아바타의 감정 상태로 결정할 수도 있다.In addition, when the behavioral motivation of the main avatar is determined as the crowd behavioral motivation in operation S340, the emotional
이어, 행동 결정부(130)는 메인 아바타의 감정 상태 및 행동 동기에 기초하여 행동 프로파일 DB(140)로부터 메인 아바타의 행동을 결정할 수 있다(S360).Subsequently, the
일례로, 행동 결정부(130)는 행동 프로파일 DB에서 메인 아바타의 감정 상태, 행동 동기, 메인 아바타의 종류, 가상 세계 종류에 해당하는 행동 종류를 메인 아바타의 행동으로 결정할 수 있다.For example, the
이때, 행동 프로파일 DB(140)에는 메인 아바타의 감정 상태, 메인 아바타의 행동 동기, 가상 세계 종류, 메인 아바타의 종류, 메인 아바타의 행동 종류, 및 보상값이 데이터베이스화되어 수록될 수 있다. 여기서, 메인 아바타의 행동 종류는 메인 아바타의 표정 종류, 및 메인 아바타의 몸동작 종류를 포함할 수 있다. In this case, the
그리고, 행동 학습부(150)는 결정된 메인 아바타의 행동 동기 및 기설정된 메인 아바타의 목적을 이용하여 행동 프로파일 DB를 갱신할 수 있다. 이를 통해, 메인 아바타의 행동이 학습될 수 있다(S370).In addition, the
일례로, 행동 학습부(150)는 메인 아바타의 종류, 감정 상태, 및 행동 동기에 따라 행동 프로파일 DB(140)에서 보상값을 증가, 감소 또는 유지 시킬 수 있다. 그러면, 이후에 메인 아바타의 행동을 결정해야 하는 경우, 행동 결정부(130)는 조정된 보상값을 참조하여 이전에 결정된 메인 아바타의 행동 종류를 메인 아바타의 행동으로 다시 선택하도록 결정하거나, 혹은 다른 행동 종류를 선택하도록 결정할 수 있다.For example, the
지금까지, 감정 추정부(111)에서 이웃 아바타의 감정 상태를 추정하는 것에 대해 설명하였으나, 이는 실시예에 해당되며, 감정 추정부(111)는 메인 아바타의 감정 상태를 추정할 수도 있다.Up to now, the
일례로, 메인 아바타의 얼굴 표정을 검출할 수 있는 경우, 감정 추정부(111)는 메인 아바타의 입꼬리가 올라가는 정도에 따라 러셀의 원형 모델 중 "유쾌함"에 해당하는 파라미터의 값을 증가시킬 수 있다. 또한, 감정 추정부(111)는 메인 아바타의 머리가 많이 움직일수록 "활동성"에 해당하는 파라미터 값을 증가시킬 수 있다.For example, when the facial expression of the main avatar can be detected, the
또한, 감정 추정부(111)는 외부로부터 입력되는 센싱 정보, 또는 버튼 값을 이용하여 메인 아바타의 감정 상태를 추정할 수도 있다.In addition, the
일례로, 움짐임을 감지하는 가속 센서, 자이로 센서 등을 이용하여 센싱 정보가 입력될 수 있다. 여기서, 센싱 정보는 센서의 위치, 센서의 속도, 및 가속도, 센서의 방향 등을 포함할 수 있다.For example, sensing information may be input by using an acceleration sensor, a gyro sensor, or the like that detects the movement. Here, the sensing information may include the position of the sensor, the speed and acceleration of the sensor, the direction of the sensor, and the like.
또한, 버튼 값을 이용하는 경우, 감정 추정부(111)는 버튼이 1이면, 메인 아바타의 기분이 "나쁨"에 해당되고, 버튼이 2이면, 메인 아바타의 기분이 "좋음"에 해당하는 것으로 추정할 수도 있다.In addition, when the button value is used, the
또한, 이상에서는, 행도 학습부(150)에서 보상값을 조정하는 것으로 설명하였으나, 이는 실시예에 해당되며, 보상값은 게임 개발자에 의해 조정될 수도 있다.In addition, in the above, the row is also described as adjusting the compensation value in the
또한, 본 발명의 실시예들에 따른 통신 장치, 단말 장치, 및 그의 간섭 정렬 방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the communication apparatus, the terminal apparatus, and the interference alignment method according to the embodiments of the present invention include a computer readable medium including program instructions for performing various computer-implemented operations. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The media may be program instructions that are specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.
110: 환경 인식부
111: 감정 추정부
112: 행동-감정 정보 DB
113: 동기 설정부
114: 행동-동기 정보 DB
120: 결정부
121: 행동 동기 결정부
122: 감정 상태 결정부
130: 행동 결정부
140: 행동 프로파일 DB
150: 행동 학습부110: environmental recognition unit
111: emotion estimation unit
112: Behavioral-Emotional Information DB
113: synchronization setting unit
114: behavior-motivation information DB
120: decision
121: Motivation Decision Unit
122: emotional state determination unit
130: Behavior Decision Unit
140: behavioral profile DB
150: behavior learning unit
Claims (20)
상기 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하고, 상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 결정부;
상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB을 이용하여 상기 메인 아바타의 행동을 결정하는 행동 결정부
를 포함하는 자율 행동 생성 장치.An environment recognition unit for estimating an emotional state of a neighboring avatar using surrounding environment information collected from a plurality of terminals, and setting behavioral motivation of the neighboring avatar;
A decision unit to determine an action motive of the main avatar using the action motive of the neighboring avatar and to determine an emotion state of the main avatar using the action motive of the main avatar and the emotion state of the neighboring avatar;
Behavior determination unit for determining the behavior of the main avatar using the determined emotional state and behavior motivation of the main avatar, and the behavior profile DB
Autonomous action generation device comprising a.
상기 행동 프로파일 DB는,
상기 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 가상 세계 종류, 상기 메인 아바타의 종류, 상기 메인 아바타의 행동 종류, 및 보상값을 포함하고,
상기 행동 결정부는,
상기 메인 아바타의 감정 상태 및 행동 동기가 결정된 경우, 상기 행동 프로파일 DB에서 상기 결정된 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 상기 가상 세계 종류, 및 상기 메인 아바타의 종류에 해당하는 상기 메인 아바타의 행동 종류를 상기 메인 아바타의 행동으로 결정하는 것을 특징으로 하는 자율 행동 생성 장치. The method of claim 1,
The behavior profile DB,
An emotional state of the main avatar, a behavioral motivation of the main avatar, a virtual world type, a type of the main avatar, a type of behavior of the main avatar, and a reward value,
The action determining unit,
If the emotional state and behavior motivation of the main avatar are determined, the main avatar corresponding to the emotional state of the main avatar determined from the behavior profile DB, the behavior motivation of the main avatar, the virtual world type, and the type of the main avatar And an action type of the main avatar as the action of the main avatar.
상기 환경 인식부는,
상기 주변 환경 정보 및 행동-감정 정보 DB를 이용하여 이웃 아바타의 감정 상태를 추정하는 감정 추정부; 및
상기 주변 환경 정보 및 행동-동기 정보 DB를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 동기 설정부
를 포함하는 자율 행동 생성 장치.The method of claim 1,
The environmental recognition unit,
An emotion estimator estimating an emotional state of a neighboring avatar using the surrounding environment information and behavior-emotion information DB; And
Synchronization setting unit for setting the behavioral motivation of the neighboring avatar using the surrounding environment information and behavior-synchronous information DB
Autonomous action generation device comprising a.
상기 주변 환경 정보는, 상기 가상 세계를 구성하는 복수의 오브젝트 각각의 종류 및 위치, 상기 이웃 및 메인 아바타의 종류, 상기 이웃 및 메인 아바타의 표정 정보, 상기 이웃 및 메인 아바타의 행동 종류, 상기 이웃 및 메인 아바타의 이동 방향을 포함하고,
상기 행동-감정 정보 DB는, 러셀의 원형 모델(Russell Circumplex)을 이용하여 상기 이웃 아바타의 표정 정보와 상기 이웃 아바타의 감정 상태를 일대일로 대응하여 데이터베이스화되고,
상기 감정 추정부는,
상기 이웃 아바타의 표정 정보를 이용하여 상기 행동-감정 정보 DB로부터 상기 이웃 아바타의 감정 상태를 추정하는 것을 특징으로 하는 자율 행동 생성 장치.The method of claim 3,
The surrounding environment information may include a type and a location of each of the plurality of objects constituting the virtual world, a type of the neighbor and the main avatar, facial expression information of the neighbor and the main avatar, an action type of the neighbor and the main avatar, the neighborhood and The direction of movement of the main avatar,
The behavior-emotion information DB is databased in a one-to-one correspondence between the facial expression information of the neighboring avatar and the emotional state of the neighboring avatar using a Russell Circumplex,
The emotion estimation unit,
And an emotional state of the neighboring avatar is estimated from the behavior-feeling information DB using the facial expression information of the neighboring avatar.
상기 행동-동기 정보 DB는, 상기 이웃 아바타의 종류, 상기 이웃 아바타의 행동 종류, 주변 환경 정보, 및 상기 이웃 아바타의 행동 동기를 일대일로 대응하여 데이터베이스화되고,
상기 동기 설정부는,
상기 이웃 아바타의 종류 및 상기 이웃 아바타의 행동 종류를 이용하여 상기 행동-동기 정보 DB로부터 상기 이웃 아바타의 행동 동기를 추정하고, 상기 추정된 이웃 아바타의 행동 동기에 해당하는 파라미터 값을 설정하는 것을 특징으로 하는 자율 행동 생성 장치.The method of claim 4, wherein
The action-synchronization information DB is databased in a one-to-one correspondence with the type of the neighboring avatar, the action type of the neighboring avatar, the surrounding environment information, and the action motivation of the neighboring avatar.
The synchronization setting unit,
Estimating the behavior motivation of the neighboring avatar from the behavior-synchronization information DB using the type of the neighboring avatar and the behavior type of the neighboring avatar, and setting a parameter value corresponding to the estimated behavior of the neighboring avatar Autonomous behavior generator.
상기 이웃 및 메인 아바타의 행동 동기는, 사회적 동기, 직업적 동기, 및 군중 행동 동기를 포함하는 자율 행동 생성 장치.The method of claim 1,
The behavioral motivations of the neighboring and main avatars include social, professional, and crowd behavioral motivation.
상기 결정부는,
상기 추정된 이웃 아바타의 행동 동기, 상기 이웃 아바타의 종류, 및 상기 메인 아바타의 종류에 기초하여 상기 메인 아바타의 행동 동기를 결정하는 것을 특징으로 하는 자율 행동 생성 장치.The method of claim 1,
The determination unit,
And determining the behavior motive of the main avatar based on the estimated behavior motive of the neighboring avatar, the type of the neighboring avatar, and the type of the main avatar.
상기 결정부는,
상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태에 해당하는 파라미터 값에 기초하여 상기 메인 아바타의 감정 상태를 결정하는 자율 행동 생성 장치.The method of claim 1,
The determination unit,
And determining an emotional state of the main avatar based on a parameter value corresponding to the behavioral motivation of the main avatar and the emotional state of the neighboring avatar.
상기 결정부는,
상기 메인 아바타의 성격이 설정된 경우, 상기 메인 아바타의 성격과 상기 메인 아바타의 감정 상태 변이를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 자율 행동 생성 장치.The method of claim 1,
The determination unit,
And when the personality of the main avatar is set, determining the emotional state of the main avatar by using the personality of the main avatar and the emotional state variation of the main avatar.
상기 결정된 메인 아바타의 행동 및 기설정된 메인 아바타의 목적을 이용하여 상기 행동 프로파일 DB를 갱신하는 행동 학습부
를 더 포함하는 자율 행동 생성 장치.The method of claim 1,
A behavior learning unit for updating the behavior profile DB using the determined behavior of the main avatar and a predetermined purpose of the main avatar
Autonomous action generating device further comprising.
상기 행동 학습부는,
상기 메인 아바타의 행동 및 상기 메인 아바타의 목적을 기초로 보상값을 조정하여 상기 행동 프로파일 DB를 갱신하는 것을 특징으로 하는 자율 행동 생성 장치.The method of claim 10,
The behavior learning unit,
And adjusting the compensation value based on the action of the main avatar and the purpose of the main avatar to update the behavior profile DB.
상기 수집된 주변 환경 정보를 이용하여 이웃 아바타의 감정 상태를 추정하는 단계;
상기 수집된 주변 환경 정보를 이용하여 상기 이웃 아바타의 행동 동기를 설정하는 단계;
상기 추정된 이웃 아바타의 행동 동기를 이용하여 메인 아바타의 행동 동기를 결정하는 단계;
상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태를 이용하여 상기 메인 아바타의 감정 상태를 결정하는 단계;
상기 결정된 메인 아바타의 감정 상태와 행동 동기, 및 행동 프로파일 DB를 이용하여 상기 메인 아바타의 행동을 결정하는 단계
를 포함하는 자율 행동 생성 방법.Collecting surrounding environment information from a plurality of terminals;
Estimating an emotional state of a neighboring avatar using the collected surrounding environment information;
Setting a behavioral motivation of the neighboring avatar using the collected surrounding environment information;
Determining behavior motivation of a main avatar using the estimated behavior motivation of the neighboring avatar;
Determining an emotional state of the main avatar using the behavioral motivation of the main avatar and the emotional state of the neighboring avatar;
Determining the behavior of the main avatar by using the determined emotional state, behavior motivation, and behavior profile DB of the main avatar;
Autonomous action generation method comprising a.
상기 행동 프로파일 DB는,
상기 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 가상 세계 종류, 상기 메인 아바타의 종류, 상기 메인 아바타의 행동 종류, 및 보상값을 포함하고,
상기 메인 아바타의 행동을 결정하는 단계는,
상기 메인 아바타의 감정 상태 및 행동 동기가 결정된 경우, 상기 행동 프로파일 DB에서 상기 결정된 메인 아바타의 감정 상태, 상기 메인 아바타의 행동 동기, 상기 가상 세계 종류, 및 상기 메인 아바타의 종류에 해당하는 상기 메인 아바타의 행동 종류를 상기 메인 아바타의 행동으로 결정하는 것을 특징으로 하는 자율 행동 생성 방법. The method of claim 12,
The behavior profile DB,
An emotional state of the main avatar, a behavioral motivation of the main avatar, a virtual world type, a type of the main avatar, a type of behavior of the main avatar, and a reward value,
Determining the action of the main avatar,
If the emotional state and behavior motivation of the main avatar are determined, the main avatar corresponding to the emotional state of the main avatar determined from the behavior profile DB, the behavior motivation of the main avatar, the virtual world type, and the type of the main avatar Autonomous action generation method, characterized in that for determining the type of action of the main avatar.
상기 이웃 아바타의 감정 상태를 추정하는 단계는,
상기 주변 환경 정보를 이용하여 상기 행동-감정 정보 DB로부터 해당하는 감정상태를 상기 이웃 아바타의 감정 상태로 추정하는 것을 특징으로 하는 자율 행동 생성 방법.The method of claim 12,
Estimating the emotional state of the neighboring avatar,
And using the surrounding environment information to estimate a corresponding emotional state from the behavior-emotional information DB as the emotional state of the neighboring avatar.
상기 주변 환경 정보는, 상기 가상 세계를 구성하는 복수의 오브젝트 각각의 종류 및 위치, 상기 이웃 및 메인 아바타의 종류, 상기 이웃 및 메인 아바타의 표정 정보, 상기 이웃 및 메인 아바타의 행동 종류, 상기 이웃 및 메인 아바타의 이동 방향을 포함하고,
상기 행동-감정 정보 DB는, 러셀의 원형 모델(Russell Circumplex)을 이용하여 상기 이웃 아바타의 표정 정보와 상기 이웃 아바타의 감정 상태를 일대일로 대응하여 데이터베이스화되고,
상기 이웃 아바타의 감정 상태를 추정하는 단계는,
상기 이웃 아바타의 표정 정보를 이용하여 상기 행동-감정 정보 DB로부터 상기 이웃 아바타의 감정 상태를 추정하는 것을 특징으로 하는 자율 행동 생성 방법.The method of claim 14,
The surrounding environment information may include a type and a location of each of the plurality of objects constituting the virtual world, a type of the neighbor and the main avatar, facial expression information of the neighbor and the main avatar, an action type of the neighbor and the main avatar, the neighborhood and The direction of movement of the main avatar,
The behavior-emotion information DB is databased in a one-to-one correspondence between the facial expression information of the neighboring avatar and the emotional state of the neighboring avatar using a Russell Circumplex,
Estimating the emotional state of the neighboring avatar,
And estimating the emotional state of the neighboring avatar from the behavior-emotion information DB using the facial expression information of the neighboring avatar.
상기 행동-동기 정보 DB는, 상기 이웃 아바타의 종류, 상기 이웃 아바타의 행동 종류, 주변 환경 정보, 및 상기 이웃 아바타의 행동 동기를 일대일로 대응하여 데이터베이스화되고,
상기 이웃 아바타의 행동 동기를 설정하는 단계는,
상기 이웃 아바타의 종류 및 상기 이웃 아바타의 행동 종류를 이용하여 상기 행동-동기 정보 DB로부터 상기 이웃 아바타의 행동 동기를 추정하고, 상기 추정된 이웃 아바타의 행동 동기에 해당하는 파라미터 값을 설정하는 것을 특징으로 하는 자율 행동 생성 방법.16. The method of claim 15,
The action-synchronization information DB is databased in a one-to-one correspondence with the type of the neighboring avatar, the action type of the neighboring avatar, the surrounding environment information, and the action motivation of the neighboring avatar.
Setting the behavior motivation of the neighboring avatars,
Estimating the behavior motivation of the neighboring avatar from the behavior-synchronization information DB using the type of the neighboring avatar and the behavior type of the neighboring avatar, and setting a parameter value corresponding to the estimated behavior of the neighboring avatar How to create autonomous behavior.
상기 이웃 및 메인 아바타의 행동 동기는, 사회적 동기, 직업적 동기, 및 군중 행동 동기를 포함하는 자율 행동 생성 방법.The method of claim 11,
The behavioral motivations of the neighboring and main avatars include social, professional, and crowd behavioral motivations.
상기 메인 아바타의 행동 동기를 결정하는 단계는,
상기 추정된 이웃 아바타의 행동 동기, 상기 이웃 아바타의 종류, 및 상기 메인 아바타의 종류에 기초하여 상기 메인 아바타의 행동 동기를 결정하는 것을 특징으로 하는 자율 행동 생성 방법.The method of claim 12,
Determining the behavior motivation of the main avatar,
And determining the behavioral motivation of the main avatar based on the estimated behavioral motivation of the neighboring avatar, the type of the neighboring avatar, and the type of the main avatar.
상기 메인 아바타의 감정 상태를 결정하는 단계는,
상기 메인 아바타의 행동 동기 및 상기 이웃 아바타의 감정 상태에 해당하는 파라미터 값에 기초하여 상기 메인 아바타의 감정 상태를 결정하는 자율 행동 생성 방법.The method of claim 12,
Determining the emotional state of the main avatar,
And determining an emotional state of the main avatar based on a parameter value corresponding to the behavioral motivation of the main avatar and the emotional state of the neighboring avatar.
상기 결정된 메인 아바타의 행동 및 기설정된 메인 아바타의 목적을 이용하여상기 행동 프로파일 DB를 갱신하는 단계
를 더 포함하는 자율 행동 생성 방법.The method of claim 12,
Updating the behavior profile DB using the determined main avatar action and a predetermined purpose of the main avatar
Autonomous action generation method further comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100019911A KR101639190B1 (en) | 2010-03-05 | 2010-03-05 | Apparatus and method for generating autonomous behaviors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100019911A KR101639190B1 (en) | 2010-03-05 | 2010-03-05 | Apparatus and method for generating autonomous behaviors |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110100856A true KR20110100856A (en) | 2011-09-15 |
KR101639190B1 KR101639190B1 (en) | 2016-07-25 |
Family
ID=44953125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100019911A KR101639190B1 (en) | 2010-03-05 | 2010-03-05 | Apparatus and method for generating autonomous behaviors |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101639190B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017079731A1 (en) * | 2015-11-06 | 2017-05-11 | Mursion, Inc. | Control system for virtual characters |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004065987A (en) * | 2002-08-07 | 2004-03-04 | Sony Computer Entertainment America Inc | Electronic device and method for correcting action of character group by interaction between groups |
KR20100006263A (en) * | 2008-07-09 | 2010-01-19 | 울산대학교 산학협력단 | System and method of expressing character |
-
2010
- 2010-03-05 KR KR1020100019911A patent/KR101639190B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004065987A (en) * | 2002-08-07 | 2004-03-04 | Sony Computer Entertainment America Inc | Electronic device and method for correcting action of character group by interaction between groups |
KR20100006263A (en) * | 2008-07-09 | 2010-01-19 | 울산대학교 산학협력단 | System and method of expressing character |
Non-Patent Citations (1)
Title |
---|
‘3차원 가상환경을 위한 군중 아바타 행동 지능 기술’,(2009.12.)* * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017079731A1 (en) * | 2015-11-06 | 2017-05-11 | Mursion, Inc. | Control system for virtual characters |
US10489957B2 (en) | 2015-11-06 | 2019-11-26 | Mursion, Inc. | Control system for virtual characters |
US10930044B2 (en) | 2015-11-06 | 2021-02-23 | Mursion, Inc. | Control system for virtual characters |
Also Published As
Publication number | Publication date |
---|---|
KR101639190B1 (en) | 2016-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8494982B2 (en) | Emotion model, apparatus, and method for adaptively modifying personality features of emotion model | |
JP5423379B2 (en) | Image processing apparatus, image processing method, and program | |
US9805493B2 (en) | Social identity models for automated entity interactions | |
JP6446126B2 (en) | Processing system and program | |
US20220226728A1 (en) | Route navigation system within a game application environment | |
US9238175B2 (en) | Natural movement in a virtual environment | |
KR101261737B1 (en) | Retargeting method for characteristic facial and recording medium for the same | |
US20200122039A1 (en) | Method and system for a behavior generator using deep learning and an auto planner | |
KR20110021330A (en) | Apparatus and method for creating third dimension abatar | |
JPWO2020003670A1 (en) | Information processing device and information processing method | |
US20150309583A1 (en) | Motion recognizing method through motion prediction | |
JP2021077286A (en) | Robot control model learning method, robot control model learning apparatus, robot control model learning program, robot control method, robot control apparatus, robot control program, and robot | |
JPWO2018101035A1 (en) | Information processing apparatus and information processing method | |
KR102509698B1 (en) | Dancing smart robot studied dance gesture | |
US20140170619A1 (en) | Apparatus and method for creating artificial feelings | |
KR20110100856A (en) | Apparatus and method for generating autonomous behaviors | |
KR20080099883A (en) | Method for modeling emotion change according to character type and sysytem for modeling virtual character using the same method | |
CN111739134A (en) | Virtual character model processing method and device and readable storage medium | |
JP7327391B2 (en) | Control device, control method and program | |
US20190111563A1 (en) | Custom Motion Trajectories for Robot Animation | |
US9259646B2 (en) | Object control device, computer readable storage medium storing object control program, and object control method | |
JP7326707B2 (en) | Robot, robot control method and program | |
EP3995377A1 (en) | Latency mitigation system and method | |
JP7179672B2 (en) | Computer system and machine learning method | |
KR102261055B1 (en) | Method and system for optimizing design parameter of image to maximize click through rate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190619 Year of fee payment: 4 |