KR101108987B1 - Apparatus and method for studying pattern of game character by using separation of space - Google Patents

Apparatus and method for studying pattern of game character by using separation of space Download PDF

Info

Publication number
KR101108987B1
KR101108987B1 KR1020090018797A KR20090018797A KR101108987B1 KR 101108987 B1 KR101108987 B1 KR 101108987B1 KR 1020090018797 A KR1020090018797 A KR 1020090018797A KR 20090018797 A KR20090018797 A KR 20090018797A KR 101108987 B1 KR101108987 B1 KR 101108987B1
Authority
KR
South Korea
Prior art keywords
game
neural network
learning
character
pattern
Prior art date
Application number
KR1020090018797A
Other languages
Korean (ko)
Other versions
KR20100100105A (en
Inventor
조병헌
홍윤광
박창준
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090018797A priority Critical patent/KR101108987B1/en
Publication of KR20100100105A publication Critical patent/KR20100100105A/en
Application granted granted Critical
Publication of KR101108987B1 publication Critical patent/KR101108987B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Abstract

본 발명은 공간 분할을 이용한 게임 캐릭터의 패턴 학습 기술에 관한 것으로, 게임 내 캐릭터가 사용자의 행동 양식을 학습할 수 있도록 하여 사용자와 유사한 행동을 수행하기 위해 게임의 물리적, 논리적, 캐릭터 별 상태 공간을 분할하고 각각을 신경망으로 분리하여 학습을 수행하도록 한다. 그리고 게임 캐릭터를 신경망으로 학습시킬 때, 신경망의 출력을 확률로 계산하여 게임에 적용하는 것을 특징으로 한다. 본 발명에 의하면, 게임의 상태 공간 분할을 통하여 학습 시간과 결과 측면에서 성능 향상을 꾀할 수 있으며, 신경망의 출력노드 값이 크기에 비례하여 출력노드가 선택될 수 있도록 하여 게임에서 캐릭터가 다양한 행동을 수행할 수 있으며, 더 나아가 게임 유저와 비슷한 행동을 할 수 있다. The present invention relates to a pattern learning technique of a game character using space division. The present invention relates to a physical, logical, and character state space of a game in order to enable a character in a game to learn a user's behavior and perform a similar behavior to the user. Divide and divide each into neural networks to perform learning. And when learning a game character with a neural network, it is characterized in that the output of the neural network to calculate the probability and apply to the game. According to the present invention, it is possible to improve performance in terms of learning time and results through state space partitioning of the game, and the character can perform various actions in the game by allowing the output node to be selected in proportion to the size of the output node of the neural network. You can do it, and you can even do something similar to a game user.

공간분할, 게임 캐릭터, 패턴 학습 Space Division, Game Character, Pattern Learning

Description

공간 분할을 이용한 게임 캐릭터의 패턴 학습 장치 및 방법{APPARATUS AND METHOD FOR STUDYING PATTERN OF GAME CHARACTER BY USING SEPARATION OF SPACE} Apparatus and method for pattern learning of game characters using space division {APPARATUS AND METHOD FOR STUDYING PATTERN OF GAME CHARACTER BY USING SEPARATION OF SPACE}

본 발명은 게임 프로그램 상에서 게임 캐릭터의 패턴을 학습 시키는 기술에 관한 것으로서, 특히 게임의 전체 상태 공간을 논리적, 물리적, 캐릭터별로 분할 한 뒤, 분할된 영역을 각각의 신경망으로 할당해서 게임 캐릭터를 학습시키는데 적합한 공간 분할을 이용한 게임 캐릭터의 패턴 학습 장치 및 방법에 관한 것이다. The present invention relates to a technique for learning a pattern of a game character in a game program. Particularly, after dividing an entire state space of a game by logical, physical, and character, the present invention assigns a divided area to each neural network to learn a game character. The present invention relates to a device and method for learning a pattern of a game character using suitable spatial division.

본 발명은 지식경제부 및 정보통신연구진흥원의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2006-S-044-03, 과제명: 멀티코아 CPU 및 MPU 기반 크롯플랫폼 게임기술 개발]. The present invention is derived from the research conducted as part of the IT growth engine technology development project of the Ministry of Knowledge Economy and the Ministry of Information and Communication Research and Development. [Task management number: 2006-S-044-03, Task name: Multicore CPU and MPU-based crop Platform game technology development].

일반적으로 알려진 바와 같이 인공생명이란 생명체가 나타내는 현상을 컴퓨터, 로봇 등과 같은 인공 매체 상에 재현함으로써 생명의 일반적인 특성에 대해 연구하는 학문이다. 생물학이 생물 현상에 대해 분석적인 방법으로 접근하였다면, 인공생명은 종합적인 방법으로 접근한다. 게임 개발자들은 인공생명 기법을 게임에 적용하려고 오래 전부터 시도를 해왔으나 인공생명의 예측 불가능한 특성 때문에 제한적으로 사용되어 왔었다. As is generally known, artificial life is the study of general characteristics of life by reproducing phenomena represented by living things on artificial media such as computers and robots. If biology has taken an analytical approach to biological phenomena, artificial life has a comprehensive approach. Game developers have long attempted to apply artificial life techniques to games, but they have been used on a limited basis because of the unpredictable nature of artificial life.

최근 들어, 다시 인공생명을 게임에 적용하려는 시도가 되고 있다. 인공생명의 기본적인 특성인 적응성, 창의성 등을 게임에 적용하게 되면, 복잡한 환경이나 사용자의 조작에 적응하거나 전혀 예상치 못한 창의적인 행동으로 인하여 게임의 흥미를 높일 수 있기 때문이다. 그러나 지금까지 연구의 초점은 주로 캐릭터들이 군집을 형성하는 게임에서 전체적인 전략을 결정하는 것에 중점을 둔 연구로서 아직 기초적인 단계에 머물고 있다. Recently, there have been attempts to apply artificial life to games again. This is because applying the basic characteristics of artificial life, adaptability and creativity to the game, can increase the interest of the game by adapting to a complicated environment or user's operation or by unexpected creative behavior. Until now, however, the focus of the research is still at the basic stage, focusing mainly on determining the overall strategy in games where characters are clustered.

예를 들어, 일반적으로 게임 사용자 즉, 게임 플레이어는 게임기 또는 컴퓨터를 통하여 실행되는 게임 내에서 유효사물을 이용하여 게임 속의 세계가 정의하는 룰에 따라서 자신 이외의 플레이어와 커뮤니케이션을 통하여 유발될 수 있는 다양한 재미를 경험하게 된다. For example, in general, game users, ie, game players, can use various objects that can be triggered through communication with players other than themselves in accordance with the rules defined by the world in the game using valid objects in games played through game machines or computers. You will have fun.

이에 게임의 목적인 재미를 추구하는 순간에 인공지능(Artificial Intelligence, 이하 AI라 한다)은 필연적으로 발생하게 된다. 예를 들어, 전통적인 보드 게임의 경우는 같이 플레이를 하고 싶어할만한, 가족이나 친구, 손님 등과 함께하게 되나, 이러한 전통적인 게임들이 컴퓨터 또는 게임기라는 새로운 매체와 결합하면서 나타나게 된 가장 큰 특징은 게임을 혼자서 플레이하게 되었다는 점이다. Therefore, artificial intelligence (AI) is inevitably generated at the moment of pursuing fun, the purpose of the game. For example, traditional board games come with family, friends and guests who would like to play together, but the biggest feature that emerged when these traditional games were combined with new media such as computers or game consoles played games alone. Is that.

이를 위해서는 게임 요소 속에 게임 플레이어가 직접 조작하는 게임 캐릭터 외에 다른 AI 플레이어들이 존재하게 되었으며, 이들 서로 간에 상대역할, 보조 역할 등의 상호작용을 통하여 게임플레이어와의 커뮤니케이션을 수행하게 되었다. To this end, other AI players exist in the game elements, in addition to the game characters directly manipulated by the game players, and they communicate with the game players through interactions such as relative roles and auxiliary roles.

상기와 같은 AI 구현 기술로는 FSM(Finite State Machine)과 FuSM(Fuzzy State Machine)이 있다. Such AI implementation technologies include finite state machine (FSM) and fuzzy state machine (Fusm).

FSM은 상태들 간의 전이에 의해 통제되는 그래프 내에 유한개의 상태들이 연결되어 있는 규칙 기반 시스템으로서, 현재 가장 널리 사용되는 인공 지능 기법이다. FSM은 단순히 if-else나 switch-case 문장만으로 구현할 수 있기 때문에 이해하기 쉽고 프로그램으로 구현하기 쉬워 널리 사용된다. 예를 들어, 게임 캐릭터가 이동 중에 적을 발견하게 되면, 이동 상태에서 추적 상태로 바뀌어 발견한 적을 쫓아간다. 그리고 적이 일정한 거리 내에 들어오면, 공격 상태로 바뀌어 적을 공격한다. 이와 같이 FSM을 이용하면 구현이 쉽고 행동이 정확히 정의되는 장점이 있으나, 게임의 진행이 미리 정의된 방식으로만 동작하는 단점이 있다. FSM is a rule-based system in which finite states are connected in a graph controlled by transitions between states. FSM is widely used because it can be implemented simply by if-else or switch-case statements and is easy to understand and programmatically implement. For example, if a game character finds an enemy while on the move, it moves from the moving state to the tracking state and follows the found enemy. If the enemy is within a certain distance, it will change to attack and attack the enemy. In this way, the use of the FSM has the advantage of easy implementation and precisely defined behavior. However, the progress of the game operates only in a predefined manner.

즉, 게임의 상대방이 FSM으로 구현된 경우 상대방의 행동 양식이 일정하기 때문에 일정시간 게임을 한 후에는 쉽게 예측될 수 있다는 것이다. 상대방의 행동을 예측할 수 있다는 것은 게임의 흥미를 반감시키는 요인으로 작용한다. 이러한 단점을 보완하기 위해 FuSM이 사용되고 있다. In other words, if the opponent of the game is implemented by the FSM, since the behavior of the opponent is constant, it can be easily predicted after playing the game for a certain time. Being able to predict your opponent's behavior can be a factor in halting the interest of the game. FuSM is used to make up for this drawback.

FSM에 퍼지 이론을 접목한 FuSM의 경우에는 입력과 출력에 퍼지 함수를 적용하여 어느 정도 무작위적으로 동작할 수 있다. 즉, 게임에 무작위 요소가 포함되어 있기 때문에 게임에서의 상대방이 동일한 상황에서 다른 행동을 할 가능성이 있으므로 상대방의 행동을 예측하기가 어렵게 된다. FuSM, which incorporates fuzzy theory into FSM, can be operated at random by applying fuzzy functions to inputs and outputs. In other words, since the game contains a random element, it is difficult to predict the opponent's behavior because the opponent in the game may have different actions in the same situation.

그러나, FSM과 FuSM은 캐릭터의 상태의 수가 적을 때는 간단하게 구현할 수 있지만, 상태의 수가 많아지게 되면, 상태 다이어그램을 정리하기도 어렵고, 프로 그램이 급격하게 복잡해지는 단점이 있다. 또한 FSM 과 FuSM 모두 새로운 행동 양식을 추가하기 위해서는 새롭게 프로그램을 코딩해야만 하는 단점이 있다. However, FSM and FuSM can be easily implemented when the number of states of the character is small. However, when the number of states increases, it is difficult to arrange the state diagram and the program is rapidly complicated. In addition, both FSM and FuSM have the disadvantage of having to code new programs to add new behavior.

이에 새로운 AI 구현 기술로서 연구되고 있는 신경회로망은 인간의 신경 체제를 모사한 것으로서, 간단한 컴포넌트들이 수많이 연결된 구조를 가지고, 입력되는 데이터의 패턴 인식에 기반하여 출력을 산출한다. 신경회로망이 게임에 적용되었을 때의 가장 큰 장점으로는, 신경회로망은 학습 능력을 가지고 있기 때문에 게임을 진행하면서 계속적으로 지능이 향상될 수 있다는 점이다. 그래서 지금까지 신경회로망을 게임에 적용하려는 시도가 많이 진행되고 있는데, 대부분이 오목, Tic-Tac-Toe 등 보드 게임이 주류를 이룬다. 보드 게임은 보드 상에서 움직이는 말들의 전체적인 상황을 인지하여 개개의 말들의 움직임을 결정하는 특성을 가지고 있다. The neural network, which is being researched as a new AI implementation technology, simulates the human nervous system, has a structure in which a number of simple components are connected, and produces an output based on pattern recognition of input data. The biggest advantage of the neural network applied to the game is that since the neural network has a learning ability, the intelligence can be continuously improved as the game progresses. So many attempts have been made to apply neural networks to games. Most of them are board games such as concave and Tic-Tac-Toe. Board games have the characteristic of determining the movement of individual horses by recognizing the overall situation of the horses moving on the board.

상기한 바와 같이 동작하는 종래 기술에 의해 게임에 사용되는 AI 구현 기술에 있어서, 신경회로망을 이용한 게임 상에서는 게임 캐릭터를 학습시킬 때 게임의 상태 공간(물리적, 논리적, 캐릭터별)이 상당히 커서, 효율적인 학습이 거의 불가능하다는 문제점이 있었다. In the AI implementation technology used for the game by the conventional technique operating as described above, in the game using a neural network, the state space of the game (physical, logical, character-by-character) is considerably large when learning game characters, and efficient learning is achieved. There was a problem that this was almost impossible.

이에 본 발명은, 게임 캐릭터의 효율적인 학습과 성능 향상을 위하여 게임의 전체 공간을 논리적, 물리적, 캐릭터별로 임의의 개수로 분할하여, 각각을 신경망으로 할당한 뒤 게임 캐릭터를 학습시킬 수 있는 게임 캐릭터의 패턴 학습 장치 및 방법을 제공한다. Accordingly, the present invention is to divide the entire space of the game into logical, physical, character by any number in order to efficiently learn and improve the performance of the game character, assigning each to a neural network and then to the game character of the game character that can be learned A pattern learning apparatus and method are provided.

또한 본 발명은, 게임의 전체 공간을 임의의 기준으로 분할하여 각각을 신경망으로 할당한 뒤, 보다 사람과 비슷한 행동을 할 수 있도록, 신경망의 출력노드 값을 확률로 계산하여 게임에 적용할 수 있는 게임 캐릭터의 패턴 학습 장치 및 방법을 제공한다. In addition, the present invention, by dividing the entire space of the game by an arbitrary reference, each of which is assigned to the neural network, to calculate the output node value of the neural network can be applied to the game as a probability to perform more similar to humans Provided are a pattern learning apparatus and method for a game character.

본 발명의 일 실시예 장치는, 저장된 게임 프로그램 정보를 제어부로 전달하는 저장부와, 게임 상황에 따른 사용자 키 조작 정보를 입력받아 제어부로 전달하는 키 입력부와, 게임 프로그램을 구동하여, 게임의 전체 상태 공간을 기 설정된 기준 영역으로 분할한 후, 분할된 영역 별로 신경회로망에 의해 제어되는 각각의 신경망에 할당하여 할당된 신경망 상에서 구동된 게임의 상황 정보와, 상기 키 입력부로부터 입력된 상기 게임의 상황 정보에 대응하는 사용자의 키 조작 정보를 토대로 사용자의 하드웨어 조작 패턴을 학습하는 상기 제어부와, 상기 제어부로 전달된 신호를 디스플레이하는 디스플레이부를 포함한다. An embodiment of the present invention, the device, the storage unit for transmitting the stored game program information to the control unit, a key input unit for receiving the user key operation information according to the game situation to pass to the control unit, driving the game program, the entire game After dividing the state space into a predetermined reference area, the game device operates on the allocated neural network allocated to each neural network controlled by the neural network, and the game state input from the key input unit. And a controller configured to learn a user's hardware manipulation pattern based on the user's key manipulation information corresponding to the information, and a display configured to display a signal transmitted to the controller.

본 발명의 일 실시예 방법은, 게임 프로그램을 구동하는 과정과, 구동된 게임의 전체 상태 공간을 기 설정된 기준 영역으로 분할하는 과정과, 상기 분할된 기준 영역 별로 신경회로망에 의해 제어되는 각각의 신경망에 할당하는 과정과, 상기 할당된 신경망 상에서 구동된 게임의 상황 정보와, 입력된 상기 게임의 상황 정보에 대응하는 사용자의 키 조작 정보를 토대로 사용자의 하드웨어 조작 패턴을 학습 하는 과정을 포함한다. According to an embodiment of the present invention, a method of driving a game program, dividing the entire state space of a driven game into a predetermined reference region, and each neural network controlled by a neural network for each of the divided reference regions And a step of learning a hardware operation pattern of the user based on the situation information of the game driven on the assigned neural network, and the user's key manipulation information corresponding to the input situation information of the game.

본 발명에 있어서, 개시되는 발명 중 대표적인 것에 의하여 얻어지는 효과를 간단히 설명하면 다음과 같다. In the present invention, effects obtained by representative ones of the disclosed inventions will be briefly described as follows.

본 발명은, 게임의 상태 공간 분할을 통하여 학습 시간과 결과 측면에서 성능 향상을 꾀할 수 있으며, 신경망의 출력노드 값이 크기에 비례하여 출력노드가 선택될 수 있도록 하여 게임에서 캐릭터가 다양한 행동을 수행할 수 있으며, 더 나아가 게임 유저와 비슷한 행동을 수행하게 될 수 있는 효과가 있다. The present invention can improve performance in terms of learning time and results through state space partitioning of the game, and the character performs various actions in the game by allowing the output node to be selected in proportion to the size of the output node of the neural network. You can do this, and furthermore, you can perform similar actions as game users.

이하 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, the operating principle of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. The following terms are defined in consideration of the functions of the present invention, and may be changed according to the intentions or customs of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.

본 발명은 게임의 전체 상태 공간을 논리적, 물리적, 캐릭터별로 임의의 개수로 분할 한 뒤, 분할된 영역을 각각의 신경망으로 할당해서 학습시키는 것이며, 이를 통해 학습 시간과 결과 측면에서의 성능 향상을 꾀할 수 있다. 그리고 게임 캐릭터를 신경망으로 학습시킬 경우, 신경망의 출력노드의 값을 해당 노드가 선택될 확률로 계산하여, 실제 게임에 적용될 경우, 특정 상황에서 한 종류의 출력만 선택되는 것이 아니라, 출력노드의 값의 크기에 비례하여 출력노드가 선택될 수 있도록 한다. 이렇게 하면, 게임에서 캐릭터가 다양한 행동을 수행할 수 있게 되어 보다 게임 사용자와 비슷한 행동을 할 수 있다. The present invention divides the entire state space of the game into logical, physical, and random characters, and allocates the divided regions to respective neural networks, thereby improving performance in terms of learning time and results. Can be. When the game character is trained with a neural network, the value of the output node of the neural network is calculated as the probability that the node is selected, and when applied to an actual game, only one type of output is selected in a specific situation, but the value of the output node. The output node can be selected in proportion to the size of. This allows the character to perform a variety of actions in the game so that they can behave more like game users.

도 1은 본 발명의 실시예에 따른 사용자 조작 패턴 학습 장치의 구조를 도시한 블록도이다.1 is a block diagram showing the structure of a user operation pattern learning apparatus according to an embodiment of the present invention.

도 1을 참조하면, 사용자 조작 패턴 학습 장치는 제어부(100), 키입력부(108), 저장부(110), 디스플레이부(112)를 포함하며, 여기서 제어부(100)는 게임 영역 분할 모듈(102), 신경회로망(104)과, 학습 실행부(106)를 더 포함한다. Referring to FIG. 1, a user manipulation pattern learning apparatus includes a control unit 100, a key input unit 108, a storage unit 110, and a display unit 112, where the control unit 100 includes a game area dividing module 102. ), The neural network 104 and the learning execution unit 106 further.

제어부(100)에서는 저장부(110)에 저장된 게임소프트웨어를 구동하며, 게임 실행 중 저장이 필요한 데이터를 저장부(110)에 전달하여 저장되도록 한다. The controller 100 drives the game software stored in the storage unit 110, and transmits data required for storage during game execution to the storage unit 110 to be stored.

키입력부(108)는 사용자가 입력한 키에 해당하는 명령신호를 제어부(100)로 전달하는 것으로서, 사용자가 조작하게 되는 키입력부(108)는 키보드, 마우스, 조이스틱, 핸들, 터치스크린 등 컴퓨터 또는 게임기기의 입력 수단으로 사용될 수 있는 모든 기기의 적용이 가능하다. 이때, 사용자는 제어부(100)를 통해 구동된 게임의 현재 상황을 디스플레이부(112)를 통해 인지하며, 이에 해당하는 게임 제어를 수행하게 된다. The key input unit 108 transmits a command signal corresponding to a key input by the user to the control unit 100. The key input unit 108 that the user manipulates is a computer such as a keyboard, a mouse, a joystick, a handle, a touch screen, or the like. It is possible to apply any device that can be used as an input means of a game device. In this case, the user recognizes the current situation of the game driven by the control unit 100 through the display unit 112 and performs game control corresponding thereto.

즉, 게임 캐릭터의 위치 제어 및 행동제어 등을 키입력부(108)를 통해 수행하게 되며, 이렇게 입력된 정보는 제어부(100)로 전달된다. That is, the position control and the behavior control of the game character are performed through the key input unit 108, and the input information is transmitted to the control unit 100.

저장부(110)는 사용자 조작 패턴 학습 장치를 구동하는 응용프로그램 및 게임 프로그램들을 저장하는 것으로서, 제어부(100)의 요청에 의해 저장된 정보를 제어부(100)에 제공한다. The storage unit 110 stores application programs and game programs for driving the user manipulation pattern learning apparatus, and provides the controller 100 with information stored at the request of the controller 100.

한편, 제어부(100)는 구동된 게임에서 사용자의 행동 예측을 위해 먼저, 게임 영역 분할 모듈(102)을 통하여 현재 사용할 게임의 전체 상태 공간을 논리적, 물리적, 캐릭터별로 임의의 개수로 분할하고, 분할된 영역은 각각의 신경망으로 할당시키게 된다. 예를 들어, 논리적 공간이 10개의 영역으로 분할된 경우, 신경 회로망(104)으로부터 10개의 영역에 대한 신경망을 할당받게 되고, 물리적 공간이 5개의 영역으로 분할된 경우, 신경 회로망(104)으로부터 5개의 영역에 대한 신경망을 할당받게 되고, 마찬가지로 게임 내에 게임 캐릭터 4개가 존재한다면, 신경 회로망(104)으로부터 게임 캐릭터 4개에 대한 신경망을 할당받게 된다. Meanwhile, the controller 100 divides the entire state space of the currently used game into a random number for each logical, physical, and character through the game region dividing module 102 in order to predict a user's behavior in the driven game. The allocated area is assigned to each neural network. For example, if the logical space is divided into 10 regions, the neural network for 10 regions is allocated from the neural network 104, and if the physical space is divided into 5 regions, 5 from the neural network 104 is allocated. The neural networks for the four regions are allocated, and if four game characters exist in the game, the neural networks for the four game characters are allocated from the neural network 104.

이에 대해서는 도 2와 같이 게임 전체 상태 공간을 각각의 기준별로 분할하고, 분할된 각각의 영역별로 신경망을 할당하여 나타낼 수 있다. As shown in FIG. 2, the entire game state space may be divided by each criterion, and the neural network may be allocated to each divided region.

이후 제어부(100)는 각 게임 상황에 대해 사용자가 키입력부(108)를 통해 입력한 정보를 학습하게 된다. 즉, 신경회로망(104)에 각각의 게임 상황을 입력으로 설정하고, 각 상황에 따른 사용자의 하드웨어 조작 패턴으로서, 키입력부(108)로부터 제어부(100)로 전달되는 키입력 신호를 신경회로망(104)의 출력으로 설정한다. 이때, 신경회로망(104)은 각각의 게임 분할 영역별로 할당되어 제어하는 신경 망으로 구현된다. Thereafter, the controller 100 learns information input by the user through the key input unit 108 for each game situation. That is, each game situation is set as an input to the neural network 104, and the neural network 104 receives a key input signal transmitted from the key input unit 108 to the control unit 100 as a hardware manipulation pattern of the user according to each situation. Set to) output. In this case, the neural network 104 is implemented as a neural network that is allocated and controlled for each game partition area.

이러한 게임 상황을 신경회로망(104)에 입력으로 하고, 게임 분할 영역별 신경망 내에서 게임 상황에 따른 사용자의 입력패턴을 출력으로 처리하는 과정을 반복적으로 수행하며, 수행되는 각각의 상황에 대한 사용자의 조작 패턴을 학습 실행부(106)를 통해 학습을 수행하도록 제어한다. The game situation is input to the neural network 104, the process of repeatedly processing the user's input pattern according to the game situation in the neural networks for each game division area as an output, and the user's for each situation performed The operation pattern is controlled to perform learning through the learning execution unit 106.

여기서, 학습 실행부(106)는 일반적인 오류 역전파 알고리즘(Error Backpropagation Algorithm)이 사용될 수 있다. 오류 역전파 알고리즘은 신경망의 뉴런(neuron)들이 활성화되어 출력값을 계산하고 원하는 출력값과 비교를 통해 에러를 계산한 후 이 에러를 최소화하는 방향으로 뉴런들의 연결 가중치를 변경함으로써 이루어진다. 한편, 학습 실행부(106)는 오류 역전파 알고리즘에 국한되는 것은 아니며, 사용자 입력 패턴에 따라 학습을 수행할 수 있는 헤비안 학습 규칙, 볼쯔만 학습법 등과 같은 모든 학습 알고리즘의 사용이 가능함은 물론이다. Here, the learning execution unit 106 may use a general error backpropagation algorithm. The error backpropagation algorithm is performed by the neurons of the neural network being activated to calculate the output value, calculate the error by comparing with the desired output value, and then change the connection weight of the neurons in the direction of minimizing the error. On the other hand, the learning execution unit 106 is not limited to the error back-propagation algorithm, of course, it is possible to use all learning algorithms, such as Hebian learning rules, Boltzmann learning method that can perform the learning according to the user input pattern. .

이를 통해 제어부(100)가 학습된 정보를 이용하여 게임 캐릭터의 제어를 수행하는 경우, 사용자와 유사한 행동을 수행하게 된다. 즉, 각각의 게임 상황에 대해, 신경회로망(104)은 각각의 게임 분할 영역별로 할당된 신경망을 토대로 게임 패턴을 학습하게 되므로, 그 당시 사용자에 의해 눌려졌던 키 값에 가까운 값을 출력하게 된다. 이는 사용자가 게임 진행 시 제어하는 게임 캐릭터와 유사한 행동을 수행할 수 있으며, 사용자의 예측된 행동에 대응되는 행동을 수행하는 것이 가능하므로, 사용자가 게임을 진행함에 따라 반감될 수 있는 반복적인 게임의 패턴을, 사용자의 패턴을 토대로 계속 학습하여 대응해 나가는 것이 가능하므로, 사용자의 흥 미를 높일 수 있으며, 학습 시간과 결과 측면에서의 성능 향상을 꾀할 수 있다. When the controller 100 controls the game character by using the learned information, the controller 100 performs a similar behavior to that of the user. That is, for each game situation, since the neural network 104 learns the game pattern based on the neural network allocated to each game partition area, the neural network 104 outputs a value close to the key value pressed by the user at that time. This allows the user to perform an action similar to a game character controlled by the user as the game progresses, and to perform an action corresponding to the predicted action of the user, so that the user can perform an action of the repetitive game that can be halved as the user progresses the game. It is possible to continue learning and responding to patterns based on the user's patterns, thereby increasing user interest and improving performance in terms of learning time and results.

도 3은 본 발명의 실시예에 따라 게임 캐릭터가 사용자 조작 패턴을 학습하는 방식을 도시한 도면이다. 3 is a diagram illustrating a method in which a game character learns a user manipulation pattern according to an exemplary embodiment of the present invention.

도 3을 참조하면, 게임 영역 분할부(102)를 통해 분할된 게임 영역별로 신경망을 할당하는 신경회로망(104)으로는 시그모이드(sigmoid) 뉴런들이 층을 이루어 입력으로부터 출력으로 신호가 한 방향으로만 전달되는 다층퍼셉트론(multilayer perceptron) 구조이다. 이 외에도 재귀망(recurrent networks) 또는 단일 신경망의 결합으로 구성된 전문가망(mixture of experts) 등이 있으며, 무감독 학습에 사용되는 자기조직신경망(self-organizing map) 등이 사용될 수 있으나, 이에 한정되지는 않으며, 게임 환경 상에 사용될 수 있는 모든 신경회로망 및 신경망의 적용이 가능함은 물론이다. Referring to FIG. 3, in the neural network 104 which allocates neural networks to game regions divided by the game region dividing unit 102, sigmoid neurons are layered and a signal is inputted from an input to an output. It is a multi-layer perceptron structure that is only delivered. In addition, there are recurrent networks or a mix of experts composed of a combination of single neural networks, and a self-organizing map used for unsupervised learning may be used, but is not limited thereto. Of course, all neural networks and neural networks that can be used on the game environment are possible.

예컨대, 신경회로망(104)의 입력으로는 게임 상황이 설정된다. 그리고 출력으로는 사용자의 하드웨어 조작이 출력된다. 도 3에서 ni는 학습에 필요한 입력의 개수, no는 출력의 개수이다. For example, the game situation is set as an input of the neural network 104. The hardware operation of the user is output as an output. In FIG. 3, ni is the number of inputs required for learning, and no is the number of outputs.

이때, 게임 상황은 다음과 같이 입력될 수 있다. 예를 들어, 캐릭터의 위치가 학습에 중요한 정보가 된다면, 캐릭터의 위치 x, y 두 개의 입력이 필요하며, 각각 실수 값으로 입력된다. 여기서 게임 상황 입력의 개수는 학습에 필요한 데이터 개수에 따라 달라질 수 있다. 또한, 신경회로망(104)에서는 물리적 위치, 캐릭터에 대해 분할된 영역의 할당된 신경망에서 이에 대한 학습을 처리하게 되는 것이다. At this time, the game situation may be input as follows. For example, if the character's position becomes important information for learning, two inputs of the character's position x and y are required, and each is input as a real value. The number of game situation inputs may vary depending on the number of data required for learning. In addition, the neural network 104 is to process the learning about the allocated neural network of the divided region for the physical location, the character.

사용자의 하드웨어 조작 출력은 다음과 같이 설정된다. 예를 들어, 키보드 조작으로 수행하는 게임이라면, 해당 게임에서 필요로 하는 키보드 키의 개수가 no가 되고, no 개의 출력이 필요하다. 즉, 해당 게임에서 a, s, d, f 키를 사용한다면, 출력의 개수는 4가 되고, 특정 게임 상황에서 사용자에 의해 눌려진 키는 1로, 사용자에 의해 눌려지지 않은 나머지 키는 0으로 설정되어 학습 실행부(106)를 통해 학습한다. The user's hardware operation output is set as follows. For example, in a game played by keyboard operation, the number of keyboard keys required in the game is no, and no output is required. In other words, if the game uses the a, s, d, and f keys, the number of outputs is four, and in certain game situations, the key pressed by the user is set to 1, and the remaining keys not pressed by the user set to 0. And learn through the learning execution unit 106.

다만, 도 3을 통해 게임 캐릭터를 신경망으로 학습시킬 경우, 신경망의 출력노드의 값을 해당 노드가 선택될 확률로 계산하여 설정함으로써, 실제 게임 상황에 적용될 경우, 특정 상황에서 한 종류의 출력만 선택되는 것이 아니라, 출력노드의 값의 크기에 비례하여 출력노드가 선택될 수 있도록 한다. 즉 출력 노드들 중 일정 범위 내의 출력 노드의 값만을 고려하여 출력하거나, 특정 상황에서 항상 같은 출력노드만 선택되지 않고, 출력노드들의 값을 고려하여 다양한 출력 노드가 출력될 수 있도록 한다. However, when learning a game character with a neural network through FIG. 3, by calculating and setting the value of the output node of the neural network as a probability that the corresponding node is selected, only one type of output is selected in a specific situation when applied to an actual game situation. Rather than allowing the output node to be selected in proportion to the magnitude of the value of the output node. That is, the output node may be output considering only the value of the output node within a certain range, or the same output node is not always selected in a specific situation, and various output nodes may be output in consideration of the value of the output nodes.

이와 같이 학습한 후, 신경회로망(104)을 이용하여 캐릭터의 행동을 제어하면, 즉, 특정 게임 상황을 입력하는 경우, 학습 당시에 눌려졌던 키는 1에 가까운 값을 출력하고, 나머지 키는 0에 가까운 값을 출력하게 되어, 학습 당시에 사용자에 의해 눌려졌던 키를 판별할 수 있으므로, 결과적으로는 사용자의 조작을 흉내낼 수 있게 되며, 이를 통해 사용자의 조작에 대응되는 행동을 수행하는 것이 가능하다. 그러나 신경망의 출력노드의 값을 해당 노드가 선택될 확률로 계산하여 출력하므로, 출력 노드를 선택할 때, 출력노드들의 값의 크기에 비례하여 무작위로 선택 하는 것이 가능하다. After learning in this way, when the behavior of the character is controlled using the neural network 104, that is, when inputting a specific game situation, the key pressed at the time of learning outputs a value close to 1, and the remaining keys are set to 0. By outputting a close value, it is possible to determine the key pressed by the user at the time of learning, and as a result, it is possible to mimic the user's operation, thereby performing an action corresponding to the user's operation. However, since the value of the output node of the neural network is calculated and output as the probability that the corresponding node is selected, it is possible to randomly select the output node in proportion to the size of the value of the output nodes.

이때, 사용자의 하드웨어 조작 출력은 키보드뿐만 아니라, 마우스, 조이스틱, 버튼, 핸들 등 컴퓨터나 게임기의 다양한 입력 수단을 모두 적용하는 것이 가능하다. In this case, the hardware manipulation output of the user may apply not only a keyboard but also various input means of a computer or a game machine such as a mouse, a joystick, a button, a handle, and the like.

도 4는 본 발명의 실시예에 따라 게임 캐릭터가 사용자 조작 패턴을 학습하는 절차를 도시한 흐름도이다. 4 is a flowchart illustrating a procedure of learning a user manipulation pattern by a game character according to an exemplary embodiment of the present invention.

도 4를 참조하면, 400단계에서 제어부(100)는 저장부(110)에 저장된 게임프로그램을 구동하고, 402단계에서 제어부(100) 내의 게임 영역 분할부(102)가 구동된 게임 내의 전체 상태 공간을 임의의 기준으로 영역분할을 수행하게 된다. 즉, 게임의 전체 상태 공간을 논리적, 물리적, 캐릭터별 등의 기준으로 임의의 개수로 분할한 뒤, 404단계에서 신경 회로망(104)이 각각의 분할된 영역에 신경망을 할당하게 된다. Referring to FIG. 4, in step 400, the controller 100 drives a game program stored in the storage 110, and in step 402, the entire state space in the game in which the game area divider 102 in the controller 100 is driven. The area division is performed based on arbitrary criteria. That is, after dividing the entire state space of the game into any number on the basis of logical, physical, character, etc., the neural network 104 allocates neural networks to each divided region in step 404.

이를 통해 게임의 전체 상태 공간이 각 영역별로 분할되고 분할된 영역별로 각기 다른 신경망이 할당되게 된다. As a result, the entire state space of the game is divided into regions, and different neural networks are allocated to the divided regions.

이후 406단계에서는 신경회로망(104)에 입력으로 게임 상황정보를 설정한다. 여기서 게임 상황정보는 게임 캐릭터의 상황 정보로서, 게임 캐릭터의 위치 정보, 또는 게임 캐릭터의 행동 제어를 위한 정보가 될 수 있다. Thereafter, in step 406, game situation information is set as an input to the neural network 104. In this case, the game situation information may be information about a game character, and may be location information of a game character or information for controlling the action of the game character.

이후, 408단계에서 제어부(100)는 게임 캐릭터의 상황에 따라 사용자의 하드웨어 조작에 의해 입력되는 신호 즉, 키 입력부(108)로부터 키 입력신호를 전달받고, 전달받은 키 입력 신호를 신경회로망(104)의 출력으로 설정하게 되며, 이때 출력은 해당 노드가 선택될 확률로 계산하여 출력하게 된다. In operation 408, the control unit 100 receives a signal input by a user's hardware operation, that is, a key input signal from the key input unit 108 according to the situation of the game character, and transmits the received key input signal to the neural network 104. ) And the output is calculated by the probability that the node is selected.

이와 같이 게임 영역별로 각기 다른 신경망이 할당된 신경회로망(104)에 입력으로는 게임의 현재 상태를 설정하고, 출력으로는 사용자의 하드웨어 조작 정보를 설정하며, 게임의 현재 상태에서 조작하는 사용자의 하드웨어 조작 정보는 학습 실행부(106)를 사용하여 학습한다. 이에 410단계에서는 신경 회로망(104)에 입력 설정된 각 게임 상황과 각 게임 영역별로 사용자의 하드웨어 조작 패턴을 신경 회로망(104)의 출력으로 설정하여 학습을 수행함으로써, 이후 412단계에서 학습된 정보를 토대로 신경회로망(104)을 이용하여 캐릭터의 행동을 제어하면, 각 게임 상황에 대한 사용자의 조작과 어느 정도 유사하게 제어됨을 알 수 있다. In this way, the neural network 104 to which different neural networks are assigned for each game area sets the current state of the game as an input, sets the user's hardware operation information as the output, and the user's hardware operated in the current state of the game. The operation information is learned using the learning execution unit 106. Accordingly, in step 410, the hardware manipulation pattern of the user is set as the output of the neural network 104 for each game situation and each game area set in the neural network 104, and the learning is performed based on the information learned in step 412. By controlling the behavior of the character using the neural network 104, it can be seen that the control is somewhat similar to the user's manipulation for each game situation.

이를 통해, 사용자가 게임을 진행해 나아감에 따라 제어부(100)는 게임의 분할된 상태 공간 별로 사용자의 조작 패턴을 학습하게 되고, 학습된 패턴을 토대로 신경회로망(104)을 통해 게임 캐릭터의 행동을 제어하게 되므로, 상대방 캐릭터의 행동은 사용자의 예측된 행동에 따라 다르게 행동하는 것이 가능하게 된다. Through this, as the user progresses the game, the controller 100 learns a user's manipulation pattern for each divided state space of the game, and controls the behavior of the game character through the neural network 104 based on the learned pattern. Since the other party's character's behavior may be different depending on the user's predicted behavior.

즉, 신경망의 출력노드 값을 확률로 간주하여, 특정 상황에서 항상 같은 출력노드만 선택되지 않고, 출력노드들의 값을 고려하여 다양한 출력 노드가 가능하므로, 게임 사용자는 상대방의 행동을 예측할 수 없으며, 상대방의 행동에 따라 사용자가 다르게 행동하게 되더라도 이 또한 학습되므로 추후 같은 게임 상황에서 상대 캐릭터는 또 다른 행동을 수행하게 되는 것이다. In other words, considering the output node value of the neural network as a probability, since the same output node is not always selected in a specific situation, and various output nodes are possible in consideration of the output node values, the game user cannot predict the opponent's behavior. Even if the user behaves differently according to the opponent's actions, this is also learned, so that the opponent character performs another action later in the same game situation.

이상 설명한 바와 같이, 본 발명은 게임 캐릭터의 효율적인 학습과 성능 향상을 위하여 게임의 전체 공간을 논리적, 물리적, 캐릭터별로 임의의 개수로 분할 하여, 각각을 신경망으로 할당한 뒤 게임 캐릭터를 학습시키고, 보다 사람과 비슷한 행동을 할 수 있도록, 신경망의 출력노드 값을 확률로 계산하여 게임에 적용한다. As described above, the present invention divides the entire space of the game into logical, physical, and random numbers for each character in order to efficiently learn and improve the performance of the game character, assigns each to a neural network, and then learns the game character. In order to behave like a person, the output node value of the neural network is calculated as a probability and applied to the game.

한편 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments, but is capable of various modifications within the scope of the invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by those equivalent to the scope of the claims.

도 1은 본 발명의 실시예에 따른 사용자 조작 패턴 학습 장치의 구조를 도시한 블록도, 1 is a block diagram showing the structure of a user operation pattern learning apparatus according to an embodiment of the present invention;

도 2는 본 발명의 실시예에 따라 신경망이 할당된 게임 전체의 상태 공간을 도시한 도면, 2 is a diagram showing a state space of an entire game to which a neural network is allocated according to an embodiment of the present invention;

도 3은 본 발명의 실시예에 따라 게임 캐릭터가 사용자 조작 패턴을 학습하는 방식을 도시한 도면, 3 is a diagram illustrating a method in which a game character learns a user manipulation pattern according to an embodiment of the present invention;

도 4는 본 발명의 실시예에 따라 게임 캐릭터가 사용자 조작 패턴을 학습하는 절차를 도시한 흐름도. 4 is a flow chart illustrating a procedure for a game character to learn a user manipulation pattern according to an embodiment of the present invention.

< 도면의 주요 부분에 대한 부호 설명 > <Description of Signs of Major Parts of Drawings>

100 : 제어부 102 : 게임 영역 분할부 100: control unit 102: game area dividing unit

104 : 신경회로망 106 : 학습 실행부 104: neural network 106: learning execution unit

108 : 키입력부 110 : 저장부108: key input unit 110: storage unit

112 : 디스플레이부 112: display unit

Claims (10)

저장된 게임 프로그램 정보를 제어부로 전달하는 저장부와, A storage unit for transmitting the stored game program information to the control unit; 게임 상황에 따른 사용자 키 조작 정보를 입력받아 제어부로 전달하는 키 입력부와, A key input unit which receives user key operation information according to a game situation and delivers it to a control unit; 게임 프로그램을 구동하여, 게임의 전체 상태 공간을 기 설정된 기준 영역으로 분할한 후, 분할된 영역 별로 신경회로망에 의해 제어되는 각각의 신경망에 할당하여 할당된 신경망 상에서 구동된 게임의 상황 정보와, 상기 키 입력부로부터 입력된 상기 게임의 상황 정보에 대응하는 사용자의 키 조작 정보를 토대로 사용자의 하드웨어 조작 패턴을 학습하는 상기 제어부와, Driving the game program, dividing the entire state space of the game into a predetermined reference region, and then assigning each neural network controlled by the neural network for each divided region and the situation information of the game driven on the allocated neural network; The controller for learning a hardware operation pattern of the user based on the key operation information of the user corresponding to the situation information of the game inputted from the key input unit; 상기 제어부로 전달된 신호를 디스플레이하는 디스플레이부를 포함하며,A display unit for displaying the signal transmitted to the control unit, 상기 제어부는, 게임의 전체 상태 공간을 물리적, 논리적, 캐릭터별로 임의의 개수로 분할하는 게임 영역 분할부와, The control unit may include: a game area dividing unit dividing the entire state space of the game by any number of physical, logical, and character characters; 상기 게임 영역 분할부를 통해 분할된 영역의 전부 또는 일부에 각각의 신경망을 할당하여 구동된 게임의 상황 정보를 입력으로 설정하고, 상기 게임의 상황 정보에 대응하는 사용자의 키 조작 정보를 상기 키 입력부로부터 입력받은 경우, 이를 출력으로 설정하는 상기 신경회로망과, The neural network is assigned to all or a part of the divided regions by the game region dividing unit, and the situation information of the driven game is set as an input, and the key input information of the user corresponding to the situation information of the game is input. The neural network configured to set this as an output when received from 상기 게임의 상황 정보에 따라 입력되는 사용자의 하드웨어 조작 패턴을 학습하는 학습 실행부Learning execution unit for learning the user's hardware operation pattern input according to the game situation information 를 포함하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 장치. Pattern learning apparatus of a game character using a space partition comprising a. 제 1항에 있어서, The method of claim 1, 상기 신경회로망은, The neural network, 시그모이드(sigmoid) 뉴런들이 층을 이루어 입력으로부터 출력으로 신호가 한 방향으로만 전달되는 다층퍼셉트론 구조(multilayer perceptron), Multilayer perceptron structure in which sigmoid neurons are layered and signals are transmitted in one direction only from input to output, 재귀망(recurrent networks) 또는 단일 신경망의 결합으로 구성된 전문가망(mixture of experts), A mix of experts consisting of recurrent networks or a combination of single neural networks, 무감독 학습에 사용되는 자기조직신경망(self-organizing map) 중 어느 하나인 것을 특징으로 하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 장치. Apparatus for pattern learning of game characters using spatial segmentation, characterized in that any one of the self-organizing map used for supervised learning. 제 2항에 있어서, 3. The method of claim 2, 상기 신경회로망은, The neural network, 출력 노드들의 값이 해당 노드가 출력될 확률로 설정하여, 특정 게임 상황에서 상기 출력 노드들의 값의 크기에 비례하여 무작위로 선택하는 것을 특징으로 하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 장치. The pattern learning apparatus of a game character using space division, wherein the value of the output nodes is set as a probability that the corresponding node is output and randomly selected in proportion to the size of the value of the output nodes in a specific game situation. 제 3항에 있어서, The method of claim 3, 상기 신경회로망은, The neural network, 상기 출력 노드들의 값 중 일정 범위 내의 출력 노드의 값만을 선택하는 것을 특징으로 하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 장치. The pattern learning apparatus of a game character using space division, characterized in that only the value of the output node within a predetermined range of the value of the output nodes selected. 제 1항에 있어서, The method of claim 1, 상기 게임 상황정보는, The game status information, 게임 캐릭터의 위치 또는 게임 캐릭터의 행동제어 정보인 것을 특징으로 하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 장치. The pattern learning apparatus of the game character using the space division, characterized in that the position of the game character or the behavior control information of the game character. 게임 캐릭터의 패턴 학습 장치 내 제어부에서 게임 프로그램을 구동하는 과정과, Driving a game program in a controller in a pattern learning device of a game character, 구동된 게임의 전체 상태 공간을 물리적, 논리적, 캐릭터별로 임의의 개수로 분할하는 과정과, Dividing the entire state space of the driven game into any number of physical, logical and character units; 상기 분할된 기준 영역 별로 신경회로망에 의해 제어되는 각각의 신경망에 할당하는 과정과, Allocating to each neural network controlled by the neural network for each of the divided reference regions; 상기 할당된 신경망 상에서 구동된 게임의 상황 정보와, 입력된 상기 게임의 상황 정보에 대응하는 사용자의 키 조작 정보를 토대로 사용자의 하드웨어 조작 패턴을 학습하는 과정을 포함하며,Learning the hardware operation pattern of the user based on the situation information of the game driven on the assigned neural network and the key operation information of the user corresponding to the input situation information of the game; 상기 사용자의 하드웨어 조작 패턴을 학습하는 과정은, 상기 구동된 게임의 상황 정보를 상기 신경회로망에 입력으로 설정하는 과정과, The learning of the hardware manipulation pattern of the user may include setting the state information of the driven game as an input to the neural network; 상기 게임의 상황 정보에 대응하는 사용자의 하드웨어 조작을 입력받은 경우, 이를 상기 신경 회로망의 출력으로서 출력 노드들의 값이 해당 노드가 출력될 확률로 계산하여 설정하는 과정을 포함하는 If the user's hardware operation corresponding to the situation information of the game is received, the output of the neural network comprising the step of calculating and setting the value of the output nodes as a probability that the node is output; 는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 방법. Is a pattern learning method of game characters using space division. 삭제delete 제 6항에 있어서, The method of claim 6, 상기 신경회로망은, The neural network, 시그모이드(sigmoid) 뉴런들이 층을 이루어 입력으로부터 출력으로 신호가 한 방향으로만 전달되는 다층퍼셉트론 구조(multilayer perceptron), Multilayer perceptron structure in which sigmoid neurons are layered and signals are transmitted in one direction only from input to output, 재귀망(recurrent networks) 또는 단일 신경망의 결합으로 구성된 전문가망(mixture of experts), A mix of experts consisting of recurrent networks or a combination of single neural networks, 무감독 학습에 사용되는 자기조직신경망(self-organizing map) 중 어느 하나인 것을 특징으로 하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 방법. A method of learning a pattern of a game character using space division, characterized in that it is any one of a self-organizing map used for unsupervised learning. 제 8항에 있어서, The method of claim 8, 상기 신경회로망은, The neural network, 상기 신경망의 출력 노드들에 대한 값을 확률로 설정하여, 특정 게임 상황에서 상기 출력 노드들의 값의 크기에 비례하여 무작위로 선택하거나, 상기 출력 노드들의 값 중 일정 범위 내의 출력 노드의 값만을 선택하는 것을 특징으로 하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 방법. By setting a value for the output nodes of the neural network as a probability, randomly selected in proportion to the size of the value of the output nodes in a specific game situation, or selecting only the value of the output node within a certain range of the value of the output nodes Pattern learning method of the game character using the spatial partition, characterized in that. 제 6항에 있어서, The method of claim 6, 상기 게임 상황정보는, The game status information, 게임 캐릭터의 위치 또는 게임 캐릭터의 행동제어 정보인 것을 특징으로 하는 공간 분할을 이용한 게임 캐릭터의 패턴 학습 방법.A method of learning a pattern of a game character using space division, characterized in that the position of the game character or the behavior control information of the game character.
KR1020090018797A 2009-03-05 2009-03-05 Apparatus and method for studying pattern of game character by using separation of space KR101108987B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090018797A KR101108987B1 (en) 2009-03-05 2009-03-05 Apparatus and method for studying pattern of game character by using separation of space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090018797A KR101108987B1 (en) 2009-03-05 2009-03-05 Apparatus and method for studying pattern of game character by using separation of space

Publications (2)

Publication Number Publication Date
KR20100100105A KR20100100105A (en) 2010-09-15
KR101108987B1 true KR101108987B1 (en) 2012-01-31

Family

ID=43006221

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090018797A KR101108987B1 (en) 2009-03-05 2009-03-05 Apparatus and method for studying pattern of game character by using separation of space

Country Status (1)

Country Link
KR (1) KR101108987B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083395B2 (en) * 2015-05-21 2018-09-25 Google Llc Batch processing in a neural network processor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072640A (en) * 2002-03-06 2003-09-19 주식회사 제타웨이브 Game system and method in which cyber clone acts
KR20050096791A (en) * 2004-03-31 2005-10-06 (주)에스엔에이치 Gamer's game style transplanting system and its processing method by artificial intelligence learning
KR20070061288A (en) * 2005-12-08 2007-06-13 한국전자통신연구원 Method for creating and control of artificial intelligent characters for fighting action games

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072640A (en) * 2002-03-06 2003-09-19 주식회사 제타웨이브 Game system and method in which cyber clone acts
KR20050096791A (en) * 2004-03-31 2005-10-06 (주)에스엔에이치 Gamer's game style transplanting system and its processing method by artificial intelligence learning
KR20070061288A (en) * 2005-12-08 2007-06-13 한국전자통신연구원 Method for creating and control of artificial intelligent characters for fighting action games

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문

Also Published As

Publication number Publication date
KR20100100105A (en) 2010-09-15

Similar Documents

Publication Publication Date Title
Lake et al. Building machines that learn and think like people
Champandard AI game development: Synthetic creatures with learning and reactive behaviors
Treanor et al. Game-o-matic: Generating videogames that represent ideas
US20210365782A1 (en) Method and apparatus for generating neural network model, and computer-readable storage medium
JP2023502860A (en) Information processing method, device, computer program and electronic device
Clark The humanness of artificial non-normative personalities
US20220309364A1 (en) Human-like non-player character behavior with reinforcement learning
KR20090092007A (en) Method and apparatus for studying user control pattern of game character in game
Lake et al. Ingredients of intelligence: From classic debates to an engineering roadmap
Falandays et al. A potential mechanism for Gibsonian resonance: Behavioral entrainment emerges from local homeostasis in an unsupervised reservoir network
Asperti et al. Rogueinabox: an environment for roguelike learning
US10279267B2 (en) Monitoring game activity to detect a surrogate computer program
KR101108987B1 (en) Apparatus and method for studying pattern of game character by using separation of space
KR100850913B1 (en) method for configuring game character
US20120129595A1 (en) Apparatus and method for providing agent-based game service
Rudolph et al. Design and evaluation of an extended learning classifier-based starcraft micro ai
Nakashima et al. Designing high-level decision making systems based on fuzzy if–then rules for a point-to-point car racing game
Buscema et al. Digging deeper on “deep” learning: a computational ecology approach
Davis et al. Causal generative models are just a start
Clegg et al. Children begin with the same start-up software, but their software updates are cultural
Thompson et al. An evaluation of the benefits of look-ahead in Pac-Man
Oberoi et al. An evolutionary approach to combinatorial gameplaying using extended classifier systems
Livesey et al. Will human-like machines make human-like mistakes?
Bontrager Learning to Generate Form and Function
KR20100128181A (en) Character artificial intelligence server network configuration of online game system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151217

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170117

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180117

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190108

Year of fee payment: 8