KR20050096791A - Gamer's game style transplanting system and its processing method by artificial intelligence learning - Google Patents

Gamer's game style transplanting system and its processing method by artificial intelligence learning Download PDF

Info

Publication number
KR20050096791A
KR20050096791A KR1020040027918A KR20040027918A KR20050096791A KR 20050096791 A KR20050096791 A KR 20050096791A KR 1020040027918 A KR1020040027918 A KR 1020040027918A KR 20040027918 A KR20040027918 A KR 20040027918A KR 20050096791 A KR20050096791 A KR 20050096791A
Authority
KR
South Korea
Prior art keywords
game
vector
style
output
learning
Prior art date
Application number
KR1020040027918A
Other languages
Korean (ko)
Other versions
KR100621559B1 (en
Inventor
봉래 박
Original Assignee
(주)에스엔에이치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에스엔에이치 filed Critical (주)에스엔에이치
Publication of KR20050096791A publication Critical patent/KR20050096791A/en
Application granted granted Critical
Publication of KR100621559B1 publication Critical patent/KR100621559B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Algebra (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 게임 스타일 이식시스템 및 그 이식방법으로서, 더욱 상세하게는 게이머가 게임을 진행하는 방식 또는 습관과 같은 게임 스타일을 학습하고, 학습된 게임 스타일을 게임의 NPC에 적용함으로써 게임 캐릭터의 다양성을 부여함과 동시에 게임의 재미를 강화시키는 게임 스타일 이식시스템 및 그 이식방법에 관한 것이다.The present invention is a game style transplantation system and a method of transplanting the same, more specifically, a game style such as a gamer's way of playing a game or a habit, and a variety of game characters by applying the learned game style to the NPC of the game. The present invention relates to a game style porting system and a method of porting the same that enhance the fun of the game.

본 발명에 따른 게임 스타일 이식시스템은 게임의 진행을 스타일벡터, 가중치벡터, 출력벡터의 연관성 관계로 정의하고, 테스트 게이머들의 게임로그를 통해 게임 스타일에 따른 유사한 게임출력을 낼 수 있도록 가중치벡터를 학습시키고, 이식 대상 게이머의 게임로그를 통해 얻어진 게임출력으로부터 역으로 스타일벡터를 학습시키고, 학습된 스타일벡터와 학습된 가중치벡터의 행렬 연산을 통해 출력벡터를 추론하고, 추론된 출력벡터와 일치하는 게임출력을 NPC로 이식한다.The game style transplantation system according to the present invention defines the progress of the game as the relationship between the style vector, the weight vector, and the output vector, and learns the weight vector to produce similar game output according to the game style through the game log of test gamers. Learn the style vector from the game output obtained through the game log of the target gamer, infer the output vector through the matrix operation of the learned style vector and the weight vector, and match the inferred output vector. Port the output to NPC.

본 발명에 따르면, 게임 스타일 이식시스템 및 이식방법의 제공을 통해 특정 게이머의 게임 스타일을 학습시킨 인공지능 NPC가 게임 내에서 활동함으로써, 보다 지능화된 게임 캐릭터를 통해 보다 역동적인 게임을 구성할 수 있다.According to the present invention, an artificial intelligence NPC that learns a game style of a specific gamer through the provision of a game style transplantation system and a transplantation method is active in the game, thereby making it possible to construct a more dynamic game through a more intelligent game character. .

Description

인공지능 학습을 통한 게이머의 게임 스타일 이식시스템 및 그 이식방법{Gamer's game style transplanting system and its processing method by artificial intelligence learning}Gamer's game style transplanting system and its processing method by artificial intelligence learning}

본 발명은 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템 및 그 이식방법에 관한 것으로서, 더욱 상세하게는 게이머가 게임을 진행하는 방식 또는 습관과 같은 게임 스타일을 학습하고, 학습된 게임 스타일을 게임의 캐릭터에 적용함으로써 게임 캐릭터의 다양성을 부여함과 동시에 게임의 재미를 강화시키는 게임 스타일 이식시스템 및 그 이식방법에 관한 것이다.The present invention relates to a game style transplantation system and a transplantation method of the gamers through artificial intelligence learning, and more particularly, to learn game styles such as the manner or habit of the gamers playing the game, and to learn the game style of the game. The present invention relates to a game style porting system and a method of porting the same, which provides a variety of game characters and enhances the fun of the game by applying it to a character.

초창기의 게임들은 게임 진행 과정이 단순하여 게이머가 게임을 반복하다 보면 게임 패턴이 반복함을 발견하고, 반복되는 규칙을 게이머가 습득하여 게임의 진행을 예측하고, 예측 상황에서 정형화된 게임 조작을 통해 게임을 수행하였다.In the early games, the game progress was simple, and when the gamers repeated the game, the game pattern was found to be repeated, the gamers learned the repetitive rules, predicted the progress of the game, and formulated game manipulation in the prediction situation. Played the game.

최근에는, 온라인 게임, 머드 게임, RPG 게임 등의 발전으로 전술한 단조로운 게임 진행을 탈피하고 다양한 게임 캐릭터 및 게임 상황을 제공하여 보다 역동적인 게임이 선보이고 있다.In recent years, the development of online games, mud games, RPG games, and the like, breaking away from the aforementioned monotonous game progress and providing various game characters and game situations, more dynamic games are being introduced.

보다 역동적인 게임을 위해서는 다양한 캐릭터와 게임 상황의 제어가 필요하며, 이것은 복잡한 탐색을 통한 판단 결정(decision making)을 수행하여 고도의 최적화된 해답(optimizing solution)을 제시하는 인공지능적 처리기술에 의하여 효과적으로 구현된다. 또한, 기존의 컴퓨터 대 게이머, 게이머 대 게이머의 형태를 벗어나, 인공지능이 컴퓨터를 대신하여 플레이어와 게임을 하거나, 주인을 대신하는 NPC(Agent NPC)가 다른 플레이어와 게임을 하는 이른바 인공지능(A.I)기술의 지능형 게임이 미래형 게임으로 진화되고 있다.More dynamic games require the control of a variety of characters and game situations, which are effectively handled by artificial intelligence processing techniques that perform highly complex decision making and present highly optimized solutions. Is implemented. In addition, beyond the traditional computer-to-gamer and gamer-to-gamer form, AI plays games with players on behalf of the computer, or NPCs (Agent NPCs) playing games with other players on behalf of the owner. The intelligent game of technology is evolving into a futuristic game.

종래 기술로서, 공개 특허(특2003-72640)는 주인성향을 학습한 싸이버클론이 활동하는 게임시스템 및 게임방법을 개시하고 있다. 그런데 상기 공개 특허는 싸이버클론이 주인성향을 학습하는 데 있어서, 주인의 스타일 요소별로 분석되지 않은 특정상황에서의 순수한 입력별 확률을 참조하였다.As a prior art, the published patent (JP-A-2003-72640) discloses a game system and a game method in which a cyber clone, which has learned the propensity of ownership, is active. However, the published patent refers to the pure probability of each input in a specific situation in which the cyber clone learns the propensity of ownership, which is not analyzed by the style element of the owner.

이것은 게이머의 성향이나 특정 상황에서 왜 그러한 게임 조작을 하였는지와 같은 경험적 정보(heuristical information)없이 게이머의 순수한 입력 조작을 통해 확률 통계적으로 학습이 이루어졌기 때문에 학습 결과의 유효성이 낮아질 수 있으며 또한, 처리해야 할 데이터 및 프로세싱의 부하가 지수적으로 증가하는 복잡도를 갖기 때문에 게임 시스템 프로세스에 부담이 된다는 문제점이 있었다.This is because the learning is performed statistically through the pure input manipulation of the gamers without the heuristic information such as the game propensity and the reason why such a game manipulation is performed in a specific situation, and thus the validity of the learning result may be lowered and should be dealt with. There is a problem that it is a burden on the game system process because the load of data and processing to do has an exponentially increasing complexity.

본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 테스트 게이머들의 게임로그를 통하여 게이머의 게임 스타일과 게임출력 사이의 연관성을 나타내는 가중치벡터를 학습시킨 후, 이식 대상 게이머의 게임출력으로부터 역으로 사용자의 게임 스타일을 추론 학습시킴으로써 특정 게이머로부터 학습된 게임 스타일에 의거하여 에이전트 NPC가 게임을 수행하도록 지원하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템 및 그 이식방법을 제공하는 것을 목적으로 한다.The present invention was devised to solve the above problems, and after learning the weight vector representing the correlation between the game style and the game output of the gamers through the game log of the test gamers, and inversely from the game outputs of the transplant target gamers It is an object of the present invention to provide a game style transplantation system and a method of transplanting the game style through the AI learning that the agent NPC supports the game based on the game style learned from the specific gamer by inferring and learning the user's game style.

또한, 게임 진행에 대하여 게이머의 게임 스타일 정보, 특정 상황에서 특정 게임출력을 유도하는 가중치 정보, 게임 스타일과 가중치 정보와의 수식에 의해 결정되는 게임출력 정보와 같은 경험적 정보를 이용함으로써 실제 게이머의 게임 운영과 유사성이 높은 게임 스타일을 예측하고, 그 처리과정은 프로세스에 부하를 적게 주는 게임 스타일 이식시스템 및 그 이식방법을 제공하는 것을 목적으로 한다.In addition, by using empirical information such as game style information of gamers, weight information for inducing a specific game output in a specific situation, and game output information determined by a formula between game style and weight information, the game of the actual gamers is used. It is aimed to provide a game style porting system and a method of porting the game, which predicts a game style with high similarity to the operation, and the processing process puts less load on the process.

상기와 같은 목적을 달성하기 위하여 본 발명에 따른 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템은, 이식 대상 게이머의 게임 스타일을 학습하여 NPC로 이식하는 게임 스타일 이식시스템에 있어서, 스타일벡터, 게임상태별 가중치벡터, 출력벡터의 항목을 벡터정의DB에 저장하는 벡터 정의모듈; 복수의 테스트 게이머들이 게임을 수행한 과정을 정보화하여 게임로그DB에 저장함으로써 게임로그를 생성하는 게임로그 생성모듈; 상기 게임로그DB에 저장된 개별 테스트 게이머의 게임 스타일을 분석하고 수치화함으로써 스타일벡터DB에 저장하는 스타일벡터 수치화모듈; 상기 게임로그DB에 저장된 테스트 게이머들의 게임출력에 의거하여 현재 가중치벡터로부터 학습된 가중치벡터를 가중치벡터DB에 저장함으로써 일반화된 게임상태별 가중치벡터를 학습하는 가중치벡터 학습모듈; 이식 대상 게이머의 게임로그에 의거하여 유도된 스타일벡터를 스타일벡터DB에 저장함으로써 추론화된 스타일벡터를 학습하는 개별 게이머 스타일벡터 학습모듈; 이식 대상 게이머에 대하여 상기 개별 게이머 스타일벡터 학습모듈이 학습한 스타일벡터와 현재 게임상태의 가중치벡터로부터 출력벡터를 예측하여 결정하는 게임출력 추론모듈; 및 특정 게임 운영시스템에 종속되고, 상기 게임 운영시스템의 NPC에 특정 게이머의 게임스타일을 이식하기 위하여, 상기 게임 운영시스템으로부터 현재 게임상태를 전달받고, 상기 게임출력 추론모듈이 생성한 출력벡터와 일치하는 게임출력을 상기 게임 운영시스템으로 전달하는 게임 어댑터모듈을 포함하여 이루어지는 것을 특징으로 한다.Game style transplantation system of gamers through artificial intelligence learning according to the present invention in order to achieve the above object, in the game style transplantation system to learn the game style of the target gamers transplanted to the NPC, style vector, game state A vector definition module for storing items of a weight vector and an output vector in a vector definition DB; A game log generation module for generating a game log by informing a process of performing a game by a plurality of test gamers and storing the information in a game log DB; A style vector digitizing module for analyzing and digitizing game styles of individual test gamers stored in the game log DB and storing them in a style vector DB; A weight vector learning module for learning the weight vector for each general game state by storing the weight vector learned from the current weight vector in the weight vector DB based on the game output of the test gamers stored in the game log DB; An individual gamer style vector learning module for learning the inferred style vector by storing the style vector derived based on the game log of the game player to be transplanted into the style vector DB; A game output inference module for predicting and determining an output vector from a style vector learned by the individual gamer style vector learning module and a weight vector of a current game state for a player to be transplanted; And dependent on a specific game operating system, receiving a current game state from the game operating system, and matching the output vector generated by the game output inference module in order to port the game style of the specific gamer to the NPC of the game operating system. It characterized in that it comprises a game adapter module for delivering a game output to the game operating system.

본 발명의 바람직한 특징에 따르면, 상기 벡터정의모듈은, 게이머가 게임을 진행할 때의 심리적 정보, 습관, 능력을 정의하는 스타일항목을 스타일벡터로 정의하고, 특정 게임상태마다 게이머의 스타일벡터에 의해 특정 출력벡터가 야기되는 연관성 관계를 나타내는 가중치로 구성된 가중치벡터를 정의하고, 게이머가 특정 게임상황에서 입력장치의 조작을 통해 게임 행동으로 출력할 수 있는 게임출력 항목을 출력벡터로 정의함으로써, 특정 게임의 종류와 독립적으로 다양한 게임에 적용할 수 있는 것을 특징으로 한다.According to a preferred feature of the present invention, the vector definition module defines a style item that defines psychological information, habits, and abilities when the gamer progresses the game as a style vector, and is specified by the game style vector for each specific game state. By defining a weight vector consisting of weights representing the associations resulting from the output vector, and defining game output items as output vectors that gamers can output as game actions through manipulation of input devices in specific game situations, It can be applied to various games independently of its kind.

또한, 상기 게임상태는, 게임이 진행되는 상황을 정의하는 상태구성요소와 상기 상태구성요소 단위당 부여된 분할개수에 따라 전체 게임상태의 개수가 정해짐으로써, 상기 상태구성요소 및 상기 분할개수가 많아질수록 세분화된 게임상태를 형성하는 것을 특징으로 한다.In addition, the game state is determined by the number of total game states according to a state component defining a state in which a game is played and the number of divisions given per unit of the state component, so that the state component and the number of divisions are large. It is characterized by forming a more detailed game state.

본 발명에 있어서, 상기 가중치벡터 학습모듈은, 상태 구성요소별 분할개수에 의해 정의되는 게임상태와 매칭되는 게임상태 식별코드가 수록되어 있는 게임상태정의DB; 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임상태에 해당하는 게임상태 식별코드를 상기 게임상태정의DB로부터 획득해내는 게임상태 획득모듈; 특정 게임상태에서 사용자의 입력조작에 의한 게임출력과 매칭되는 게임출력 식별코드가 수록되어 있는 게임출력정의DB; 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임출력에 해당하는 게임출력 식별코드를 상기 게임출력정의DB로부터 획득해내는 게임출력 획득모듈; 상기 스타일벡터 수치화모듈이 분석한 개인별 테스트 게이머의 스타일벡터를 저장하는 스타일벡터DB; 상기 스타일벡터DB로부터 스타일벡터를 획득해내는 스타일벡터 획득모듈; 특정 게임상태별로 상기 스타일벡터를 출력벡터로 매핑시키는 게임상태별 가중치벡터를 저장하는 가중치벡터DB; 및 상기 게임상태 획득모듈이 얻은 게임상태에 해당하는 현재 가중치벡터를 상기 가중치벡터DB로부터 얻어내고, 상기 현재 가중치벡터와 상기 스타일벡터 획득모듈이 획득한 상기 스타일벡터를 연산을 통해 새로운 가중치벡터로 생성하여 다시 상기 가중치벡터DB에 저장하여 학습을 반복하는 가중치 연산처리모듈을 포함하여 이루어지고, 상기 게임로그DB로부터 읽어들인 테스트 게이머들의 게임정보에 의거하여 상기 가중치 연산처리모듈의 연산을 통해 가중치벡터를 반복적으로 학습하는 것을 특징으로 한다.In the present invention, the weight vector learning module includes: a game state definition DB in which a game state identification code matching the game state defined by the division number for each state component is stored; A game state acquisition module for obtaining a game state identification code corresponding to a game state of a test gamer read from the game log DB from the game state definition DB; A game output definition DB that contains a game output identification code that matches a game output by a user's input operation in a specific game state; A game output acquisition module for obtaining a game output identification code corresponding to a game output of a test gamer read from the game log DB from the game output definition DB; A style vector DB for storing a style vector of the individual test gamers analyzed by the style vector digitizing module; A style vector acquisition module for obtaining a style vector from the style vector DB; A weight vector DB for storing a weight vector for each game state for mapping the style vector to an output vector for each specific game state; And obtaining a current weight vector corresponding to a game state obtained by the game state obtaining module from the weight vector DB, and generating a new weight vector through calculation of the current weight vector and the style vector obtained by the style vector obtaining module. And a weight calculation processing module for repeating learning by storing the data in the weight vector DB again, and calculating the weight vector through calculation of the weight calculation module based on game information of test gamers read from the game log DB. It is characterized by learning repeatedly.

본 발명에 있어서, 상기 개별 게이머 스타일벡터 학습모듈은, 상태 구성요소별 분할개수에 의해 정의되는 게임상태와 매칭되는 게임상태 식별코드가 수록되어 있는 게임상태정의DB; 상기 게임로그DB로부터 읽어들인 이식 대상 게이머의 게임상태에 해당하는 게임상태 식별코드를 상기 게임상태정의DB로부터 획득해내는 게임상태 획득모듈; 특정 게임상태에서 사용자의 입력조작에 의한 게임출력과 매칭되는 게임출력 식별코드가 수록되어 있는 게임출력정의DB; 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임출력에 해당하는 게임출력 식별코드를 상기 게임출력정의DB로부터 획득해내는 게임출력 획득모듈; 이식 대상 게이머의 스타일벡터를 저장하는 스타일벡터DB; 상기 스타일벡터DB로부터 현재 스타일벡터를 획득해내는 스타일벡터 획득모듈; 특정 게임상태별로 상기 스타일벡터를 출력벡터로 매핑시키는 게임상태별 가중치벡터를 저장하는 가중치벡터DB; 및 상기 게임상태 획득모듈이 얻은 게임상태에 해당하는 가중치벡터를 상기 가중치벡터DB로부터 얻어내고, 상기 가중치벡터와 상기 스타일벡터 획득모듈이 획득한 이식 대상 게이머의 상기 현재 스타일벡터를 연산을 통해 새로운 스타일벡터로 생성하여 다시 상기 스타일벡터DB에 저장하여 학습을 반복하는 스타일 연산처리모듈을 포함하여 이루어지고, 상기 게임로그DB로부터 읽어들인 이식 대상 게이머의 게임정보에 의거하여 상기 스타일 연산처리모듈의 연산을 통해 스타일벡터를 반복적으로 수행하고, 패턴화된 상기 가중치벡터값으로부터 역으로 이식 대상 게이머의 스타일벡터값을 수렴시킴으로써 학습하는 것을 특징으로 한다.In the present invention, the individual gamer style vector learning module, game state definition DB that contains a game state identification code matching the game state defined by the number of divisions by state component; A game state acquisition module for acquiring a game state identification code corresponding to a game state of a game player to be transplanted read from the game log DB from the game state definition DB; A game output definition DB that contains a game output identification code that matches a game output by a user's input operation in a specific game state; A game output acquisition module for obtaining a game output identification code corresponding to a game output of a test gamer read from the game log DB from the game output definition DB; A style vector DB for storing a style vector of the game player to be transplanted; A style vector acquisition module for obtaining a current style vector from the style vector DB; A weight vector DB for storing a weight vector for each game state for mapping the style vector to an output vector for each specific game state; And obtaining a weight vector corresponding to a game state obtained by the game state obtaining module from the weight vector DB, and calculating the weight vector and the current style vector of the transplant target gamer acquired by the style vector obtaining module. And a style operation processing module for generating a vector and storing the same in the style vector DB and repeating the learning. The operation of the style calculation processing module is performed based on game information of a game player to be transplanted read from the game log DB. Iteratively performing a style vector, and by converging the style vector value of the gamer to be transplanted from the patterned weight vector value, characterized in that learning.

본 발명에 있어서, 상기와 같은 목적을 달성하기 위하여 본 발명에 따른 인공지능 학습을 통한 게이머의 게임 스타일 이식방법은, 이식 대상 게이머의 게임 스타일을 학습하여 NPC로 이식하는 게임 스타일 이식방법에 있어서, (1)스타일벡터, 게임상태별 가중치벡터, 출력벡터의 항목을 정의하여 벡터정의DB에 저장하는 단계; (2)복수의 테스트 게이머들이 게임을 반복적으로 수행한 과정을 정보화하여 게임로그DB에 저장함으로써 게임로그를 생성하는 단계; (3)상기 게임로그DB에 저장된 개별 테스트 게이머의 게임 스타일을 분석하고 수치화함으로써 스타일벡터DB에 저장하는 단계; (4)복수의 테스트 게이머들의 스타일벡터에 의하여 특정 게임상태에서 특정 출력벡터를 야기하는 가중치벡터를 학습하는 단계; (5)이식 대상 게이머의 게임로그로부터 상기 게이머가 입력조작한 게임출력에 따라 상기 게이머의 스타일벡터를 학습하는 단계; 및 (6)게임 운영시스템으로부터 게임상태를 전달받고, 이식 대상 게이머의 학습된 스타일벡터에 의거하여 출력벡터를 추론하여 결정하고, 상기 출력벡터에 대응하는 출력값을 게임 운영시스템으로 전달하여 특정 게이머의 게임 스타일을 NPC에 이식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the present invention, in order to achieve the above object, the game style transplantation method of the gamers through the artificial intelligence learning according to the present invention, in the game style transplantation method to learn the game style of the target gamers transplanted to NPC, (1) defining items of a style vector, a weight vector for each game state, and an output vector and storing the items in a vector definition DB; (2) generating a game log by storing information in a game log DB of a plurality of test gamers repeatedly performing a game; (3) analyzing and quantifying the game styles of the individual test gamers stored in the game log DB and storing them in the style vector DB; (4) learning a weight vector causing a specific output vector in a specific game state by style vectors of a plurality of test gamers; (5) learning a style vector of the gamer according to a game output inputted by the gamer from the game log of the game player to be transplanted; And (6) receiving a game state from a game operating system, inferring and determining an output vector based on a learned style vector of a game player to be transplanted, and delivering an output value corresponding to the output vector to a game operating system to determine a specific gamer's ability. And porting the game style to the NPC.

본 발명에 있어서, 상기 단계(4)는, (4-1)학습 환경 변수에 초기값을 설정하는 단계; (4-2)가중치벡터DB에 임의의 초기값을 설정하는 단계; (4-3)게임로그DB로부터 테스트 게이머의 게임로그정보를 읽어들이는 단계; (4-4)상기 게임로그정보로부터 게임상태를 획득하는 단계; (4-5)상기 게임상태에 따른 현재 가중치벡터를 상기 가중치벡터DB로부터 읽어들이는 단계; (4-6)상기 단계(3)에서 구축한 상기 게이머스타일DB로부터 상기 게이머의 스타일벡터를 읽어들이는 단계; 및 (4-7)상기 단계(4-5)의 현재 가중치벡터와 단계(4-6)의 스타일벡터로부터 연산을 통해 새로운 가중치벡터를 생성하여 다시 상기 가중치벡터DB에 저장하여 학습하는 단계를 포함하여 이루어져, 상기 게임로그DB로부터 읽어들인 테스트 게이머들의 게임정보에 의거하여 연산을 통해 상기 가중치벡터를 반복적으로 학습하는 것을 특징으로 한다.In the present invention, the step (4) comprises the steps of: (4-1) setting an initial value to the learning environment variable; (4-2) setting an arbitrary initial value in the weight vector DB; (4-3) reading game log information of a test gamer from the game log DB; (4-4) obtaining a game state from the game log information; (4-5) reading the current weight vector according to the game state from the weight vector DB; (4-6) reading the style vector of the gamer from the gamer style DB constructed in the step (3); And (4-7) generating a new weight vector through operation from the current weight vector of step (4-5) and the style vector of step (4-6), and storing the new weight vector again in the weight vector DB. And repeatedly learning the weight vector through calculation based on game information of test gamers read from the game log DB.

본 발명에 있어서, 상기 단계(5)는, (5-1)학습 환경 변수에 초기값을 설정하는 단계; (5-2)스타일벡터DB에 이식 대상 게이머의 게임 스타일벡터를 초기값으로 설정하는 단계; (5-3)게임로그DB로부터 테스트 게이머의 게임로그정보를 읽어들이는 단계; (5-4)상기 게임로그정보로부터 게임상태를 획득하는 단계; (5-5)상기 게임상태에 따른 가중치벡터를 상기 가중치벡터DB로부터 읽어들이는 단계; (5-6)상기 단계(5-2)에서 구축한 상기 게이머스타일DB로부터 상기 게이머의 현재 스타일벡터를 읽어들이는 단계; 및 (5-7)상기 단계(5-5)의 가중치벡터와 단계(5-6)의 현재 스타일벡터로부터 연산을 통해 새로운 스타일벡터를 생성하여 다시 상기 스타일벡터DB에 저장하여 학습하는 단계를 포함하여 이루어져, 상기 게임로그DB로부터 읽어들인 이식 대상 게이머의 게임정보에 의거하여 연산을 통해 상기 스타일벡터를 반복적으로 학습하는 것을 특징으로 한다.In the present invention, the step (5), (5-1) setting the initial value to the learning environment variable; (5-2) setting the game style vector of the gamer to be transplanted to the style vector DB as an initial value; (5-3) reading game log information of a test gamer from the game log DB; (5-4) obtaining a game state from the game log information; (5-5) reading the weight vector according to the game state from the weight vector DB; (5-6) reading the current style vector of the gamer from the gamer style DB constructed in the step (5-2); And (5-7) generating a new style vector through operation from the weight vector of step (5-5) and the current style vector of step (5-6), and storing the new style vector again in the style vector DB for learning. It is characterized in that the repetitive learning of the style vector through the operation based on the game information of the target gamers to be read from the game log DB.

본 발명에 있어서, 상기 단계(6)는, (6-1)게임 운영시스템에서의 NPC가 처한 게임상태를 전달받는 단계; (6-2)상기 단계(5)에서 학습한 이식 대상 게이머의 스타일벡터를 상기 스타일벡터DB로부터 읽어들이는 단계; (6-3)상기 단계(4)에서 학습한 가중치벡터DB로부터 상기 단계(6-1)의 게임상태에 따른 가중치벡터를 읽어들이는 단계; (6-4)상기 단계(6-2)의 스타일벡터와 상기 단계(6-3)의 가중치벡터를 연산하여 출력벡터를 생성하는 단계; 및 (6-5)상기 출력벡터 중에서 제일 높은값에 해당하는 벡터값에 대응하는 게임출력을 상기 게임 운영시스템으로 전달하는 단계를 포함하여 이루어져, 이식 대상 게이머의 스타일을 학습한 상기 스타일벡터와 테스트 게이머들의 게임로그로부터 학습한 가중치벡터와의 연산을 통해 출력을 예측하여 상기 게임 운영시스템으로 전달하여 NPC에 이식하는 것을 특징으로 한다.In the present invention, the step (6), (6-1) receiving the game state that the NPC in the game operating system; (6-2) reading the style vector of the player to be transplanted learned in the step (5) from the style vector DB; (6-3) reading the weight vector according to the game state of step (6-1) from the weight vector DB learned in step (4); (6-4) generating an output vector by computing the style vector of step 6-2 and the weight vector of step 6-3; And (6-5) delivering the game output corresponding to the vector value corresponding to the highest value among the output vectors to the game operating system, wherein the style vector and the test for learning the style of the game object to be transplanted are tested. It is characterized in that the output is predicted through operation with the weight vector learned from the game log of the gamers and transferred to the game operating system and transplanted into the NPC.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

도 1은 본 발명에 따른 기술 구성에 있어서, 게이머의 게임 운영을 모델로 하는 학습 환경의 개념을 도시한다. 본 발명에서는 이식 대상 게이머의 게임 운영 스타일 따라 그 스타일이 이식된 NPC를 구현하고자 한 것이다. 이를 위해 휴먼 월드에서의 게이머의 게임 운영 방식을 학습 및 예측의 모델로 하고, 인공지능 기술을 이용하여 컴퓨터 환경의 모델로 전환하여 게임의 운영을 분석한다.1 illustrates the concept of a learning environment that is modeled after the game operation of a gamer in the technical configuration according to the present invention. In the present invention is to implement the NPC transplanted style according to the game operation style of the game target player. To do this, the game operation method of the gamers in the human world is used as a model for learning and prediction, and the operation of the game is analyzed by converting it into a computer environment model using artificial intelligence technology.

본 발명의 구성 및 실시예에서는 설명의 편의상 게이머와 컴퓨터가 조작하는 NPC(non player character) 사이의 액션 대련 게임(예, 스트리트 파이터)을 대상으로 설명한다. NPC는 게이머가 직접 조작할 수 없고 컴퓨터(게임 운영시스템)가 조작하는 캐릭터이다. 예를 들면, 컴퓨터가 조작하는 게이머의 상대방 또는 게이머가 자신을 대리하여 지정하여 컴퓨터가 조작하는 에이전트 NPC 등을 예로 들 수 있다.In the configuration and the embodiment of the present invention, for convenience of explanation, an action-related game (eg, a street fighter) between a gamer and a computer-operated non player character (NPC) is described. NPCs are characters that can't be manipulated directly by gamers, but are controlled by computers (game operating systems). For example, an agent NPC or the like that is manipulated by a computer by a counterpart of a gamer manipulated by a computer or a gamer can be specified on behalf of the computer.

휴먼 월드에서는 게이머가 특정 게임상태에서 키보드 또는 마우스 조작을 통해 게임조작을 한다. 각 사용자는 자신만의 독특한 게임 스타일을 가지고 있다. 이와 같은 게임 스타일은 게이머의 게임 조작에 영향을 미치는 요소이다. 컴퓨터 월드에서 게이머의 게임 스타일은 마치 인간의 유전적 정보로 해석하여 세부적으로 구분된 스타일 항목으로 나눈 후 값을 부여하여 스타일벡터(S)로 표현한다.In the human world, gamers manipulate the game through keyboard or mouse manipulation in certain game states. Each user has their own unique game style. This game style is a factor influencing the game operation of the gamers. In the computer world, gamers' game styles are interpreted as human genetic information, divided into detailed categories of styles, and given values to express them as style vectors (S).

또한, 휴먼 월드에서 사용자가 게임을 운영하는 과정은 시간의 흐름에 따른 게임상태의 변화이다. 컴퓨터월드에서 이와 같은 게임상태는 상태 구성요소 및 각 상태 구성요소를 구분하는 분할개수로 정의하여 가중치벡터(W)로 표현한다.In addition, the process of operating a game in the human world is a change of game state over time. In computer world, such a game state is defined as a weight vector (W) by defining the state component and the number of divisions that separate each state component.

또한, 휴먼 월드에서 게이머가 자신의 게임 스타일에 맞추어 특정 게임상태에서 입력한 명령은 컴퓨터 월드에서 게임출력으로 나타나고 각각의 게임출력 항목을 출력벡터(O)로 표현한다.In addition, in the human world, gamers input commands in a specific game state according to their game styles, and appear as game outputs in the computer world, and express each game output item as an output vector (O).

도 2는 도 1에 도시한 컴퓨터 월드에서 변환된 스타일벡터(S), 게임상태를 나타내는 가중치벡터(W) 및 출력벡터(O)의 구성예를 도시한다.FIG. 2 shows an example of the configuration of the style vector S, the weight vector W representing the game state, and the output vector O transformed in the computer world shown in FIG.

스타일벡터(S)는 게이머의 게임습관 또는 성향 등을 나타내는 것으로서, 예를 들면, 공격성, 방어성, 입력빈도, 안정성, 기타 등등을 예로 들 수 있다. 스타일벡터(S)는 사용자의 게임 스타일을 구분하는 항목수가 늘어날수록 보다 상세하고 지능화된 게이머의 게임 스타일을 알아낼 수 있다는 특징이 있다.The style vector S represents gamers' game habits or propensities, for example, aggression, defensiveness, input frequency, stability, and the like. Style vector (S) has a feature that can be found more detailed and intelligent game style gamers as the number of items that distinguish the user's game style.

가중치벡터(W)는 게임상태를 정의하는 것으로서, 각 게임상태는 나의 액션(Action1), 상대방의 액션(Action2), 나의 체력(Power1), 상대방의 체력(Power2) 및 나와 상대방의 거리(Distance)로 구성된 5차원 항목의 구성요소로 정의한다. 또한 각각의 구성요소는 15, 15, 3, 3, 10 단계의 분할 개수를 갖는다고 가정한다. 게이머가 수행하는 대련게임은 시간의 흐름 또는 게이머의 입력조작에 따라 전술한 5개의 게임 구성요소가 변화되면서 게임상태가 결정된다. 각각의 구성요소가 분할 개수에 의해 구분될 경우, 나의 액션(Action1)은 15개 범위로 구분되고, 나머지 구성요소도 분할 개수에 의해 구분되어 마지막으로 나와 상대방의 거리(Distance)는 10개의 범위로 구분된다. 따라서, 5차원의 구성요소가 각각 분할되어 생성하는 전체 게임상태는 15*15*3*3*10 = 20,250으로 총 20,250개의 게임상태를 갖는다.The weight vector (W) defines a game state, and each game state is My Action (Action1), Opponent's Action (Action2), My Health (Power1), Opponent's Health (Power2), and Me and the opponent's distance (Distance) It is defined as a component of 5-dimensional item composed of. In addition, it is assumed that each component has a division number of 15, 15, 3, 3, and 10 levels. In the Dalian game played by gamers, the game state is determined by changing the above five game components according to the passage of time or the input operation of the gamers. When each component is divided by the number of divisions, my action (Action1) is divided into 15 ranges, and the remaining components are also divided by the number of divisions. Are distinguished. Therefore, the total game states generated by dividing the five-dimensional components, respectively, are 15 * 15 * 3 * 3 * 10 = 20,250, which has a total of 20,250 game states.

출력벡터(O)는 특정 게임상태에서 다음 게임상태로의 변이를 발생시키는 게임출력들의 집합이다. 이것은 게이머가 특정 게임상태에서 가능한 입력 조작 중에서 최선의 명령을 입력장치를 통해 입력함으로써 발생한다.The output vector O is a set of game outputs that cause a transition from a particular game state to the next game state. This occurs by the player entering the best command through the input device among the possible input operations in a particular game state.

본 발명에 따른 게임 스타일 이식시스템(1)에서는 게임의 진행을 전술한 스타일벡터(S), 가중치벡터(W) 및 출력벡터(O)의 관계로 정의하였다. 이것은 실제 게이머가 게임 진행을 하는 경험적 정보를 기반으로 모델화하였기 때문에 전술한 종래 기술(특2003-72640)에 비해 복잡도를 크게 낮추었다. 왜냐하면 전술한 종래 기술에서는 순수한 게이머의 입력 빈도 및 확률에 근거하여 맹목적인 탐색 공간을 형성하였기 때문이다.In the game style transplant system 1 according to the present invention, the progress of the game is defined as the relationship between the style vector S, the weight vector W, and the output vector O. Since the model is based on the empirical information that the actual gamers play the game, the complexity is greatly lowered compared to the above-described prior art (especially 2003-72640). This is because the above-described prior art forms a blind search space based on the input frequency and probability of the pure gamers.

그러나, 본 발명에서는 스타일벡터(S), 가중치벡터(W) 및 출력벡터(O)로 구성되는 제한된 정의 영역에서 소정의 알고리즘을 통해 복잡도를 낮추어 시스템의 부하를 줄인다. 다만, 출력벡터(O)의 항목수(m)는 게임에 의해 미리 정해졌기 때문에 스타일벡터(S)의 항목수 n, 가중치벡터(W)의 상태공간수 c 등을 세분화할수록 더욱 지능적이며 실제 게이머의 게임방식에 근접할 수 있으나 이것은 전술한 종래 기술과 같이 복잡도의 폭발적인 증가를 형성하는 요인이 된다.However, in the present invention, the complexity is reduced through a predetermined algorithm in the limited definition region consisting of the style vector S, the weight vector W, and the output vector O, thereby reducing the load on the system. However, since the number of items (m) of the output vector (O) is determined by the game in advance, the more intelligent and actual gamers are, the more the number of items (n) of the style vector (S) and the number of state spaces (c) of the weight vector (W) are subdivided. It can be close to the game method of, but this becomes a factor that forms an explosive increase in complexity as described above.

도 3은 도 1 및 도 2를 통해 정의되고, 본 발명에 따른 기술 구성에서 사용되는 스타일벡터(S), 가중치벡터(W) 및 출력벡터(O) 사이의 함수 관계를 도시한다.3 shows the functional relationship between the style vector S, the weight vector W and the output vector O, which are defined through FIGS. 1 and 2 and used in the technical construction according to the invention.

스타일벡터(S)는 게이머의 게임 진행 방식을 세부 항목으로 분류하고 수치화한 정보이다. 이것은 마치 인간의 유전적 정보로서 게임의 출력을 결정짓는 사용자의 고유 스타일값의 집합에 해당한다. 스타일벡터(S)는 특정 게임상태에서의 가중치벡터(W)와 연산을 통해 특정 출력벡터(O)로 매핑된다. 이것을 휴먼월드 상에서의 용어로 표현하면, 게이머는 자신의 게임 스타일(VS. 스타일벡터)에 따라 특정 게임 상태(VS. 가중치벡터)에 종속하는 게임 조작 중에서 특정 조작을 선택하면 게임공간으로 임의의 한 가지 게임출력(VS. 출력벡터)을 생성시키는 것이다.The style vector S is information obtained by dividing and quantifying the game progression of gamers into detailed items. It is like a set of unique user styles that determine the output of a game as if it were human genetic information. The style vector S is mapped to a specific output vector O through a calculation with a weight vector W in a specific game state. Expressed in terms of human world, the gamer selects a certain operation from among game operations dependent on a specific game state (VS.weight vector) according to his game style (VS.style vector). It is to generate branch game output (VS. output vector).

전체 20,250개의 게임상태는 스타일벡터(S)를 임의의 출력벡터(O)로 매핑시키는 2차원의 가중치벡터(W) 행렬로 구성된다. 가중치백터(W)에서의 k열은 특정 출력벡터(Ok)를 야기시킨다. 즉, 가중치벡터는 특정 게임상태에서 스타일벡터(S)와 출력벡터(O) 사이의 관계(연관성)를 정의하는 정보이다.A total of 20,250 game states consist of a two-dimensional weight vector (W) matrix that maps the style vector (S) to an arbitrary output vector (O). The k column in the weight vector W causes a specific output vector Ok. That is, the weight vector is information defining a relationship (correlation) between the style vector S and the output vector O in a specific game state.

출력벡터(O)는 스타일벡터(S)와 특정 게임상태의 가중치벡터(W)의 연산을 통해 얻어지는 가능 출력의 집합이다. 그 가능 출력의 연산값은 해당 출력이 실제 게임에서 발생할 확률과 연관되어 있다. 따라서, 가장 높은값을 가지는 가능 출력의 출력벡터값은 발생 확률이 제일 높은 것으로 정의할 수 있다. 이와 같은 함수관계를 수식으로 표현하면 다음과 같다.The output vector O is a set of possible outputs obtained through the calculation of the style vector S and the weight vector W of a specific game state. The computed value of that possible output is related to the probability that the output will occur in the actual game. Therefore, the output vector value of the possible output having the highest value can be defined as the highest occurrence probability. This functional relationship is expressed as an expression as follows.

스타일벡터(S) : Vector S(n)Style Vector (S): Vector S (n)

출력벡터(O) : Vector O(m)Output Vector (O): Vector O (m)

가중치벡터(W) : Vector W(n * m)Weight vector (W): Vector W (n * m)

1<=i<=n, 1<=k<=m, 1<=j<=m,1 <= i <= n, 1 <= k <= m, 1 <= j <= m,

정의된 n, m에 따라 가중치벡터(W)는 n*m의 2차원 행렬로 전체 상태 공간수(20,250)만큼 존재하게 된다. 따라서, 가중치벡터(W)의 j열은 스타일벡터(S)에 대하여 특정 출력벡터(Oj)를 결정짓는 연관성 정보를 저장하고 있다.According to the defined n, m, the weight vector W exists in the two-dimensional matrix of n * m as many as the total number of state spaces (20,250). Therefore, the j column of the weight vector W stores the association information for determining the specific output vector Oj with respect to the style vector S.

도 4는 본 발명에 따른 기술 구성에서 각 벡터들 간의 관계를 통한 학습 및 예측 환경의 개념을 도시한다.4 illustrates the concept of a learning and prediction environment through the relationship between each vector in the technical scheme according to the present invention.

먼저, 게임 스타일 이식시스템(1)은 테스트 게이머들이 수행한 게임로그정보를 대상으로 가중치벡터(W)를 학습시킨다. 가중치벡터(W)의 학습을 위해서는 사전에 테스트 게이머의 개인별 스타일벡터(S)가 설정되어야만 한다. 가중치벡터(W)의 학습이 끝나면, 가중치벡터(W)는 다양한 테스트 게이머들의 스타일벡터(S)로부터 출력벡터(O)를 생성시키는 일반화된 연관성 정보를 보유하게 된다. 즉, 테스트 게이머들의 게임로그에 따른 게임 진행방식을 각 스타일별로 일반화시켜 게임 스타일 이식시스템(1)에 구축한 것이다(테스트 게이머들로부터 가중치벡터 학습).First, the game style transplant system 1 learns the weight vector W based on game log information performed by test gamers. In order to learn the weight vector W, a tester's personal style vector S must be set in advance. After the learning of the weight vector W, the weight vector W has generalized association information for generating the output vector O from the style vector S of various test gamers. That is, the game progress method according to the game log of the test gamers is generalized for each style and built in the game style transplant system 1 (learning weight vector from the test gamers).

다음으로, 이식 대상 게이머의 게임로그정보를 분석하여, 그 게임로그정보에 포함된 게임출력과 일치하는 출력벡터(O)로부터 역으로 스타일벡터(S)의 학습을 수행한다.(이식 대상 게이머로부터 스타일벡터 학습).Next, the game log information of the game object to be transplanted is analyzed and the learning of the style vector S is performed inversely from the output vector O corresponding to the game output included in the game log information. Style vector learning).

마지막으로, 스타일벡터(S)가 수렴값에 도달하여 학습을 끝마치고, 학습된 이식 대상 게이머의 스타일벡터(S)와 일반화로 학습된 가중치벡터(W)와의 연산을 통해 출력벡터(O)를 생성한다. 그리고, 출력벡터에서의 제일 높은값에 일치하는 게임출력을 NPC로 전달하면, NPC는 이식 대상 게이머의 게임 스타일이 반영된 게임을 수행하게 된다(NPC로의 이식 대상 게이머의 스타일 이식).Finally, the style vector (S) reaches the convergence value and finishes learning. The output vector (O) is calculated by calculating the style vector (S) of the trained target gamer and the weight vector (W) learned by generalization. Create When the game output corresponding to the highest value in the output vector is delivered to the NPC, the NPC performs a game in which the game style of the transplanted gamers is reflected (style transplantation of the transplanted gamers to the NPC).

도 5는 본 발명의 일 실시예에 따른 게임 스타일 이식시스템의 구성을 도시한다. 게임 스타일 이식시스템(1)은 벡터 정의모듈(10), 게임로그 생성모듈(20), 스타일벡터 수치화모듈(30), 가중치벡터 학습모듈(40), 개별 게이머 스타일벡터 학습모듈(50), 게임출력 추론모듈(60), 및 게임 어댑터모듈(70)을 포함하여 구성된다.5 illustrates a configuration of a game style transplant system according to an embodiment of the present invention. The game style transplant system 1 includes a vector definition module 10, a game log generation module 20, a style vector digitization module 30, a weight vector learning module 40, an individual gamer style vector learning module 50, and a game. And an output inference module 60 and a game adapter module 70.

벡터 정의모듈(10)은 스타일벡터(S), 가중치벡터(W), 출력벡터(O)의 항목수 및 행렬정보 등을 정의하여 벡터 정의DB(11)에 저장한다. 스타일벡터(S)는 게이머가 게임을 진행할 때의 심리적 정보, 습관, 능력을 수치화한 정보이다. 가중치벡터(W)는 특정 게임상태마다 게이머의 스타일벡터(S)에 의해 특정 출력벡터(O)가 야기되는 연관성 관계를 수치화한 정보이다. 그리고, 출력벡터(O)는 게이머가 특정 게임상황에서 입력장치의 조작을 통해 게임 행동으로 출력할 수 있는 게임출력을 수치화한 정보이다.The vector definition module 10 defines the style vector S, the weight vector W, the number of items of the output vector O, the matrix information, and the like, and stores them in the vector definition DB 11. The style vector (S) is information that quantifies the psychological information, habits, and abilities when the game is played. The weight vector W is information obtained by quantifying an association relationship in which a specific output vector O is caused by the gamer's style vector S for each particular game state. And, the output vector (O) is information that digitizes the game output that can be output by the gamer through the operation of the input device in a specific game situation as a game action.

본 발명에 따른 게임 스타일 이식시스템(1)은 특정 게임에 종속되지 않고 다양한 게임에 있어서 적용할 수 있는 확장성을 갖는다. 따라서, 벡터 정의모듈(10)에서 각 벡터의 항목수를 특정 게임에 맞도록 설정하여 특정 게임에 적용할 수 있다. 예를 들면, 대전 액션 게임, 롤 플레잉 게임(RPG), 전략 시뮬레이션 게임에 있어서, 사용자의 게임 스타일을 항목화하여 스타일벡터(S)를 정의하고, 게임상태를 항목 구성요소 및 분할개수를 통해 전체 게임상태 공간을 정의하고, 특정 게임상태에서 출력 가능한 출력벡터(O)를 정의하면 전체 게임상태의 가중치벡터(W)를 정의할 수 있다. 이와 같은 확장성 때문에 본 발명에 따른 게임 스타일 이식시스템(1)은 특정 게임의 종류와 상관없이 독립적으로 다양한 게임에 적용할 수 있다는 장점이 있다.The game style transplantation system 1 according to the present invention is expandable to be applicable to various games without being dependent on a specific game. Therefore, the vector definition module 10 may set the number of items of each vector to fit a specific game and apply it to a specific game. For example, in a competitive action game, role playing game (RPG), and strategy simulation game, the user's game style is itemized to define a style vector (S), and the game state is totally determined through the item components and the number of divisions. By defining a game state space and defining an output vector O that can be output in a specific game state, a weight vector W of the entire game state can be defined. Due to such scalability, the game style transplantation system 1 according to the present invention has an advantage that it can be applied to various games independently regardless of the type of a specific game.

본 발명에 따른 기술의 구현은 3가지 단계로 구분된다. 1단계는 테스트 게이머들의 스타일벡터(S)를 설정한 후 가중치벡터(W)를 학습시킴으로써 게임 스타일 이식시스템(1)을 구축하는 단계이다(테스트 게이머들로부터 가중치벡터 학습). 2단계는 이미 구축된 게임 스타일 이식시스템(1)을 통해 이식 대상 게이머의 게임출력(O)으로부터 역으로 사용자의 스타일벡터(S)를 학습시키는 것이다(이식 대상 게이머로부터 스타일벡터 학습). 그리고 3단계는 2단계에서의 스타일벡터(S)와 1단계에서의 가중치벡터(W)와의 연산을 통해 게임출력을 추론(예측)하여 NPC로 특정 게이머의 스타일을 이식시키는 것이다(NPC로의 이식 대상 게이머의 스타일 이식).The implementation of the technique according to the invention is divided into three stages. In the first step, the game style transplantation system 1 is constructed by setting the style vector S of the test gamers and learning the weight vector W (learning the weight vector from the test gamers). The second step is to learn the user's style vector S from the game output O of the player to be transplanted through the game style transplant system 1 already established (style vector learning from the player to be transplanted). The third step is to infer (predict) the game output by calculating the style vector (S) in the second step and the weight vector (W) in the first step, and to transplant the style of a specific gamer to the NPC (object to be transplanted to the NPC). Porter's style).

1단계의 구조는 테스트 게이머들의 게임로그를 통해 테스트 게이머의 스타일벡터(S)가 출력벡터(O)로 연관될 수 있도록 가중치벡터(W)를 학습시킴으로써 게임로그의 과정과 유사한 게임 진행을 하도록 게임 스타일 이식시스템(1)을 구축하는 구조이다.The structure of step 1 is to play the game similar to the process of the game log by learning the weight vector (W) so that the tester's style vector (S) can be related to the output vector (O) through the game log of the test gamers. It is a structure for constructing a style porting system (1).

게임로그 생성모듈(20)은 게임 운영시스템(100)에서 수행되는 테스트 게이머들의 게임 정보를 게임어댑터모듈(70)을 통해 전달받고 게임로그DB(21)에 저장한다.The game log generation module 20 receives game information of test gamers executed in the game operating system 100 through the game adapter module 70 and stores the game information in the game log DB 21.

스타일벡터 수치화모듈(30)은 게임로그DB(21)의 개인별 스타일벡터(S)를 수치화하여 스타일벡터DB(31)에 저장한다. 수치화 과정에는 다음의 2가지 모듈 중에서 어느 하나가 선택적으로 수행한다. 설문조사 수치화모듈은 테스트 게이머들을 대상으로 설문조사를 하고, 설문조사 결과를 SOFM 기법을 통해 클러스터링하여 스타일벡터(S)로 수치화하는 전통적인 기법을 사용한다. 나머지 다른 하나는 게임로그 수치화 모듈로서 게임로그DB(21)에 저장된 게임로그를 분석하여 게임 스타일항목별로 스타일벡터(S)를 수치화하는 것이다.The style vector numerical module 30 digitizes the individual style vector S of the game log DB 21 and stores it in the style vector DB 31. One of the following two modules is optionally performed in the digitization process. The survey digitization module uses a traditional technique of surveying test gamers and numerically clustering the survey results through the SOFM technique into a style vector (S). The other is to quantify the style vector S for each game style item by analyzing the game log stored in the game log DB 21 as a game log digitizing module.

가중치벡터 학습모듈(S40)은 수치화된 개인별 테스트 게이머의 스타일벡터(S)와 출력벡터(O) 사이에서 반복적인 학습을 통해 가중치벡터(W)를 학습시킨다.The weight vector learning module S40 learns the weight vector W through repetitive learning between the style vector S and the output vector O of the individualized tester.

2단계 구조는 이식 대상 게이머의 게임로그에서 발생된 게임출력(O)으로부터 출력벡터(O)를 구하고, 역으로 출력벡터(O)로부터 1단계에서 학습된 가중치벡터(W)를 통해 이식 대상 게이머의 스타일벡터(S)를 학습시키는 것이다.The two-stage structure obtains the output vector (O) from the game output (O) generated from the game log of the transplant target gamemer, and conversely, the transplant target gamer through the weight vector (W) learned in step 1 from the output vector (O). It is to learn the style vector (S) of.

개별 게이머 스타일벡터 학습모듈(50)은 게임로그DB(31)로부터 획득한 이식 대상 게이머의 게임출력과 일치하는 출력벡터(O)에 기반하여 현재 스타일벡터와(S)와 가중치벡터(W)와 연산을 통해 반복적으로 특정 게이머의 스타일벡터(S)를 학습한다. 반복 학습에 따라 스타일벡터의 값은 수렴치에 도달하게 된다.The individual gamer style vector learning module 50 is based on the output vector (O) that matches the game output of the game player to be transplanted obtained from the game log DB 31 and the current style vector (S) and weight vector (W). Iteratively learns the style vector (S) of a specific gamer through the operation. According to the iterative learning, the value of the style vector reaches a convergence value.

또한, 개별 게이머 스타일벡터 학습모듈(50)은 전술한 연산기능과 더불어 스타일벡터 수치화모듈(30)의 게임로그 수치화모듈에 의하여, 이식 대상 게이머의 게임로그를 분석하여 게임 스타일항목별로 스타일벡터를 수치화하는 것도 가능하다. 양자는 이용자가 선택하여 학습 스타일을 결정할 수 있다.In addition, the individual gamer style vector learning module 50 analyzes the game log of the gamer to be transplanted and digitizes the style vector for each game style item by the game log digitizing module of the style vector digitizing module 30 together with the above-described calculation function. It is also possible. Both can be selected by the user to determine the learning style.

3단계 구조는 게임 운영시스템의 NPC로 게임출력을 전달하여 이식 대상 게이머의 스타일에 따른 게임 행동을 NPC에 이식시키는 것이다.The three-stage structure is to transfer the game output to the NPC of the game operating system and to port the game behavior according to the style of the target gamer to the NPC.

게임출력 추론모듈(60)은 학습된 2단계의 스타일벡터(S)와 학습된 1단계의 가중치벡터(W)와의 행렬 연산을 통해 출력벡터(O)를 추론하고, 출력벡터(O)에 일치하는 게임출력을 게임어댑터모듈(70)을 통해 게임 운영시스템(100)의 NPC에 이식한다.The game output inference module 60 infers the output vector (O) through a matrix operation between the learned style vector (S) of the second stage and the weight vector (W) of the learned stage, and matches the output vector (O). The game output is ported to the NPC of the game operating system 100 through the game adapter module 70.

이하, 본 발명에 따른 게임 스타일 이식시스템(1)에서의 학습에 대해서 상세히 설명한다.Hereinafter, the learning in the game style transplant system 1 according to the present invention will be described in detail.

특히, 본 발명에 따른 게임 스타일 이식시스템(1)의 학습에서는 학습의 속도와 결과에 영향을 미치고자 지수적으로 감소하는 함수에 의해 구해지는 학습계수(A)를 통해 새롭게 학습된 벡터값을 구한다. 다음은 학습계수(A)의 수학식이다.In particular, in the learning of the game style transplant system 1 according to the present invention, a newly learned vector value is obtained through the learning coefficient A obtained by an exponentially decreasing function to influence the speed and the result of learning. . The following is the equation of the learning coefficient (A).

A = a + ((A - a) * d)A = a + ((A-a) * d)

A : 학습계수,A: learning coefficient,

a : 최소값a: minimum value

d : 감소율d: reduction rate

위의 함수는 처음 학습계수(A)를 설정한 값에서 출발해서 지수적으로 감소하는 특성을 가지고 있으며 감소율(d)을 조절함으로써 감소 속도를 조정하기에 용이하다. 또한 수학식 2는 경험적 정보에 따른 실험식이기 때문에 학습과정을 통해 얻어진 경험을 토대로 실험식을 구성하는 학습환경변수(A, a, d)를 조절하여 더욱 효과적인 학습을 수행할 수 있게 한다.The above function has the characteristic of decreasing exponentially starting from the value of setting the initial learning coefficient (A), and it is easy to adjust the reduction rate by adjusting the reduction rate (d). In addition, since Equation 2 is an empirical formula based on empirical information, more efficient learning can be performed by adjusting learning environment variables (A, a, d) constituting the empirical formula based on the experience obtained through the learning process.

도 6은 본 발명의 일 실시예에 따른 가중치벡터 학습모듈(40)의 상세한 구성을 도시한다. 가중치벡터 학습모듈(40)은, 게임상태 획득모듈(42), 게임출력 획득모듈(44), 스타일벡터 획득모듈(46), 가중치 연산처리모듈(47) 및 이들 모듈에 의해 참조되는 다수의 DB를 포함하여 구성된다.6 shows a detailed configuration of the weight vector learning module 40 according to an embodiment of the present invention. The weight vector learning module 40 includes a game state obtaining module 42, a game output obtaining module 44, a style vector obtaining module 46, a weight calculation processing module 47, and a plurality of DBs referenced by these modules. It is configured to include.

게임상태 획득모듈(42)은 게임로그DB(21)로부터 읽어들인 테스트 게이머의 게임상태에 해당하는 게임상태 식별코드를 상기 게임상태정의DB(43)로부터 획득한다. 게임상태정의DB(43)는 상태 구성요소별 분할개수에 의해 정의되는 게임상태와 매칭되는 게임상태 식별코드를 저장한다.The game state obtaining module 42 obtains a game state identification code corresponding to the game state of the test gamer read from the game log DB 21 from the game state definition DB 43. The game state definition DB 43 stores a game state identification code that matches the game state defined by the number of divisions for each state component.

게임출력 획득모듈(44)은 게임로그DB(21)로부터 읽어들인 테스트 게이머의 게임출력에 해당하는 게임출력 식별코드를 상기 게임출력정의DB(45)로부터 획득한다. 게임출력정의DB(45)는 특정 게임상태에서 사용자의 입력조작에 의하여 가능한 게임출력과 매칭되는 게임출력 식별코드를 저장한다.The game output acquisition module 44 obtains a game output identification code corresponding to the game output of the test gamer read from the game log DB 21 from the game output definition DB 45. Game output definition DB 45 stores a game output identification code that matches the game output possible by the user's input operation in a particular game state.

스타일벡터 획득모듈(46)은 스타일벡터 수치화모듈(30)이 구축한 스타일벡터DB(31)로부터 개인별 테스트 게이머의 스타일벡터(S)를 획득한다.The style vector acquisition module 46 acquires the style vector S of the individual test gamer from the style vector DB 31 constructed by the style vector digitization module 30.

가중치 연산처리모듈(47)은 게임상태 획득모듈(42)이 얻은 게임상태에 해당하는 현재 가중치벡터(W(t))를 가중치벡터DB(41)로부터 얻어내고, 현재 가중치벡터(W(t))와 스타일벡터 획득모듈(46)이 획득한 스타일벡터(S)를 연산을 통해 새로운 가중치벡터(W(t+1))로 생성하여 다시 가중치벡터DB(41)에 저장하여 학습을 반복한다.The weight calculation module 47 obtains the current weight vector W (t) corresponding to the game state obtained by the game state obtaining module 42 from the weight vector DB 41, and the current weight vector W (t). ) And the style vector S obtained by the style vector acquisition module 46 are generated as a new weight vector W (t + 1) through operation, and stored in the weight vector DB 41 to repeat the learning.

특히, 가중치 연산처리모듈은 게임로그로부터 추출한 실제 게임출력 O와 연산 후 최대값을 가진 출력벡터 Oj가 일치하도록 가중치벡터(W)를 학습시키며, 그 수학식은 다음과 같다.In particular, the weight calculation module learns the weight vector W such that the actual game output O extracted from the game log matches the output vector Oj having the maximum value after the calculation, and the equation is as follows.

t : 현재 시점t: current time

t+1 : 현재 시점으로부터 새롭게 학습한 시점t + 1: Newly learned point from the current point

A : 학습계수A: Learning coefficient

도 7은 본 발명의 일 실시예에 따른 개별 게이머 스타일벡터 학습모듈(50)의 구성을 도시한다. 개별 게이머 스타일벡터 학습모듈(50)은, 게임상태 획득모듈(42), 게임출력 획득모듈(44), 스타일벡터 획득모듈(46), 스타일 연산처리모듈(51) 및 가중치벡터DB(41)를 포함하여 구성된다. 도 6에서의 가중치 학습모듈(40)과 공통된 설명 부분은 생략한다.7 illustrates a configuration of an individual gamer style vector learning module 50 according to an embodiment of the present invention. The individual gamer style vector learning module 50 may include a game state acquisition module 42, a game output acquisition module 44, a style vector acquisition module 46, a style calculation processing module 51, and a weight vector DB 41. It is configured to include. The description common to the weight learning module 40 in FIG. 6 is omitted.

게임상태 획득모듈(42)은 게임로그DB(21)로부터 읽어들인 테스트 게이머의 게임상태에 해당하는 게임상태 식별코드를 상기 게임상태정의DB(43)로부터 획득한다.The game state obtaining module 42 obtains a game state identification code corresponding to the game state of the test gamer read from the game log DB 21 from the game state definition DB 43.

게임출력 획득모듈(44)은 게임로그DB(21)로부터 읽어들인 테스트 게이머의 게임출력에 해당하는 게임출력 식별코드를 상기 게임출력정의DB로부터 획득한다.The game output obtaining module 44 obtains a game output identification code corresponding to the game output of the test gamer read from the game log DB 21 from the game output definition DB.

스타일벡터 획득모듈(46)은 스타일벡터 수치화모듈(30)이 구축한 스타일벡터DB(31)로부터 개인별 테스트 게이머의 스타일벡터(S)를 획득한다.The style vector acquisition module 46 acquires the style vector S of the individual test gamer from the style vector DB 31 constructed by the style vector digitization module 30.

스타일 연산처리모듈(51)은 게임상태 획득모듈(42)이 얻은 게임상태에 해당하는 현재 가중치벡터(W)를 가중치벡터DB(41)로부터 얻어내고, 현재 가중치벡터(W(t))와 스타일벡터 획득모듈(46)이 획득한 스타일벡터(S)를 연산을 통해 새로운 가중치벡터(W(T+1))로 생성하여 다시 가중치벡터DB(41)에 저장하여 학습을 반복한다.The style calculation processing module 51 obtains the current weight vector W corresponding to the game state obtained by the game state obtaining module 42 from the weight vector DB 41, and the style and the current weight vector W (t). The vector acquiring module 46 generates the style vector S obtained through the calculation as a new weight vector W (T + 1) and stores the weight vector DB 41 again in the weight vector DB 41 to repeat the learning.

스타일 연산처리모듈(51)은 게임상태 획득모듈(42)이 얻은 게임상태에 해당하는 가중치벡터(W)를 가중치벡터DB(41)로부터 얻어내고, 가중치벡터(W)와 스타일벡터 획득모듈(46)이 획득한 이식 대상 게이머의 현재 스타일벡터(S(t))를 연산을 통해 새로운 스타일벡터(S(t+1))로 생성하여 다시 상기 스타일벡터DB(31)에 저장하여 학습을 반복한다.The style operation processing module 51 obtains the weight vector W corresponding to the game state obtained by the game state obtaining module 42 from the weight vector DB 41, and the weight vector W and the style vector obtaining module 46. ) Generates a new style vector (S (t + 1)) through the operation of the current style vector (S (t)) of the player to be transplanted, and stores the result again in the style vector DB (31) to repeat the learning. .

특히, 스타일 연산처리모듈(51)은 게임로그로부터 추출한 실제 게임출력 O와 연산후 최대값을 가진 출력벡터 Oj가 일치하도록 스타일벡터(S)를 학습시키며, 그 수학식은 다음과 같다.In particular, the style calculation processing module 51 learns the style vector S so that the actual game output O extracted from the game log matches the output vector Oj having the maximum value after the calculation, and the equation is as follows.

도 8은 본 발명의 일 실시예에 따른 게임 스타일 이식방법의 순서를 도시한다. 전술한 게임 스타일 이식시스템(1)에서와 같이 이식방법에 있어서도 3가지 단계로 구분된다. 1단계는 단계(S20) ~ 단계(S40)의 가중치벡터 학습과정, 2단계는 단계(S50)의 스타일벡터 학습과정, 3단계는 단계(S60)의 스타일 이식과정이다.8 is a flowchart illustrating a game style transplantation method according to an embodiment of the present invention. As in the game style transplant system 1 described above, the transplant method is divided into three stages. Step 1 is a weight vector learning process of steps S20 to S40, step 2 is a style vector learning process of step S50, and step 3 is a style transplantation process of step S60.

벡터정의 및 저장단계(S10)는 스타일벡터(S), 게임상태별 가중치벡터(W), 출력벡터(O)의 항목을 정의하여 벡터정의DB(11)에 저장한다. 이 단계는 게임의 종류에 따라 각각의 스타일 항목수, 게임 상태수, 출력수를 정의함으로써 범용적인 게임에 있어서 사용자의 스타일을 이식할 수 있도록 지원하는 역할을 한다.In the vector definition and storage step S10, the items of the style vector S, the weight vector W for each game state, and the output vector O are defined and stored in the vector definition DB 11. This step helps to port the user's style in the general game by defining the number of style items, game states, and outputs according to the type of game.

다음, 단계(S20) 내지 단계(S40)는 테스트 게이머들의 게임로그로부터 게임 스타일 이식시스템(1)을 구축하는 단계이다. 이 과정을 통해 다수의 게이머들이 각각의 스타일에 따른 게임출력을 모델로 하여 스타일벡터(S)와 출력벡터(O) 사이의 함수 역할을 하는 가중치벡터(W)가 학습을 거쳐 일반화된 정보를 보유하게 된다.Next, step S20 to step S40 are steps of constructing a game style transplant system 1 from game logs of test gamers. Through this process, a number of gamers model the game output according to their styles, and the weight vector (W) serving as a function between the style vector (S) and the output vector (O) is learned and holds generalized information. Done.

게임로그 생성단계(S20)는 복수의 테스트 게이머들이 게임을 반복적으로 수행한 과정을 정보화하여 게임로그DB(21)에 저장함으로써 게임로그를 생성한다. 이 과정에서, 게이머는 실제 게임을 수행하고, 게이머의 아이디, 게임시간, 게이머의 게임상태정보, 게이머의 입력조작에 따른 게임출력을 포함하는 게임정보가 저장된다.Game log generation step (S20) generates a game log by storing the information in the game log DB 21, the process of the plurality of test gamers repeatedly performed the game. In this process, the gamer plays an actual game, and game information including gamers 'ID, game time, game state information of the gamers, and game outputs according to the gamers' input operation is stored.

테스트 게이머 스타일벡터 설정단계(S30)에서는 게임로그로부터 개별 테스트 게이머의 게임 스타일을 분석하여 스타일벡터를 수치화하여 스타일벡터DB(31)에 저장한다.In the test gamer style vector setting step (S30), the game style of the individual test gamers is analyzed from the game log, and the style vector is digitized and stored in the style vector DB 31.

가중치벡터 학습단계(S40)에서는 복수의 테스트 게이머들의 스타일벡터(S)에 의하여 특정 게임상태에서 특정 출력벡터(O)를 야기하는 가중치벡터(W)를 학습한다. 이것은 테스트 게이머들의 스타일벡터(S)가 게임로그로부터 구한 출력벡터(O)와 일치하도록 가중치벡터(W)를 학습시킨다. 학습된 가중치벡터(W)는 사용자의 스타일벡터(S)와 출력벡터(O) 사이를 매핑하는 연관성 함수로서 일반화되고 정형적인 매핑 정보를 갖게된다.In the weight vector learning step (S40), the weight vector W that causes a specific output vector O in a specific game state is learned by the style vectors S of the plurality of test gamers. This trains the weight vector W such that the style vector S of the test gamers matches the output vector O obtained from the game log. The learned weight vector W has a generalized and formal mapping information as an association function for mapping between the style vector S and the output vector O of the user.

위 단계를 마치면 게임 스타일 이식시스템(1)이 구축되고, 구축된 이식시스템은 특정 게이머의 게임 스타일을 추론할 수 있게된다. 스타일벡터 학습단계(S50)에서는 이식 대상 게이머의 게임로그로부터 상기 게이머가 입력조작한 게임출력에 따라 역으로 게이머의 스타일벡터(S)를 학습한다.After completing the above steps, the game style porting system 1 is built, and the porting system can infer the game style of a specific gamer. In the style vector learning step (S50), the game player's style vector S is inversely learned according to the game output inputted by the gamer from the game log of the game player to be transplanted.

특히, 스타일벡터 학습단계(S50)는 현재 게이머를 이식 대상으로 삼고, 실시간 로그 파일을 생성하면서 게임이 진행하는 동안 게이머의 입력조작에 따른 게임 스타일을 실시간 학습하도록 구현하는 것이 바람직하다.In particular, the style vector learning step (S50) is preferably implemented as a target for porting the current gamers and real-time learning the game style according to the input operation of the gamers while the game is progressing while generating a real-time log file.

다음으로, 게이머 스타일 이식단계(S60)에서는 게임 운영시스템(100)으로부터 게임상태를 전달받고, 이식 대상 게이머의 학습된 스타일벡터(S)에 의거하여 출력벡터(O)를 추론하여 결정하고, 상기 출력벡터(O)에 일치하는 게임출력을 게임 운영시스템(100)으로 전달하여 특정 게이머의 게임 스타일을 NPC에 이식한다.Next, in the gamer style transplantation step (S60), the game state is received from the game operating system 100, and the output vector O is inferred and determined based on the learned style vector S of the target gamer. The game output corresponding to the output vector (O) is transmitted to the game operating system 100 to transplant the game style of a specific gamer to the NPC.

도 9는 본 발명의 일 실시예에 따른 벡터 정의 및 저장단계(S10)의 상세 단계를 도시한다.9 shows detailed steps of the vector definition and storage step S10 according to an embodiment of the present invention.

스타일벡터 정의단계(S11)는 게이머가 게임을 진행할 때의 심리적 정보, 습관, 능력을 정의하는 스타일항목을 스타일벡터로 정의한다.The style vector definition step S11 defines style items that define psychological information, habits, and abilities when the gamers progress the game as style vectors.

가중치벡터 정의단계(S12)는 특정 게임상태마다 게이머의 스타일벡터에 의해 특정 출력벡터가 야기되는 연관성 관계를 나타내는 가중치로 구성된 가중치벡터를 정의한다.The weight vector definition step S12 defines a weight vector composed of weights representing an association relationship in which a specific output vector is caused by the gamer's style vector for each specific game state.

출력벡터 정의단계(S13)는 게이머가 특정 게임상황에서 입력장치의 조작을 통해 게임 행동으로 출력할 수 있는 게임출력 항목을 출력벡터로 정의한다.The output vector definition step S13 defines a game output item that can be output by the gamer as a game action through manipulation of the input device in a specific game situation as an output vector.

도 10은 본 발명의 일 실시예에 따른 테스트 게이머 스타일벡터 설정단계(S30)의 상세 순서를 도시한다.10 is a detailed flowchart of a test gamer style vector setting step S30 according to an embodiment of the present invention.

설문조사 수치화단계(S31)는 설문조사를 통해 사용자 스타일을 분석하고 그 결과는 SOFM(Self-Organizing Feature Map) 기법을 통해 클러스터링하여 스타일벡터로 수치화한다.Survey quantization step (S31) analyzes the user style through the survey and the result is numerically clustered through the SOFM (Self-Organizing Feature Map) technique to digitize the style vector.

또한 선택적으로 게임로그 수치화단계(S32)를 채택하여 게임로그DB(21)에 저장된 게임로그를 분석하여 게임 스타일항목별로 스타일벡터를 수치화하는 것도 가능하다.It is also possible to selectively quantize the style vector for each game style item by analyzing the game log stored in the game log DB 21 by selectively adopting the game log digitizing step (S32).

도 11은 본 발명의 일 실시예에 따른 가중치벡터 학습단계(S40)의 상세 순서를 도시한다.11 shows a detailed procedure of the weight vector learning step S40 according to an embodiment of the present invention.

학습환경변수 초기값 설정단계(S41)에서는 학습의 속도와 품질에 영향을 미지는 학습환경변수(A, a, d)를 초기화한다. 가중치벡터 초기값 설정단계(S42)에서는 학습의 준비를 위해 임의의 초기값을 설정한다.In the learning environment variable initial value setting step (S41), the learning environment variables (A, a, d) affecting the speed and quality of learning are initialized. In the weight vector initial value setting step (S42), an arbitrary initial value is set in preparation for learning.

다음, 게임로그정보 읽기단계(S43)에서 테스트 게이머의 게임로그를 하나씩 읽어들인다. 게임상태 획득단계(S44)에서는 읽어들인 게임로그로부터 게임상태를 획득한다. 현재 가중치벡터 읽기단계(S45)에서는 획득한 현재 게임상태의 가중치벡터(W)를 읽어들인다. 새로운 가중치벡터 생성 및 저장단계(S47)에서는 전술한 수학식 3, 4에 따라 반복적으로 가중치벡터(W)를 학습한다.Next, in the game log information reading step (S43) to read the game log of the test gamers one by one. In the game state obtaining step (S44), the game state is obtained from the read game log. In the current weight vector reading step S45, the acquired weight vector W of the current game state is read. In the new weight vector generation and storage step S47, the weight vector W is repeatedly learned according to Equations 3 and 4 described above.

한 번의 학습이 끝나면 다음번 게임로그를 읽어들임에 따라 동일한 테스트 게이머의 게임로그에 따라 게임상태가 바뀌고, 다음으로는 다음번 테스트 게이머로 넘어가게 된다. 반복된 학습에 따라 최대반복횟수에 도달하거나 수렴치에 도달하게 될 경우 학습은 종료되고, 그렇지 않은 경우에는 학습계수 조정단계(S48)에서 수학식 2를 통해 학습계수(A)를 조절한 후 게임로그DB(21)의 재읽기를 수행한다.After one lesson, the game state changes according to the game log of the same test player as the next game log is read, and then the next game player is transferred. If the maximum number of repetitions or convergence is reached according to the repeated learning, the learning is terminated. Otherwise, the learning coefficient A is adjusted through Equation 2 in the learning coefficient adjustment step (S48). Reread log DB21.

도 12는 본 발명의 일 실시예에 따른 가중치벡터 생성 및 저장단계(S47)의 상세 순서를 도시한다.12 is a detailed flowchart of a weight vector generation and storage step S47 according to an embodiment of the present invention.

출력벡터 획득단계(S471)에서는 테스트 게이머들의 게임로그로부터 게임출력을 추출한다. 출력벡터 차이 연산단계(S472)는 실제 게임출력과 일치하는 출력벡터(O)와 연산에 의해 추론된 출력벡터의 차이를 구한다. 출력벡터 차이 및 스타일벡터의 연산단계(S473)는 단계(S472)에서 구한 차이에 스타일벡터를 곱한다. 단계(S471) 내지 단계(S473) 사이의 과정에서는 수학식 3이 사용된다.In the output vector acquisition step S471, game output is extracted from game logs of test gamers. The output vector difference calculation step (S472) calculates the difference between the output vector (O) corresponding to the actual game output and the output vector inferred by the operation. In operation S473, the output vector difference and the style vector are multiplied by the style vector. Equation 3 is used in the process between steps S471 to S473.

도 13은 본 발명의 일 실시예에 따른 스타일벡터 학습단계(S50)의 상세 순서를 도시한다.13 is a detailed flowchart of a style vector learning step S50 according to an embodiment of the present invention.

학습환경변수 초기값 설정단계(S51)에서는 학습의 속도와 품질에 영향을 미지는 학습환경변수(A, a, d)를 초기화한다. 스타일벡터 초기값 설정단계(S52)에서는 학습의 준비를 위해 임의의 초기값을 설정한다.In the learning environment variable initial value setting step (S51), the learning environment variables (A, a, d) affecting the speed and quality of learning are initialized. In the style vector initial value setting step S52, an arbitrary initial value is set in preparation for learning.

다음, 게임로그정보 읽기단계(S53)에서 이식 대상 게이머의 게임로그를 하나씩 읽어들인다. 게임상태 획득단계(S54)에서는 읽어들인 게임로그로부터 게임상태를 획득한다. 가중치벡터 읽기단계(S55)에서는 이미 학습된 게임상태의 가중치벡터(W)를 읽어들인다. 새로운 스타일벡터 생성 및 저장단계(S57)에서는 전술한 수학식 5, 6에 따라 반복적으로 스타일벡터(S)를 학습한다.Next, in the game log information reading step (S53) to read the game log of the transplant target gamers one by one. In the game state obtaining step (S54), the game state is obtained from the read game log. In the weight vector reading step S55, the weight vector W of the already learned game state is read. In the new style vector generation and storage step S57, the style vector S is repeatedly learned according to Equations 5 and 6 described above.

반복된 학습에 따라 최대반복횟수에 도달하거나 수렴치에 도달하게 될 경우 학습은 종료되고, 그렇지 않은 경우에는 학습계수 조정단계(S48)에서 수학식 2를 통해 학습계수(A)를 조절한 후 게임로그DB(21)의 재읽기를 수행한다.If the maximum number of repetitions or convergence is reached according to the repeated learning, the learning is terminated. Otherwise, the learning coefficient A is adjusted through Equation 2 in the learning coefficient adjustment step (S48). Reread log DB21.

도 14는 본 발명의 일 실시예에 따른 새로운 스타일벡터 생성 및 저장단계(S57)의 상세 순서를 도시한다. 출력벡터 획득단계(S571)에서는 이식 대상 게이머들의 게임로그로부터 게임출력을 추출한다. 출력벡터 차이 연산단계(S572)는 실제 게임출력과 일치하는 출력벡터와 연산에 의해 추론된 출력벡터와 차이를 구한다. 출력벡터 차이 및 가중치벡터의 연산단계(S573)는 단계(S572)에서 구한 차이에 가중치벡터를 곱한다. 단계(S571) 내지 단계(S573) 사이의 과정에서는 수학식 4가 사용된다.14 is a detailed flowchart of a new style vector generation and storage step S57 according to an embodiment of the present invention. In the output vector acquisition step S571, game output is extracted from game logs of gamers to be transplanted. The output vector difference calculation step S572 calculates a difference between the output vector that matches the actual game output and the output vector inferred by the calculation. In operation S573 of output vector difference and weight vector, the weight vector is multiplied by the difference obtained in step S572. Equation 4 is used in the process between steps S571 to S573.

특히, 이식 대상 게이머의 게임 스타일 학습단계에서는 게임로그의 게임출력으로부터 역으로 연산하는 방법도 가능하며, 도 10에 도시한 테스트 게이머 스타일벡터 설정단계(S30)의 게임로그 수치화단계(S32)를 채택하여 게임로그DB(21)에 저장된 게임로그를 분석하여 게임 스타일항목별로 스타일벡터를 수치화하는 것도 가능하다. 양자는 선택적이다.In particular, in the game style learning step of the game player to be transplanted, a method of calculating the inverse from the game output of the game log is possible, and adopts the game log digitization step (S32) of the test gamer style vector setting step (S30) shown in FIG. By analyzing the game log stored in the game log DB (21) it is also possible to digitize the style vector for each game style item. Both are optional.

도 15는 본 발명의 일 실시예에 따른 게이머 스타일 이식단계(S60)의 상세 순서를 도시한다.15 shows a detailed procedure of the gamers style implantation step (S60) according to an embodiment of the present invention.

게임상태 수신단계(S61)에서는 게임 운영시스템(1)으로부터 이식 대상 게이머의 게임상태를 전달받는다. 스타일벡터 읽기단계(S62))에서는 이식 대상 게이머의 스타일벡터(S)를 읽어들인다. 가중치벡터 읽기단계(S63)에서는 테스트 게이머들의 게임로그를 통해 이미 학습된 가중치벡터(W)를 읽어들인다.In the game state receiving step (S61), the game state of the game player to be transplanted is received from the game operating system 1. In the style vector reading step (S62), the style vector S of the player to be transplanted is read. In the weight vector reading step S63, the weight vector W that has already been learned is read through the game log of the test gamers.

출력벡터 생성단계(S64)에서는 수학식 1을 이용하여 읽어들인 스타일벡터(S)와 가중치벡터(W)로부터 출력벡터(O)를 생성한다. 게임출력 송신단계(S65)에서는 생성된 출력벡터(O)의 가장 높은값과 일치하는 게임출력을 게임 운영시스템(1)으로 전달한다.In the output vector generation step S64, an output vector O is generated from the style vector S and the weight vector W read using Equation 1. In the game output transmission step (S65), the game output corresponding to the highest value of the generated output vector (O) is transmitted to the game operating system (1).

게임 운영시스템(1)은 전달받은 게임출력에 의해 NPC를 동작시키기 때문에 NPC는 이식 대상 게이머의 게임 스타일에 따라 게임 행동을 하게 된다.Since the game operating system 1 operates the NPC based on the received game output, the NPC performs game behavior according to the game style of the gamer to be transplanted.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

도 16은 본 발명의 일 실시예에 따른 게이머 스타일 이식시스템 및 방법에 의하여 스타일 이식 결과를 분석한 그래프를 도시한다.FIG. 16 is a graph illustrating a style graft analysis result by a gamer style graft system and method according to an embodiment of the present invention.

학습 및 이식의 대상이 되는 게이머의 행동과 NPC 이식 결과는 다음과 같다.The behaviors of gamers and the results of NPC transplantation that are the subject of learning and transplantation are as follows.

A)게임에서 아무런 이벤트 발생이 없을 경우, 게이머도 정지하고 있는 상황에 대한 학습A) Learning about the situation where gamers are also stopped when no event occurs in the game

=> NPC도 게임진행과정에서 가만히 서 있음.=> NPC is standing still in the game progress.

B)게임 진행 과정에서 게이머의 전후 방향으로 이동하는 게임 행동을 학습B) Learning game behavior to move forward and backward in gamers as the game progresses

=> NPC도 게임 진행 동안 전후 방향으로 이동함.=> NPC also moves back and forth during the game.

C)게이머가 상대방에 대하여 펀치 및 발차기 공격을 하는 게임 행동을 학습C) Gamer learns to play a game of punching and kicking an opponent

=> NPC도 상대방 캐릭터에게 주먹/발 공격 행위를 함.=> NPCs also attack their opponents with fist / foot attacks.

D)게임 진행 동안 상대방 캐릭터의 공격에 대하여 방어만을 하도록 학습D) Learning to defend only against opponent character's attack during the game

=> NPC도 상대방에 대하여 방어 행위만을 함.=> NPCs only defend themselves.

E)게임 진행 동안 게이머의 스타일에 따른 이동/공격/방어의 액션을 학습E) Learning movement, attack, and defense action according to the gamers' style during the game

=>NPC는 게임 진행 동안 상황에 따라 이동/공격/방어 행위를 함=> NPC moves / attack / defends depending on the situation during the game

도 16에 도시한 그래프는 위에서의 A, B, C, D, E 시나리오에 의한 학습 및 이식을 통해 나타난 결과를 보여준다. 가중치벡터(W) 학습의 조건으로는 최대 반복 회수를 100으로 하였다. 또한, 게임상태는 나의 액션(Action1), 상대방의 액션(Action2), 나와 상대방의 거리(Distance)로 제한하였다. 그리고 학습율은 이식 대상 게이머의 게임로그에 기록된 게임출력과 이식된 NPC의 게임출력의 일치성을 퍼센티지로 표시하였다.The graph shown in FIG. 16 shows the results of learning and transplanting by the A, B, C, D, and E scenarios above. The maximum number of repetitions was 100 as a condition of weight vector (W) learning. In addition, the game state was limited to My Action (Action1), the opponent's Action (Action2), and the distance between me and the opponent (Distance). In addition, the learning rate was expressed as a percentage of the match between the game output recorded in the game log of the transplanted gamer and the game output of the transplanted NPC.

결과를 볼 때 시나리오 A에 대한 학습은 100%의 일치율을 나타냈고, 각 시나리오에 대한 일치율은 평균 85% 이상으로 나타났다.The results showed that learning about scenario A showed a 100% match rate, and the match rate for each scenario was above 85% on average.

도 17a 및 도 17b는 다른 종류의 게임에 본 발명의 기술을 적용할 때 게임상태를 구성하는 구성요소의 예를 도시한다. 도 17a는 롤플레잉 게임(RPG)을 대상으로 할 때 상태 분할 요소의 예를 도시하며, 도 17b는 전략 시뮬레이션 게임을 대상으로 할 때 상태 분할 요소의 예를 도시한다.17A and 17B show examples of components constituting a game state when applying the technique of the present invention to other kinds of games. FIG. 17A shows an example of a state splitting element when targeting a role playing game (RPG), and FIG. 17B shows an example of a state splitting element when targeting a strategy simulation game.

이용자는 게임의 종류에 따라서 게임상태를 구성하는 구성요소 및 분할개수를 정의하여 게임상태를 정의하고, 사용자의 스타일을 분석하는 항목수를 정의함으로써 다양한 종류의 게임에 본 발명의 기술을 적용하는 것이 가능하다.The user defines the game state by defining the components and the number of divisions constituting the game state according to the type of the game, and defines the number of items analyzing the user's style to apply the technology of the present invention to various kinds of games. It is possible.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의하여 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등법위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the equivalent law of the claims to be described.

본 발명의 일 측면에 따르면, 게이머의 게임 스타일을 게임 스타일벡터와 가중치벡터로 분석함으로써 한정된 정의영역에서 제한된 벡터 연산을 통해 게임시스템의 프로세스에 부하를 적게 주는 게임시스템을 구축할 수 있다.According to an aspect of the present invention, by analyzing the game style of the gamers with a game style vector and a weight vector, it is possible to build a game system that reduces the load on the process of the game system through a limited vector operation in a limited definition region.

본 발명의 다른 측면에 따르면, 특정 게이머의 게임 스타일을 이식시킨 인공지능이 활동하는 게임 시스템을 제공함으로써, 게이머 부재시 상기 인공지능을 대신하여 게임하도록 할 수 있다.According to another aspect of the present invention, by providing a game system in which the artificial intelligence that implants the game style of a particular gamer is active, it is possible to play the game on behalf of the artificial intelligence in the absence of the gamer.

본 발명의 또 다른 측면에 따르면, 유명 프로게이머의 게임 스타일을 이식시킨 인공지능을 일반 게이머와 겨룰 수 있게 함으로써 보다 역동적인 게임 서비스를 제공할 수 있다.According to another aspect of the present invention, it is possible to provide a more dynamic game service by making it possible to compete with the general gamers of artificial intelligence implanted with game styles of famous pro gamers.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.The following drawings attached to this specification are illustrative of preferred embodiments of the present invention, and together with the detailed description of the invention to serve to further understand the technical spirit of the present invention, the present invention is a matter described in such drawings It should not be construed as limited to

도 1은 본 발명의 기술을 구성하는 게이머를 모델로 한 학습 모델의 개념도.1 is a conceptual diagram of a learning model based on the gamers constituting the technology of the present invention.

도 2는 본 발명의 기술을 구성하는 스타일벡터, 가중치벡터, 출력벡터 모델의 예시도.2 is an exemplary diagram of a style vector, a weight vector, and an output vector model constituting the technique of the present invention.

도 3은 본 발명의 기술을 구성하는 스타일벡터, 가중치벡터, 출력벡터 사이의 관계도.3 is a relationship diagram between a style vector, a weight vector, and an output vector constituting the technique of the present invention;

도 4는 본 발명의 기술을 구성하는 각 벡터들 간의 관계를 통한 학습 및 이식 환경의 개념을 도시한다.4 illustrates the concept of a learning and transplant environment through the relationships between the respective vectors making up the technique of the present invention.

도 5는 본 발명의 일 실시예에 따른 게임 스타일 이식시스템의 구성도.5 is a block diagram of a game style transplant system according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 가중치벡터 학습 엔진의 구성도.6 is a block diagram of a weight vector learning engine according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 스타일벡터 학습 엔진의 구성도.7 is a block diagram of a style vector learning engine according to an embodiment of the present invention.

도 8은 본 발명의 일 실시예에 따른 게임 스타일 이식방법의 순서도.8 is a flow chart of a game style transplant method according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따른 벡터 정의 및 저장단계의 순서도.9 is a flow chart of the vector definition and storage step according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 테스트 게이머 스타일벡터 설정단계의 순서도.10 is a flowchart illustrating a test gamer style vector setting step according to an embodiment of the present invention.

도 11은 본 발명의 일 실시예에 따른 가중치벡터 학습단계의 순서도.11 is a flowchart of a weight vector learning step according to an embodiment of the present invention.

도 12는 본 발명의 일 실시예에 따른 가중치벡터 생성 및 저장단계의 순서도.12 is a flow chart of the weight vector generation and storage step according to an embodiment of the present invention.

도 13은 본 발명의 일 실시예에 따른 스타일벡터 학습단계의 순서도.Figure 13 is a flow chart of the style vector learning step according to an embodiment of the present invention.

도 14는 본 발명의 일 실시예에 따른 새로운 스타일벡터 생성 및 저장단계의 순서도.14 is a flow chart of a new style vector generation and storage step according to one embodiment of the invention.

도 15는 본 발명의 일 실시예에 따른 게이머 스타일 이식단계의 순서도.15 is a flow chart of a gamer style implantation step in accordance with one embodiment of the present invention.

도 16은 본 발명에 일 실시예에 따른 스타일 이식의 결과 분석 그래프.16 is a graph of results analysis of style graft according to one embodiment of the present invention.

도 17a 및 도 17b는 다른 종류의 게임(Role Playing Game, Real Time Simulation Game)에 적용할 때 게임상태 구성요소의 예시도.17A and 17B are exemplary diagrams of game state components when applied to different types of games (Role Playing Game, Real Time Simulation Game).

Claims (21)

이식 대상 게이머의 게임 스타일을 학습하여 NPC로 이식하는 게임 스타일 이식시스템에 있어서,In the game style transplant system that learns the game style of the target gamers transplanted to the NPC, 스타일벡터, 게임상태별 가중치벡터, 출력벡터의 항목을 벡터정의DB에 저장하는 벡터 정의모듈;A vector definition module for storing items of a style vector, a weight vector for each game state, and an output vector in a vector definition DB; 복수의 테스트 게이머들이 게임을 수행한 과정을 정보화하여 게임로그DB에 저장함으로써 게임로그를 생성하는 게임로그 생성모듈;A game log generation module for generating a game log by informing a process of performing a game by a plurality of test gamers and storing the information in a game log DB; 상기 게임로그DB에 저장된 개별 테스트 게이머의 게임 스타일을 분석하고 수치화함으로써 스타일벡터DB에 저장하는 스타일벡터 수치화모듈;A style vector digitizing module for analyzing and digitizing game styles of individual test gamers stored in the game log DB and storing them in a style vector DB; 상기 게임로그DB에 저장된 테스트 게이머들의 게임출력에 의거하여 현재 가중치벡터로부터 학습된 가중치벡터를 가중치벡터DB에 저장함으로써 일반화된 게임상태별 가중치벡터를 학습하는 가중치벡터 학습모듈;A weight vector learning module for learning the weight vector for each general game state by storing the weight vector learned from the current weight vector in the weight vector DB based on the game output of the test gamers stored in the game log DB; 이식 대상 게이머의 게임로그에 의거하여 유도된 스타일벡터를 스타일벡터DB에 저장함으로써 추론화된 스타일벡터를 학습하는 개별 게이머 스타일벡터 학습모듈;An individual gamer style vector learning module for learning the inferred style vector by storing the style vector derived based on the game log of the game player to be transplanted into the style vector DB; 이식 대상 게이머에 대하여 상기 개별 게이머 스타일벡터 학습모듈이 학습한 스타일벡터와 현재 게임상태의 가중치벡터로부터 출력벡터를 예측하여 결정하는 게임출력 추론모듈; 및A game output inference module for predicting and determining an output vector from a style vector learned by the individual gamer style vector learning module and a weight vector of a current game state for a player to be transplanted; And 특정 게임 운영시스템에 종속되고, 상기 게임 운영시스템의 NPC에 특정 게이머의 게임스타일을 이식하기 위하여, 상기 게임 운영시스템으로부터 현재 게임상태를 전달받고, 상기 게임출력 추론모듈이 생성한 출력벡터와 일치하는 게임출력을 상기 게임 운영시스템으로 전달하는 게임 어댑터모듈It is dependent on a specific game operating system, receives the current game state from the game operating system, and matches the output vector generated by the game output inference module in order to port the game style of the specific gamer to the NPC of the game operating system. Game adapter module for delivering game output to the game operating system 을 포함하여 이루어지는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style transplant system of gamers through artificial intelligence learning, comprising a. 제 1 항에 있어서,The method of claim 1, 상기 벡터정의모듈은,The vector definition module, 게이머가 게임을 진행할 때의 심리적 정보, 습관, 능력을 정의하는 스타일항목을 스타일벡터로 정의하고,Style items that define psychological information, habits, and abilities when gamers play the game are defined as style vectors, 특정 게임상태마다 게이머의 스타일벡터에 의해 특정 출력벡터가 야기되는 연관성 관계를 나타내는 가중치로 구성된 가중치벡터를 정의하고,For each particular game state, define a weight vector consisting of weights that represent the associations caused by the output vector by the player's style vector, 게이머가 특정 게임상황에서 입력장치의 조작을 통해 게임 행동으로 출력할 수 있는 게임출력 항목을 출력벡터로 정의함으로써,By defining game output items as output vectors that gamers can output as game actions through manipulation of input devices in certain game situations, 특정 게임의 종류와 독립적으로 다양한 게임에 적용할 수 있는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style porting system of gamers through artificial intelligence learning, which can be applied to various games independently of a specific game type. 제 1 항 또는 제 2 항에 있어서,The method according to claim 1 or 2, 상기 게임상태는,The game state is, 게임이 진행되는 상황을 정의하는 상태구성요소와 상기 상태구성요소 단위당 부여된 분할개수에 따라 전체 게임상태의 개수가 정해짐으로써,The total number of game states is determined according to the state components defining the progress of the game and the number of divisions given per unit of the state components. 상기 상태구성요소 및 상기 분할개수가 많아질수록 세분화된 게임상태를 형성하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style transplantation system of the gamers through the artificial intelligence learning, characterized in that the more the number of the state component and the number of partitions to form a detailed game state. 제 1 항에 있어서,The method of claim 1, 상기 스타일벡터 수치화모듈은,The style vector digitization module, 테스트 게이머들을 대상으로 설문조사를 하고, 설문조사 결과를 SOFM 기법을 통해 클러스터링하여 스타일벡터로 수치화하는 설문조사 수치화모듈; 및A survey digitizing module for surveying test gamers and digitizing the survey results through a SOFM technique into a style vector; And 상기 게임로그DB에 저장된 게임로그를 분석하여 게임 스타일항목별로 스타일벡터를 수치화하는 게임로그 수치화모듈Game log digitization module for digitizing the style vector for each game style item by analyzing the game log stored in the game log DB 중에서 어느 하나를 선택하여 각 테스트 게이머별로 수치화된 데이터를 상기 스타일벡터DB에 저장하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style transplantation system of the gamers through artificial intelligence learning, characterized in that by selecting any one of the test data stored in each of the gamer digitized in the style vector DB. 제 1 항에 있어서,The method of claim 1, 상기 가중치벡터 학습모듈은,The weight vector learning module, 상태 구성요소별 분할개수에 의해 정의되는 게임상태와 매칭되는 게임상태 식별코드가 수록되어 있는 게임상태정의DB;A game state definition DB containing a game state identification code matching the game state defined by the number of divisions by state component; 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임상태에 해당하는 게임상태 식별코드를 상기 게임상태정의DB로부터 획득해내는 게임상태 획득모듈;A game state acquisition module for obtaining a game state identification code corresponding to a game state of a test gamer read from the game log DB from the game state definition DB; 특정 게임상태에서 사용자의 입력조작에 의한 게임출력과 매칭되는 게임출력 식별코드가 수록되어 있는 게임출력정의DB;A game output definition DB that contains a game output identification code that matches a game output by a user's input operation in a specific game state; 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임출력에 해당하는 게임출력 식별코드를 상기 게임출력정의DB로부터 획득해내는 게임출력 획득모듈;A game output acquisition module for obtaining a game output identification code corresponding to a game output of a test gamer read from the game log DB from the game output definition DB; 상기 스타일벡터 수치화모듈이 분석한 개인별 테스트 게이머의 스타일벡터를 저장하는 스타일벡터DB;A style vector DB for storing a style vector of the individual test gamers analyzed by the style vector digitizing module; 상기 스타일벡터DB로부터 스타일벡터를 획득해내는 스타일벡터 획득모듈;A style vector acquisition module for obtaining a style vector from the style vector DB; 특정 게임상태별로 상기 스타일벡터를 출력벡터로 매핑시키는 게임상태별 가중치벡터를 저장하는 가중치벡터DB; 및A weight vector DB for storing a weight vector for each game state for mapping the style vector to an output vector for each specific game state; And 상기 게임상태 획득모듈이 얻은 게임상태에 해당하는 현재 가중치벡터를 상기 가중치벡터DB로부터 얻어내고, 상기 현재 가중치벡터와 상기 스타일벡터 획득모듈이 획득한 상기 스타일벡터를 연산을 통해 새로운 가중치벡터로 생성하여 다시 상기 가중치벡터DB에 저장하여 학습을 반복하는 가중치 연산처리모듈Obtaining a current weight vector corresponding to the game state obtained by the game state obtaining module from the weight vector DB, and generating the new weight vector through operation by calculating the current weight vector and the style vector acquired by the style vector obtaining module; Weight calculation processing module for repeating the learning by storing in the weight vector DB again 을 포함하여 이루어지고,It is made, including 상기 게임로그DB로부터 읽어들인 테스트 게이머들의 게임정보에 의거하여 상기 가중치 연산처리모듈의 연산을 통해 가중치벡터를 반복적으로 학습하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.The game style transplantation system of the gamers through artificial intelligence learning, characterized in that the weight vector is repeatedly learned through the calculation of the weight calculation module based on the game information of the test gamers read from the game log DB. 제 5 항에 있어서,The method of claim 5, 상기 가중치 연산처리모듈은,The weight calculation processing module, 상기 스타일벡터 획득모듈이 획득한 스타일벡터;A style vector obtained by the style vector obtaining module; 상기 게임상태 획득모듈이 얻은 게임상태에 대하여 상기 가중치벡터DB로부터 얻어낸 현재 가중치벡터; 및A current weight vector obtained from the weight vector DB with respect to a game state obtained by the game state obtaining module; And 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임상태에 따른 게임출력으로부터 얻어낸 출력벡터Output vector obtained from the game output according to the game state of the test gamer read from the game log DB 로부터 새로운 가중치벡터를 생성하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style transplantation system of gamers through AI learning, characterized in that generating a new weight vector from. 제 1 항에 있어서,The method of claim 1, 상기 개별 게이머 스타일벡터 학습모듈은,The individual gamer style vector learning module, 상태 구성요소별 분할개수에 의해 정의되는 게임상태와 매칭되는 게임상태 식별코드가 수록되어 있는 게임상태정의DB;A game state definition DB containing a game state identification code matching the game state defined by the number of divisions by state component; 상기 게임로그DB로부터 읽어들인 이식 대상 게이머의 게임상태에 해당하는 게임상태 식별코드를 상기 게임상태정의DB로부터 획득해내는 게임상태 획득모듈;A game state acquisition module for acquiring a game state identification code corresponding to a game state of a game player to be transplanted read from the game log DB from the game state definition DB; 특정 게임상태에서 사용자의 입력조작에 의한 게임출력과 매칭되는 게임출력 식별코드가 수록되어 있는 게임출력정의DB;A game output definition DB that contains a game output identification code that matches a game output by a user's input operation in a specific game state; 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임출력에 해당하는 게임출력 식별코드를 상기 게임출력정의DB로부터 획득해내는 게임출력 획득모듈;A game output acquisition module for obtaining a game output identification code corresponding to a game output of a test gamer read from the game log DB from the game output definition DB; 이식 대상 게이머의 스타일벡터를 저장하는 스타일벡터DB;A style vector DB for storing a style vector of the game player to be transplanted; 상기 스타일벡터DB로부터 현재 스타일벡터를 획득해내는 스타일벡터 획득모듈;A style vector acquisition module for obtaining a current style vector from the style vector DB; 특정 게임상태별로 상기 스타일벡터를 출력벡터로 매핑시키는 게임상태별 가중치벡터를 저장하는 가중치벡터DB; 및A weight vector DB for storing a weight vector for each game state for mapping the style vector to an output vector for each specific game state; And 상기 게임상태 획득모듈이 얻은 게임상태에 해당하는 가중치벡터를 상기 가중치벡터DB로부터 얻어내고, 상기 가중치벡터와 상기 스타일벡터 획득모듈이 획득한 이식 대상 게이머의 상기 현재 스타일벡터를 연산을 통해 새로운 스타일벡터로 생성하여 다시 상기 스타일벡터DB에 저장하여 학습을 반복하는 스타일 연산처리모듈Obtain a weight vector corresponding to the game state obtained by the game state obtaining module from the weight vector DB, and calculate a new style vector by calculating the weight vector and the current style vector of the transplanted gamers acquired by the style vector obtaining module. Style calculation module for repeating the learning by generating and storing in the style vector DB again 을 포함하여 이루어지고,It is made, including 상기 게임로그DB로부터 읽어들인 이식 대상 게이머의 게임정보에 의거하여 상기 스타일 연산처리모듈의 연산을 통해 스타일벡터를 반복적으로 수행하고, 패턴화된 상기 가중치벡터값으로부터 역으로 이식 대상 게이머의 스타일벡터값을 수렴시킴으로써 학습하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Based on the game information of the game player to be transplanted read from the game log DB, the style vector is repeatedly performed through the calculation of the style operation processing module, and the style vector value of the game player to be transplanted is reversed from the patterned weight vector value. Game style transplantation system of gamers through artificial intelligence learning, characterized in that learning by converging. 제 1 항에 있어서,The method of claim 1, 상기 개별 게이머 스타일벡터 학습모듈은,The individual gamer style vector learning module, 상기 스타일벡터 수치화모듈이 포함하는 게임로그 수치화모듈에 의하여, 이식 대상 게이머의 게임로그를 분석하여 게임 스타일항목별로 스타일벡터를 수치화하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style porting system of the gamers through the artificial intelligence learning, characterized in that by analyzing the game log of the game object to be transplanted by the game log number module included in the style vector numerical module to quantize the style vector for each game style item. 제 7 항 또는 제 8 항에 있어서,The method according to claim 7 or 8, 상기 개별 게이머 스타일벡터 학습모듈은,The individual gamer style vector learning module, 실시간으로 이식 대상의 게이머가 진행하는 게임로그를 생성하여 상기 이식 대상 게이머의 게임 스타일벡터를 실시간 학습시키는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style transplantation system of the gamers through artificial intelligence learning, characterized in that to generate a game log progressed by the gamers of the transplant target in real time to learn the game style vector of the transplant target gamers in real time. 제 7 항에 있어서,The method of claim 7, wherein 상기 스타일 연산처리모듈은,The style operation processing module, 상기 스타일벡터 획득모듈이 획득한 스타일벡터;A style vector obtained by the style vector obtaining module; 상기 가중치벡터 학습모듈이 테스트 게이머들로부터 학습한 가중치벡터; 및A weight vector learned from test gamers by the weight vector learning module; And 상기 게임로그DB로부터 읽어들인 테스트 게이머의 게임상태에 따른 게임출력으로부터 얻어낸 출력벡터Output vector obtained from the game output according to the game state of the test gamer read from the game log DB 로부터 새로운 가중치벡터를 생성하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.Game style transplantation system of gamers through AI learning, characterized in that generating a new weight vector from. 제 6 항 또는 제 10 항에 있어서,The method of claim 6 or 10, 학습의 속도와 결과에 영향을 미치고자 지수적으로 감소하는 함수에 의해 구해지는 학습계수를 통해 새롭게 학습된 벡터값을 구하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식시스템.A game style transplantation system for gamers through artificial intelligence learning, which obtains a newly learned vector value through a learning coefficient obtained by an exponentially decreasing function to influence the speed and result of learning. 이식 대상 게이머의 게임 스타일을 학습하여 NPC로 이식하는 게임 스타일 이식방법에 있어서,In the game style porting method of learning the game style of the target gamers transplanted to the NPC, (1)스타일벡터, 게임상태별 가중치벡터, 출력벡터의 항목을 정의하여 벡터정의DB에 저장하는 단계;(1) defining items of a style vector, a weight vector for each game state, and an output vector and storing the items in a vector definition DB; (2)복수의 테스트 게이머들이 게임을 반복적으로 수행한 과정을 정보화하여 게임로그DB에 저장함으로써 게임로그를 생성하는 단계;(2) generating a game log by storing information in a game log DB of a plurality of test gamers repeatedly performing a game; (3)상기 게임로그DB에 저장된 개별 테스트 게이머의 게임 스타일을 분석하고 수치화함으로써 스타일벡터DB에 저장하는 단계;(3) analyzing and quantifying the game styles of the individual test gamers stored in the game log DB and storing them in the style vector DB; (4)복수의 테스트 게이머들의 스타일벡터에 의하여 특정 게임상태에서 특정 출력벡터를 야기하는 가중치벡터를 학습하는 단계;(4) learning a weight vector causing a specific output vector in a specific game state by style vectors of a plurality of test gamers; (5)이식 대상 게이머의 게임로그로부터 상기 게이머가 입력조작한 게임출력에 따라 상기 게이머의 스타일벡터를 학습하는 단계; 및(5) learning a style vector of the gamer according to a game output inputted by the gamer from the game log of the game player to be transplanted; And (6)게임 운영시스템으로부터 게임상태를 전달받고, 이식 대상 게이머의 학습된 스타일벡터에 의거하여 출력벡터를 추론하여 결정하고, 상기 출력벡터에 대응하는 출력값을 게임 운영시스템으로 전달하여 특정 게이머의 게임 스타일을 NPC에 이식하는 단계(6) Receive the game state from the game operating system, infer the output vector based on the learned style vector of the gamer to be transplanted, determine the output vector, and deliver the output value corresponding to the output vector to the game operating system game of the specific gamers Steps to port styles to NPC 를 포함하여 이루어지는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.Game style transplantation method of the gamers through the AI learning, characterized in that comprises a. 제 12 항에 있어서,The method of claim 12, 상기 단계(1)는,Step (1), (1-1)게이머가 게임을 진행할 때의 심리적 정보, 습관, 능력을 정의하는 스타일항목을 스타일벡터로 정의하는 단계;(1-1) defining style items that define psychological information, habits, and abilities as gamers play the game as style vectors; (1-2)특정 게임상태마다 게이머의 스타일벡터에 의해 특정 출력벡터가 야기되는 연관성 관계를 나타내는 가중치로 구성된 가중치벡터를 정의하는 단계; 및(1-2) defining a weight vector composed of weights representing association relations in which a specific output vector is caused by a gamer's style vector for each specific game state; And (1-3)게이머가 특정 게임상황에서 입력장치의 조작을 통해 게임 행동으로 출력할 수 있는 게임출력 항목을 출력벡터로 정의하는 단계(1-3) The step of defining a game output item as an output vector that the gamer can output as a game action through manipulation of the input device in a specific game situation. 를 포함하여 이루어져,Consisting of, 특정 게임의 종류와 독립적으로 다양한 게임에 적용할 수 있는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.Game style porting method of gamers through AI learning, characterized in that it can be applied to a variety of games independently of a specific game type. 제 12 항에 있어서,The method of claim 12, 상기 단계(2)는,Step (2) is, 게이머의 아이디, 게임시간, 게이머의 게임상태정보, 게이머의 입력조작에 따른 게임출력정보를 포함하는 게임로그를 상기 게임로그DB에 저장하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.Game style porting method of gamers through artificial intelligence learning, characterized in that the game log including the game user ID, game time, game state information of the gamers, game output information according to the input operation of the gamers in the game log DB . 제 12 항에 있어서,The method of claim 12, 상기 단계(3)는,Step (3), (3-1)테스트 게이머들을 대상으로 설문조사를 하고, 설문조사 결과를 SOFM 기법을 통해 클러스터링하여 스타일벡터로 수치화하는 단계; 및(3-1) surveying the test gamers, and clustering the survey results through a SOFM technique to digitize the styles into style vectors; And (3-2)상기 게임로그DB에 저장된 게임로그를 분석하여 게임 스타일항목별로 스타일벡터를 수치화하는 단계(3-2) analyzing the game log stored in the game log DB to digitize the style vector for each game style item; 중에서 어느 하나의 단계를 선택하여 각 테스트 게이머별로 수치화된 스타일벡터를 상기 스타일벡터DB에 저장하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.The game style transplantation method of the gamers through artificial intelligence learning, characterized in that by selecting any one of the steps to store the quantized style vector for each test gamer in the style vector DB. 제 12 항에 있어서,The method of claim 12, 상기 단계(4)는,The step (4), (4-1)학습 환경 변수에 초기값을 설정하는 단계;(4-1) setting an initial value to a learning environment variable; (4-2)가중치벡터DB에 임의의 초기값을 설정하는 단계;(4-2) setting an arbitrary initial value in the weight vector DB; (4-3)게임로그DB로부터 테스트 게이머의 게임로그정보를 읽어들이는 단계;(4-3) reading game log information of a test gamer from the game log DB; (4-4)상기 게임로그정보로부터 게임상태를 획득하는 단계;(4-4) obtaining a game state from the game log information; (4-5)상기 게임상태에 따른 현재 가중치벡터를 상기 가중치벡터DB로부터 읽어들이는 단계;(4-5) reading the current weight vector according to the game state from the weight vector DB; (4-6)상기 단계(3)에서 구축한 상기 게이머스타일DB로부터 상기 게이머의 스타일벡터를 읽어들이는 단계; 및(4-6) reading the style vector of the gamer from the gamer style DB constructed in the step (3); And (4-7)상기 단계(4-5)의 현재 가중치벡터와 단계(4-6)의 스타일벡터로부터 연산을 통해 새로운 가중치벡터를 생성하여 다시 상기 가중치벡터DB에 저장하여 학습하는 단계(4-7) generating a new weight vector through operation from the current weight vector of the step (4-5) and the style vector of the step (4-6) and storing the new weight vector again in the weight vector DB for learning 를 포함하여 이루어져,Consisting of, 상기 게임로그DB로부터 읽어들인 테스트 게이머들의 게임정보에 의거하여 연산을 통해 상기 가중치벡터를 반복적으로 학습하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.Game style porting method of the gamers through the artificial intelligence learning, characterized in that for learning the weight vector repeatedly through the operation based on the game information of the test gamers read from the game log DB. 제 16 항에 있어서,The method of claim 16, 상기 단계(4-7)는,Step (4-7), (4-7-1)상기 게임로그DB로부터 게이머의 게임출력과 일치하는 출력벡터를 획득하는 단계;(4-7-1) obtaining an output vector corresponding to the game output of the gamer from the game log DB; (4-7-2)상기 단계(4-7-1)의 출력벡터와 현재 추론한 출력벡터와의 차이를 구하는 단계;(4-7-2) obtaining a difference between the output vector of the step 4-7-1 and the output vector currently inferred; (4-7-3)상기 단계(4-7-2)에서 구한 차이에 게이머의 스타일벡터를 곱함으로써 새로운 학습값을 구하는 단계(4-7-3) A step of obtaining a new learning value by multiplying the difference vector obtained in the step (4-7-2) by the gamer's style vector 를 포함하여 이루어지는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.Game style transplantation method of the gamers through the AI learning, characterized in that comprises a. 제 12 항에 있어서,The method of claim 12, 상기 단계(5)는,The step (5), (5-1)학습 환경 변수에 초기값을 설정하는 단계;(5-1) setting an initial value to a learning environment variable; (5-2)스타일벡터DB에 이식 대상 게이머의 게임 스타일벡터를 초기값으로 설정하는 단계;(5-2) setting the game style vector of the gamer to be transplanted to the style vector DB as an initial value; (5-3)게임로그DB로부터 테스트 게이머의 게임로그정보를 읽어들이는 단계;(5-3) reading game log information of a test gamer from the game log DB; (5-4)상기 게임로그정보로부터 게임상태를 획득하는 단계;(5-4) obtaining a game state from the game log information; (5-5)상기 게임상태에 따른 가중치벡터를 상기 가중치벡터DB로부터 읽어들이는 단계;(5-5) reading the weight vector according to the game state from the weight vector DB; (5-6)상기 단계(5-2)에서 구축한 상기 게이머스타일DB로부터 상기 게이머의 현재 스타일벡터를 읽어들이는 단계; 및(5-6) reading the current style vector of the gamer from the gamer style DB constructed in the step (5-2); And (5-7)상기 단계(5-5)의 가중치벡터와 단계(5-6)의 현재 스타일벡터로부터 연산을 통해 새로운 스타일벡터를 생성하여 다시 상기 스타일벡터DB에 저장하여 학습하는 단계(5-7) generating a new style vector through operation from the weight vector of step (5-5) and the current style vector of step (5-6), and storing the new style vector again in the style vector DB for learning 를 포함하여 이루어져,Consisting of, 상기 게임로그DB로부터 읽어들인 이식 대상 게이머의 게임정보에 의거하여 연산을 통해 상기 스타일벡터를 반복적으로 학습하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.Game style transplantation method of the gamers through artificial intelligence learning, it characterized in that the learning of the style vector repeatedly through the operation based on the game information of the target gamers to be read from the game log DB. 제 18 항에 있어서,The method of claim 18, 상기 단계(5-7)는,Step (5-7), (5-7-1)상기 게임로그DB로부터 게이머의 게임출력과 일치하는 출력벡터를 획득하는 단계;(5-7-1) obtaining an output vector corresponding to the game output of the gamer from the game log DB; (5-7-2)상기 단계(5-7-1)의 출력벡터와 현재 추론한 출력벡터와의 차이를 구하는 단계;(5-7-2) obtaining a difference between the output vector of the step 5-7-1 and the output vector currently inferred; (5-7-3)상기 단계(5-7-2)에서 구한 차이에 일반화된 가중치벡터를 곱함으로써 새로운 학습값을 구하는 단계(5-7-3) A step of obtaining a new learning value by multiplying the generalized weight vector by the difference obtained in the step (5-7-2) 를 포함하여 이루어져 상기 스타일벡터를 반복적으로 학습하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.Game style transplantation method of the gamers through the artificial intelligence learning, characterized in that it comprises a repetitive learning the style vector. 제 16 항 또는 제 18 항에 있어서,The method of claim 16 or 18, 상기 학습 환경 변수는,The learning environment variable, 학습의 속도와 결과에 영향을 미치고자 지수적으로 감소하는 함수에 의하여 학습계수로 구해지고, 상기 게임로그DB의 모든 로그를 통해 한 번의 학습이 이루어질 때마다 상기 학습계수를 조정하여 재학습이 이루어지도록 하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.The learning coefficient is obtained by a function that exponentially decreases to affect the speed and the result of learning, and the learning coefficient is adjusted by re-learning after each learning is performed through all the logs of the game log DB. Game style porting method of gamers through artificial intelligence learning, characterized in that to make. 제 12 항에 있어서,The method of claim 12, 상기 단계(6)는,The step (6), (6-1)게임 운영시스템에서의 NPC가 처한 게임상태를 전달받는 단계;(6-1) receiving a game state of the NPC in the game operating system; (6-2)상기 단계(5)에서 학습한 이식 대상 게이머의 스타일벡터를 상기 스타일벡터DB로부터 읽어들이는 단계;(6-2) reading the style vector of the player to be transplanted learned in the step (5) from the style vector DB; (6-3)상기 단계(4)에서 학습한 가중치벡터DB로부터 상기 단계(6-1)의 게임상태에 따른 가중치벡터를 읽어들이는 단계;(6-3) reading the weight vector according to the game state of step (6-1) from the weight vector DB learned in step (4); (6-4)상기 단계(6-2)의 스타일벡터와 상기 단계(6-3)의 가중치벡터를 연산하여 출력벡터를 생성하는 단계; 및(6-4) generating an output vector by computing the style vector of step 6-2 and the weight vector of step 6-3; And (6-5)상기 출력벡터 중에서 제일 높은값에 해당하는 벡터값에 대응하는 게임출력을 상기 게임 운영시스템으로 전달하는 단계(6-5) transmitting a game output corresponding to a vector value corresponding to the highest value among the output vectors to the game operating system 를 포함하여 이루어져, 이식 대상 게이머의 스타일을 학습한 상기 스타일벡터와 테스트 게이머들의 게임로그로부터 학습한 가중치벡터와의 연산을 통해 출력을 예측하여 상기 게임 운영시스템으로 전달하여 NPC에 이식하는 것을 특징으로 하는 인공지능 학습을 통한 게이머의 게임 스타일 이식방법.It comprises a, and predicts the output through the calculation of the weight vector learned from the game log of the test gamers and the style vector learning the style of the target gamers to transfer to the game operating system characterized in that the transplant to the NPC Game style porting method of gamers through artificial intelligence learning.
KR1020040027918A 2004-03-31 2004-04-22 Gamer's game style transplanting system and its processing method by artificial intelligence learning KR100621559B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20040022382 2004-03-31
KR1020040022382 2004-03-31

Publications (2)

Publication Number Publication Date
KR20050096791A true KR20050096791A (en) 2005-10-06
KR100621559B1 KR100621559B1 (en) 2006-09-18

Family

ID=37276801

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040027918A KR100621559B1 (en) 2004-03-31 2004-04-22 Gamer's game style transplanting system and its processing method by artificial intelligence learning

Country Status (1)

Country Link
KR (1) KR100621559B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101108987B1 (en) * 2009-03-05 2012-01-31 한국전자통신연구원 Apparatus and method for studying pattern of game character by using separation of space
US8348733B2 (en) 2009-12-21 2013-01-08 Electronics And Telecommunications Research Institute Apparatus and method for analyzing characteristic of game player in real time
KR20200006792A (en) 2018-07-11 2020-01-21 한림대학교 산학협력단 An apparatus for porting a recognizer to another apparatus, a method therefor, and computer recordable medium storing program to perform the method
KR20210032141A (en) * 2019-09-16 2021-03-24 넷마블 주식회사 Method and apparatus for adjusting game balance using artificial intelligence
KR20210034352A (en) * 2019-09-20 2021-03-30 넷마블 주식회사 Method to provide waging game
KR20220022384A (en) * 2020-08-18 2022-02-25 여의(주) An Artificial Intelligence Type of a Game System for Improving a Brain Cognitive Skill

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8069124B2 (en) * 2008-03-26 2011-11-29 Intel Corporation Combining speculative physics modeling with goal-based artificial intelligence
KR102649304B1 (en) 2019-12-31 2024-03-19 한국전자통신연구원 Method and apparatus for generating style of match-up game agent, and game system using the same
KR102579203B1 (en) 2019-12-31 2023-09-15 한국전자통신연구원 Apparatus and method for predicting game result

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010001072A (en) * 1999-06-01 2001-01-05 부원영 A Football Game on Online Network
JP2002269589A (en) 2001-03-12 2002-09-20 Zero Staff:Kk On-demand 'my clone' system
KR20030021762A (en) * 2001-09-07 2003-03-15 (주)오디티디 The game providing method by using internet
KR20030040739A (en) * 2001-11-15 2003-05-23 주식회사 훈 넷 System of Internet Game Using Virtual Gamer And Method Thereof
KR20050082860A (en) * 2004-02-20 2005-08-24 주식회사 배틀겜 Character growing system using gene algorithm and inverse kinematics animation and method for growing the character using the same
KR20050085457A (en) * 2005-06-09 2005-08-29 노키아 코포레이션 Method and device for continuing an electronic multi-player game, in case of an absence of a player of said game

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101108987B1 (en) * 2009-03-05 2012-01-31 한국전자통신연구원 Apparatus and method for studying pattern of game character by using separation of space
US8348733B2 (en) 2009-12-21 2013-01-08 Electronics And Telecommunications Research Institute Apparatus and method for analyzing characteristic of game player in real time
KR20200006792A (en) 2018-07-11 2020-01-21 한림대학교 산학협력단 An apparatus for porting a recognizer to another apparatus, a method therefor, and computer recordable medium storing program to perform the method
KR20210032141A (en) * 2019-09-16 2021-03-24 넷마블 주식회사 Method and apparatus for adjusting game balance using artificial intelligence
KR20210034352A (en) * 2019-09-20 2021-03-30 넷마블 주식회사 Method to provide waging game
KR20220022384A (en) * 2020-08-18 2022-02-25 여의(주) An Artificial Intelligence Type of a Game System for Improving a Brain Cognitive Skill

Also Published As

Publication number Publication date
KR100621559B1 (en) 2006-09-18

Similar Documents

Publication Publication Date Title
Torrado et al. Deep reinforcement learning for general video game ai
Świechowski et al. Improving hearthstone ai by combining mcts and supervised learning algorithms
CN111282267B (en) Information processing method, information processing apparatus, information processing medium, and electronic device
CN111111204B (en) Interactive model training method and device, computer equipment and storage medium
KR100621559B1 (en) Gamer&#39;s game style transplanting system and its processing method by artificial intelligence learning
Nam et al. Generation of diverse stages in turn-based role-playing game using reinforcement learning
Perez-Liebana et al. Generating diverse and competitive play-styles for strategy games
CN116090549A (en) Knowledge-driven multi-agent reinforcement learning decision-making method, system and storage medium
Dockhorn et al. A decision heuristic for Monte Carlo tree search doppelkopf agents
CN114404976B (en) Training method and device for decision model, computer equipment and storage medium
Nakashima et al. Performance evaluation of an evolutionary method for robocup soccer strategies
Zhou et al. AI Coach for Battle Royale Games
KR100850913B1 (en) method for configuring game character
Chia et al. Designing card game strategies with genetic programming and monte-carlo tree search: A case study of hearthstone
Mora et al. Creating autonomous agents for playing Super Mario Bros game by means of evolutionary finite state machines
KR20030072640A (en) Game system and method in which cyber clone acts
Ehlert Improving input prediction in online fighting games
Fangasadha et al. Literature Review of OpenAI Five’s Mechanisms in Dota 2’s Bot Player
Bangay et al. Generating an attribute space for analyzing balance in single unit RTS game combat
Khan et al. Using VizDoom Research Platform Scenarios for Benchmarking Reinforcement Learning Algorithms in First-Person Shooter Games
CN117883788B (en) Intelligent body training method, game fight method and device and electronic equipment
Kantharaju et al. μCCG, a CCG-based Game-Playing Agent for μRTS
Reis et al. Automatic Difficulty Balance in Two-Player Games with Deep Reinforcement Learning
Vaccaro et al. Planning an endgame move set for the game RISK: a comparison of search algorithms
CN117648585B (en) Intelligent decision model generalization method and device based on task similarity

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee