KR20190054993A - Learning apparatus based on game data and method for the same - Google Patents

Learning apparatus based on game data and method for the same Download PDF

Info

Publication number
KR20190054993A
KR20190054993A KR1020180139323A KR20180139323A KR20190054993A KR 20190054993 A KR20190054993 A KR 20190054993A KR 1020180139323 A KR1020180139323 A KR 1020180139323A KR 20180139323 A KR20180139323 A KR 20180139323A KR 20190054993 A KR20190054993 A KR 20190054993A
Authority
KR
South Korea
Prior art keywords
learning
game data
image
data
environment
Prior art date
Application number
KR1020180139323A
Other languages
Korean (ko)
Other versions
KR102291041B1 (en
Inventor
황중원
배유석
윤영석
이영완
조영주
박종열
배승환
정영식
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20190054993A publication Critical patent/KR20190054993A/en
Application granted granted Critical
Publication of KR102291041B1 publication Critical patent/KR102291041B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a learning apparatus based on game data and a method thereof. According to one embodiment of the present invention, the learning apparatus based on game data may comprise: a game data-based image information generating unit constituting a three-dimensional object included in the game data, controlling an environment in which the three-dimensional object is configured, and generating image information including an image photographing the three-dimensional object and environment information indicating an environment in which the three-dimensional object is configured; and a learning processing unit constructing a learning model based on the game data by using the image information provided by the image information generating unit.

Description

게임 데이터 기반의 학습 장치 및 방법{LEARNING APPARATUS BASED ON GAME DATA AND METHOD FOR THE SAME}TECHNICAL FIELD [0001] The present invention relates to a learning apparatus based on game data,

본 개시는 기계학습 기술에 관한 것이며, 보다 구체적으로는 기계학습에 사용되는 데이터의 증강 및 이를 이용한 학습하는 방법 및 장치에 대한 것이다.This disclosure relates to machine learning techniques, and more particularly to methods and apparatus for enhancing data used in machine learning and learning using the same.

기계학습은 데이터로부터 보편적인 지식을 습득하여, 학습시 사용하지 않는 데이터를 그 지식에 기반하여 분류할 수 있는 기술이다. Machine learning is a technique that learns universal knowledge from data and classifies data that is not used in learning based on that knowledge.

최근, 기계학습 기술에서 심층 신경망(deep neural network) 구조에 기반한 기계학습 기술이 다양하게 연구되고 있다. 일반적으로, 심층 신경망은 입력층(input layer)과 출력층(output layer) 사이에 다중의 은닉층(hidden layer)을 포함하는 인공 신경망(ANN: Artificial Neural Network) 구조로 이루어진다. 이러한, 심층 신경망은 다중의 은닉층을 포함하여 다양한 비선형적 관계를 학습할 수 있으므로, 큰 학습 가능성을 내재적인 특성으로 지니고 있어, 빅데이터 시대에 효과적인 방식으로 각광받고 있다.Recently, machine learning technology based on deep neural network structure has been studied variously in machine learning technology. Generally, a deep neural network is composed of an artificial neural network (ANN) structure including multiple hidden layers between an input layer and an output layer. Since such a neural network can learn various nonlinear relations including multiple hidden layers, it has a great learning potential as an inherent characteristic, and is attracting attention as an effective method in the big data era.

그러나, 큰 학습 가능성이 지닌 시스템을 잘 학습시키기 위해서는 학습데이터가 대량으로 필요하게 된다. 기계 학습에서 일반적으로 가장 높은 성능을 보이는 교사 학습(supervised learning) 방식은 학습 시 레이블드 데이터(labeled data)를 필요로 하는데, 빅데이터 시대에도 대량의 레이블드 데이터를 얻는 것은 쉽지 않고 비용이 많이 든다. 또한, 이렇게 학습 데이터로 사용되는 레이블드 데이터 수가 많지 않을 경우 과적합(overfitting) 현상이 발생되는 문제가 있다. However, large amounts of learning data are required to learn well the systems with large learning potential. Supervised learning methods, which generally show the highest performance in machine learning, require labeled data during learning, and it is not easy and costly to obtain a large amount of labeled data even in the age of big data . In addition, there is a problem that overfitting occurs when the number of labeled data used as learning data is not large.

본 개시의 기술적 과제는 심층 신경망 구조에 기반한 기계학습을 안정적으로 수행할 수 있도록, 대용량 데이터를 증강하는 게임 데이터 기반의 학습 장치 및 방법을 제공하는데 있다.It is an object of the present invention to provide a game data base learning apparatus and method for enhancing a large amount of data so as to stably perform machine learning based on a deep neural network structure.

본 개시의 다른 기술적 과제는 심층 신경망 구조에 기반한 기계학습에 사용될 대용량 데이터를 빠르고 효율적으로 증강할 수 있는 게임 데이터 기반의 학습 장치 및 방법을 제공하는데 있다.It is another object of the present invention to provide a game data-based learning apparatus and method capable of quickly and efficiently enhancing large-capacity data to be used for machine learning based on a neural network structure.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시의 일 양상에 따르면 게임 데이터 기반의 학습 장치가 제공될 수 있다. 상기 장치는 게임 데이터에 포함된 3D 객체를 구성하고, 상기 3D 객체가 구성된 환경을 제어하고, 상기 3D 객체를 촬영한 이미지 및 상기 3D 객체가 구성된 환경을 지시하는 환경정보를 포함하는 이미지 정보를 생성하는 게임 데이터 기반의 이미지 정보 생성부와, 상기 이미지 정보 생성부가 제공하는 상기 이미지 정보를 사용하여 게임 데이터 기반의 학습 모델을 구축하는 학습 처리부를 포함할 수 있다.According to an aspect of the present disclosure, a learning apparatus based on game data can be provided. The apparatus comprises a 3D object included in the game data, controls an environment in which the 3D object is configured, generates image information including environment information indicating an environment in which the 3D object is photographed and the environment in which the 3D object is configured And a learning processing unit for building a learning model based on game data using the image information provided by the image information generating unit.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above for this disclosure are only exemplary aspects of the detailed description of the disclosure which follow, and are not intended to limit the scope of the disclosure.

본 개시에 따르면, 심층 신경망 구조에 기반한 기계학습을 안정적으로 수행할 수 있도록, 대용량 데이터를 증강하는 게임 데이터 기반의 학습 장치 및 방법이 제공될 수 있다.According to the present disclosure, a game data-based learning apparatus and method for enhancing a large amount of data can be provided so as to stably perform machine learning based on a depth-of-field neural network structure.

본 개시에 따르면, 심층 신경망 구조에 기반한 기계학습에 사용될 대용량 데이터를 빠르고 효율적으로 증강할 수 있는 게임 데이터 기반의 학습 장치 및 방법이 제공될 수 있다.According to the present disclosure, a game data-based learning apparatus and method capable of quickly and efficiently enhancing large-capacity data to be used for machine learning based on a deep-layer neural network structure can be provided.

본 개시에 따르면, 게임 데이터를 사용하여 심층 신경망 구조에 기반한 기계학습에 사용될 대용량 데이터를 효율적으로 증강할 수 있는 게임 데이터 기반의 학습 장치 및 방법이 제공될 수 있다.According to the present disclosure, a game data-based learning apparatus and method capable of efficiently enhancing large-capacity data to be used for machine learning based on a deep-layer neural network structure using game data can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1은 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 장치의 구성을 도시하는 블록도이다.
도 2는 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 장치에 구비된 학습 처리부의 상세 구성을 도시하는 블록도이다.
도 3은 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 장치에 구비된 특징 추출부 및 전환부의 동작을 예시하는 도면이다.
도 4는 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 장치에 구비된 분류부의 동작을 예시하는 도면이다.
도 5는 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 방법의 순서를 도시하는 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 방법 및 장치를 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
1 is a block diagram showing a configuration of a game data-based learning apparatus according to an embodiment of the present disclosure.
2 is a block diagram showing a detailed configuration of a learning processing unit provided in a game data-based learning apparatus according to an embodiment of the present disclosure;
FIG. 3 is a diagram illustrating operations of a feature extraction unit and a switching unit included in a game data-based learning apparatus according to an embodiment of the present disclosure.
4 is a diagram illustrating operations of a classifier provided in a game data-based learning apparatus according to an embodiment of the present disclosure.
5 is a flowchart showing a procedure of a game data-based learning method according to an embodiment of the present disclosure.
6 is a block diagram illustrating a computing system for executing a game data based learning method and apparatus in accordance with an embodiment of the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, which will be easily understood by those skilled in the art. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. Parts not related to the description of the present disclosure in the drawings are omitted, and like parts are denoted by similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when an element is referred to as being "connected", "coupled", or "connected" to another element, it is understood that not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising " or " having " another element, it is meant to include not only excluding another element but also another element .

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly illustrate each feature and do not necessarily mean that components are separate. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Thus, unless otherwise noted, such integrated or distributed embodiments are also included within the scope of this disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Thus, embodiments consisting of a subset of the components described in one embodiment are also included within the scope of the present disclosure. Also, embodiments that include other elements in addition to the elements described in the various embodiments are also included in the scope of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 장치의 구성을 도시하는 블록도이다. 1 is a block diagram showing a configuration of a game data-based learning apparatus according to an embodiment of the present disclosure.

도 1을 참조하면, 게임 데이터 기반의 데이터 학습 장치는 게임 데이터 기반의 이미지 정보 생성부(11) 및 학습 처리부(15)를 포함할 수 있다.Referring to FIG. 1, the game data-based data learning apparatus may include an image information generation unit 11 based on game data and a learning processing unit 15.

이미지 정보 생성부(11)는 게임 데이터에 포함된 3D 객체를 구성하고, 상기 3D 객체가 구성된 환경을 제어하고, 상기 3D 객체를 촬영한 이미지 및 상기 3D 객체가 구성된 환경을 지시하는 정보를 포함하는 이미지 정보를 생성할 수 있다.The image information generating unit 11 includes a 3D object included in game data, an environment in which the 3D object is configured, and an image of the 3D object and information indicating an environment in which the 3D object is configured Image information can be generated.

구체적으로, 3D 게임은 사용자(게이머)의 취향에 맞출 수 있도록, 3D 모델 등을 추출/변조할 수 있도록 구성될 수 있다. 예컨대, 3D 게임을 구성하는 데이터에는, 게임을 구성하는 3D 객체에 대응되는 데이터, 즉, Mesh 데이터, Texture 데이터 등이 포함될 수 있다. 이미지 정보 생성부(11)는 게임 데이터로부터 이러한 3D 객체에 대응되는 데이터, 즉, Mesh 데이터, Texture 데이터 등을 추출할 수 있다. 그리고, 이미지 정보 생성부(11)는 3D 객체에 대응되는 데이터, 즉, Mesh 데이터, Texture 데이터 등을 랜더링(rendering)하여, 3D 객체를 생성하고 디스플레이할 수 있다. Specifically, the 3D game can be configured to extract / modify a 3D model or the like so as to match the taste of the user (gamer). For example, data constituting a 3D game may include data corresponding to a 3D object constituting the game, that is, mesh data, texture data, and the like. The image information generating unit 11 can extract data corresponding to the 3D object, that is, mesh data, texture data, and the like, from the game data. The image information generating unit 11 may generate 3D objects by rendering data corresponding to 3D objects, that is, mesh data, texture data, and the like.

나아가, 3D 객체가 놓여진 환경에 따라 3D 객체는 다르게 구성되어 표현될 수 있다. 예컨대, 3D 객체를 촬영하는 방향, 3D 객체의 색상, 3D 객체 주변의 조명 환경 등의 설정에 따라, 3D 객체가 다양하게 구성될 수 있다. 이에 기초하여, 3D 객체에 대응되는 데이터는 3D 객체를 표현하기 위한 기본적인 환경을 나타내는 정보(이하, '기본 환경정보'라 함)를 포함할 수 있으며, 이미지 정보 생성부(11)는 기본적으로 기본 환경정보를 기반으로 3D 객체를 촬영한 이미지(이하, '기본 이미지'라 함)를 생성할 수 있다.Furthermore, depending on the environment in which the 3D object is placed, the 3D object may be represented and configured differently. For example, the 3D object may be configured in various ways according to the setting of the direction of shooting the 3D object, the color of the 3D object, the lighting environment around the 3D object, and the like. Based on this, the data corresponding to the 3D object may include information (hereinafter, referred to as 'basic environment information') representing a basic environment for representing the 3D object, and the image information generating unit 11 basically has a basic (Hereinafter, referred to as a 'basic image') in which a 3D object is photographed based on environmental information.

나아가, 이미지 정보 생성부(11)는 3D 객체가 놓여진 환경을 다양하게 변형할 수 있는 환경을 제공할 수 있다. 예컨대, 이미지 정보 생성부(11)는 3D 객체의 구성시 사용되는 환경정보를 사용자로부터 입력받을 수 있는 사용자 인터페이스를 제공할 수 있다. 이에 따라, 이미지 정보 생성부(11)는 사용자 인터페이스를 통해 사용자가 입력하는 환경정보를 확인하고, 확인된 환경정보를 반영한 3D 객체를 구성할 수 있다. 다른 예로서, 이미지 정보 생성부(11)는 3D 객체의 구성시 사용되는 환경정보를 랜덤하게 생성할 수 있으며, 랜던하게 생성된 환경정보를 반영한 3D 객체를 구성할 수 있다. Furthermore, the image information generating unit 11 can provide an environment in which the environment in which the 3D object is placed can be variously modified. For example, the image information generating unit 11 may provide a user interface for receiving environmental information used in constructing a 3D object from a user. Accordingly, the image information generating unit 11 can confirm the environment information input by the user through the user interface, and configure the 3D object reflecting the confirmed environment information. As another example, the image information generating unit 11 may randomly generate environment information used in constructing the 3D object, and may construct a 3D object reflecting the environment information generated randomly.

이하, 이미지 정보 생성부(11)가 3D 객체가 놓여진 환경을 다양하게 변형하여 구성한 환경정보를, 전술한 기본 환경정보와 구분하기 위하여, 변형 환경정보라 정의한다. 또한, 변형 환경정보를 기반으로 3D 객체를 촬영한 이미지는 변형 이미지라 정의한다.Hereinafter, the image information generating unit 11 defines deformation environment information in order to distinguish environmental information constructed by variously modifying the environment in which the 3D object is placed, from the above-described basic environmental information. Also, the image of the 3D object based on the deformed environment information is defined as the deformed image.

전술한 바와 같이, 이미지 정보 생성부(11)는 3D 객체를 촬영한 기본 이미지, 변형 이미지 등을 생성할 수 있으며, 특히, 3D 객체의 구성시 사용된 환경정보, 즉, 기본 환경정보, 변형 환경정보 등을 함께 추출하여 학습 처리부(15)에 제공할 수 있다.As described above, the image information generating unit 11 can generate a basic image, a deformed image, and the like, which are obtained by photographing a 3D object. In particular, the image information generating unit 11 generates environment information used in constructing the 3D object, Information and the like can be extracted together and provided to the learning processing unit 15. [

한편, 학습 처리부(15)는 이미지 정보 생성부(11)가 제공하는 이미지 정보를 사용하여 학습 모델을 구축할 수 있다.On the other hand, the learning processing unit 15 can build a learning model using the image information provided by the image information generating unit 11.

여기서, 이미지 정보 생성부(11)가 제공하는 이미지 정보는 게임 데이터를 기반으로 생성된 기본 이미지 및 변형 이미지와 함께 이에 대응되는 기본 환경정보 및 변형 환경정보를 포함할 수 있다. 특히, 변형 이미지 및 변형 환경정보는 기본 이미지와 기본 환경정보로부터 변형된 정보이므로, 기본 이미지와 기본 환경정보에 대응되는 소정의 특성을 구비할 수 있다. 이를 고려하여, 학습 처리부(15)는 기본 이미지 및 기본 환경정보와 변형 이미지 및 변형 환경정보 사이의 특성 관계를 확인할 수 있으며, 학습을 통해 특성 관계에 대한 학습모델을 구축할 수 있다.Here, the image information provided by the image information generating unit 11 may include basic image information and deformation environment information corresponding to the basic image and the deformation image generated based on the game data. In particular, since the deformed image and the deformed environment information are information transformed from the basic image and the basic environment information, they may have predetermined characteristics corresponding to the basic image and the basic environment information. In consideration of this, the learning processing unit 15 can confirm the characteristic relationship between the basic image, the basic environment information, the deformed image and the deformed environment information, and build a learning model for the characteristic relation through learning.

나아가, 게임 데이터로부터 추출된 이미지를 직접 학습시킬 경우, 현실의 문제를 풀기 위한 우리와 작업의 영역(task domain)이 달라질 수 있으므로, 학습 처리부(15)는 게임 데이터로부터 추출된 이미지에 대한 전이 학습을 수행하여 학습모델을 구축할 수 있다. Further, when directly extracting the image extracted from the game data, the task domain for us to solve the problem of reality may be different. Therefore, the learning processing unit 15 may perform the transition learning for the image extracted from the game data To build a learning model.

본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 장치에 구비된 학습 처리부의 구체적인 구성 및 동작은 하기의 도 2 내지 도 4를 통해 상세히 설명한다.The specific configuration and operation of the learning processing unit provided in the game data-based learning apparatus according to an embodiment of the present disclosure will be described in detail with reference to FIG. 2 through FIG.

도 2는 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 장치에 구비된 학습 처리부의 상세 구성을 도시하는 블록도이다. 2 is a block diagram showing a detailed configuration of a learning processing unit provided in a game data-based learning apparatus according to an embodiment of the present disclosure;

학습 처리부(15)는 특징 추출부(15a), 전환부(15b), 및 분류부(15c)를 포함할 수 있다.The learning processing unit 15 may include a feature extracting unit 15a, a switching unit 15b, and a classifying unit 15c.

특징 추출부(15a)는 기본 이미지(301, 도 3참조) 및 변형 이미지(302)를 입력받을 수 있으며, 기본 이미지(301) 및 변형 이미지(302)의 특징을 각각 추출하여 특징맵, 예컨대, 기본 특징맵(311)과 변형 특징맵(312)을 구성할 수 있다. 나아가, 이미지 정보 생성부(11)에 의해 변형 이미지는 복수개가 생성될 수 있으며, 특징 추출부(15a)는 이러한 복수개의 변형 이미지 각각에 대한 변형 특징맵을 구성할 수 있다. The feature extraction unit 15a can receive the basic image 301 (see FIG. 3) and the transformed image 302 and can extract the feature of the basic image 301 and the transformed image 302, A basic feature map 311 and a modified feature map 312 can be constructed. Furthermore, a plurality of deformed images may be generated by the image information generating unit 11, and the feature extracting unit 15a may constitute a deformed feature map for each of the plurality of deformed images.

그리고, 전환부(15b)는 기본 특징맵(311)과 변형 특징맵(312) 사이의 관계를 심층 신경망을 통해 학습하여, 게임 데이터 기반의 학습모델을 구축할 수 있다. 이때, 전환부(15b)는 전술한 기본 환경정보와 변형 환경정보를 학습에 사용할 수 있다. 나아가, 신경망의 구조는 Auto-Associative Neural Network, Restricted Boltzman Machine, Fully Connected Network 등의 구조로 이루어질 수 있다. Then, the switching unit 15b learns the relationship between the basic feature map 311 and the deformation feature map 312 through the in-depth neural network, and builds a learning model based on the game data. At this time, the switching unit 15b can use the basic environment information and the deformation environment information described above for learning. Furthermore, the structure of the neural network can be composed of Auto-Associative Neural Network, Restricted Boltzman Machine, and Fully Connected Network.

또한, 전환부(15b)는 복수의 신경망을 구비할 수 있으며, 복수의 신경망의 구성시 동일한 신경망을 중첩하거나, 서로 다른 신경망을 조합할 수 있다.The switching unit 15b may have a plurality of neural networks, and the same neural networks may be overlapped or different neural networks may be combined when constructing a plurality of neural networks.

한편, 분류부(15c)는 전환부(15b)에 의해 구축된 게임 데이터 기반의 학습모델에 대한 재학습을 수행하여, 내부에 구비된 신경망을 업데이트할 수 있다. On the other hand, the classifying unit 15c can re-learn the learning model based on the game data established by the switching unit 15b, and update the neural network included therein.

구체적으로, 전술한 바와 같이 전환부(15b)는 기본 이미지(301) 및 변형 이미지(302)로부터 추출된 기본 특징맵(311)과 변형 특징맵(312)에 대응되는 학습모델을 구축할 수 있는데, 이러한 학습모델을 사용하여 가상의 특징맵을 구성할 수 있다. 예컨대, 학습 처리부(15)에 게임 데이터 기반의 이미지와 다른 이미지, 즉, 적용분야에서 사용할 실제 학습 데이터로서 사용할 이미지(이하, '학습대상 이미지'라 함)(401)가 입력됨에 따라, 특징 추출부(15a)는 학습대상 이미지(401)에 대한 특징을 추출하여 특징맵(이하, '학습대상 특징맵'이라 함)(411)을 구성할 수 있다. 전환부(15b)는 기 구축된 학습모델을 사용하여 학습대상 특징맵(411)에 대응되는 가상의 특징맵(412)을 구성할 수 있다. 이때, 가상의 특징맵(412)은 학습대상 특징맵(411)에 학습모델이 적용되어 데이터 증강이 이루어지므로, 학습대상 특징맵(411)과 동일한 semantic label을 구비할 수 있다. More specifically, as described above, the switching unit 15b can construct a learning model corresponding to the basic feature map 311 and the modified feature map 312 extracted from the basic image 301 and the transformed image 302 , And a virtual feature map can be constructed using this learning model. For example, an image to be used as actual learning data to be used in an application field (hereinafter referred to as an 'learning object image') 401 is input to the learning processing unit 15, The unit 15a can construct a feature map (hereinafter referred to as a 'learning feature map') 411 by extracting the feature of the learning target image 401. [ The switching unit 15b can construct a virtual feature map 412 corresponding to the learning subject characteristic map 411 using the pre-built learning model. At this time, the virtual feature map 412 has the same semantic label as the learning feature map 411 because the learning model is applied to the learning feature map 411 to increase data.

이와 같이 구성된 가상의 특징맵(412)은 분류부(15c)로 입력될 수 있으며, 분류부(15c)는 데이터 증강이 이루어진 가상의 특징맵(412)과, 학습대상 특징맵(411)을 사용하여, 게임 데이터 기반의 학습모델에 대한 재학습(fine tuning)을 수행할 수 있다. The virtual characteristic map 412 constructed in this way can be input to the classifying section 15c and the classifying section 15c can use the virtual characteristic map 412 in which the data enhancement is performed and the learning target characteristic map 411 , And perform fine tuning on the learning model based on the game data.

도 5는 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 방법의 순서를 도시하는 흐름도이다. 5 is a flowchart showing a procedure of a game data-based learning method according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 방법은 전술한 게임 데이터 기반의 학습 장치에 의해 수행될 수 있다.The game data-based learning method according to an embodiment of the present disclosure can be performed by the above-described game data-based learning apparatus.

우선, 3D 게임은 사용자(게이머)의 취향에 맞출 수 있도록, 3D 모델 등을 추출/변조할 수 있도록 구성될 수 있다. 예컨대, 3D 게임을 구성하는 데이터에는, 게임을 구성하는 3D 객체에 대응되는 데이터, 즉, Mesh 데이터, Texture 데이터 등이 포함될 수 있다. 이에 기초하여, 게임 데이터 기반의 학습 장치는 게임 데이터로부터 이러한 3D 객체에 대응되는 데이터, 즉, Mesh 데이터, Texture 데이터 등을 추출할 수 있다(S501). First, the 3D game can be configured to extract / modify a 3D model or the like so as to match the taste of the user (gamer). For example, data constituting a 3D game may include data corresponding to a 3D object constituting the game, that is, mesh data, texture data, and the like. Based on this, the game apparatus based on the game data can extract data corresponding to the 3D object, that is, mesh data, texture data, etc. from the game data (S501).

3D 객체에 대응되는 데이터, 즉, Mesh 데이터, Texture 데이터 등을 랜더링(rendering)하여, 3D 객체를 생성하고 디스플레이할 수 있다. 나아가, 3D 객체가 놓여진 환경에 따라 3D 객체는 다르게 구성되어 표현될 수 있다. 예컨대, 3D 객체를 촬영하는 방향, 3D 객체의 색상, 3D 객체 주변의 조명 환경 등의 설정에 따라, 3D 객체가 다양하게 구성될 수 있다. 기본적으로, 3D 객체에 대응되는 데이터는 3D 객체를 표현하기 위한 기본적인 환경을 나타내는 정보(이하, '기본 환경정보'라 함)를 포함할 수 있다. The 3D object can be generated and displayed by rendering data corresponding to the 3D object, that is, mesh data, texture data, and the like. Furthermore, depending on the environment in which the 3D object is placed, the 3D object may be represented and configured differently. For example, the 3D object may be configured in various ways according to the setting of the direction of shooting the 3D object, the color of the 3D object, the lighting environment around the 3D object, and the like. Basically, the data corresponding to the 3D object may include information representing a basic environment for expressing the 3D object (hereinafter referred to as 'basic environment information').

이에 기초하여, 게임 데이터 기반의 학습 장치는 기본적으로 기본 환경정보를 기반으로 3D 객체를 촬영한 이미지(이하, '기본 이미지'라 함)를 생성할 수 있다. Based on this, the learning device based on the game data can basically generate an image (hereinafter referred to as a 'basic image') of the 3D object based on the basic environment information.

또한, 게임 데이터 기반의 학습 장치는 3D 객체가 놓여진 환경을 다양하게 변형할 수 있는 환경을 제공할 수 있다. 예컨대, 게임 데이터 기반의 학습 장치는 3D 객체의 구성시 사용되는 환경정보를 사용자로부터 입력받을 수 있는 사용자 인터페이스를 제공할 수 있다. 이에 따라, 게임 데이터 기반의 학습 장치는 사용자 인터페이스를 통해 사용자가 입력하는 환경정보를 확인하고, 확인된 환경정보를 반영한 3D 객체를 구성할 수 있다. 다른 예로서, 게임 데이터 기반의 학습 장치는 3D 객체의 구성시 사용되는 환경정보를 자동적으로 랜덤하게 생성할 수 있으며, 랜던하게 생성된 환경정보를 반영한 3D 객체를 구성할 수 있다. In addition, a game data-based learning apparatus can provide an environment in which a 3D object can be modified in various environments. For example, the game device based on the game data may provide a user interface that can receive environment information from the user, which is used in constructing the 3D object. Accordingly, the learning apparatus based on the game data can confirm the environment information input by the user through the user interface, and construct a 3D object reflecting the confirmed environment information. As another example, the game data-based learning apparatus can automatically and randomly generate the environment information used in the construction of the 3D object, and can construct a 3D object reflecting the generated environment information.

이하, 게임 데이터 기반의 학습 장치가 3D 객체가 놓여진 환경을 다양하게 변형하여 구성한 환경정보를, 전술한 기본 환경정보와 구분하기 위하여, 변형 환경정보라 정의한다. 또한, 변형 환경정보를 기반으로 3D 객체를 촬영한 이미지는 변형 이미지라 정의한다.Hereinafter, the learning apparatus based on the game data defines deformation environment information in order to distinguish the environment information constructed by variously modifying the environment where the 3D object is placed, from the above-described basic environment information. Also, the image of the 3D object based on the deformed environment information is defined as the deformed image.

이러한 환경에서, 게임 데이터 기반의 학습 장치는 3D 객체를 촬영한 기본 이미지, 변형 이미지 등을 생성할 수 있으며, 특히, 3D 객체의 구성시 사용된 환경정보, 즉, 기본 환경정보, 변형 환경정보 등을 함께 추출하여 제공할 수 있다(S502).In such an environment, the learning device based on the game data can generate a basic image, a transformed image, and the like obtained by capturing the 3D object. In particular, the environment information used in constructing the 3D object, that is, basic environment information, (S502).

한편, S502 단계에서 제공되는 이미지 정보는 게임 데이터를 기반으로 생성된 기본 이미지 및 변형 이미지와 함께 이에 대응되는 기본 환경정보 및 변형 환경정보를 포함할 수 있다. 특히, 변형 이미지 및 변형 환경정보는 기본 이미지와 기본 환경정보로부터 변형된 정보이므로, 기본 이미지와 기본 환경정보에 대응되는 소정의 특성을 구비할 수 있다. 이를 고려하여, 게임 데이터 기반의 학습 장치는 기본 이미지 및 기본 환경정보와 변형 이미지 및 변형 환경정보 사이의 특성 관계를 확인할 수 있으며, 학습을 통해 특성 관계에 대한 학습모델을 구축할 수 있다.Meanwhile, the image information provided in step S502 may include basic image information and deformation environment information corresponding to the basic image and the deformation image generated based on the game data. In particular, since the deformed image and the deformed environment information are information transformed from the basic image and the basic environment information, they may have predetermined characteristics corresponding to the basic image and the basic environment information. In consideration of this, the learning apparatus based on the game data can confirm the characteristic relation between the basic image and the basic environment information, the deformation image and the modified environment information, and build a learning model for the characteristic relation through learning.

구체적으로, S503 단계에서, 게임 데이터 기반의 학습 장치는 기본 이미지(301) 및 변형 이미지(302)의 특징을 각각 추출하여 특징맵, 예컨대, 기본 특징맵(311)과 변형 특징맵(312)을 구성할 수 있다. 나아가, 변형 이미지는 복수개가 생성될 수 있으며, 이에 대응하여 게임 데이터 기반의 학습 장치는 이러한 복수개의 변형 이미지 각각에 대한 변형 특징맵을 구성할 수 있다. More specifically, in step S503, the learning device based on the game data extracts the features of the basic image 301 and the transformed image 302, and outputs the feature maps, for example, the basic feature map 311 and the transformed feature map 312 Can be configured. In addition, a plurality of modified images may be generated, and the game device based on the game data may configure a modified feature map for each of the plurality of modified images.

S504 단계에서, 게임 데이터 기반의 학습 장치는 기본 특징맵(311)과 변형 특징맵(312) 사이의 관계를 심층 신경망을 통해 학습하여, 게임 데이터 기반의 학습모델을 구축할 수 있다. 이때, 게임 데이터 기반의 학습 장치는 전술한 기본 환경정보와 변형 환경정보를 학습에 사용할 수 있다. 나아가, 신경망의 구조는 Auto-Associative Neural Network, Restricted Boltzman Machine, Fully Connected Network 등의 구조로 이루어질 수 있다. In step S504, the learning device based on the game data can learn the relation between the basic feature map 311 and the deformation feature map 312 through the deep neural network to construct a learning model based on the game data. At this time, the learning apparatus based on the game data can use the above-described basic environment information and the modified environment information for learning. Furthermore, the structure of the neural network can be composed of Auto-Associative Neural Network, Restricted Boltzman Machine, and Fully Connected Network.

S505 단계에서, 게임 데이터 기반의 학습 장치는 S504 단계에서 구축된 게임 데이터 기반의 학습모델에 대한 재학습을 수행하여, 내부에 구비된 신경망을 업데이트할 수 있다. In step S505, the learning device based on the game data can perform a re-learning on the learning model based on the game data established in step S504, and update the neural network included therein.

구체적으로, 게임 데이터 기반의 학습 장치는 기본 이미지(301) 및 변형 이미지(302)로부터 추출된 기본 특징맵(311)과 변형 특징맵(312)에 대응되는 학습모델을 구축할 수 있는데, 이러한 학습모델을 사용하여 가상의 특징맵을 구성할 수 있다. 예컨대, 게임 데이터 기반의 이미지와 다른 이미지, 즉, 적용분야에서 사용할 실제 학습 데이터로서 사용할 이미지(이하, '학습대상 이미지'라 함)(401)가 입력됨에 따라, 게임 데이터 기반의 학습 장치는 학습대상 이미지(401)에 대한 특징을 추출하여 특징맵(이하, '학습대상 특징맵'이라 함)(411)을 구성할 수 있다. Specifically, the learning device based on the game data can construct a learning model corresponding to the basic feature map 311 and the modified feature map 312 extracted from the basic image 301 and the transformed image 302, A virtual feature map can be constructed using a model. For example, when an image to be used as actual learning data to be used in an application field (hereinafter referred to as an 'learning target image') 401 is inputted, the learning device based on the game data is learned A feature map (hereinafter, referred to as a 'learning feature map') 411 can be constructed by extracting features of the target image 401.

그리고, 게임 데이터 기반의 학습 장치는 기 구축된 학습모델을 사용하여 학습대상 특징맵(411)에 대응되는 가상의 특징맵(412)을 구성할 수 있다. 이때, 가상의 특징맵(412)은 학습대상 특징맵(411)에 학습모델이 적용되어 데이터 증강이 이루어지므로, 학습대상 특징맵(411)과 동일한 semantic label을 구비할 수 있다. Then, the learning device based on the game data can construct a virtual feature map 412 corresponding to the learning subject characteristic map 411 using the pre-built learning model. At this time, the virtual feature map 412 has the same semantic label as the learning feature map 411 because the learning model is applied to the learning feature map 411 to increase data.

게임 데이터 기반의 학습 장치는 이와 같이 데이터 증강이 이루어진 가상의 특징맵(412)과, 학습대상 특징맵(411)을 사용하여, 게임 데이터 기반의 학습모델에 대한 재학습(fine tuning)을 수행할 수 있다. The learning apparatus based on the game data performs fine tuning of the learning model based on the game data using the virtual characteristic map 412 with the data enhancement and the learning target characteristic map 411 .

도 6은 본 개시의 일 실시예에 따른 게임 데이터 기반의 학습 방법 및 장치를 실행하는 컴퓨팅 시스템을 예시하는 블록도이다. 6 is a block diagram illustrating a computing system for executing a game data based learning method and apparatus in accordance with an embodiment of the present disclosure.

도 6을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.6, a computing system 1000 includes at least one processor 1100, a memory 1300, a user interface input device 1400, a user interface output device 1500, (1600), and a network interface (1700).

프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The processor 1100 may be a central processing unit (CPU) or a memory device 1300 and / or a semiconductor device that performs processing for instructions stored in the storage 1600. Memory 1300 and storage 1600 may include various types of volatile or non-volatile storage media. For example, the memory 1300 may include a ROM (Read Only Memory) and a RAM (Random Access Memory).

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Thus, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by processor 1100, or in a combination of the two. The software module may reside in a storage medium (i.e., memory 1300 and / or storage 1600) such as a RAM memory, a flash memory, a ROM memory, an EPROM memory, an EEPROM memory, a register, a hard disk, a removable disk, You may. An exemplary storage medium is coupled to the processor 1100, which can read information from, and write information to, the storage medium. Alternatively, the storage medium may be integral to the processor 1100. [ The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of this disclosure are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the disclosure are not intended to be all-inclusive and are intended to illustrate representative aspects of the disclosure, and the features described in the various embodiments may be applied independently or in a combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is to be accorded the broadest interpretation as understanding of the principles of the invention, as well as software or machine-executable instructions (e.g., operating system, applications, firmware, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.

Claims (1)

게임 데이터에 포함된 3D 객체를 구성하고, 상기 3D 객체가 구성된 환경을 제어하고, 상기 3D 객체를 촬영한 이미지 및 상기 3D 객체가 구성된 환경을 지시하는 환경정보를 포함하는 이미지 정보를 생성하는 게임 데이터 기반의 이미지 정보 생성부와,
상기 이미지 정보 생성부가 제공하는 상기 이미지 정보를 사용하여 게임 데이터 기반의 학습 모델을 구축하는 학습 처리부를 포함하는 것을 특징으로 하는 게임 데이터 기반의 학습 장치.
Game data for generating image information including environmental information indicating an environment in which the 3D object is configured and an image obtained by capturing the 3D object, Based image information generating unit,
And a learning processing unit for building a learning model based on game data using the image information provided by the image information generating unit.
KR1020180139323A 2017-11-13 2018-11-13 Learning apparatus based on game data and method for the same KR102291041B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170150559 2017-11-13
KR20170150559 2017-11-13

Publications (2)

Publication Number Publication Date
KR20190054993A true KR20190054993A (en) 2019-05-22
KR102291041B1 KR102291041B1 (en) 2021-08-19

Family

ID=66680625

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180139323A KR102291041B1 (en) 2017-11-13 2018-11-13 Learning apparatus based on game data and method for the same

Country Status (1)

Country Link
KR (1) KR102291041B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102086351B1 (en) * 2019-09-03 2020-05-29 국방과학연구소 Apparatus and method for learning machine learning models based on virtual data
KR20220135890A (en) * 2021-03-31 2022-10-07 한국전자기술연구원 Method and system for collecting virtual environment-based data for artificial intelligence object recognition model
KR102533091B1 (en) * 2022-03-04 2023-05-26 주식회사 한국공간데이터 Method and device for pperson re-identification

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dong Liang et al., A 3D Object Recognition and Pose estimation System* *
Stephan R. Richter et al., Playing for Data: Ground Truth from Computer Games, the 14th European Conference on Computer Vision* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102086351B1 (en) * 2019-09-03 2020-05-29 국방과학연구소 Apparatus and method for learning machine learning models based on virtual data
KR20220135890A (en) * 2021-03-31 2022-10-07 한국전자기술연구원 Method and system for collecting virtual environment-based data for artificial intelligence object recognition model
KR102533091B1 (en) * 2022-03-04 2023-05-26 주식회사 한국공간데이터 Method and device for pperson re-identification

Also Published As

Publication number Publication date
KR102291041B1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
Han et al. CNNs-based RGB-D saliency detection via cross-view transfer and multiview fusion
US20190311223A1 (en) Image processing methods and apparatus, and electronic devices
JP7386812B2 (en) lighting estimation
EP3998549A1 (en) Video content recognition method and apparatus, storage medium, and computer device
KR20190054993A (en) Learning apparatus based on game data and method for the same
US20210383199A1 (en) Object-Centric Learning with Slot Attention
CN111327887B (en) Electronic device, method of operating the same, and method of processing image of the electronic device
JP6468356B2 (en) PROGRAM GENERATION DEVICE, PROGRAM GENERATION METHOD, AND GENERATION PROGRAM
CN112308770B (en) Portrait conversion model generation method and portrait conversion method
KR102546631B1 (en) Apparatus for video data argumentation and method for the same
Kim et al. Variable grouping for energy minimization
Tsao et al. A topological solution to object segmentation and tracking
Nasiripour et al. Visual saliency object detection using sparse learning
CN110780955A (en) Method and equipment for processing emoticon message
KR20220014308A (en) System and method for generating bokeh image for dslr quality depth-of-field rendering and refinement and training method for the same
Ma et al. Depth estimation from single image using CNN-residual network
KR101592087B1 (en) Method for generating saliency map based background location and medium for recording the same
JP2018022332A (en) Determination device, determination method, and determination program
CN113657245B (en) Method, device, medium and program product for human face living body detection
KR102101481B1 (en) Apparatus for lenrning portable security image based on artificial intelligence and method for the same
CN117441195A (en) Texture complement
Jaimes Computer vision startups tackle AI
US20230164421A1 (en) Method, system and computer program product for divided processing in providing object detection focus
JPWO2019224947A1 (en) Learning device, image generator, learning method, image generation method and program
US20240161391A1 (en) Relightable neural radiance field model

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant