KR20190136529A - Creation and providing system of mixed reality game - Google Patents

Creation and providing system of mixed reality game Download PDF

Info

Publication number
KR20190136529A
KR20190136529A KR1020180062372A KR20180062372A KR20190136529A KR 20190136529 A KR20190136529 A KR 20190136529A KR 1020180062372 A KR1020180062372 A KR 1020180062372A KR 20180062372 A KR20180062372 A KR 20180062372A KR 20190136529 A KR20190136529 A KR 20190136529A
Authority
KR
South Korea
Prior art keywords
user
mixed reality
game
virtual content
image
Prior art date
Application number
KR1020180062372A
Other languages
Korean (ko)
Inventor
최이권
Original Assignee
모젼스랩(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모젼스랩(주) filed Critical 모젼스랩(주)
Priority to KR1020180062372A priority Critical patent/KR20190136529A/en
Publication of KR20190136529A publication Critical patent/KR20190136529A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F11/00Game accessories of general use, e.g. score counters, boxes
    • A63F11/0074Game concepts, rules or strategies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F11/00Game accessories of general use, e.g. score counters, boxes
    • A63F11/0074Game concepts, rules or strategies
    • A63F2011/0076Game concepts, rules or strategies with means for changing the level of difficulty
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Abstract

The present invention relates to a system for generating and providing a mixed reality game using a head mount display, which is able to provide a mixed reality game to a user, which is realized by mapping virtual content including a game character on a reality image. According to the present invention, the system for generating and providing the mixed reality game comprises: a photographing module to photograph the user′s environment to acquire a real image; a glass display to output and display the generated mixed reality to the user; a module to generate and provide the mixed reality to the user by matching the reality image entered from the photographing module with the stored virtual content and generating the mixed reality; and a database to store virtual content for composing the mixed reality. The module for generating and providing the mixed reality is able to read a level set value which is pre-set on a stage, to calculate a user execution degree for the virtual content stored in the database, and to generate the mixed reality by using the virtual content having a user execution degree matched with the level set value. According to the present invention, the system for generating and providing the mixed reality game is able to machine-learn the play details of the game users, optimize the stage to the level, and automatically generate the stage, thereby realizing a level propriety and diversity of the game.

Description

혼합 현실 게임 생성 및 제공 시스템 { CREATION AND PROVIDING SYSTEM OF MIXED REALITY GAME }CREATION AND PROVIDING SYSTEM OF MIXED REALITY GAME}

본 발명은 현실 영상에 게임 캐릭터를 포함하는 가상콘텐츠를 매핑하여 구현되는 혼합 현실 게임을 이용자에게 제공하는 헤드 마운트 디스플레이를 이용한 혼합 현실 게임 제공 시스템에 관한 것으로, 중소기업청의 기술혁신개발사업 중 『실감형 테마파크를 위한 3차원 실감공간 기반 혼합현실 HMD 서비스 기술개발』과제를 수행함에 있어 산출된 결과물에 대한 발명이다.The present invention relates to a mixed reality game providing system using a head mounted display that provides a user with a mixed reality game implemented by mapping virtual content including a game character to a reality image. It is an invention about the result that is produced in the 3D realistic space based mixed reality HMD service technology development project for theme park.

최근 연구개발되고 있는 혼합현실(mixed reality)은 가상의 공간(virtual environment)과 실제의 공간(real environment)이 융합된 가상현실(virtual reality)의 한 종류로, 실제공간과 컴퓨터 그래픽으로 구성된 가상공간을 결합하여 이용자에게 혼합된 영상을 제공하고, 이용자의 액션에 따라 가상 콘텐츠를 조작하면서 시스템과의 상호작용을 제공한다.Mixed reality, which is being researched and developed recently, is a kind of virtual reality in which a virtual environment and a real environment are fused together, and is a virtual space composed of real space and computer graphics. It provides the user with a mixed image, and provides interaction with the system while manipulating the virtual content according to the user's action.

이때, 혼합현실의 구현은 통상적으로 실제 공간의 인식, 가상 콘텐츠의 생성, 실제 공간과 가상 콘텐츠의 융합 및 혼합현실의 출력 등의 처리과정을 거쳐 구현되는데, 이를 위하여 세부적으로는 3D 모델링, 영상의 융합 기술 및 실시간 렌더링 기술등이 적용된다.In this case, the implementation of mixed reality is typically implemented through a process such as recognition of real space, generation of virtual content, fusion of real space and virtual content, and output of mixed reality. Convergence technology and real time rendering technology are applied.

이와 같은 혼합현실의 구현에 있어, 기술의 완성도를 높이는 요소는, 실제 환경과 가상 콘텐츠를 융합(정합)함에 있어, 정합으로 인한 양자의 조화성을 향상시키는 것이다.In the implementation of such mixed reality, the factor that improves the completeness of the technology is to improve the harmony of both due to the matching in the fusion (matching) of the real environment and the virtual content.

즉, 혼합현실의 제공 기술에 있어, 실제 환경과 가상 콘텐츠의 자연스러운 매칭정도가 기술의 완성도를 제공한다.In other words, in the technology of providing mixed reality, the degree of natural matching between the real environment and the virtual content provides the perfection of the technology.

이에 따라 최근에는 정합에 따른 매칭 정도를 높이기 위하여, 다양한 기술이 개발되어 제공되고있는 실정이다.Accordingly, in recent years, various technologies have been developed and provided to increase the degree of matching according to matching.

일 예로, 대한민국 등록특허 제10-1724360호에서는 실제객체 및 가상 환경의 상대적인 원근에 따라 공간상의 전후 배치관계가 고려된 혼합현실을 생성 및 제공하여, 실제환경과 가상환경이 자연스럽게 혼합된 혼합현실을 제공하는 기술내용이 개시되어 있다.For example, the Republic of Korea Patent No. 10-1724360 is to create and provide a mixed reality in consideration of the relationship between the front and rear in the space according to the relative perspective of the real object and the virtual environment, to create a mixed reality naturally mixed with the real environment and virtual environment Provided is a technical disclosure.

이와 같은 종래기술은 다음과 같은 문제점이 있었다.Such a prior art had the following problems.

종래기술에 의해 게임을 구성하여 제공하는 경우, 게임을 구성하는 각각의 스테이지를 게임 난이도 및 게임의 내용에 따라 프로그래머가 직접 설계 및 구성하여야 하므로, 게임 스테이지의 확장성이 제한되고, 실제 이용자들의 플레이 내용에 따라 게임의 내용 및 난이도가 적절하게 적용되지 못하는 문제점이 있었다.In the case of constructing and providing a game according to the prior art, since each stage constituting the game must be designed and configured by the programmer according to the game difficulty and the content of the game, the expandability of the game stage is limited, and the play of actual users is performed. There was a problem that the content and difficulty of the game could not be properly applied depending on the content.

또한, 최근에는 멀티미디어 기기의 이용자 연령이 급속히 낮아지고 있는 실정이고, 이에 따라 연령에 맞지 않는 폭력성 및 선정성 있는 콘텐츠를 낮은 연령에서 손쉽게 접하여 교육상의 문제가 발생되고 있다.In addition, in recent years, the age of the user of the multimedia device is rapidly decreasing, and accordingly, violent and sensational content that is not suitable for age is easily encountered at low age, thereby causing educational problems.

이에 따라 최근에는 게임 등의 콘텐츠 제공 서비스에 있어 이용 연령을 제한하는 기술이 적용되고 있으나, 서비스 이용의 제한은 오히려 이용자의 호기심을 유발하여, 편법적인 방법으로 게임 등의 콘텐츠에 접근하는 사례가 빈번히 발생되고 있는 실정이다.As a result, in recent years, a technology for restricting the age of use has been applied to content providing services such as games. However, the restriction on the use of services causes user's curiosity and frequently accesses contents such as games in a convenient manner. It is happening.

대한민국 등록특허 제10-1724360호Republic of Korea Patent No. 10-1724360

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 게임 이용자들의 플레이 내용을 빅데이터로 저장하고, 실제 플레이어들의 게임 플레이 내용의 기계학습에 따라, 스테이지 별로 설정된 레벨에 따라 스테이지를 자동으로 구성할 수 있는 혼합 현실 게임 생성 및 제공 시스템을 제공하고자 하는 것이다.The present invention has been made to solve the above-mentioned conventional problems, the present invention stores the game user's play content as big data, according to the machine learning of the actual game play content of the players, according to the level set for each stage We want to provide a mixed reality game creation and delivery system that can automatically configure the stage.

그리고 본 발명은 이용자의 연령에 따라 콘텐츠의 이용을 막기보다, 이용자 연령에 적합한 콘텐츠를 선별하여 제공하도록 하는 헤드 마운트 디스플레이를 이용한 혼합 현실 게임 생성 및 제공 시스템을 제공하고자 하는 것이다.Another object of the present invention is to provide a mixed reality game generation and provision system using a head mounted display that selects and provides contents suitable for a user's age, rather than preventing contents from being used according to a user's age.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 이용자의 환경을 촬영하여 현실영상을 획득하는 촬영모듈과; 이용자에게 생성된 혼합현실을 출력하여 표시하기 위한 글라스 디스플레이와; 상기 촬영모듈로부터 입력된 현실영상과 저장된 가상 콘텐츠를 매칭하여 혼합현실을 생성하고, 상기 생성된 혼합현실을 이용자에게 제공하는 혼합현실 생성 및 제공모듈; 그리고 혼합현실을 구성하기 위한 가상콘텐츠들이 저장되는 데이터베이스를 포함하여 구성되고: 상기 혼합현실 생성 및 제공 모듈은, 스테이지에 설정된 레벨 설정값을 독출하고, 상기 데이터베이스에 저장된 가상콘텐츠들에 대한 이용자 수행도를 산출하여, 상기 레벨 설정값에 매칭되는 이용자 수행도를 갖는 가상콘텐츠를 이용하여 혼합현실을 생성된다.According to a feature of the present invention for achieving the above object, the present invention comprises a photographing module for photographing the user's environment to obtain a real image; A glass display for outputting and displaying the mixed reality generated to the user; A mixed reality generation and provision module for generating a mixed reality by matching the stored virtual image input from the photographing module and providing the generated mixed reality to a user; And a database in which virtual contents for constructing mixed reality are stored. The mixed reality generating and providing module reads a level setting value set in a stage, and performs user performance on virtual contents stored in the database. The mixed reality is generated by using the virtual content having a user performance matching the level set value.

이때, 상기 혼합현실 생성 및 제공 모듈은, 생성될 게임의 스테이지에 설정된 레벨을 식별하는 게임레벨 식별부와; 상기 스테이지에 배치된 콘텐츠별로 게임을 플레이 한 플레이어들의 플레이 이력을 통해 해당 콘텐츠에 대한 수행도를 산출하는 콘텐츠 수행도 기계학습부; 그리고 상기 스테이지 레벨에 매칭하는 이용자 수행도를 갖는 가상 콘텐츠를 선별하여 현실영상과 병합될 가상 콘텐츠와 매칭위치를 산출하는 랜더링 생성부를 포함하여 구성될 수 있다.In this case, the mixed reality generation and provision module, Game level identification unit for identifying the level set in the stage of the game to be generated; A content performance machine learning unit for calculating a performance degree for the corresponding content based on the play history of the players who have played the game for each content arranged in the stage; And a rendering generator for selecting virtual content having a user performance matching the stage level and calculating a matching position with the virtual content to be merged with the real image.

그리고 상기 랜더링 생성부는, 선별된 가상 콘텐츠를 상기 스테이지 레벨에 매칭하여 매핑위치를 산출할 수도 있다.The rendering generator may calculate a mapping position by matching the selected virtual content with the stage level.

또한, 상기 혼합현실 생성모듈은, 상기 촬영모듈로부터 촬영된 현실영상을 분석하여, 상기 현실영상을 구성하는 구조물의 형태 및 종류 분석하는 영상분석부와; 상기 혼합현실을 구현할 가상콘텐츠를 선별하기 위하여, 이용자 연령에 대한 이용자 특성을 분석하는 이용자 특성 분석부와; 현실영상과 가상콘텐츠의 매칭위치를 설정하는 렌더링 생성부와; 상기 이용자 특성 분석부에 의해 분석된 이용자 특성에 따라 선택된 가상콘텐츠의 출력 배율을 가공하는 가상콘텐츠 가공부; 그리고 현실영상과 가공된 가상콘텐츠를 병합하여, 혼합현실을 생성하는 영상병합부를 포함하여 구성될 수도 있다.In addition, the mixed reality generation module, the image analysis unit for analyzing the shape and type of the structure constituting the real image by analyzing the real image photographed from the photographing module; A user characteristic analyzer configured to analyze user characteristics with respect to a user age in order to select virtual content to implement the mixed reality; A rendering generator for setting a matching position between the real image and the virtual content; A virtual content processing unit processing an output magnification of the selected virtual content according to the user characteristic analyzed by the user characteristic analyzing unit; And it may be configured to include an image merger for generating a mixed reality by merging the real image and the processed virtual content.

그리고 상기 데이터베이스는, 다수의 구조물별 구조물의 특성이 구분되어 저장되는 구조물정보 DB와; 상기 영상분석부에서 분석한 영상정보를 저장하는 영상정보 DB와; 사용자 특성에 따른 사용자 연령에 따라 구분된 다수의 가상콘텐츠들이 저장되는 가상콘텐츠 DB; 그리고 게임 이용자들의 게임 수행 내역이 저장되는 이용자 게임 이력 DB를 포함하여 구성될 수도 있다.The database may include a structure information DB in which characteristics of a plurality of structures are divided and stored; An image information DB for storing image information analyzed by the image analyzer; A virtual content DB for storing a plurality of virtual contents classified according to user age according to user characteristics; And it may be configured to include a user game history DB that stores the game performance history of game users.

또한, 상기 구조물정보 DB는, 구조물 형태정보에 따른 구조물의 종류 및 구성재료와; 각 구조물의 종류에 따라 평균적인 크기를 나타내는 표준크기 정보가 저장될 수도 있다.The structure information DB may include a type and a constituent material of the structure according to the structure type information; Standard size information indicating an average size may be stored according to the type of each structure.

그리고 상기 이용자 특성 분석부는, 특징점이 추출된 현실영상으로부터, 현실영상 상의 구조물과 이용자의 원근거리를 산출하여 배율조정값을 산출할 수도 있다.The user characteristic analyzer may calculate a magnification adjustment value by calculating a perspective distance between the structure and the user on the real image from the extracted reality image.

또한, 상기 이용자 특성 분석부는, 상기 영상분석부로부터 분석된 구조물의 종류에 대하여, 상기 구조물정보 DB에 저장된 표준크기정보와, 상기 현실영상 상의 구조물 크기를 대비하여, 상기 구조물의 원근거리를 산출하고; 상기 원근거리에 따라 가상 콘텐츠의 배율조정값을 산출할 수도 있다.In addition, the user characteristic analyzer, for the type of the structure analyzed by the image analysis unit, by comparing the standard size information stored in the structure information DB and the size of the structure on the real image, and calculates the distance of the structure ; The scaling value of the virtual content may be calculated according to the distance.

그리고 상기 이용자 특성 분석부는, 이용자의 로그인 정보를 통해 상기 이용자의 연령을 산출할 수도 있다.The user characteristic analyzer may calculate the age of the user through the login information of the user.

또한, 상기 이용자 특성 분석부는, 상기 촬영모듈을 통해 입력된 영상을 분석하여 상기 이용자 연령을 판단할 수도 있다.The user characteristic analyzer may determine the user age by analyzing an image input through the photographing module.

그리고 상기 이용자 특성 분석부의 이용자 연령 판단은, (A) 입력된 현실영상에 대한 특징점을 추출하는 단계와; (B) 상기 현실영상 구조물의 경사각을 산출하는 단계와; (C) 상기 구조물 모서리의 상대적인 경사각을 대비하여 이용자의 시선높이를 추정하는 단계; 그리고 (D) 상기 시선높이에 따라 이용자의 키를 유추하며 유추된 이용자의 키에 따라 이용자의 연령을 파악하는 단계를 포함하여 판단될 수도 있다.The user age determination of the user characteristic analyzer may include: (A) extracting feature points of the inputted real image; (B) calculating the inclination angle of the real image structure; (C) estimating the line height of the user in preparation for the relative inclination angle of the edge of the structure; And (D) inferring the user's height according to the gaze height and determining the user's age according to the inferred user's height.

이때, 상기 특징점은, 현실영상을 구성하는 구조물의 형태구조를 구분하기 위한 형태 구분점으로 구성될 수도 있다.In this case, the feature point may be configured as a shape separation point for classifying the shape structure of the structure constituting the real image.

그리고 상기 구조물 모서리는, 구조물의 벽면 모서리 또는 도어 테두리일 수도 있다.The edge of the structure may be a wall edge or a door border of the structure.

또한, 상기 (B) 단계에서 산출된 경사각은, 상기 이용자 특성 분석부에 의해 산출된 현실영상 상의 구조물과 이용자의 원근거리에 의해 보정될 수도 있다.In addition, the inclination angle calculated in step (B) may be corrected by the structure of the user image and the perspective distance of the user calculated by the user characteristic analyzer.

그리고 상기 원근거리는, 상기 형태 구분점을 통해 구조물의 형태적 특징을 파악하고, 상기 구조물 정보 DB에 저장된 구조물 특징과 비교하여 해당 구조물의 종류를 파악하며, 상기 구조물 정보 DB에 저장된 해당 구조물의 크기와 입력된 현실영상의 구조물 크기를 대비하여 산출될 수도 있다.And the distance is to determine the morphological features of the structure through the shape separation point, and to determine the type of the structure compared to the structure features stored in the structure information DB, the size of the structure stored in the structure information DB And it may be calculated by comparing the structure size of the input real image.

또한, 상기 구조물정보 DB는, 표면 반사도를 포함하는 표면성질에 따라 구분된 구성재료가 구분되어 저장될 수도 있다.In addition, the structure information DB may be classified and stored according to the surface material properties including the surface reflectivity is classified.

이때, 상기 영상분석부는, 상기 구조물의 종류에 따라, 상기 구조물정보 DB에 저장된 구조물의 재료를 파악할 수도 있다.In this case, the image analyzer may determine the material of the structure stored in the structure information DB according to the type of the structure.

그리고 상기 현실영상 분석은, 입력된 현실영상에 대하여, 상기 현실영상을 구성하는 구조물의 형태구조 및 구성재료의 변화위치를 구분하기 구분점을 설정할 수 있다.The real image analysis may set a division point for distinguishing the change position of the shape structure and the constituent material of the structure constituting the real image with respect to the inputted real image.

또한, 상기 가상콘텐츠의 선별은, 매칭위치 구조물 재료에 따라 선별될 수도 있다.In addition, the selection of the virtual content may be selected according to the matching position structure material.

그리고 상기 가상 콘텐츠의 매핑 위치는, 출력될 가상 콘텐츠의 특성과, 현실영상에 포함된 구조물의 크기 및 형태에 따라 설정될 수도 있다.The mapping position of the virtual content may be set according to the characteristics of the virtual content to be output and the size and shape of the structure included in the real image.

또한, 상기 가상콘텐츠 매핑 시스템은, 이용자의 신체에 착용되는 웨어러블기기로 구현될 수도 있다.In addition, the virtual content mapping system may be implemented as a wearable device worn on the user's body.

그리고 상기 디스플레이는, 웨어러블 기기에 형성된 투명 스크린일 수도 있고, 모니터 장치일 수도 있다.The display may be a transparent screen formed on the wearable device or may be a monitor device.

위에서 살핀 바와 같은 본 발명에 의한 혼합 현실 게임 생성 및 제공 시스템에서는 다음과 같은 효과를 기대할 수 있다.In the mixed reality game generation and provision system according to the present invention as described above, the following effects can be expected.

즉, 본 발명에서는 게임 이용자들의 플레이 내용을 기계학습하여, 스테이지 를 레벨에 최적화하여 자동으로 생성할 수 있으므로, 게임의 레벨 적합성 및 다양성을 구현할 수 있는 효과가 있다.In other words, in the present invention, since the play contents of the game users can be machine-learned, the stage can be automatically generated by optimizing the stage, and thus the level suitability and diversity of the game can be realized.

그리고 본 발명은 이용자의 연령에 따라 서로 다른 콘텐츠를 선별하여 제공함에 따라, 동일한 서비스를 모든 연령이 이용하면서도 이용자의 정서 교육에 피해가 발생된는 것이 방지되는 장점이 있다.In addition, the present invention has the advantage that by selecting different content according to the age of the user, it is possible to prevent damage to the emotional education of the user while using the same service for all ages.

도 1은 종래기술에 의한 혼합현실 구현 시스템의 구성을 블록도.
도 2는 본 발명의 구체적인 실시예에 의한 혼합 현실 게임 제공 시스템의 구성을 도시한 블록도.
도 3은 본 발명의 구체적인 실시예에 의한 혼합 현실 게임 생성 방법을 도시한 흐름도.
도 4는 본 발명의 구체적인 실시예에 의해 생성된 혼합현실의 일예를 도시한 예시도.
도 5는 본 발명의 구체적인 실시예에 의해 생성된 혼합현실의 다른 예를 도시한 예시도.
도 6은 본 발명의 구체적인 실시예에 적용되는 사용자 특성 분석 방법의 일예를 도시한 흐름도.
도 7은 본 발명에 구체적인 실시예에 의해 유아용 콘텐츠가 포함되어 생성된 혼합현실의 일 예를 도시한 예시도.
도 8은 본 발명에 구체적인 실시예에 의해 성인용 콘텐츠가 포함되어 생성된 혼합현실의 일 예를 도시한 예시도.
도 9는 본 발명에 구체적인 실시예에 의해 입력된 현실영상을 통해 사용자 시선높이 산출 예를 도시한 예시도.
Figure 1 is a block diagram of the configuration of a mixed reality implementation system according to the prior art.
Figure 2 is a block diagram showing the configuration of a mixed reality game providing system according to a specific embodiment of the present invention.
3 is a flowchart illustrating a method of generating a mixed reality game according to a specific embodiment of the present invention.
Figure 4 is an illustration showing an example of the mixed reality generated by a specific embodiment of the present invention.
5 is an exemplary diagram showing another example of the mixed reality generated by the specific embodiment of the present invention.
6 is a flowchart illustrating an example of a method for analyzing user characteristics applied to a specific embodiment of the present invention.
Figure 7 is an exemplary view showing an example of mixed reality generated by including the infant content by a specific embodiment of the present invention.
8 is an exemplary view showing an example of mixed reality generated by including adult content by a specific embodiment of the present invention.
9 is an exemplary view illustrating an example of calculating a user's gaze height through a real image input by a specific embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예에 의한 헤드 마운트 디스플레이를 이용한 혼합 현실 게임 제공 시스템을 살펴보기로 한다.Hereinafter, a mixed reality game providing system using a head mounted display according to a specific embodiment of the present invention will be described with reference to the accompanying drawings.

설명에 앞서 먼저, 본 발명의 효과, 특징 및 이를 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예에서 명확해진다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Prior to the description, the effects, features and methods of achieving the same of the present invention will be apparent in the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only the embodiments of the present invention make the disclosure of the present invention complete and the general knowledge in the technical field to which the present invention belongs. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 이용자, 운용자의 의도 또는 관례 등에 따라 달라질 수있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present disclosure, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present disclosure, the detailed description thereof will be omitted, and the following terms are used in the embodiments of the present disclosure. Terms defined in consideration of the function of the may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout the specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Combinations of each block of the block diagrams and respective steps of the flowcharts may be performed by computer program instructions (executable engines), which may be executed on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment. As such, instructions executed through a processor of a computer or other programmable data processing equipment create means for performing the functions described in each block of the block diagram or in each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. The instructions stored therein may also produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram or in each step of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And computer program instructions can also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps can be performed on the computer or other programmable data processing equipment to create a computer-executable process to generate a computer or other programmable data. Instructions for performing data processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.In addition, each block or step may represent a portion of a module, segment or code that includes one or more executable instructions for executing specific logical functions, and in some alternative embodiments referred to in blocks or steps It is also possible that functions occur out of order.

즉, 도시된 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.That is, the two blocks or steps shown may in fact be executed substantially concurrently, and the blocks or steps may be performed in the reverse order of the corresponding functions as required.

이하에서, 본 발명의 구체적인 실시예에 의한 헤드 마운트 디스플레이를 이용한 혼합 현실 게임 제공 시스템을 설명하기로 한다.Hereinafter, a mixed reality game providing system using a head mounted display according to a specific embodiment of the present invention will be described.

도 2는 본 발명의 구체적인 실시예에 의한 혼합 현실 게임 제공 시스템의 구성을 도시한 블록도이고, 도 3은 본 발명의 구체적인 실시예에 의한 혼합 현실 게임 제공 방법을 도시한 흐름도이며, 도 4는 본 발명의 구체적인 실시예에 의해 생성된 혼합현실의 일예를 도시한 예시도이고, 도 5는 본 발명의 구체적인 실시예에 의해 생성된 혼합현실의 다른 예를 도시한 예시도이며, 도 6은 본 발명의 구체적인 실시예에 적용되는 사용자 특성 분석 방법의 일예를 도시한 흐름도이며, 도 7은 본 발명에 구체적인 실시예에 의해 유아용 콘텐츠가 포함되어 생성된 혼합현실의 일 예를 도시한 예시도이고, 도 8은 본 발명에 구체적인 실시예에 의해 성인용 콘텐츠가 포함되어 생성된 혼합현실의 일 예를 도시한 예시도이며, 도 9는 본 발명에 구체적인 실시예에 의해 입력된 현실영상을 통해 사용자 시선높이 산출 예를 도시한 예시도이다.2 is a block diagram showing the configuration of a mixed reality game providing system according to a specific embodiment of the present invention, Figure 3 is a flow chart showing a mixed reality game providing method according to a specific embodiment of the present invention, Figure 4 Exemplary diagram showing an example of the mixed reality generated by the specific embodiment of the present invention, Figure 5 is an exemplary diagram showing another example of the mixed reality generated by the specific embodiment of the present invention, Figure 6 7 is a flowchart illustrating an example of a method for analyzing user characteristics applied to a specific embodiment of the present invention, and FIG. 7 is an exemplary view showing an example of mixed reality generated by including content for infants according to a specific embodiment of the present invention. 8 is an exemplary view showing an example of mixed reality generated by including adult content by a specific embodiment in the present invention, Figure 9 is a specific embodiment in the present invention Ryeokdoen an exemplary view showing an output user height eye through the real image example.

이때, 본 발명에 의한 혼합현실 생성 및 제공 시스템은 이용자의 신체(바람직하게는 두부)에 착용되는 웨어러블기기(헬멧, 안경 등)로 구현될 수도 있고, 별도의 스크린을 가진 출력스크린을 포함하여 구성될 수도 있는 것으로, 콘텐츠를 제공하는 서버를 포함하여 구성될 수도 있다.In this case, the mixed reality generation and provision system according to the present invention may be implemented as a wearable device (helmet, glasses, etc.) worn on the user's body (preferably tofu), it comprises an output screen having a separate screen It may also be configured to include a server for providing content.

이와 같은 시스템 구현의 형태에 따라 본 발명의 구성요소 및 기능수행내용은 시스템 구현 형태에 맞춰 조정될 수 있다.Depending on the form of such a system implementation, the components and functional details of the present invention may be adapted to the form of the system implementation.

예를 들어, 본 발명에 의한 혼합현실 생성 및 제공 시스템이 웨어러블 디바이스로 구현되는 경우, 후술할 촬영모듈 및 글라스 디스플레이는 웨어러블 기기에 부착된 카메라 및 이용자 시선 방향에 설치된 투명 스크린일 수 있고, 혼합현실의 생성 및 출력이라 함은 글라스 디스플레이상에 가상 콘텐츠를 특정 위치에 특정 크기로 표시하는 것을 의미할 수도 있다.For example, when the mixed reality generation and provision system according to the present invention is implemented as a wearable device, the photographing module and the glass display to be described later may be a transparent screen installed in a camera and a user's gaze direction attached to the wearable device, and mixed reality The generation and output of may also mean displaying virtual content in a specific location on a glass display in a specific size.

반면에, 본 발명에 의한 혼합현실 생성 및 제공 시스템이 별도의 스크린이나 디스플레이 화면(모니터 등)을 포함하여 구현되는 경우, 후술할 촬영모듈 및 글라스 디스플레이는 이용자 인체에 부착된 별도의 카메라 및 별도의 모니터 장치일 수 있고, 혼합현실의 생성 및 출력이라 함은 별도의 모니터에 출력될 혼합 영상을 별개의 영상으로 생성하여 모니터 장치 등을 통해 출력하는 것을 의미할 수도 있다.On the other hand, when the mixed reality generation and provision system according to the present invention is implemented including a separate screen or display screen (monitor, etc.), the recording module and the glass display to be described later is a separate camera and a separate camera attached to the user's body It may be a monitor device, and the generation and output of the mixed reality may mean generating a mixed image to be output to a separate monitor as a separate image and outputting the same through a monitor device.

먼저, 도 2에 도시된 바와 같이, 본 발명에 의한 혼합현실 게임 제공 시스템의 구체적인 실시예는, 촬영모듈(110)과 글라스 디스플레이(120), 혼합현실 생성 및 제공 모듈(300) 및 데이터베이스(400)를 포함하여 구성된다.First, as shown in FIG. 2, a specific embodiment of the mixed reality game providing system according to the present invention includes a photographing module 110 and a glass display 120, a mixed reality generating and providing module 300, and a database 400. It is configured to include).

상기 촬영모듈(110)은 이용자의 환경을 촬영하여 현실영상을 획득하는 부분으로, 이용자의 신체 일부에 구비되어, 이용자의 시선방향에 따른 현실영상을 촬영한다.The photographing module 110 is a part for capturing a user's environment to obtain a real image. The photographing module 110 is provided on a part of the user's body to photograph a real image according to the user's gaze direction.

그리고 상기 글라스 디스플레이(120)는 이용자에게 생성된 혼합현실을 출력하여 표시하기 위한 것으로, 전술한 바와 같이, 가상콘텐츠 매핑시스템의 구성형태에 따라 웨어러블 기기에 형성된 투명 스크린일 수도 있고, 별도의 모니터 장치일 수도 있다.The glass display 120 is for outputting and displaying the mixed reality generated to the user. As described above, the glass display 120 may be a transparent screen formed on the wearable device according to the configuration of the virtual content mapping system. It may be.

한편, 상기 혼합현실 생성 및 제공 모듈(300) 및 데이터베이스(400)는 본 발명에 의한 혼합현실을 생성하여 제공하기 위한 부분으로, 이하에서 이들의 구성과 기능에 대하여 상세히 설명하기로 한다.On the other hand, the mixed reality generation and provision module 300 and the database 400 is a part for generating and providing a mixed reality according to the present invention, the configuration and function of these will be described in detail below.

상기 혼합현실 생성 및 제공 모듈(300)은 상기 데이터베이스(400)에 저장된 데이터를 활용하여, 본 발명에 의한 혼합현실을 생성하는 부분으로, 이를 위해 영상분석부(310), 렌더링 생성부(320), 이용자 특성 분석부(330), 가상콘텐츠 가공부(340), 영상병합부(350), 게임레벨 식별부(210) 및 콘텐츠 수행도 기계학습부(220)를 포함하여 구성된다.The mixed reality generation and provision module 300 is a part for generating a mixed reality according to the present invention by using the data stored in the database 400, for this purpose, an image analyzer 310 and a render generator 320 In addition, the user characteristic analyzer 330, the virtual content processing unit 340, the image merger 350, the game level identification unit 210, and the content performance may include the machine learning unit 220.

먼저, 상기 영상분석부(310)는 상기 촬영모듈(100)로부터 촬영된 현실영상을 분석하는 부분으로, 상기 현실영상을 분석하여 현실영상을 구성하는 구조물의 형태 및 종류 분석한다.First, the image analyzer 310 is a part of analyzing the real image photographed from the photographing module 100, and analyzes the shape and type of the structure constituting the real image by analyzing the real image.

이때, 상기 영상분석부(310)는 상기 구조물의 종류에 따라, 기설정된 구조물의 재료도 함께 파악할 수 있다.In this case, the image analyzer 310 may also determine the material of the predetermined structure according to the type of the structure.

나아가, 상기 영상분석부(310)는 상기 촬영모듈(100)로부터 입력되는 서로 다른 방향의 현실영상들을 병합하여 파노라마 영상에 대한 현실영상을 분석할 수도 있다.In addition, the image analyzer 310 may analyze the real image of the panoramic image by merging the real images of different directions input from the photographing module 100.

한편, 상기 렌더링 생성부(320)는 상기 영상분석부(310)에서 분석한 현실영상을 분석결과에 따라 혼합현실을 구현할 가상콘텐츠를 선별하고, 현실영상과 가상콘텐츠의 매칭위치를 설정하는 부분이다.On the other hand, the rendering generator 320 is a part for selecting the virtual content to implement the mixed reality based on the analysis results of the image analyzed by the image analyzer 310, and sets the matching position of the real image and the virtual content .

이때, 상기 가상콘텐츠는 정적 이미지뿐만 아니라 동적 이미지를 포함하는 것으로 게임을 구성하는 케릭터 콘텐츠를 포함한다.In this case, the virtual content includes not only static images but also dynamic images, and includes character contents constituting a game.

그리고 상기 렌더링 생성부(320)의 가상콘텐츠 선별은 이용자 특성을 반영하여 수행되며, 여기서 상기 이용자 특성이라 함은 이용자의 연령 특성을 말하는 것으로, 상기 이용자 특성 분석부(330)에 의해 판별된다.The virtual content selection of the rendering generator 320 is performed by reflecting user characteristics, and the user characteristics refer to the age characteristics of the user, and are determined by the user characteristic analyzer 330.

상기 이용자 특성 분석부(330)는 이용자의 연령을 파악하는 부분으로, 다양한 방식을 통해 상기 이용자의 연령을 파악할 수 있다.The user characteristic analyzer 330 may determine the age of the user, and may identify the age of the user through various methods.

먼저, 상기 이용자 특성 분석부(330)는 이용자의 로그인 정보를 통해 상기 이용자의 연령을 파악할 수 있다.First, the user characteristic analyzer 330 may determine the age of the user through the login information of the user.

또 다르게는, 상기 이용자 특성 분석부(330)는 상기 촬영모듈(100)을 통해 입력된 영상을 분석하여 상기 이용자 연령을 판단할 수 있다.Alternatively, the user characteristic analyzer 330 may determine the user age by analyzing an image input through the photographing module 100.

즉, 상기 이용자 특성 분석부(330)는 입력된 영상을 분석하여, 이용자의 시선높이를 산출하고, 상기 시선높이에 따라 이용자의 신체크기(신장)를 유추하여 이용자의 연령을 추정한다.That is, the user characteristic analyzer 330 analyzes the input image, calculates the gaze height of the user, and estimates the age of the user by inferring the body size (height) of the user according to the gaze height.

상기 이용자 특성 분석부(330)의 이용자 특성 분석 방법은 이후 다시 설명하기로 한다.The user characteristic analysis method of the user characteristic analyzer 330 will be described later.

또한, 상기 배율조정값 산출부(330)는 입력된 현실영상의 구조물과 이용자의 원근 거리를 파악하여, 이에 따라 가상 콘텐츠의 출력 배율을 산출하는 부분으로, 상기 배율조정값 산출부(330)에 의한 구조물과 이용자의 원근거리 산출 방법은, 다시 구체적으로 설명하기로 한다.In addition, the scaling value calculator 330 grasps the perspective distance between the structure of the inputted real image and the user, and calculates the output magnification of the virtual content according to the scaling value calculator 330. The method of calculating the distance between the structure and the user will be described in detail later.

한편, 상기 가상콘텐츠 가공부(340)는 현실영상의 원근에 따라 상기 배율조정값을 산출하여, 산출된 상기 배율 조정값에 따라, 가상 콘텐츠의 출력 배율을 가공하는 부분이다.Meanwhile, the virtual content processing unit 340 calculates the scaling value according to the perspective of the real image, and processes the output magnification of the virtual content according to the calculated scaling value.

다음으로, 상기 영상병합부(350)는 현실영상과 선별되어 배율이 가공된 가상 콘텐츠를 병합하여, 혼합현실을 생성하는 부분으로, 상기 혼합현실의 생성 및 출력은, 전술한 바와 같이, 시스템의 구성형태에 따라 글라스 디스플레이상에 가상 콘텐츠를 특정 위치에 특정 크기로 표시하는 것일 수도 있고, 별도의 영상을 생성하여 별도의 모니터 장치 등을 통해 출력하는 것을 의미할 수도 있다.Next, the image merger 350 merges the virtual image with the selected magnification of the real image to generate a mixed reality, and the generation and output of the mixed reality, as described above, According to the configuration form, the virtual content may be displayed on a glass display in a specific position at a specific size, or may mean that a separate image is generated and output through a separate monitor device.

한편, 상기 렌더링 생성부(320)는 스테이지 레벨과 가상 콘텐츠의 이용자 수행도를 비교하여 가상 콘텐츠를 선별하고 매칭위치를 선별한다.Meanwhile, the rendering generator 320 selects the virtual content and selects a matching position by comparing the stage performance and user performance of the virtual content.

즉, 상기 랜더링 생성부(320)는, 선별된 가상 콘텐츠를 상기 스테이지 레벨에 매칭하여 매핑위치를 산출한다.That is, the rendering generator 320 calculates a mapping position by matching the selected virtual content with the stage level.

그리고 상기 게임레벨 식별부(210)는 게임을 구성하는 각 스테이지에 설정된 레벨을 식별하는 부분으로, 상기 레벨은 스테이지의 난이도를 나타내는 것으로 게임 플레이어의 미션 완료율로 설정될 수 있다.In addition, the game level identification unit 210 is a part for identifying a level set in each stage constituting the game, and the level may indicate a difficulty level of the stage and may be set as a mission completion rate of the game player.

그리고 상기 콘텐츠 수행도 기계학습부(220)는 각 스테이지에 배치된 콘텐츠별로 게임을 플레이한 모든 플레이어들의 플레이 이력을 통해 해당 콘텐츠에 대한 수행도를 산출하는 부분이다.In addition, the content performance machine learning unit 220 is a part for calculating the performance of the corresponding content through the play history of all the players who have played the game for each content arranged in each stage.

이때, 상기 콘텐츠의 수행도 역시 플레이어들의 해당 콘텐츠의 반응도(제거, 완료 등 게임내용에 따른 다양한 미션 완료를 의미한다)를 나타내는 것으로, 플레이어가 해당 콘테츠를 제거(완료)함에 의해 발생된 데미지를 감안하여 산출된다.At this time, the performance of the content also indicates the responsiveness of the corresponding content of the players (meaning the completion of various missions according to the game content, such as the completion of the game), the damage caused by the player to remove (complete) the content It is calculated in consideration.

한편, 상기 데이터베이스(400)는 현실영상의 분석을 위한 구조물의 정보를 제공하고, 혼합현실을 구성하기 위한 가상콘텐츠를 제공하는 부분으로, 이를 위해 구조물정보 DB(410), 영상정보 DB(420), 가상콘텐츠 DB(430) 및 이용자 게임이력 DB(440)를 포함하여 구성된다.On the other hand, the database 400 is a part that provides the information of the structure for the analysis of the real image, and provides a virtual content for configuring the mixed reality, for this purpose, the structure information DB 410, image information DB 420 , The virtual content DB 430 and the user game history DB 440 are configured.

상기 구조물정보 DB(410)는 물체의 형태정보에 따라 구조물의 종류가 구분되어 저장되는 DB로, 상기 구조물정보 DB(410)에는 각 구조물 종류에 따른 구성 재료가 저장된다.The structure information DB 410 is a DB in which types of structures are classified and stored according to shape information of an object. The structure information DB 410 stores constituent materials for each type of structure.

이때, 상기 재료라 함은 해당 구조물을 구성하는 대표적인 재료(재질)을 말하는 것으로, 스틸, 목재, 유리 등으로 구분될 수 있다.In this case, the material refers to a representative material (material) constituting the structure, it may be divided into steel, wood, glass and the like.

그리고 상기 구조물정보 DB(410)에는 표면성질에 따라 구성 재료가 구분되어 저장될 수 있다.In addition, the structure information DB 410 may be divided and stored according to the surface properties.

즉, 표면의 영상 반사도에 따라, 반사도가 고르게 높은 경우 유리, 왜곡이 심한형태로 반사도가 높은 경우 물, 반사정도에 따라 스틸 및 석재 등으로, 표면성질에 따라 구성재료가 구분되어 저장될 수도 있다.That is, depending on the image reflectivity of the surface, even if the reflectivity is evenly high, glass, severely distorted form, if the reflectivity is high water, steel, stone, etc. according to the degree of reflection, the constituent materials may be stored separately according to the surface properties. .

또한, 상기 구조물정보 DB(410)에는 각 구조물의 종류에 따라 평균적인 크기를 의미하는 표준크기 정보와 평균적인 형태를 의미하는 표준형태 정보가 저장된다.In addition, the structure information DB 410 stores standard size information representing an average size and standard form information representing an average form according to the type of each structure.

상기 표준크기 정보는 상기 가상콘텐츠 가공부(340)가 상기 구조물의 원근을 대략적으로 파악하기 위한 기준을 제시하기 위한 정보로, 이에 대한 활용방법은 이후에서 다시 설명하기로 한다. The standard size information is information for the virtual content processing unit 340 to present a criterion for roughly identifying the perspective of the structure, and a method of using the same will be described later.

한편, 상기 영상정보 DB(420)는 상기 영상분석부(310)에서 분석한 영상정보를 저장하는 부분으로, 기입력되어 분석된 영상정보와 해당 영상정보에 대하여 산출된 배율조정값이 저장된다.The image information DB 420 stores the image information analyzed by the image analyzer 310, and stores the previously input and analyzed image information and a scale adjustment value calculated for the corresponding image information.

이는 동일 이용자의 경우, 사용환경이 동일한 경우가 많으므로, 이를 저장하여 영상분석에 따른 자원의 낭비를 방지하고 함이다.In the case of the same user, since the use environment is often the same, it is stored to prevent waste of resources due to image analysis.

즉, 이용자가 동일 환경에서 본 발명에 의한 혼합현실 생성 및 제공 시스템을 구동하는 경우, 저장된 동일 환경에서의 배율조정값을 수정하여, 현재의 배율조정값을 산출할 수 있으므로, 배율조정값 산출 과정을 간소하게 수행할 수 있는 효과가 있다.That is, when the user drives the mixed reality generation and provision system according to the present invention in the same environment, the current scale value can be calculated by modifying the stored scale value in the same environment. There is an effect that can be performed simply.

그리고 상기 가상콘텐츠 DB(430)는 이용자 특성에 따라 적용될 다양한 가상콘텐츠들이 저장되는 부분이다.The virtual content DB 430 is a part in which various virtual contents to be applied according to user characteristics are stored.

이때, 상기 가상콘텐츠 DB(400)는 동일한 종류에 대하여, 연령에 따라 다양한 형태의 콘텐츠가 구분되어 저장된다.At this time, the virtual content DB 400 is stored in a variety of forms of content according to age for the same type.

예를 들어, 동일한 몬스터 콘텐츠의 경우, 유아용으로 귀여운 형태의 콘텐츠와 성인용으로 무섭고 실감나는 형태의 콘텐츠가 각각 구분되어 저장될 수 있다.For example, in the case of the same monster content, a cute form of content for infants and a scary and realistic form of content for adults may be stored separately.

또한, 상기 게임이력 DB(440)는 게임 이용자들의 게임 수행 내용을 저장하는 부분으로, 이를 통해 상기 콘텐츠 난이도 기계학습부(220)가 상기 콘텐츠의 난이도를 산출하는 데이터를 제공하는 부분이다.In addition, the game history DB 440 is a part for storing the game performance of the game users, through which the content difficulty machine learning unit 220 provides data for calculating the difficulty of the content.

이하에서는 상기한 바와 같은 본 발명에 의한 혼합 현실 게임 생성 및 제공 방법을 설명하기로 한다.Hereinafter, a method of generating and providing a mixed reality game according to the present invention as described above will be described.

본 발명에 의한 혼합현실 게임 생성 방법은 도 3에 도시된 바와 같이, 먼저, 촬영모듈(110)이 현실영상을 획득하는 것으로부터 시작된다(S1100).In the mixed reality game generating method according to the present invention, as shown in FIG. 3, first, the photographing module 110 starts from acquiring a real image (S1100).

이때, 현실영상은 파노라마 영상일 수 있다.In this case, the real image may be a panoramic image.

다음으로, 상기 게임레벨 식별부(210)는 해당 스테이지의 레벨정보를 습득한다(1200).Next, the game level identification unit 210 acquires the level information of the stage (1200).

그리고 상기 콘텐츠 수행도 기계학습부(220)는 가상 콘텐츠별로 이용자(플레이어)들의 수행도를 산출한다(S1300). And the content performance machine learning unit 220 calculates the performance of the users (players) for each virtual content (S1300).

다음으로, 상기 랜더링 생성부(320)는 상기 스테이지 레벨의 설정값에 매칭되는 수행도를 갖는 가상 콘텐츠를 선별하고 해당 가상 콘텐츠의 매핑위치를 산출한다(S1400).Next, the rendering generator 320 selects the virtual content having the performance matched to the set value of the stage level and calculates the mapping position of the virtual content (S1400).

이에 따라 현실영상과 상기 제1400단계에서 산출된 가상 콘텐츠를 매핑위치에 병합하여 혼합현실을 생성한다(S1500).Accordingly, the mixed image is generated by merging the real image and the virtual content calculated in operation 1400 at a mapping position (S1500).

이와 같은 본 발명에 의하면, 게임 제공자는 새로운 스테이지를 구성하여 게임을 구성하는 경우, 해당 스테이지에 대한 레벨만을 설정하면, 혼합현실 생성 및 제공 모듈은 해당 스테이지의 레벨에 맞는 가상 콘텐츠를 선별하여 현실영상에 매칭하여 혼합현실을 생성하므로 새로운 스테이지를 구성하여 게임을 생성하는 것이 매우 용이해지는 효과가 있다.According to the present invention, when the game provider constructs a game by configuring a new stage, if only the level for the stage is set, the mixed reality generation and provision module selects the virtual content corresponding to the level of the stage and selects the reality image. Since the mixed reality is generated by matching with, it is very easy to create a game by constructing a new stage.

또한, 동일한 조건하에, 다양한 스테이지를 구성할 수 있게된다.Also, various stages can be configured under the same conditions.

도 4 및 도 5에는 동일한 스테이지 레벨 조건하에서 다양하게 구성된 혼합현실의 예가 도시되어 있다.4 and 5 show examples of mixed reality configured variously under the same stage level conditions.

이에 따라 본 발명에서는 동일 레벨의 스테이지에 다양한 혼합현실을 게임 이용자에게 제공할 수 있으므로, 게임의 재미가 향상되는 효과가 있다.Accordingly, in the present invention, since various mixed reality can be provided to the game user on the stage of the same level, the fun of the game is improved.

한편, 상기 가상콘텐츠를 선별에 있어, 상기 랜더링 생성부(320)는 이용자의 특성을 반영하여 가상콘텐츠를 선별할 수 있다.Meanwhile, in selecting the virtual content, the rendering generator 320 may select the virtual content by reflecting the characteristics of the user.

즉, 상기 이용자 특성 분석부(330)는 이용자의 특성(연령)을 판별하는데, 상기 이용자의 연령 판별은 크게 이용자 접속정보를 통해 판별하는 방법과, 입력된 현실영상을 분석하여 판별하는 방법이 있다.That is, the user characteristic analyzer 330 determines a user's characteristics (age), and the user's age is largely determined through user connection information, and there is a method of analyzing and inputting an actual image. .

먼저, 상기 이용자 접속정보를 통한 방법은, 해당 서비스의 이용자 로그인 정보를 통해 이용자의 연령을 판별하는 것이다.First, the method through the user access information is to determine the age of the user through the user login information of the service.

그리고 상기 현실영상의 분석을 통한 방법은 도 6에 도시된 바와 같이, 먼저, 이용자 특성 분석부(330)가 입력된 현실영상에 대한 특징점을 추출한다(S310).In the method through the analysis of the real image, as shown in FIG. 6, first, the user characteristic analyzer 330 extracts a feature point for the input real image (S310).

이때, 상기 특징점은 상기 입력된 현실영상과 매칭되는 영상정보가 상기 영상정보 DB(420)에 저장되었는지 여부와 상기 입력된 현실영상에 포함된 구조물의 경계위치 및 형태를 파악하기 위한 것으로, 현실영상을 구성하는 구조물의 형태구조를 구분하기 위한 형태 구분점을 포함하여 구성된다.In this case, the feature point is to determine whether the image information matching the input real image is stored in the image information DB 420 and the boundary position and shape of the structure included in the input real image, It is configured to include a shape separation point for distinguishing the shape structure of the structure constituting the structure.

다음으로, 상기 이용자 특성 분석부(330)는, 현실영상 상의 구조물과 이용자의 원근거리를 산출한다(S320).Next, the user characteristic analysis unit 330 calculates the distance between the structure and the user on the real image (S320).

이때, 상기 원근거리의 산출은, 상기 형태 구분점을 통해 구조물의 형태적 특징을 파악하고, 이를 통해 상기 구조물 정보 DB(410)에 저장된 구조물 특징과 비교하여 해당 구조물의 종류를 파악한다.At this time, the calculation of the distance, to determine the structural features of the structure through the shape separation point, and through this to compare the structure features stored in the structure information DB (410) to determine the type of the structure.

그리고 해당 구조물 크기를 대비하여, 이용자(정확히는 '촬영모듈'임)와 구조물의 원근거리를 산출한다.And in preparation for the size of the structure, the distance between the user (exactly the 'photographing module') and the structure is calculated.

이후, 상기 이용자 특성 분석부(330)는 입력영상 구조물의 경사각을 산출한다(S330).Thereafter, the user characteristic analyzer 330 calculates an inclination angle of the input image structure (S330).

이때, 상기 구조물 모서리의 상대적인 경사각을 대비하면, 이용자의 시선 높이를 추정할 수 있다.At this time, when the relative inclination angle of the edge of the structure is prepared, the user's gaze height can be estimated.

즉, 도 9에 도시된 바와 같이, 이용자의 시선높이가 낮을수록 구조물의 상단부 경사각이 작아지고(예각), 이용자의 시선높이가 높을수록 구조물 하부 경사각이 작아진다.That is, as shown in FIG. 9, the lower the eye height of the user, the smaller the inclination angle of the upper end of the structure (acute angle), and the higher the eye height of the user, the smaller the inclination angle of the lower portion of the structure.

이때, 이와 같은 산출방식은 구조물이 직각 모서리부분들로 구성된 경우, 정확도가 높게 산출되므로, 판별된 구조물의 종류 중 일반적으로 장방형으로 형성되는 벽면 모서리, 문의 테두리 등을 기준으로 산출하는 것이 바람직하다.In this case, since the calculation method has a high accuracy when the structure is composed of right angled corner portions, it is preferable to calculate the basis of the wall edges, the edges of doors, etc., which are generally formed in a rectangular shape among the types of the determined structures.

이후, 상기 이용자 특성 분석부(330)는 상기 경사각의 상대적 차이를 통해 이용자의 시선 높이를 추정하고, 상기 시선높이에 따라 이용자의 키를 유추하며, 유추된 이용자의 키에 따라 이용자의 연령을 파악한다(S340).Thereafter, the user characteristic analyzer 330 estimates the gaze height of the user based on the relative difference between the inclination angles, infers the height of the user according to the gaze height, and determines the age of the user according to the inferred height of the user. (S340).

이때, 상기 경사각의 상대적 차이값을 보정하기 위하여, 상기 구조물의 원근거리를 적용할 수 있다.In this case, in order to correct the relative difference value of the inclination angle, the perspective distance of the structure may be applied.

또한, 이와 같은 경계부 경사각의 차이는 구조물이 이용자와 가까운 경우 크게 나타나므로, 판단의 기준이 되는 구조물을 설정하는 경우, 구조물의 원근거리를 활용할 수 있다.In addition, since the difference in the inclination angle of the boundary portion is large when the structure is close to the user, when setting the structure to be the criterion of determination, the distance of the structure may be utilized.

이와 같은 방법에 의해 상기 이용자의 특성이 판단되면, 상기 이용자 특성에 따라 가상 콘텐츠를 선별한다.When the characteristics of the user are determined by the method as described above, the virtual content is selected according to the characteristics of the user.

이때, 상기 가상 콘텐츠의 선별은 상기 이용자 특성인 이용자 연령에 따라 설정된 콘텐츠를 추출하는 것을 말한다.In this case, the selection of the virtual content refers to the extraction of content set according to the user age, which is the user characteristic.

또한, 상기 렌더링 생성부(320)는 획득한 현실 영상 상에 상기 가상 콘텐츠가 매핑될 위치를 선정할 수 있다.In addition, the rendering generator 320 may select a position where the virtual content is to be mapped on the obtained real image.

이때, 상기 가상 콘텐츠의 매핑 위치는 출력될 가상 콘텐츠의 특성에 따라, 분석될 현실영상의 구조물 크기 및 형태에 따라 설정된다.At this time, the mapping position of the virtual content is set according to the structure size and shape of the real image to be analyzed according to the characteristics of the virtual content to be output.

그리고 상기 가상 콘텐츠 가공부(340)는 기산출된 이용자와 구조물과의 원근 거리에 따라 상기 가상 콘텐츠의 출력배율을 조절하기 위한 배율 조정값을 산출하여, 상기 가상 콘텐츠를 상기 배율 조정값에 따라 출력배율을 조정하여 가공할 수 있다.The virtual content processing unit 340 calculates a scaling value for adjusting the output magnification of the virtual content according to the calculated distance between the user and the structure, and outputs the virtual content according to the scaling value. It can be processed by adjusting the magnification.

마지막으로, 생성된 혼합현실을 가상 콘텐츠 제공기준에 따라 이용자에게 출력한다. Finally, the generated mixed reality is output to the user according to the virtual content provision criteria.

이때, 상기 혼합현실의 출력은 가상콘텐츠 매핑시스템의 구성형태에 따라 웨어러블 기기에 형성된 투명 스크린을 통해 출력할 수도 있고, 별도의 모니터 장치를 통해 출력할 수도 있다.In this case, the output of the mixed reality may be output through a transparent screen formed on the wearable device according to the configuration of the virtual content mapping system, or may be output through a separate monitor device.

상기 혼합현실 출력 결과를 예로 들어 설명하면, 도 7과 도 8은 본 발명에 의해 유아용 콘텐츠가 선별되어 출력된 예와 성인용 콘텐츠가 출력된 예를 도시한 예시도이다.Referring to the mixed reality output result as an example, FIGS. 7 and 8 are exemplary diagrams showing an example in which infant content is selected and output according to the present invention, and an example in which adult content is output.

이를 살펴보면, 도 7에 도시된 바와 같이, 이용자의 시선높이가 낮은 경우, 이용자를 유아로 판단하여, 유아용 가상 콘텐츠를 통해 혼합현실을 생성한다.Referring to FIG. 7, when the user's gaze height is low, the user is determined to be an infant, and mixed reality is generated through the virtual content for the infant.

또한, 도 8에 도시된 바와 같이, 이용자의 시선높이가 높은 경우, 이용자을 성인으로 판단하여, 성인용 가상 콘텐츠를 통해 혼합현실을 생성한다.In addition, as shown in FIG. 8, when the gaze height of the user is high, the user is determined to be an adult, and a mixed reality is generated through the adult virtual content.

이에 따라, 유아의 경우 유아에게 적합한 콘텐츠로 구성된 서비스를 제공할수 있을 뿐만 아니라 별도의 이용자에 대한 정보를 제공하지 않아도 이를 시스템이 스스로 판단하여 제공할 수 있게 된다.Accordingly, in the case of an infant, the system may not only provide a service composed of suitable contents for the infant, but also may provide the system by determining it without providing information on a separate user.

도 9에 도시된 바와 같이, 현실영상에 가상 콘테츠를 혼합함에 있어, 상기 콘텐츠 제공기준 설정부(230)는 캐릭터가 현실영상의 은폐/엄폐된 위치를 산출된 보정기준값에 의해 보정하고, 상기 캐릭터의 반응속도 역시 보정기준값에 의해 보정하여 혼합현실을 생성하고 제공한다.As shown in FIG. 9, in mixing the virtual content with the real image, the content providing standard setting unit 230 corrects the concealed / hidden position of the real image by the calculated correction reference value. The response speed of the character is also corrected by the correction reference value to generate and provide a mixed reality.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.

본 발명은 현실 영상에 게임 캐릭터를 포함하는 가상콘텐츠를 매핑하여 구현되는 혼합 현실 게임을 이용자에게 제공하는 헤드 마운트 디스플레이를 이용한 혼합 현실 게임 제공 시스템에 관한 것으로, 본 발명에서는 게임 이용자들의 플레이 내용을 기계학습하여, 스테이지 를 레벨에 최적화하여 자동으로 생성할 수 있으므로, 게임의 레벨 적합성 및 다양성을 구현할 수 있는 효과가 있다.The present invention relates to a mixed reality game providing system using a head mounted display for providing a user with a mixed reality game implemented by mapping virtual content including a game character to a reality image. By learning, the stage can be automatically generated by optimizing the level, which has the effect of realizing the level suitability and diversity of the game.

110 : 촬영모듈 120 : 글라스 디스플레이
210 : 게임레벨 식별부 220 : 콘텐츠 수행도 기계학습부
300 : 혼합현실 생성 및 제공 모듈 310 : 영상분석부
320 : 렌더링 생성부 330 : 이용자 특성 분석부
340 : 가상콘텐츠 가공부 350 : 영상 병합부
400 : 데이터베이스 410 : 구조물정보 DB
420 : 영상정보 DB 430 : 가상콘텐츠 DB
440 : 이용자 게임이력 DB
110: photographing module 120: glass display
210: game level identification unit 220: content performance machine learning unit
300: mixed reality generation and provision module 310: image analysis unit
320: rendering generator 330: user characteristic analysis unit
340: virtual content processing unit 350: video merge unit
400: Database 410: Structure Information DB
420: Image information DB 430: Virtual content DB
440: user game history DB

Claims (8)

이용자의 환경을 촬영하여 현실영상을 획득하는 촬영모듈과;
이용자에게 생성된 혼합현실을 출력하여 표시하기 위한 글라스 디스플레이와;
상기 촬영모듈로부터 입력된 현실영상과 저장된 가상 콘텐츠를 매칭하여 혼합현실을 생성하고, 상기 생성된 혼합현실을 이용자에게 제공하는 혼합현실 생성 및 제공모듈; 그리고
혼합현실을 구성하기 위한 가상콘텐츠들이 저장되는 데이터베이스를 포함하여 구성되고:
상기 혼합현실 생성 및 제공 모듈은,
스테이지에 설정된 레벨 설정값을 독출하고, 상기 데이터베이스에 저장된 가상콘텐츠들에 대한 이용자 수행도를 산출하여, 상기 레벨 설정값에 매칭되는 이용자 수행도를 갖는 가상콘텐츠를 이용하여 혼합현실을 생성함을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
A photographing module for photographing a user's environment and obtaining a real image;
A glass display for outputting and displaying the mixed reality generated to the user;
A mixed reality generation and provision module for generating a mixed reality by matching the stored virtual image input from the photographing module and providing the generated mixed reality to a user; And
It consists of a database that stores virtual content for composing mixed reality:
The mixed reality generation and provision module,
Read the level setting value set in the stage, calculate the user performance for the virtual content stored in the database, and generates a mixed reality using the virtual content having a user performance matching the level setting value Mixed reality game creation and delivery system.
제 1 항에 있어서,
상기 혼합현실 생성 및 제공 모듈은,
생성될 게임의 스테이지에 설정된 레벨을 식별하는 게임레벨 식별부와;
상기 스테이지에 배치된 콘텐츠별로 게임을 플레이 한 플레이어들의 플레이 이력을 통해 해당 콘텐츠에 대한 수행도를 산출하는 콘텐츠 수행도 기계학습부; 그리고
상기 스테이지 레벨에 매칭하는 이용자 수행도를 갖는 가상 콘텐츠를 선별하여 현실영상과 병합될 가상 콘텐츠와 매칭위치를 산출하는 랜더링 생성부를 포함하여 구성됨을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
The method of claim 1,
The mixed reality generation and provision module,
A game level identification unit for identifying a level set in a stage of a game to be created;
A content performance machine learning unit configured to calculate a performance level for the corresponding content based on the play history of the players who have played the game for each content arranged in the stage; And
And a rendering generator for selecting virtual content having a user performance matching the stage level and calculating a virtual content to be merged with a real image and a matching position.
제 2 항에 있어서,
상기 랜더링 생성부는,
선별된 가상 콘텐츠를 상기 스테이지 레벨에 매칭하여 매핑위치를 산출함을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
The method of claim 2,
The rendering generator,
And a mapping position is calculated by matching the selected virtual content with the stage level.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 혼합현실 생성 및 제공모듈은,
상기 촬영모듈로부터 촬영된 현실영상을 분석하여, 상기 현실영상을 구성하는 구조물의 형태 및 종류 분석하는 영상분석부와;
상기 혼합현실을 구현할 가상콘텐츠를 선별하기 위하여, 이용자 연령에 대한 이용자 특성을 분석하는 이용자 특성 분석부와;
현실영상과 가상콘텐츠의 매칭위치를 설정하는 렌더링 생성부; 그리고
상기 이용자 특성 분석부에 의해 분석된 이용자 특성에 따라 선택된 가상콘텐츠의 출력 배율을 가공하는 가상콘텐츠 가공부를 더 포함하여 구성됨을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
The method according to any one of claims 1 to 3,
The mixed reality generation and provision module,
An image analyzing unit analyzing the real image photographed from the photographing module and analyzing the form and type of the structure constituting the real image;
A user characteristic analyzer configured to analyze user characteristics with respect to a user age in order to select virtual content to implement the mixed reality;
A rendering generator for setting a matching position between the real image and the virtual content; And
And a virtual content processing unit for processing the output magnification of the selected virtual content according to the user characteristic analyzed by the user characteristic analysis unit.
제 4 항에 있어서,
상기 데이터베이스는,
다수의 구조물별 구조물의 특성이 구분되어 저장되는 구조물정보 DB와;
상기 영상분석부에서 분석한 영상정보를 저장하는 영상정보 DB와;
사용자 특성에 따른 사용자 연령에 따라 구분된 다수의 가상콘텐츠들이 저장되는 가상콘텐츠 DB; 그리고
게임 이용자들의 게임 수행 내역이 저장되는 이용자 게임 이력 DB를 포함하여 구성됨을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
The method of claim 4, wherein
The database,
A structure information DB for storing characteristics of a plurality of structures according to structures;
An image information DB for storing image information analyzed by the image analyzer;
A virtual content DB for storing a plurality of virtual contents classified according to user age according to user characteristics; And
Mixed-reality game generation and providing system, characterized in that it comprises a user game history DB that stores the game performance history of game users.
제 5 항에 있어서,
상기 구조물정보 DB는,
구조물 형태정보에 따른 구조물의 종류 및 구성재료와;
각 구조물의 종류에 따라 평균적인 크기를 나타내는 표준크기 정보가 저장됨을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
The method of claim 5,
The structure information DB,
The type and constituent material of the structure according to the structure type information;
Mixed size game creation and providing system, characterized in that the standard size information indicating the average size is stored according to the type of each structure.
제 6 항에 있어서,
상기 이용자 특성 분석부는,
특징점이 추출된 현실영상으로부터, 현실영상 상의 구조물과 이용자의 원근거리를 산출하여 배율조정값을 산출함을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
The method of claim 6,
The user characteristic analysis unit,
Mixed reality game generation and providing system, characterized in that to calculate the scale value by calculating the perspective distance of the structure and the user on the real image from the extracted reality image.
제 7 항에 있어서,
상기 이용자 특성 분석부는,
상기 영상분석부로부터 분석된 구조물의 종류에 대하여, 상기 구조물정보 DB에 저장된 표준크기정보와, 상기 현실영상 상의 구조물 크기를 대비하여, 상기 구조물의 원근거리를 산출하고;
상기 원근거리에 따라 가상 콘텐츠의 배율조정값을 산출함을 특징으로 하는 혼합 현실 게임 생성 및 제공 시스템.
The method of claim 7, wherein
The user characteristic analysis unit,
A perspective distance of the structure is calculated with respect to the type of the structure analyzed by the image analyzer, by comparing the standard size information stored in the structure information DB with the structure size on the real image;
And a scaled value of the virtual content according to the perspective distance.
KR1020180062372A 2018-05-31 2018-05-31 Creation and providing system of mixed reality game KR20190136529A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180062372A KR20190136529A (en) 2018-05-31 2018-05-31 Creation and providing system of mixed reality game

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180062372A KR20190136529A (en) 2018-05-31 2018-05-31 Creation and providing system of mixed reality game

Publications (1)

Publication Number Publication Date
KR20190136529A true KR20190136529A (en) 2019-12-10

Family

ID=69002882

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180062372A KR20190136529A (en) 2018-05-31 2018-05-31 Creation and providing system of mixed reality game

Country Status (1)

Country Link
KR (1) KR20190136529A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102527945B1 (en) * 2022-09-06 2023-05-02 주식회사 드림스페이스테크 Metaverse Cave Playground Contents Provision System

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101724360B1 (en) 2016-06-30 2017-04-07 재단법인 실감교류인체감응솔루션연구단 Mixed reality display apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101724360B1 (en) 2016-06-30 2017-04-07 재단법인 실감교류인체감응솔루션연구단 Mixed reality display apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102527945B1 (en) * 2022-09-06 2023-05-02 주식회사 드림스페이스테크 Metaverse Cave Playground Contents Provision System
KR102527942B1 (en) * 2022-09-06 2023-05-03 주식회사 드림스페이스테크 Next-generation operating system for a themed metaverse playground

Similar Documents

Publication Publication Date Title
US11798239B2 (en) Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3D environment
JP7248859B2 (en) Methods and systems for generating and displaying 3D video within virtual, augmented, or mixed reality environments
Viola et al. Importance-driven focus of attention
US10963140B2 (en) Augmented reality experience creation via tapping virtual surfaces in augmented reality
US20130222647A1 (en) Image processing device, control method for an image processing device, program, and information storage medium
US20100231590A1 (en) Creating and modifying 3d object textures
Marton et al. Natural exploration of 3D massive models on large-scale light field displays using the FOX proximal navigation technique
US11961190B2 (en) Content distribution system, content distribution method, and content distribution program
KR20190136529A (en) Creation and providing system of mixed reality game
JP2023171298A (en) Adaptation of space and content for augmented reality and composite reality
Romli et al. AR@ UNIMAP: A development of interactive map using augmented reality
KR20190077161A (en) Creation and providing system of realistic mixed reality
JP2017016439A (en) Program, information processor, depth definition method and recording medium
KR20190136525A (en) Providing system of mixed reality game using hmd
KR20200070531A (en) Creation and providing system of virtual reality for job experience
US10713836B2 (en) Simulating lenses
CN111652986A (en) Stage effect presentation method and device, electronic equipment and storage medium
Grevtsova et al. Augmented, mixed and virtual reality. Techniques of visualization and presentation of archaeological heritage
KR102622709B1 (en) Method and Apparatus for generating 360 degree image including 3-dimensional virtual object based on 2-dimensional image
JP7475625B2 (en) Method and program for receiving and displaying input in three-dimensional space, and device for receiving and displaying input in three-dimensional space
KR100965622B1 (en) Method and Apparatus for making sensitive character and animation
Piechaczek et al. Popular strategies and methods for using augmented reality
Weaver Design and evaluation of a perceptually adaptive rendering system for immersive virtual reality environments
CN112416114A (en) Electronic device and image visual angle identification method thereof
Tran Exploration of the 3D world on the internet using commodity virtual reality devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right