WO2023068795A1 - Device and method for creating metaverse using image analysis - Google Patents

Device and method for creating metaverse using image analysis Download PDF

Info

Publication number
WO2023068795A1
WO2023068795A1 PCT/KR2022/015931 KR2022015931W WO2023068795A1 WO 2023068795 A1 WO2023068795 A1 WO 2023068795A1 KR 2022015931 W KR2022015931 W KR 2022015931W WO 2023068795 A1 WO2023068795 A1 WO 2023068795A1
Authority
WO
WIPO (PCT)
Prior art keywords
metaverse
information
target data
extracted
image analysis
Prior art date
Application number
PCT/KR2022/015931
Other languages
French (fr)
Korean (ko)
Inventor
오우진
Original Assignee
주식회사 제이어스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제이어스 filed Critical 주식회사 제이어스
Publication of WO2023068795A1 publication Critical patent/WO2023068795A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Definitions

  • the present invention relates to an apparatus and method for generating a metaverse, and more particularly, to an apparatus and method for generating a metaverse using image analysis.
  • map services provided online have been continuously developed through image processing technology such as aerial photographs and street views in 2D (landmark, satellite).
  • non-face-to-face online services using the metaverse which has recently been in the limelight, are attracting more attention as the non-face-to-face life becomes longer due to the re-proliferation of Corona 19 and the desire to expand reality into the virtual world.
  • Metaverse is a combination of 'Meta' meaning transcendence and 'Universe' meaning world.
  • a commonly thought metaverse is a game using an avatar or a non-face-to-face meeting in a virtual space.
  • An object of the present invention is to collect target data related to a space to create a metaverse embodying a virtual space, analyze and extract meta information included in the target data, and generate a metaverse based on the meta information, but use an inference engine.
  • Metaverse generation device using image analysis that can be modified and supplemented to enable accurate and sophisticated creation of metaverse space by learning about the connectivity of metaverse space and the accuracy of information included in extracted meta information by utilizing is to provide a way
  • An apparatus for generating a metaverse using image analysis includes a collection unit for collecting target data including photo data related to a space to generate a metaverse implementing a virtual space; The collected target data is collected, meta information included in each target data is analyzed and extracted, and at least one or more objects included in the image of the target data are detected based on a neural network learning-based object recognition algorithm along with location information as meta information.
  • a first inference engine including extracted object information and shape information; a library for classifying and storing meta-information including location information, object information, and shape information extracted from the first inference engine along with the target data in association with corresponding target data; and a metaverse generating unit that collects meta information data extracted and classified from the library and stored for each place to generate a metaverse, which is a virtual space for the corresponding place.
  • the meta information is characterized in that it further includes text information and time information.
  • the library classifies the meta information analyzed and extracted from the first inference engine by element, and separates and stores the meta information in association with the target data, but can be stored separately by place using the location information or by time using the time information.
  • tagging or ID for identification is given in order to assign association with target data and classify by place or time.
  • the metaverse generating device using the image analysis is a second device that performs neural network learning and 3D conversion calculation to generate a 3D metaverse space based on target data in 2D form and meta information extracted from the target data. It further includes an inference engine.
  • the second inference engine can perform learning and calculations for correcting and supplementing the generated metaverse space, and learning about the connectivity of the metaverse space and the accuracy of information included in the extracted meta information, It is characterized by correcting and supplementing to enable accurate and sophisticated creation of the metaverse space as more target data is collected and repeatedly learned.
  • the metaverse generated by the metaverse generator further includes a database that is classified and stored by location using location information or classified and stored by time using time information.
  • the collection unit collecting target data for generating a metaverse that is a 3D virtual space;
  • the first inference engine collects collected target data, analyzes and extracts meta information included in each target data, and includes location information as meta information in an image of the target data based on a neural network learning-based object recognition algorithm.
  • meta information extracted from at least one object classifying and storing, by the library, meta information including location information, object information, and shape information extracted from the first inference engine along with the target data in association with the corresponding target data; and the step of generating the metaverse, which is a virtual space for the corresponding place, by collecting meta information data extracted, classified, and stored from the library by place.
  • the second inference engine may further include performing neural network training and 3D conversion calculation to generate a 3D metaverse space based on target data in 2D form and meta information extracted from the target data.
  • the second inference engine can perform learning and calculations for correcting and supplementing the generated metaverse space, and learning about the connectivity of the metaverse space and the accuracy of information included in the extracted meta information, The step of correcting and supplementing to enable accurate and sophisticated creation of the metaverse space as more target data is collected and repeated learning is further included.
  • the meta information further includes text information and time information, and in the metaverse generation method using the image analysis, the database divides and stores the metaverse generated by the metaverse generator by location and time by utilizing meta information. Include more steps.
  • the apparatus and method for generating a metaverse using image analysis of the present invention collects target data related to a space to generate a metaverse embodying a virtual space, analyzes and extracts meta information included in the target data, and based on the meta information Create a metaverse, but use an inference engine to learn about the connectivity of the metaverse space and the accuracy of the information included in the extracted meta information, so that the metaverse space can be corrected and supplemented to enable accurate and sophisticated creation.
  • metaverse data classified and stored by location and time is compatible with various applications upon request from various demand devices, such as VR devices, mobile devices such as smartphones, tablets, and laptops running map apps, PCs, etc. It can be implemented in, and in particular, since the corresponding place can be implemented and reproduced by time, it can provide functions such as time travel in a virtual space similar to reality implemented by metaverse data.
  • FIG. 1 is a diagram showing the configuration concept of a metaverse generating device using image analysis according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of a metaverse generating device using image analysis according to an embodiment of the present invention.
  • Figure 3 is a flow chart for explaining the library creation process of the metaverse generation method using image analysis according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a metaverse generation process of a metaverse generation method using image analysis according to an embodiment of the present invention.
  • FIG. 5 is a flowchart showing the entire process of a metaverse generation method using image analysis according to an embodiment of the present invention.
  • a sophisticated and accurate metaverse can be created when a metaverse is created by a learning-based inference engine.
  • the data analysis process of the first reasoning engine 200 is a process of extracting meta information corresponding to each element included in data, and by extracting meta information, by utilizing the information necessary to create a metaverse space, sophisticated and accurate It can help to create metaverse data, and can also assist in generating metaverse data by time.
  • the element may be auxiliary information such as photographing time and location (coordinate) information, but may also include object information, which is information about an object included in a photograph image, that is, an object.
  • elements can be classified and classified, and then stored in the library 300 after being clearly organized to be used when creating a metaverse (S104).
  • 3D conversion and metaverse data for a specific place or building are generated through learning of the second inference engine 400 by utilizing the meta information corresponding to the element stored in the library 300 (S106).
  • the generated metaverse data can be generated to lead to one virtual space by neural network learning of the second inference engine 400 based on compatibility, connectivity, and sophistication of the place, and the data is divided by coordinates or sections , It can be stored (S108).
  • a separate blockchain server (not shown) may be prepared for integrity verification and managed through a blockchain network.
  • the authentication unit builds a blockchain network in connection with a number of blockchain servers, generates public and private keys through the established internal blockchain network, converts them into hash values, distributes and stores them, and distributes the stored public keys and users.
  • User authentication can be performed based on the personal information of the user.
  • a plurality of customer terminals which are demand devices capable of communicating with the metaverse generating device using image analysis of the present invention, receive individual user information along with a public key and include a hash value for user information.
  • user certificates that can be generated, and the storage method for each user certificate can be made by a Merkle tree structure.
  • each user certificate (transaction) is stored with a hash value in the lowest child node, and the hash value is stored in the intermediate node on the path leading to the lowest child node in the merkle root (parent node), which is the top level of the merkle tree. It is hashed and stored so that it can be shared.
  • the user certificate copied to the individual customer terminal is compared with the user certificate in the database 600, and only the hash value hashed along the path of the Merkle tree is compared. do.
  • an additional neural network learning algorithm may be used in the inference engine to be used for image restoration when the image required for object recognition is not clear due to limitations in camera performance or camera errors.
  • a new image can be created or regenerated, so it can be used for restoring a damaged image.
  • generative adversarial networks are structured with multiple deep neural networks and require dozens of times more computation than existing deep neural network models to generate high-resolution images, but can provide excellent performance for image restoration. there is.
  • the generative adversarial neural network is an unsupervised learning-based generative model that adversarially trains two networks with a generator and discriminator.
  • Input data is input to the generator to create fake images similar to real images.
  • a noise value may be input as the input data.
  • Noise values can follow any probability distribution. For example, it may be data generated with a zero-mean Gaussian.
  • the discriminator can be trained to discriminate between the real image and the fake image generated by the generator. More specifically, it is possible to learn to have a high probability when a real image is input, and to have a low probability when a fake image is input. That is, the discriminator can gradually learn to discriminate between real images and fake images.
  • GAN generative adversarial network
  • DC-GAN which is a deep convolution generative adversarial network
  • DC-GAN which is a deep convolution generative adversarial network
  • the form of a deep fake can be a form that resembles one's face.
  • deepfakes can be made within the permissible line.
  • DC-GAN needs to construct a Cycle-GAN consisting of two generators and two discriminators, and during the training period, two different sets of numerous images are sent as input, each with two DCGANs, i.e., these two domains as X and represented by Y.
  • the input image x is a member of domain X and the noise signal should be similar to the image of domain Y, denote the generator of the GAN of domain X different from the existing domain as G, and the image generated by G as G ( x).
  • Domain Y is the target domain of this GAN, and likewise for other GANs, the input image is y belonging to domain Y, and the generator (denoted by F) is also an image (F(y), which is difficult to distinguish from the display image), so X is this GAN becomes the target domain of
  • the discriminator of a GAN with generator G can be expressed as:
  • a GAN that differs as DY can be denoted as DX.
  • a 'terminal' may be a wireless communication device with guaranteed portability and mobility, and may be, for example, any type of handheld-based wireless communication device such as a smart phone, a tablet PC, or a laptop computer.
  • the 'terminal' may be a wired communication device such as a PC capable of accessing other terminals or servers through a network.
  • a network refers to a connection structure capable of exchanging information between nodes such as terminals and servers, such as a local area network (LAN), a wide area network (WAN), and the Internet (WWW : World Wide Web), wired and wireless data communications network, telephone network, and wired and wireless television communications network.
  • LAN local area network
  • WAN wide area network
  • WWW World Wide Web
  • wireless data communication networks examples include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasonic communication, visible light communication (VLC: Visible Light Communication), LiFi, and the like, but are not limited thereto.
  • 3GPP 3rd Generation Partnership Project
  • LTE Long Term Evolution
  • WIMAX World Interoperability for Microwave Access
  • Wi-Fi Bluetooth communication
  • infrared communication ultrasonic communication
  • VLC Visible Light Communication
  • LiFi and the like, but are not limited thereto.

Abstract

A device for creating a metaverse using image analysis according to one embodiment of the present invention comprises: a collection unit for collecting target data including photo data related to a space to create a metaverse that implements a virtual space; a first inference engine which collects the collected target data, analyzes and extracts meta information included in each target data, and includes, as the meta information, location information as well as object information and shape information obtained by extracting one or more objects included in an image of the target data based on a neural network learning-based object recognition algorithm; a library which classifies the meta information extracted from the first inference engine in association with corresponding target data as well as the target data, and save same; and a metaverse creation unit which collects meta information data extracted, classified, and saved from the library by place, and creates a metaverse which is a virtual space for a corresponding place.

Description

이미지 분석을 이용한 메타버스 생성 장치 및 방법Apparatus and method for generating metaverse using image analysis
본 발명은 메타버스 생성 장치 및 방법에 관한 것으로, 더욱 상세하게는 이미지 분석을 이용한 메타버스 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a metaverse, and more particularly, to an apparatus and method for generating a metaverse using image analysis.
최근 온라인에서 제공되는 지도 서비스가 2D(지적, 위성)에서 항공사진, 스트리트뷰 등 이미지 처리 기술을 통해 지속적으로 발전되고 있다.Recently, map services provided online have been continuously developed through image processing technology such as aerial photographs and street views in 2D (landmark, satellite).
또한, 자동차 내비게이션 등을 통해 제공되는 상징적 건물의 경우 3D 형태로 변환되어 처리되지만 퀄리티 및 고화질의 문제로 인하여 작은 디스플레이에서 제공될 뿐이어서, 2D 형태보다 식별력이 떨어져 활용 가치가 낮은 문제가 있었다.In addition, in the case of symbolic buildings provided through car navigation systems, etc., they are converted into 3D form and processed, but are only provided on a small display due to problems of quality and high resolution, so there is a problem of lower utilization value than 2D form.
한편, 최근 각광받고 있는 메타버스(현실을 초월한 가상 세계)를 활용한 비대면 온라인 서비스는 코로나19 재확산으로 비대면 생활이 길어지면서 현실을 가상 세계로 확장하려는 열망과 맞물리면서 더욱 주목을 받고 있다.On the other hand, non-face-to-face online services using the metaverse (virtual world that transcends reality), which has recently been in the limelight, are attracting more attention as the non-face-to-face life becomes longer due to the re-proliferation of Corona 19 and the desire to expand reality into the virtual world.
메타버스는 초월이라는 뜻의 '메타(Meta)'와 세계를 뜻하는 '유니버스(Universe)'가 합쳐진 단어다. Metaverse is a combination of 'Meta' meaning transcendence and 'Universe' meaning world.
메타버스를 활용한 구체적인 예를 들면, 대학에서 메타버스로 입시 설명회와 신입생 환영회, 대학 축제를 열었고 최근 도서관도 구축하고 있다.As a specific example of using the metaverse, universities held entrance exam briefings, welcome parties for new students, and university festivals using the metaverse, and are recently building a library.
다른 예로, 기업들은 신입 사원 채용 설명회나 사회공헌 프로그램을 메타버스에서 진행하고 있으며, 정치권에서도 대선 후보들이 이른바 'MZ세대' 표심을 잡기 위해 네이버Z의 메타버스 플랫폼 '제페토'에 유세장을 마련한 경우도 있다.As another example, companies are holding new employee recruitment briefings or social contribution programs on Metaverse, and even in the political world, presidential candidates have set up campaign venues on Naver Z's metaverse platform 'Zepetto' to capture the so-called 'MZ Generation' votes. there is.
일반적으로 생각하는 메타버스는 아바타를 활용한 게임 혹은 가상공간에서 이뤄지는 비대면 회의 등이다.A commonly thought metaverse is a game using an avatar or a non-face-to-face meeting in a virtual space.
하지만 메타버스를 특정 산업에 국한하지 않고 어떻게 활용하느냐에 따라서는 교육, 의료, 엔터테인먼트 등 사회 전반에 혁신을 가져올 수도 있다.However, depending on how the metaverse is used, rather than limited to a specific industry, it may bring innovation to society as a whole, including education, medical care, and entertainment.
따라서, 전술한 문제를 해결하기 위하여 사회 다양한 방면에 활용할 수 있는 이미지 분석을 이용한 메타버스 생성 장치 및 방법에 대한 연구가 필요하게 되었다.Therefore, in order to solve the above-mentioned problems, research on metaverse generation devices and methods using image analysis that can be utilized in various aspects of society has become necessary.
본 발명의 목적은 가상 공간을 구현한 메타버스를 생성할 공간과 관련된 목표 데이터를 수집하고, 목표 데이터에 포함된 메타정보를 분석하여 추출하며, 메타정보를 토대로 메타버스를 생성하되, 추론엔진을 활용하여 메타버스 공간의 연결성, 추출된 메타정보에 포함된 정보의 정확성에 대해서 학습을 수행하여 메타버스 공간의 정확하고 정교한 생성이 가능하도록 수정 및 보완할 수 있는 이미지 분석을 이용한 메타버스 생성 장치 및 방법을 제공하는 것이다.An object of the present invention is to collect target data related to a space to create a metaverse embodying a virtual space, analyze and extract meta information included in the target data, and generate a metaverse based on the meta information, but use an inference engine. Metaverse generation device using image analysis that can be modified and supplemented to enable accurate and sophisticated creation of metaverse space by learning about the connectivity of metaverse space and the accuracy of information included in extracted meta information by utilizing is to provide a way
본 발명의 실시예들의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Objects of the embodiments of the present invention are not limited to the above-mentioned purposes, and other objects not mentioned above will be clearly understood by those skilled in the art from the description below. .
본 발명의 일 실시예에 따른 이미지 분석을 이용한 메타버스 생성 장치는, 가상 공간을 구현한 메타버스를 생성할 공간과 관련된 사진데이터를 포함한 목표 데이터들을 수집하는 수집부; 수집된 목표 데이터를 취합하고, 각 목표 데이터에 포함된 메타정보를 분석하여 추출하며, 메타정보로서 위치정보와 더불어, 신경망 학습 기반 객체 인식 알고리즘을 토대로 목표 데이터의 이미지 내에 포함된 적어도 하나 이상의 객체를 추출한 대상물정보 및 형태정보를 포함시키는 제1 추론엔진; 상기 목표 데이터와 더불어, 상기 제1 추론엔진으로부터 추출된 위치정보, 대상물정보, 형태정보를 포함한 메타정보를 해당 목표 데이터와 연관지어 분류하여 저장하는 라이브러리; 및 상기 라이브러리에서 추출 및 분류되어 저장된 메타정보 데이터들을 장소별로 취합하여 해당 장소에 대한 가상 공간인 메타버스 생성을 수행하는 메타버스생성부를 포함한다.An apparatus for generating a metaverse using image analysis according to an embodiment of the present invention includes a collection unit for collecting target data including photo data related to a space to generate a metaverse implementing a virtual space; The collected target data is collected, meta information included in each target data is analyzed and extracted, and at least one or more objects included in the image of the target data are detected based on a neural network learning-based object recognition algorithm along with location information as meta information. A first inference engine including extracted object information and shape information; a library for classifying and storing meta-information including location information, object information, and shape information extracted from the first inference engine along with the target data in association with corresponding target data; and a metaverse generating unit that collects meta information data extracted and classified from the library and stored for each place to generate a metaverse, which is a virtual space for the corresponding place.
상기 메타정보는 텍스트정보, 시간정보를 더 포함하는 것을 특징으로 한다.The meta information is characterized in that it further includes text information and time information.
상기 라이브러리는 상기 제1 추론엔진에서 분석 및 추출된 메타정보들을 요소별로 구분하고 목표 데이터와 연관지어 분리하여 저장하되, 상기 위치정보를 활용한 장소별 또는 상기 시간정보를 활용한 시간별로 분리 저장할 수 있으며, 목표 데이터와의 연관성을 부여하고, 장소별 또는 시간별로 구분하기 위해 태깅 또는 식별용 ID 부여가 이루어지는 것을 특징으로 한다.The library classifies the meta information analyzed and extracted from the first inference engine by element, and separates and stores the meta information in association with the target data, but can be stored separately by place using the location information or by time using the time information. In addition, it is characterized in that tagging or ID for identification is given in order to assign association with target data and classify by place or time.
상기 이미지 분석을 이용한 메타버스 생성 장치는, 2D 형태로 이루어진 목표 데이터와 해당 목표 데이터로부터 추출된 메타정보를 기반으로 3D 형태의 메타버스 공간을 생성하기 위한 신경망 학습 및 3D 변환 연산을 수행하는 제2 추론엔진을 더 포함한다.The metaverse generating device using the image analysis is a second device that performs neural network learning and 3D conversion calculation to generate a 3D metaverse space based on target data in 2D form and meta information extracted from the target data. It further includes an inference engine.
상기 제2 추론엔진은 생성된 메타버스 공간에 대하여 수정 및 보완하기 위한 학습 및 연산을 수행할 수 있으며, 메타버스 공간의 연결성, 추출된 메타정보에 포함된 정보의 정확성에 대해서 학습을 수행하고, 해당 목표 데이터들을 많이 수집하고 반복 학습할수록 메타버스 공간의 정확하고 정교한 생성이 가능하도록 수정 및 보완하는 것을 특징으로 한다.The second inference engine can perform learning and calculations for correcting and supplementing the generated metaverse space, and learning about the connectivity of the metaverse space and the accuracy of information included in the extracted meta information, It is characterized by correcting and supplementing to enable accurate and sophisticated creation of the metaverse space as more target data is collected and repeatedly learned.
상기 메타버스생성부에서 생성된 메타버스는 위치정보를 활용하여 장소별구분하여 저장하거나 시간정보를 활용하여 시간별로 구분하여 저장하는 데이터베이스를 더 포함한다.The metaverse generated by the metaverse generator further includes a database that is classified and stored by location using location information or classified and stored by time using time information.
본 발명의 일 실시예에 따른 상기 이미지 분석을 이용한 메타버스 생성 장치를 이용한 메타버스 생성 방법에 있어서, 상기 수집부는 3D 형태의 가상 공간인 메타버스를 생성하기 위한 목표 데이터를 수집하는 단계; 상기 제1 추론엔진은 수집된 목표 데이터를 취합하고, 각 목표 데이터에 포함된 메타정보를 분석하여 추출하되, 메타정보로서 위치정보와 더불어, 신경망 학습 기반 객체 인식 알고리즘을 토대로 목표 데이터의 이미지 내에 포함된 적어도 하나 이상의 객체를 추출한 대상물정보를 포함시키는 단계; 상기 라이브러리는 상기 목표 데이터와 더불어, 상기 제1 추론엔진으로부터 추출된 위치정보, 대상물정보, 형태정보를 포함한 메타정보를 해당 목표 데이터와 연관지어 분류하여 저장하는 단계; 및 상기 메타버스생성부는 상기 라이브러리에서 추출 및 분류되어 저장된 메타정보 데이터들을 장소별로 취합하여 해당 장소에 대한 가상 공간인 메타버스 생성을 수행하는 단계를 포함한다.In the metaverse generating method using the metaverse generating device using the image analysis according to an embodiment of the present invention, the collection unit collecting target data for generating a metaverse that is a 3D virtual space; The first inference engine collects collected target data, analyzes and extracts meta information included in each target data, and includes location information as meta information in an image of the target data based on a neural network learning-based object recognition algorithm. including object information extracted from at least one object; classifying and storing, by the library, meta information including location information, object information, and shape information extracted from the first inference engine along with the target data in association with the corresponding target data; and the step of generating the metaverse, which is a virtual space for the corresponding place, by collecting meta information data extracted, classified, and stored from the library by place.
제2 추론엔진은 2D 형태로 이루어진 목표 데이터와 해당 목표 데이터로부터 추출된 메타정보를 기반으로 3D 형태의 메타버스 공간을 생성하기 위한 신경망 학습 및 3D 변환 연산을 수행하는 단계를 더 포함한다.The second inference engine may further include performing neural network training and 3D conversion calculation to generate a 3D metaverse space based on target data in 2D form and meta information extracted from the target data.
상기 제2 추론엔진은 생성된 메타버스 공간에 대하여 수정 및 보완하기 위한 학습 및 연산을 수행할 수 있으며, 메타버스 공간의 연결성, 추출된 메타정보에 포함된 정보의 정확성에 대해서 학습을 수행하고, 해당 목표 데이터들을 많이 수집하고 반복 학습할수록 메타버스 공간의 정확하고 정교한 생성이 가능하도록 수정 및 보완하는 단계를 더 포함한다.The second inference engine can perform learning and calculations for correcting and supplementing the generated metaverse space, and learning about the connectivity of the metaverse space and the accuracy of information included in the extracted meta information, The step of correcting and supplementing to enable accurate and sophisticated creation of the metaverse space as more target data is collected and repeated learning is further included.
상기 메타정보는 텍스트정보, 시간정보를 더 포함하고, 상기 이미지 분석을 이용한 메타버스 생성 방법은 데이터베이스는 메타버스생성부에서 생성된 메타버스를 메타정보를 활용하여 장소별, 시간별로 구분하여 저장하는 단계를 더 포함한다.The meta information further includes text information and time information, and in the metaverse generation method using the image analysis, the database divides and stores the metaverse generated by the metaverse generator by location and time by utilizing meta information. Include more steps.
본 발명의 이미지 분석을 이용한 메타버스 생성 장치 및 방법은 가상 공간을 구현한 메타버스를 생성할 공간과 관련된 목표 데이터를 수집하고, 목표 데이터에 포함된 메타정보를 분석하여 추출하며, 메타정보를 토대로 메타버스를 생성하되, 추론엔진을 활용하여 메타버스 공간의 연결성, 추출된 메타정보에 포함된 정보의 정확성에 대해서 학습을 수행하여 메타버스 공간의 정확하고 정교한 생성이 가능하도록 수정 및 보완할 수 있는 장점이 있다.The apparatus and method for generating a metaverse using image analysis of the present invention collects target data related to a space to generate a metaverse embodying a virtual space, analyzes and extracts meta information included in the target data, and based on the meta information Create a metaverse, but use an inference engine to learn about the connectivity of the metaverse space and the accuracy of the information included in the extracted meta information, so that the metaverse space can be corrected and supplemented to enable accurate and sophisticated creation. There are advantages.
또한, 장소 및 시간별로 분류 저장된 메타버스 데이터는 각종 수요 장치 예를 들어, VR 기기, 지도 맵 앱을 실행하는 스마트폰, 태블릿, 노트북 등의 모바일 디바이스, PC 등에서 요청시 다양한 어플리케이션과 호환하여 화면상에 구현될 수 있으며, 특히 시간 별로 해당 장소를 구현하고 재현할 수 있어, 메타버스 데이터에 의해 구현되는 현실과 유사한 가상 공간에서 시간 여행과 같은 기능을 제공할 수 있다.In addition, metaverse data classified and stored by location and time is compatible with various applications upon request from various demand devices, such as VR devices, mobile devices such as smartphones, tablets, and laptops running map apps, PCs, etc. It can be implemented in, and in particular, since the corresponding place can be implemented and reproduced by time, it can provide functions such as time travel in a virtual space similar to reality implemented by metaverse data.
도 1은 본 발명의 일 실시예에 따른 이미지 분석을 이용한 메타버스 생성 장치의 구성 개념을 보인 도면이다.1 is a diagram showing the configuration concept of a metaverse generating device using image analysis according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 이미지 분석을 이용한 메타버스 생성 장치의 구성을 보인 블록도이다.2 is a block diagram showing the configuration of a metaverse generating device using image analysis according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 이미지 분석을 이용한 메타버스 생성 방법의 라이브러리 생성 과정을 설명하기 위한 순서도이다.Figure 3 is a flow chart for explaining the library creation process of the metaverse generation method using image analysis according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 이미지 분석을 이용한 메타버스 생성 방법의 메타버스 생성 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a metaverse generation process of a metaverse generation method using image analysis according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 이미지 분석을 이용한 메타버스 생성 방법의 전체 과정을 보인 순서도이다.5 is a flowchart showing the entire process of a metaverse generation method using image analysis according to an embodiment of the present invention.
학습 기반의 추론 엔진에 의해 메타버스 생성시 정교하고 정확한 메타버스를 생성시킬 수 있다.A sophisticated and accurate metaverse can be created when a metaverse is created by a learning-based inference engine.
사진 데이터를 수집한 다음, 제1 추론엔진(200)의 신경망 학습을 통해 데이터 분석을 수행한다(S102).After collecting photo data, data analysis is performed through neural network learning of the first reasoning engine 200 (S102).
제1 추론엔진(200)의 데이터 분석 과정은 데이터 내에 포함된 각 요소에 해당하는 메타정보를 추출하는 과정이며, 메타정보를 추출함으로써, 메타버스 공간을 생성하는 데 필요한 정보를 활용하여 정교하고 정확한 메타버스 데이터 생성하는데 도움을 줄 수 있으며, 나아가 시간별 메타버스 데이터를 생성할 수도 있도록 보조할 수도 있다.The data analysis process of the first reasoning engine 200 is a process of extracting meta information corresponding to each element included in data, and by extracting meta information, by utilizing the information necessary to create a metaverse space, sophisticated and accurate It can help to create metaverse data, and can also assist in generating metaverse data by time.
요소는 이를 테면, 촬영시간, 위치(좌표)정보와 같은 보조 정보가 될 수도 있지만, 사진 이미지 내에 포함되는 오브젝트 즉, 대상물에 대한 정보인 대상물정보를 포함할 수 있다.The element may be auxiliary information such as photographing time and location (coordinate) information, but may also include object information, which is information about an object included in a photograph image, that is, an object.
이와 같은 대상물정보를 추출함으로써, 정교한 메타버스를 구현할 수 있도록 하며, 대상물정보를 잘 인식하고 추출하기 위해서 상술한 바와 같은 하나 이상의 신경망 기반 객체 인식 알고리즘을 활용할 수 있다.By extracting such object information, it is possible to implement a sophisticated metaverse, and one or more neural network-based object recognition algorithms as described above can be utilized in order to well recognize and extract object information.
다음으로, 객체 인식 알고리즘 등을 활용하여 요소를 추출 후 요소별로 구분하고 분류하여 메타버스 생성시 활용하기 위해 일목요연하게 정리하여 라이브러리(300)에 저장할 수 있다(S104).Next, after extracting elements using an object recognition algorithm, etc., elements can be classified and classified, and then stored in the library 300 after being clearly organized to be used when creating a metaverse (S104).
다음, 라이브러리(300)에 저장된 요소에 해당하는 메타정보를 활용하여 제2 추론엔진(400)의 학습을 통해 특정 장소나 건물 등에 대한 3D 변환 및 메타버스 데이터를 생성한다(S106).Next, 3D conversion and metaverse data for a specific place or building are generated through learning of the second inference engine 400 by utilizing the meta information corresponding to the element stored in the library 300 (S106).
이때 생성되는 메타버스 데이터는 장소의 호환, 연결성, 정교함 등을 기준으로 제2 추론엔진(400)의 신경망 학습에 의해 하나의 가상 공간으로 이어지도록 생성될 수 있으며, 데이터는 좌표나 구간별로 분할하여, 저장할 수 있다(S108).At this time, the generated metaverse data can be generated to lead to one virtual space by neural network learning of the second inference engine 400 based on compatibility, connectivity, and sophistication of the place, and the data is divided by coordinates or sections , It can be stored (S108).
특히 메타버스 생성시, 제2 추론엔진(400)에 의해 하나의 장소에 대해서 시간별로 수집된 사진 데이터 및 추출된 요소들을 활용하여 별도로 분류하여 생성하고 데이터베이스(600)에 구분하여 저장할 수 있다.In particular, when creating a metaverse, it can be separately classified and created using the photo data and extracted elements collected by the second inference engine 400 for one place over time and stored separately in the database 600.
나아가, 저장된 데이터들에 대해서 보호하고 관리하기 위해 데이터베이스(600)에 저장되는 데이터들에 대해서는 무결성 검증을 위해 별도의 블록체인 서버(미도시)를 마련하고, 블록체인 망을 통하여 관리될 수도 있다.Furthermore, for data stored in the database 600 to protect and manage stored data, a separate blockchain server (not shown) may be prepared for integrity verification and managed through a blockchain network.
나아가 인증부는 다수의 블록체인서버와 연계하여 블록체인망을 구축하고, 기구축된 내부의 블록체인 네트워크를 통해 공개키 및 개인키를 생성하여 해쉬값으로 변환하여 분산 저장하고, 분산 저장된 공개키와 사용자의 개인정보를 기반으로 사용자 인증을 수행할 수 있다.Furthermore, the authentication unit builds a blockchain network in connection with a number of blockchain servers, generates public and private keys through the established internal blockchain network, converts them into hash values, distributes and stores them, and distributes the stored public keys and users. User authentication can be performed based on the personal information of the user.
더 나아가 본 발명의 이미지 분석을 이용한 메타버스 생성 장치와 통신할 수 있는 수요 장치인 다수의 고객 단말(미도시)에서 공개키와 함께 개인 고유의 사용자 정보를 전송받아 사용자 정보에 대한 해쉬값을 포함하는 사용자 인증서를 각각 생성할 수 있으며, 각 사용자 인증서에 대한 저장 방식은 머클 트리 구조에 의해 이루어질 수 있다.Furthermore, a plurality of customer terminals (not shown), which are demand devices capable of communicating with the metaverse generating device using image analysis of the present invention, receive individual user information along with a public key and include a hash value for user information. user certificates that can be generated, and the storage method for each user certificate can be made by a Merkle tree structure.
가령, 각각의 사용자 인증서(거래)를 최하위 자식 노드에 해쉬값을 포함하여 저장하고, 머클 트리의 최상위 레벨인 머클 루트(부모 노드)에는 최하위 자식 노드와 이어지는 경로 상에 있는 중간 노드에 해시값을 공유하도록 해싱(hashing)하여 저장하게 된다.For example, each user certificate (transaction) is stored with a hash value in the lowest child node, and the hash value is stored in the intermediate node on the path leading to the lowest child node in the merkle root (parent node), which is the top level of the merkle tree. It is hashed and stored so that it can be shared.
이를 통해 저장된 사용자 인증서의 진위 여부를 판단할 때, 개인의 고객 단말에 복사된 사용자 인증서와 데이터베이스(600)의 사용자 인증서를 비교하게 되고, 머클 트리의 경로를 따라 해싱된 해쉬값만을 비교하여 이루어지게 된다.When determining the authenticity of the stored user certificate through this, the user certificate copied to the individual customer terminal is compared with the user certificate in the database 600, and only the hash value hashed along the path of the Merkle tree is compared. do.
이때, 머클 트리의 경로 상에서 비교 연산이 이루어짐에 따라 모든 노드의 블록에 대한 비교 연산을 수행하지 않아도 되기 때문에, 비교적 쉬운 연산량으로 진위 여부를 판단할 수 있으며, 거래의 위변조도 쉽고 빠르게 찾아낼 수 있으며, 용량이 작은 휴대 단말 형태의 고객 단말에서도 쉽게 거래를 검증할 수 있게 된다.At this time, since the comparison operation is performed on the path of the Merkle tree, it is not necessary to perform the comparison operation on the blocks of all nodes, so it is possible to determine the authenticity with a relatively easy amount of calculation, and forgery of the transaction can be found easily and quickly. , transactions can be easily verified even in a customer terminal in the form of a portable terminal with a small capacity.
나아가 추론엔진에는 복수의 사진 데이터를 추출하더라도, 카메라 성능의 한계나 카메라 오류 등으로 인하여 객체 인식에 필요한 정도의 이미지가 선명하지 않는 경우의 이미지 복원에 활용하기 위한 추가 신경망 학습 알고리즘을 활용할 수도 있다.Furthermore, even if a plurality of photo data is extracted, an additional neural network learning algorithm may be used in the inference engine to be used for image restoration when the image required for object recognition is not clear due to limitations in camera performance or camera errors.
구체적으로 생성적 적대 신경망(Generative Adversarial Networks)을 활용함으로써, 새로운 이미지를 생성 또는 재생성할 수 있어 손상된 이미지 복원에 활용될 수 있다.Specifically, by utilizing generative adversarial networks, a new image can be created or regenerated, so it can be used for restoring a damaged image.
생성적 적대 신경망은 기존의 딥러닝 네트워크와는 달리 여러 개의 심층 신경망으로 이루어진 구조로, 고해상도 이미지를 생성하기 위해 기존 심층 신경망 모델보다 수십 배 많은 연산량을 요구하지만, 이미지 복원에 탁월한 성능을 제공할 수 있다.Unlike conventional deep learning networks, generative adversarial networks are structured with multiple deep neural networks and require dozens of times more computation than existing deep neural network models to generate high-resolution images, but can provide excellent performance for image restoration. there is.
또한 생성적 적대 신경망은 생성기(Generator)와 판별기(Discriminator)로 두 네트워크를 적대적(Adversarial)으로 학습시키는 비지도 학습 기반 생성모델로서, 생성기에는 입력 데이터가 입력되어 실제 이미지와 유사한 가짜 이미지를 만들어내도록 학습될 수 있다. 입력 데이터는 노이즈 값이 입력될 수 있다. 노이즈 값은 어떤 확률 분포를 따를 수 있다. 예컨대, 제로 평균 가우시안(Zero-Mean Gaussian)으로 생성된 데이터일 수 있다.In addition, the generative adversarial neural network is an unsupervised learning-based generative model that adversarially trains two networks with a generator and discriminator. Input data is input to the generator to create fake images similar to real images. can be learned to A noise value may be input as the input data. Noise values can follow any probability distribution. For example, it may be data generated with a zero-mean Gaussian.
판별기는 실제 이미지와 생성기가 생성한 가짜 이미지를 판별하도록 학습할 수 있다. 보다 구체적으로는, 실제 이미지를 입력하면 높은 확률이 나오도록, 가짜 이미지를 입력하면 확률이 낮아지도록 학습할 수 있다. 즉, 판별기는 실제 이미지와 가짜 이미지를 잘 판별하도록 점진적으로 학습할 수 있다.The discriminator can be trained to discriminate between the real image and the fake image generated by the generator. More specifically, it is possible to learn to have a high probability when a real image is input, and to have a low probability when a fake image is input. That is, the discriminator can gradually learn to discriminate between real images and fake images.
또한, 생성적 적대 신경망(GAN) 알고리즘을 활용하여 가짜 이미지를 생성하여, 가상 공간인 메타버스 세계에 자신의 실물 사진 대신에 자신의 아바타를 구현할 수도 있으며, 학습에 의해 가짜 이미지가 진짜 이미지에 가깝게 만들어낼 수도 있다.In addition, by using a generative adversarial network (GAN) algorithm to create a fake image, you can implement your own avatar instead of your real photo in the metaverse world, a virtual space. can also be created
더 나아가 GAN 중에서도 딥컨벌루션 생성적 적대 신경망에 해당하는 DC-GAN을 활용하여 딥페이크 아바타 형태로도 구현하고, 딥페이크의 형태는 자신의 얼굴을 닮은 형태가 될 수 있으며, 초상권 문제와 관련하여서는 당사자의 협의를 전제로 하여 딥페이크가 허용되는 선에서 이루어지도록 할 수 있다.Furthermore, among GANs, DC-GAN, which is a deep convolution generative adversarial network, can be used to implement it in the form of a deep fake avatar, and the form of a deep fake can be a form that resembles one's face. Under the premise of the agreement, deepfakes can be made within the permissible line.
DC-GAN은 두 개의 생성기와 두 개의 판별기를 구성한 Cycle-GAN을 구성할 필요가 있으며, 훈련 기간 동안 두 개의 서로 다른 수많은 이미지 세트가 입력으로 전송되며, 각각 두 개의 DCGAN 즉 이 두 도메인을 X 및 Y로 나타낸다.DC-GAN needs to construct a Cycle-GAN consisting of two generators and two discriminators, and during the training period, two different sets of numerous images are sent as input, each with two DCGANs, i.e., these two domains as X and represented by Y.
DCGAN 중 하나의 경우 입력 이미지 x는 도메인 X의 구성원 및 노이즈 신호는 도메인 Y의 이미지와 비슷해야 하고, 기존 도메인과 다른 도메인 X의 GAN의 생성기를 G로 표시하고 G에 의해 생성된 이미지를 G (x)로 표시한다.For one of the DCGANs, the input image x is a member of domain X and the noise signal should be similar to the image of domain Y, denote the generator of the GAN of domain X different from the existing domain as G, and the image generated by G as G ( x).
도메인 Y는 이 GAN의 대상 도메인이고, 마찬가지로 다른 GAN의 경우 입력 이미지는 도메인 Y에 속하는 y이고, 생성기 (F로 표시)도 이미지 (표시 이미지와 구분하기 어려운 F(y)) 따라서 X는 이 GAN의 대상 도메인이 된다.Domain Y is the target domain of this GAN, and likewise for other GANs, the input image is y belonging to domain Y, and the generator (denoted by F) is also an image (F(y), which is difficult to distinguish from the display image), so X is this GAN becomes the target domain of
생성기 G가 있는 GAN의 판별기는 다음과 같이 표시될 수 있다.The discriminator of a GAN with generator G can be expressed as:
목적은 가짜 이미지 G(x)를 도메인 Y의 실제 이미지와 구별하는 것이므로 DY로 다른 GAN은 DX로 표시될 수 있다.Since the goal is to distinguish the fake image G(x) from the real image in domain Y, a GAN that differs as DY can be denoted as DX.
또한, 주기 일관성 손실(cycle consistency loss, Lcyc)을 도입하여 한 도메인에서 다른 도메인으로 이미지를 변환하면 다시 이 도메인으로 복귀시, 마지막으로 이미지가 있던 곳으로 복귀한다. 이것은 입력과 출력을 매핑하는 것이 합리적임을 의미하며, 이때의 주기 일관성 손실은 다음의 두 부분으로 구성된다.In addition, by introducing cycle consistency loss (Lcyc), if an image is converted from one domain to another, when returning to this domain, it returns to the location where the image was last. This means that it is reasonable to map inputs and outputs, and the periodic coherence loss at this time consists of the following two parts.
하나는 F(G(x)) = x (G 매핑을 통해 입력 이미지 x를 도메인 X에서 도메인 Y로, 그리고 매핑을 통해 다시 도메인 X로 변환)를 통해 도메인 X로 돌아가는 전방향 주기 일관성 손실(forward cycle-consistency loss)이고, 다른 하나는 G(F(y)) = y에 해당하는 역방향 주기 일관성 손실(backward cycle-consistency loss)이라고 한다.One is the forward periodic coherence loss back to domain X via F(G(x)) = x (transforms the input image x from domain X to domain Y via G mapping and back to domain X via mapping). cycle-consistency loss), and the other is called backward cycle-consistency loss corresponding to G(F(y)) = y.
본 명세서에서 ‘단말’은 휴대성 및 이동성이 보장된 무선 통신 장치일 수 있으며, 예를 들어 스마트폰, 태블릿 PC 또는 노트북 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치일 수 있다. 또한, ‘단말’은 네트워크를 통해 다른 단말 또는 서버 등에 접속할 수 있는 PC 등의 유선 통신 장치인 것도 가능하다. 또한, 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다.In this specification, a 'terminal' may be a wireless communication device with guaranteed portability and mobility, and may be, for example, any type of handheld-based wireless communication device such as a smart phone, a tablet PC, or a laptop computer. Also, the 'terminal' may be a wired communication device such as a PC capable of accessing other terminals or servers through a network. In addition, a network refers to a connection structure capable of exchanging information between nodes such as terminals and servers, such as a local area network (LAN), a wide area network (WAN), and the Internet (WWW : World Wide Web), wired and wireless data communications network, telephone network, and wired and wireless television communications network.
무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi, Bluetooth communication, infrared communication, ultrasonic communication, visible light communication (VLC: Visible Light Communication), LiFi, and the like, but are not limited thereto.

Claims (10)

  1. 가상 공간을 구현한 메타버스를 생성할 공간과 관련된 사진데이터를 포함한 목표 데이터들을 수집하는 수집부;a collection unit that collects target data including photo data related to a space to create a metaverse that implements a virtual space;
    수집된 목표 데이터를 취합하고, 각 목표 데이터에 포함된 메타정보를 분석하여 추출하며, 메타정보로서 위치정보와 더불어, 신경망 학습 기반 객체 인식 알고리즘을 토대로 목표 데이터의 이미지 내에 포함된 적어도 하나 이상의 객체를 추출한 대상물정보 및 형태정보를 포함시키는 제1 추론엔진;The collected target data is collected, meta information included in each target data is analyzed and extracted, and at least one or more objects included in the image of the target data are detected based on a neural network learning-based object recognition algorithm along with location information as meta information. A first inference engine including extracted object information and shape information;
    상기 목표 데이터와 더불어, 상기 제1 추론엔진으로부터 추출된 위치정보, 대상물정보, 형태정보를 포함한 메타정보를 해당 목표 데이터와 연관지어 분류하여 저장하는 라이브러리; 및a library for classifying and storing meta-information including location information, object information, and shape information extracted from the first inference engine along with the target data in association with corresponding target data; and
    상기 라이브러리에서 추출 및 분류되어 저장된 메타정보 데이터들을 장소별로 취합하여 해당 장소에 대한 가상 공간인 메타버스 생성을 수행하는 메타버스생성부;a metaverse generating unit that collects the stored meta information data extracted and classified from the library by place and creates a metaverse, which is a virtual space for the place;
    를 포함하는 이미지 분석을 이용한 메타버스 생성 장치.Metaverse generation device using image analysis containing a.
  2. 청구항 1에 있어서,The method of claim 1,
    상기 메타정보는The meta information
    텍스트정보, 시간정보를 더 포함하는 이미지 분석을 이용한 메타버스 생성 장치.Metaverse generation device using image analysis that further includes text information and time information.
  3. 청구항 2에 있어서,The method of claim 2,
    상기 라이브러리는The library
    상기 제1 추론엔진에서 분석 및 추출된 메타정보들을 요소별로 구분하고 목표 데이터와 연관지어 분리하여 저장하되, 상기 위치정보를 활용한 장소별 또는 상기 시간정보를 활용한 시간별로 분리 저장할 수 있으며, The meta information analyzed and extracted from the first inference engine is classified by element and stored separately in association with the target data, and stored separately by place using the location information or by time using the time information,
    목표 데이터와의 연관성을 부여하고, 장소별 또는 시간별로 구분하기 위해 태깅 또는 식별용 ID 부여가 이루어지는 것을 특징으로 하는 이미지 분석을 이용한 메타버스 생성 장치.A metaverse generating device using image analysis, characterized in that tagging or ID for identification is given in order to associate with target data and classify by place or time.
  4. 청구항 1에 있어서,The method of claim 1,
    2D 형태로 이루어진 목표 데이터와 해당 목표 데이터로부터 추출된 메타정보를 기반으로 3D 형태의 메타버스 공간을 생성하기 위한 신경망 학습 및 3D 변환 연산을 수행하는 제2 추론엔진을 더 포함하는 이미지 분석을 이용한 메타버스 생성 장치.Based on target data in 2D form and meta information extracted from the target data, neural network learning to generate a metaverse space in 3D form and a second inference engine that performs 3D conversion operation are further included Meta using image analysis bus generator.
  5. 청구항 4에 있어서,The method of claim 4,
    상기 제2 추론엔진은The second inference engine
    생성된 메타버스 공간에 대하여 수정 및 보완하기 위한 학습 및 연산을 수행할 수 있으며, 메타버스 공간의 연결성, 추출된 메타정보에 포함된 정보의 정확성에 대해서 학습을 수행하고, 해당 목표 데이터들을 많이 수집하고 반복 학습할수록 메타버스 공간의 정확하고 정교한 생성이 가능하도록 수정 및 보완하는 것을 특징으로 하는 이미지 분석을 이용한 메타버스 생성 장치.It is possible to perform learning and calculations to correct and supplement the created metaverse space, learn about the connectivity of the metaverse space and the accuracy of the information included in the extracted meta information, and collect a lot of target data. A metaverse generating device using image analysis, characterized in that the more it learns, the more it corrects and supplements to enable accurate and sophisticated creation of the metaverse space.
  6. 청구항 3에 있어서,The method of claim 3,
    상기 메타버스생성부에서 생성된 메타버스는 위치정보를 활용하여 장소별구분하여 저장하거나 시간정보를 활용하여 시간별로 구분하여 저장하는 데이터베이스A database that stores metaverses generated by the metaverse generator by dividing them by location using location information or by time using time information.
    를 더 포함하는 이미지 분석을 이용한 메타버스 생성 장치.Metaverse generation device using image analysis further comprising a.
  7. 청구항 1 내지 청구항 6 중 어느 한 항의 이미지 분석을 이용한 메타버스 생성 장치를 이용한 메타버스 생성 방법에 있어서,In the metaverse generation method using the metaverse generation device using image analysis of any one of claims 1 to 6,
    상기 수집부는 3D 형태의 가상 공간인 메타버스를 생성하기 위한 목표 데이터를 수집하는 단계;collecting target data for generating a metaverse, which is a 3D virtual space;
    상기 제1 추론엔진은 수집된 목표 데이터를 취합하고, 각 목표 데이터에 포함된 메타정보를 분석하여 추출하되, 메타정보로서 위치정보와 더불어, 신경망 학습 기반 객체 인식 알고리즘을 토대로 목표 데이터의 이미지 내에 포함된 적어도 하나 이상의 객체를 추출한 대상물정보를 포함시키는 단계;The first inference engine collects collected target data, analyzes and extracts meta information included in each target data, and includes location information as meta information in an image of the target data based on a neural network learning-based object recognition algorithm. including object information extracted from at least one object;
    상기 라이브러리는 상기 목표 데이터와 더불어, 상기 제1 추론엔진으로부터 추출된 위치정보, 대상물정보, 형태정보를 포함한 메타정보를 해당 목표 데이터와 연관지어 분류하여 저장하는 단계; 및classifying and storing, by the library, meta information including location information, object information, and shape information extracted from the first inference engine along with the target data in association with the corresponding target data; and
    상기 메타버스생성부는 상기 라이브러리에서 추출 및 분류되어 저장된 메타정보 데이터들을 장소별로 취합하여 해당 장소에 대한 가상 공간인 메타버스 생성을 수행하는 단계The metaverse generating unit collects the stored meta information data extracted and classified from the library by place and performs the creation of a metaverse, which is a virtual space for the place.
    를 포함하는 이미지 분석을 이용한 메타버스 생성 방법.Metaverse generation method using image analysis containing a.
  8. 청구항 7에 있어서,The method of claim 7,
    제2 추론엔진은 2D 형태로 이루어진 목표 데이터와 해당 목표 데이터로부터 추출된 메타정보를 기반으로 3D 형태의 메타버스 공간을 생성하기 위한 신경망 학습 및 3D 변환 연산을 수행하는 단계The second inference engine performs neural network learning and 3D conversion calculation to generate a 3D metaverse space based on target data in 2D form and meta information extracted from the target data
    를 더 포함하는 이미지 분석을 이용한 메타버스 생성 방법.Metaverse generation method using image analysis further comprising a.
  9. 청구항 8에 있어서,The method of claim 8,
    상기 제2 추론엔진은The second inference engine
    생성된 메타버스 공간에 대하여 수정 및 보완하기 위한 학습 및 연산을 수행할 수 있으며, 메타버스 공간의 연결성, 추출된 메타정보에 포함된 정보의 정확성에 대해서 학습을 수행하고, 해당 목표 데이터들을 많이 수집하고 반복 학습할수록 메타버스 공간의 정확하고 정교한 생성이 가능하도록 수정 및 보완하는 단계It is possible to perform learning and calculations to correct and supplement the created metaverse space, learn about the connectivity of the metaverse space and the accuracy of the information included in the extracted meta information, and collect a lot of target data. Steps of correcting and supplementing to enable accurate and sophisticated creation of the metaverse space as more and more repeated learning is performed
    를 더 포함하는 이미지 분석을 이용한 메타버스 생성 방법.Metaverse generation method using image analysis further comprising a.
  10. 청구항 8에 있어서,The method of claim 8,
    상기 메타정보는The meta information
    텍스트정보, 시간정보를 더 포함하고, It further includes text information and time information,
    상기 이미지 분석을 이용한 메타버스 생성 방법은The metaverse generation method using the image analysis is
    데이터베이스는 메타버스생성부에서 생성된 메타버스를 메타정보를 활용하여 장소별, 시간별로 구분하여 저장하는 단계를 더 포함하는 이미지 분석을 이용한 메타버스 생성 방법.The database is a method of generating a metaverse using image analysis, further comprising storing the metaverse generated by the metaverse generator by using meta information by location and time.
PCT/KR2022/015931 2021-10-22 2022-10-19 Device and method for creating metaverse using image analysis WO2023068795A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0141722 2021-10-22
KR1020210141722A KR102402170B1 (en) 2021-10-22 2021-10-22 Apparatus and method for generating metaverse using image analysis

Publications (1)

Publication Number Publication Date
WO2023068795A1 true WO2023068795A1 (en) 2023-04-27

Family

ID=81809445

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/015931 WO2023068795A1 (en) 2021-10-22 2022-10-19 Device and method for creating metaverse using image analysis

Country Status (2)

Country Link
KR (1) KR102402170B1 (en)
WO (1) WO2023068795A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102402170B1 (en) * 2021-10-22 2022-05-26 주식회사 제이어스 Apparatus and method for generating metaverse using image analysis
KR102619706B1 (en) * 2022-07-18 2024-01-02 주식회사 페어립에듀 Metaverse virtual space implementation system and method
KR20240023297A (en) * 2022-08-11 2024-02-21 붐앤드림베케이션 주식회사 Device and method of transaction for products with meta time-space coordinates organized based on the coordinate generator of the meta time-space by product, Search and access devices for products with meta time-space coordinates

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130011037A (en) * 2011-07-20 2013-01-30 국민대학교산학협력단 Knowledge based augmented reality system
KR20130061538A (en) * 2011-12-01 2013-06-11 한국전자통신연구원 Apparatus and method for providing contents based virtual reality
KR20180092778A (en) * 2017-02-10 2018-08-20 한국전자통신연구원 Apparatus for providing sensory effect information, image processing engine, and method thereof
WO2020229841A1 (en) * 2019-05-15 2020-11-19 Roborace Limited A metaverse data fusion system
JP2021140767A (en) * 2020-03-06 2021-09-16 エヌビディア コーポレーション Unsupervized learning of scene structure for synthetic data generation
KR102402170B1 (en) * 2021-10-22 2022-05-26 주식회사 제이어스 Apparatus and method for generating metaverse using image analysis

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101759188B1 (en) 2015-06-09 2017-07-31 오인환 the automatic 3D modeliing method using 2D facial image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130011037A (en) * 2011-07-20 2013-01-30 국민대학교산학협력단 Knowledge based augmented reality system
KR20130061538A (en) * 2011-12-01 2013-06-11 한국전자통신연구원 Apparatus and method for providing contents based virtual reality
KR20180092778A (en) * 2017-02-10 2018-08-20 한국전자통신연구원 Apparatus for providing sensory effect information, image processing engine, and method thereof
WO2020229841A1 (en) * 2019-05-15 2020-11-19 Roborace Limited A metaverse data fusion system
JP2021140767A (en) * 2020-03-06 2021-09-16 エヌビディア コーポレーション Unsupervized learning of scene structure for synthetic data generation
KR102402170B1 (en) * 2021-10-22 2022-05-26 주식회사 제이어스 Apparatus and method for generating metaverse using image analysis

Also Published As

Publication number Publication date
KR102402170B1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
WO2023068795A1 (en) Device and method for creating metaverse using image analysis
EP3876140B1 (en) Method and apparatus for recognizing postures of multiple persons, electronic device, and storage medium
CN103617422B (en) A social relation management method based on business card recognition
CN109543690A (en) Method and apparatus for extracting information
CN111368943B (en) Method and device for identifying object in image, storage medium and electronic device
CN111461089A (en) Face detection method, and training method and device of face detection model
WO2014051246A1 (en) Method and apparatus for inferring facial composite
CN110598019B (en) Repeated image identification method and device
CN104484814B (en) A kind of advertising method and system based on video map
CN111695430A (en) Multi-scale face detection method based on feature fusion and visual receptive field network
CN110348463A (en) The method and apparatus of vehicle for identification
CN110046297A (en) Recognition methods, device and the storage medium of O&M violation operation
CN112989767A (en) Medical term labeling method, medical term mapping device and medical term mapping equipment
CN113610034B (en) Method and device for identifying character entities in video, storage medium and electronic equipment
CN105631404A (en) Method and device for clustering pictures
CN113762034A (en) Video classification method and device, storage medium and electronic equipment
CN115168609A (en) Text matching method and device, computer equipment and storage medium
CN113378723B (en) Automatic safety recognition system for hidden danger of power transmission and transformation line based on depth residual error network
CN115130456A (en) Sentence parsing and matching model training method, device, equipment and storage medium
CN114638973A (en) Target image detection method and image detection model training method
CN115082873A (en) Image recognition method and device based on path fusion and storage medium
CN114663929A (en) Face recognition method, device, equipment and storage medium based on artificial intelligence
CN114639132A (en) Feature extraction model processing method, device and equipment in face recognition scene
WO2020175729A1 (en) Apparatus and method for detecting facial feature point by using gaussian feature point map and regression scheme
He et al. A Single-Frame Face Anti-Spoofing Algorithm With Circular CDC and Multi-Scale Spatial Attention

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22884017

Country of ref document: EP

Kind code of ref document: A1