KR102475823B1 - NFT-based metaverse clothing information generation system and method therefor - Google Patents

NFT-based metaverse clothing information generation system and method therefor Download PDF

Info

Publication number
KR102475823B1
KR102475823B1 KR1020220006839A KR20220006839A KR102475823B1 KR 102475823 B1 KR102475823 B1 KR 102475823B1 KR 1020220006839 A KR1020220006839 A KR 1020220006839A KR 20220006839 A KR20220006839 A KR 20220006839A KR 102475823 B1 KR102475823 B1 KR 102475823B1
Authority
KR
South Korea
Prior art keywords
clothing
model
feature point
information
character
Prior art date
Application number
KR1020220006839A
Other languages
Korean (ko)
Inventor
박일호
양세연
한종문
사재빈
류명한
김태성
Original Assignee
박일호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박일호 filed Critical 박일호
Priority to KR1020220167823A priority Critical patent/KR20230007254A/en
Priority to KR1020220167831A priority patent/KR20230007255A/en
Application granted granted Critical
Publication of KR102475823B1 publication Critical patent/KR102475823B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/36Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/50Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Computer Hardware Design (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

The present invention relates to an NFT-based metaverse-wearing clothing information generation system and a method therefor, configured to generate metaverse clothing information by generating a 3D clothing model based on generated clothing design information and changing the generated 3D clothing model according to the size, body type, length, shape, and texture of a fitting target metaverse character so that clothing can be worn on the fitting target metaverse character, and configured to perform non-fungible tokenization by matching the generated metaverse clothing information with a blockchain-based cryptocurrency so as to prevent counterfeiting and enable transactions regardless of platforms. The NFT-based metaverse-wearing clothing information generation system can be used to: generate, with an operation, by a plurality of fashion companies, of sensing clothing produced thereby simply through a sensing device and selecting a desired metaverse character, the sensed clothing into a clothing item capable of being realized in the metaverse and enable the clothing item to be worn on the metaverse character; convert a clothing item into a non-fungible taken so that the clothing item can be traded; and provide functions of promoting actual clothing, providing information about the same, and enabling transactions of the same.

Description

NFT 기반의 메타버스 착장 의류 정보 생성 시스템 및 그 방법{NFT-based metaverse clothing information generation system and method therefor}NFT-based metaverse clothing information generation system and method {NFT-based metaverse clothing information generation system and method therefor}

본 발명은 NFT 기반의 메타버스 착장 의류 정보 생성하는 기술에 대한 것으로, 더욱 자세하게는 실제 의류 제품을 센싱하여 의류 디자인 정보를 생성하고, 생성된 의류 디자인 정보를 기준으로 의류 3D 모델을 생성하여 생성된 의류 3D 모델을 피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처에 맞게 변화하여 피팅 대상 메타버스 캐릭터에 의류를 착장 시킬 수 있는 메타버스 의류 정보를 생성하고, 위조를 방지하고 플랫폼에 상관없이 거래가 가능하게 하기 위하여 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하는 NFT 기반의 메타버스 착장 의류 정보 생성 시스템 및 그 방법을 제공하는데 그 목적이 있다.The present invention relates to a technology for generating NFT-based metaverse wearing clothing information. More specifically, clothing design information is generated by sensing an actual clothing product, and a clothing 3D model is created based on the generated clothing design information. Change the clothing 3D model to fit the size, body type, length, shape, and texture of the metaverse character to be fitted to create metaverse clothing information that can be worn on the fitting metaverse character, prevent forgery, and correlate with the platform The purpose is to provide an NFT-based metaverse wearing information generation system and method that performs non-fungible tokenization by matching with blockchain-based cryptocurrencies to enable transactions without

메타버스는 '가상', '초월' 등을 뜻하는 영어 단어 '메타'(Meta)와 우주를 뜻하는 '유니버스'(Universe)의 합성어로, 현실세계와 같은 사회, 경제, 문화 활동이 이뤄지는 3차원의 가상세계를가리킨다. 메타버스는 가상현실(VR, 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 사회, 문화적 활동을 할 수 있다는 특징이 있다.Metaverse is a compound word of the English word 'Meta', which means 'virtual' and 'transcendence', and 'Universe', which means the universe. refers to the virtual world of the dimension. Metaverse is a concept that has evolved one step further from virtual reality (VR, a cutting-edge technology that allows people to experience the same as real life in a virtual world created by a computer). It is characterized by being able to do social and cultural activities that are the same as in real life.

특히 메타버스는 초고속, 초연결, 초저지연의 5G 상용화와 2020년 전 세계를 강타한 코로나19 팬데믹 상황에서 확산되기 시작했다. 즉, 5G 상용화와 함께 가상현실(VR), 증강현실(AR), 혼합현실(MR) 등을 구현할 수 있는 기술이 발전했고, 코로나19 사태로 비대면, 온라인 추세가 확산되면서 메타버스가 주목받고 있는 것이다.In particular, the metaverse began to spread in the context of the commercialization of ultra-high-speed, hyper-connectivity, and ultra-low latency 5G and the COVID-19 pandemic that hit the world in 2020. In other words, with the commercialization of 5G, technologies capable of realizing virtual reality (VR), augmented reality (AR), and mixed reality (MR) have developed, and as non-face-to-face and online trends spread due to the COVID-19 crisis, the metaverse is attracting attention. There is.

이러한 메타버스의 성장과 블록체인 기술, 그리고 이를 뒷받침 해줄 컴퓨팅 파워와 네트워크 성능의 발전으로 인하여 최근 메타버스 내 아이템 거래에 대한 규모와 관심이 굉장히 확장되고 있으며, 광고계에서는 활약하고 있는 메타 휴먼(가상 인간)들이 활약하고 있으며, 이러한 메타 휴먼들이 입고 사용하는 제품에 대하여 사용자들은 열광하고 있는 추세이다.Due to the growth of the metaverse, blockchain technology, and the development of computing power and network performance to support it, the scale and interest in item trading in the metaverse have recently been greatly expanded, and metahumans (virtual humans) who are active in the advertising world ) are active, and users are enthusiastic about the products worn and used by these metahumans.

본 발명을 통해 실제 의류를 센싱하여 자동으로 NFT 기반의 메타버스 착장 의류 정보를 생성함으로써, 블록체인과 메타버스 플랫폼에 해박한 엔지니어들의 도움을 받지 않고도 자동으로 실제 의류 기반의 메타버스 캐릭터에서 착장 가능한 메타버스 착장 의류 정보를 생성할 수 있으며, 더 나아가 메타버스 착장 의류 정보를 대상으로 대체 불가능 토큰화를 수행하여 블록체인의 가상화폐와 연동 시킴으로써 특정 메타버스 플랫폼 내부에서 만이 아닌 외부에서도 자유로운 거래가 가능한 기능을 제공하며, 구현된 아이템으로써의 메타버스 착장 의류 뿐만 아니라 실제 의류에 대한 정보를 제공하고 이를 거래할 수 있는 기능까지 제공할 수 있는 시스템을 구현할 수 있다.Through the present invention, by sensing actual clothing and automatically generating NFT-based metaverse wearing clothing information, it is possible to automatically wear on real clothing-based metaverse characters without the help of engineers knowledgeable in blockchain and metaverse platforms. It is possible to create metaverse wearing clothing information, and furthermore, perform non-fungible tokenization for metaverse wearing clothing information and link it with virtual currency of the block chain, so that it can be freely traded outside as well as inside a specific metaverse platform. It is possible to implement a system that can provide not only clothes worn in the metaverse as an implemented item, but also information on actual clothes and a function to trade them.

본 발명의 일 실시예에 따르면 NFT 기반의 메타버스 착장 의류 정보 생성 시스템은 실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부;According to an embodiment of the present invention, the NFT-based metaverse wearing clothing information generation system generates clothing design information that generates clothing design information including length, size, ratio, texture, and shape information by sensing shape data of actual clothing. wealth;

피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부; 상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부; 인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부; 상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부; 상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부; 블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 상기 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함할 수 있다.Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse; a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information; A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model; Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit; According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model; Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; The metaverse clothing information is generated by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information with at least one blockchain-based cryptocurrency to obtain NFT clothing information It may include an NFT clothing information generation unit that generates.

본 발명의 일 실시예에 따르면 NFT 기반의 메타버스 착장 의류 정보 생성 시스템은 실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부; 피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부; 상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부; 인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부; 상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부; 상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부; 블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 상기 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고, 상기 특징점 연결체 구조 모델 생성부는, 인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며, 상기 에어리어 분할 모듈은, 인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고, 상기 특징점 추출 모듈은, 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고, 상기 구조 생성 모듈은, 캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성할 수 있다.According to an embodiment of the present invention, the NFT-based metaverse wearing clothing information generation system generates clothing design information that generates clothing design information including length, size, ratio, texture, and shape information by sensing shape data of actual clothing. wealth; Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse; a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information; A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model; Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit; According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model; Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; The metaverse clothing information is generated by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information with at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generation unit that generates a feature point connection structure model generation unit, the artificial neural network-based feature point connection structure conversion model includes an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module. The area segmentation module receives a character 3D model and a 3D clothing model as input to an artificial neural network-based body part segmentation model, and divides each body part of the character 3D model and the clothing 3D model into a plurality of body areas, Among the divided body areas, the body area included in the clothing 3D model is selected as at least one feature point extraction target area to generate feature point extraction target area information, and the feature point extraction module extracts the character 3D model, the clothing 3D model, and the feature point After receiving target area information, a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area and designated as feature points to generate feature point information for each area for each 3D model, and the structure creation module , Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, to express the three-dimensional shape and volume. A character feature point connected structure model and a clothing feature point connected structure model may be created by forming a feature point connected structure capable of this.

본 발명의 일 실시예에 따르면 NFT 기반의 메타버스 착장 의류 정보 생성 시스템은 실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부; 피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부; 상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부; 인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부; 상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부; 상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부; 블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 상기 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고, 상기 특징점 연결체 구조 모델 생성부는, 인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며, 상기 에어리어 분할 모듈은, 인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고, 상기 특징점 추출 모듈은, 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고, 상기 구조 생성 모듈은, 캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고, 상기 착장 의류 3D 모델 생성부는, 상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한할 수 있다.According to an embodiment of the present invention, the NFT-based metaverse wearing clothing information generation system generates clothing design information that generates clothing design information including length, size, ratio, texture, and shape information by sensing shape data of actual clothing. wealth; Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse; a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information; A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model; Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit; According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model; Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; The metaverse clothing information is generated by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information with at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generation unit that generates a feature point connection structure model generation unit, the artificial neural network-based feature point connection structure conversion model includes an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module. The area segmentation module receives a character 3D model and a 3D clothing model as input to an artificial neural network-based body part segmentation model, and divides each body part of the character 3D model and the clothing 3D model into a plurality of body areas, Among the divided body areas, the body area included in the clothing 3D model is selected as at least one feature point extraction target area to generate feature point extraction target area information, and the feature point extraction module extracts the character 3D model, the clothing 3D model, and the feature point After receiving target area information, a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area and designated as feature points to generate feature point information for each area for each 3D model, and the structure creation module , Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, to express the three-dimensional shape and volume. A character feature point connected structure model and a clothing feature point connected structure model are formed by forming a feature point connected structure capable of this, and the wearing clothing 3D model generation unit determines the positions of a plurality of feature points included in the clothing feature point connected structure model. In each change, a vector value for the position of the changed feature point is calculated for each feature point, and the feature point connected structure of the clothing feature point connected structure model is on a straight line. Even after multiplying the located feature points by each vector value, each feature point is located on a straight line, and after multiplying the feature points located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is Position change can be limited so that it is located on a curve with a constant curvature.

본 발명의 일 실시예에 따르면 NFT 기반의 메타버스 착장 의류 정보 생성 시스템은 실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부; 피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부; 상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부; 인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부; 상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부; 상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부; 블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 상기 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고, 상기 특징점 연결체 구조 모델 생성부는, 인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며, 상기 에어리어 분할 모듈은, 인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고, 상기 특징점 추출 모듈은, 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고, 상기 구조 생성 모듈은, 캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고, 상기 착장 의류 3D 모델 생성부는, 상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한하고, 상기 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함하고, 상기 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성하고, 상기 제2 생성 모듈은 복수의 합성곱 레이어를 통해 형성된 제2 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제2 특징점 출력 정보를 생성하고, 상기 제3 생성모듈은 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 선정된 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보에 각각 0~1 이하의 가중치를 적용하고, 가중치가 적용된 제1 특징점 출력 정보, 제2 특징점 출력 정보를 소정의 범위 내의 값으로 정규화하여 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출할 수 있다.According to an embodiment of the present invention, the NFT-based metaverse wearing clothing information generation system generates clothing design information that generates clothing design information including length, size, ratio, texture, and shape information by sensing shape data of actual clothing. wealth; Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse; a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information; A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model; Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit; According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model; Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; The metaverse clothing information is generated by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information with at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generation unit that generates a feature point connection structure model generation unit, the artificial neural network-based feature point connection structure conversion model includes an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module. The area segmentation module receives a character 3D model and a 3D clothing model as input to an artificial neural network-based body part segmentation model, and divides each body part of the character 3D model and the clothing 3D model into a plurality of body areas, Among the divided body areas, the body area included in the clothing 3D model is selected as at least one feature point extraction target area to generate feature point extraction target area information, and the feature point extraction module extracts the character 3D model, the clothing 3D model, and the feature point After receiving target area information, a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area and designated as feature points to generate feature point information for each area for each 3D model, and the structure creation module , Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, to express the three-dimensional shape and volume. A character feature point connected structure model and a clothing feature point connected structure model are formed by forming a feature point connected structure capable of this, and the wearing clothing 3D model generation unit determines the positions of a plurality of feature points included in the clothing feature point connected structure model. In each change, a vector value for the position of the changed feature point is calculated for each feature point, and the feature point connected structure of the clothing feature point connected structure model is on a straight line. Even after multiplying the located feature points by each vector value, each feature point is located on a straight line, and after multiplying the feature points located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is Position change is limited to be located on a curve with a constant curvature, and the feature point extraction module includes a first module, a second module, and a third module composed of a plurality of convolutional layers, and the first module is composed of a plurality of convolutional layers. The character 3D model, clothing 3D model, and feature point extraction target area information are input to the first deep learning network formed through the product layer, and a plurality of first feature points are output by deriving a preset number of feature points for the feature point extraction target area information, and the second generation module receives the character 3D model, clothing 3D model, and feature point extraction target area information to the second deep learning network formed through a plurality of convolutional layers, and applies the feature point extraction target area to the target area. A plurality of second feature point output information is generated by deriving a preset number of feature points, and the third generation module receives the first feature point output information and the second feature point output information and selects the first feature point output information and the second feature point output information. 2 A weight of 0 to 1 or less is applied to each of the feature point output information, and the first feature point output information and the second feature point output information to which the weight is applied are normalized to a value within a predetermined range, and the number preset for the feature point extraction target area as many feature points as possible.

본 발명의 일 실시예에 따르면 NFT 기반의 메타버스 착장 의류 정보 생성 시스템은 실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부; 피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부; 상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부; 인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부; 상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부; 상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부; 블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 상기 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고, 상기 특징점 연결체 구조 모델 생성부는,According to an embodiment of the present invention, the NFT-based metaverse wearing clothing information generation system generates clothing design information that generates clothing design information including length, size, ratio, texture, and shape information by sensing shape data of actual clothing. wealth; Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse; a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information; A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model; Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit; According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model; Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; The metaverse clothing information is generated by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information with at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generation unit that generates, wherein the feature point connection structure model generation unit,

인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며, 상기 에어리어 분할 모듈은, 인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고, 상기 특징점 추출 모듈은, 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고, 상기 구조 생성 모듈은, 캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고, 상기 착장 의류 3D 모델 생성부는, 상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한하고, 상기 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함하고, 상기 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성하고, 상기 제2 생성 모듈은 복수의 합성곱 레이어를 통해 형성된 제2 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제2 특징점 출력 정보를 생성하고, 상기 제3 생성모듈은 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 선정된 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보에 각각 0~1 이하의 가중치를 적용하고, 가중치가 적용된 제1 특징점 출력 정보, 제2 특징점 출력 정보를 소정의 범위 내의 값으로 정규화하여 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하고, 블록 체인 기반의 스마트 컨트렉트를 이용하여 상기 NFT 의류 정보에 포함된 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보를 이용하여, 실제 의류에 대한 정보 및 판매 기능을 제공하는 의류 판매 수행부를 더 포함할 수 있다.The artificial neural network-based feature point connection structure transformation model may include an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module, and the area segmentation module is a body part segmentation model based on an artificial neural network. Receives a character 3D model and a clothing 3D model, divides each body part of the character 3D model and clothing 3D model into a plurality of body areas, and extracts at least one feature point from the body area included in the clothing 3D model among the divided body areas Selecting a target area as a target area to generate feature point extraction target area information, and the feature point extraction module receives information of a character 3D model, a 3D clothing model, and a feature point extraction target area, and forms a body shape targeting the feature point extraction target area By deriving a preset number of vertices and designating them as feature points, the feature point information for each area is generated for each 3D model, and the structure generation module receives the character 3D model, clothing 3D model, and feature point information for each area, and creates a character 3D model A plurality of feature points derived from the clothing 3D model are connected to each other with a plurality of straight lines or curves to form a feature point connection structure that can express a three-dimensional shape and volume to form a character feature point connection structure model and a clothing feature point connection structure A structural model is generated, and the wearing clothing 3D model generating unit calculates a vector value for the location of the changed feature point for each feature point when changing the location of a plurality of feature points included in the clothing feature point connection structure model, respectively, and clothing Even after multiplying each vector value by the feature points located on a straight line in the feature point connected structure of the feature point connected structure model, each feature point is located on a straight line, and the feature point connected structure of the clothing feature point connected structure model is on a curve with a certain curvature. Even after multiplying the feature points located at by each vector value, the position change is limited so that each feature point is located on a curve with a constant curvature, and the feature point extraction module It includes a first module, a second module, and a third module composed of convolutional layers of , wherein the first module transmits the character 3D model, clothing 3D model, and feature points to a first deep learning network formed through a plurality of convolutional layers. Receives extraction target area information, derives a preset number of feature points from the feature point extraction target area, and generates a plurality of first feature point output information, and the second generation module generates second output information formed through a plurality of convolution layers The character 3D model, the clothing 3D model, and feature point extraction target area information are input to the deep learning network, and a plurality of second feature point output information is generated by deriving a preset number of feature points for the feature point extraction target area, and the second feature point output information is generated. 3 The generation module receives the first feature point output information and the second feature point output information, applies a weight of 0 to 1 or less, respectively, to the selected first feature point output information and the second feature point output information, The feature point output information and the second feature point output information are normalized to a value within a predetermined range to derive a preset number of feature points for the feature point extraction target area, and the NFT clothing information is obtained by using a blockchain-based smart contract. Actual clothing seller included in, actual clothing transaction amount, actual clothing size information. It may further include a clothing sales performer that provides information on actual clothing and a sales function using actual clothing image information.

본 발명의 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템을 이용하면 다수의 패션 업체에서 자사에서 생산한 의류를 간단한 센싱장치를 통해서 센싱하고 원하는 메타버스의 캐릭터를 선정하는 작업 만으로도 센싱한 의류를 메타버스 내에서 구현될 수 있는 의상 아이템으로 생성하여 메타버스 내의 캐릭터에게 착장 시킬 수 있으며, 의상 아이템을 대체 불가능 토큰으로 변환하여 의상 아이템의 거래기능을 제공할 수 있으며 더 나아가 실제 의류의 홍보, 정보 제공, 거래기능까지도 제공할 수 있는 효과가 존재한다.Using the NFT-based metaverse wearing clothing information generation system implemented according to the embodiment of the present invention, a number of fashion companies can sense clothing produced by themselves through a simple sensing device and select a desired metaverse character. Sensed clothing can be created as a clothing item that can be implemented in the metaverse and worn on a character in the metaverse, and the clothing item can be converted into a non-fungible token to provide a trading function for the clothing item, furthermore real clothing There is an effect that can provide publicity, information provision, and even trading functions.

도 1은 본 발명의 제1 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따라 구현된 인공 신경망 기반의 특징점 연결체 구조 변환 모델의 내부 데이터 흐름을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따라 구현된 특징점 추출 모듈의 내부 데이터 흐름을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따라 구현된 특징점 추출 모듈의 제 1, 2, 3 모듈의 네트워크 구조를 나타낸 도면이다.
도 5는 본 발명의 제2 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템의 구성도이다.
도 6는 본 발명의 일 실시예에 NFT 기반의 메타버스 착장 의류 정보 생성 방법의 흐름도이다.
1 is a block diagram of an NFT-based metaverse wearing clothing information generation system implemented according to a first embodiment of the present invention.
2 is a diagram illustrating an internal data flow of a feature point connection structure conversion model based on an artificial neural network implemented according to an embodiment of the present invention.
3 is a diagram illustrating an internal data flow of a feature point extraction module implemented according to an embodiment of the present invention.
4 is a diagram showing a network structure of first, second, and third modules of a feature point extraction module implemented according to an embodiment of the present invention.
5 is a block diagram of an NFT-based metaverse wearing clothing information generation system implemented according to a second embodiment of the present invention.
6 is a flowchart of a method for generating NFT-based metaverse wearing clothing information according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein.

본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present invention, terms such as "comprise" or "having" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present invention, they should not be interpreted in an ideal or excessively formal meaning. don't

또한 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. It will also be understood that combinations of each block of the drawings and flowchart drawings can be performed by computer program instructions, and these computer program instructions can be loaded into a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment. Thus, those instructions executed by a processor of a computer or other programmable data processing equipment create means for performing the functions described in the flowchart block(s).

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular way, such that the computer usable or computer readable memory The instructions stored in are also capable of producing an article of manufacture containing instruction means that perform the functions described in the flowchart block(s).

컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.The computer program instructions can also be loaded on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to generate computer or other programmable data processing equipment. Instructions for performing processing equipment may also provide steps for performing the functions described in the flowchart block(s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s).

그리고 몇 가지 대체 실시예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.And it should be noted that in some alternative embodiments it is also possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.

이 때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. At this time, the term '~unit' used in this embodiment means software or a hardware component such as a field-programmable gate array (FPGA) or application specific integrated circuit (ASIC), and what role does '~unit' have? perform them

그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, '~ part' is not limited to software or hardware. '~bu' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors.

따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 발명의 실시예들을 구체적으로 설명함에 있어서, 특정 시스템의 예를 주된 대상으로 할 것이지만, 본 명세서에서 청구하고자 하는 주요한 요지는 유사한 기술적 배경을 가지는 여타의 통신 시스템 및 서비스에도 본 명세서에 개시된 범위를 크게 벗어나지 아니하는 범위에서 적용 가능하며, 이는 당해 기술분야에서 숙련된 기술적 지식을 가진 자의 판단으로 가능할 것이다.In describing the embodiments of the present invention in detail, an example of a specific system will be the main target, but the main subject matter to be claimed in this specification extends the scope disclosed herein to other communication systems and services having a similar technical background. It can be applied within a range that does not deviate greatly, and this will be possible with the judgment of those skilled in the art.

이하, 도면을 참조하여 본 발명의 실시 예에 따른 NFT 기반의 메타버스 착장 의류 정보 생성 시스템 및 그 방법에 대하여 설명한다.Hereinafter, a NFT-based metaverse wearing clothing information generation system and method according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 본 발명의 제1 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템의 구성도이다.1 is a block diagram of an NFT-based metaverse wearing clothing information generation system implemented according to a first embodiment of the present invention.

도 1을 참조하면 본 발명의 제1 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템(1000)은 의류 디자인 정보 생성부(100), 캐릭터 외형 정보 생성부(200), 3D 모델 생성부(300), 특징점 연결체 구조 모델 생성부(400), 특징점 매칭 정보 생성부(500), 착장 의류 3D 모델 생성부(600), 착장 의류 메타 정보 생성부(700), NFT 의류 정보 생성부(800)를 포함할 수 있다. Referring to FIG. 1, the NFT-based metaverse wearing clothing information generating system 1000 implemented according to the first embodiment of the present invention includes a clothing design information generating unit 100, a character appearance information generating unit 200, and a 3D model Generation unit 300, feature point connection structure model generation unit 400, feature point matching information generation unit 500, worn clothing 3D model generation unit 600, worn clothing meta information generation unit 700, NFT clothing information generation may include section 800 .

의류 디자인 정보 생성부(100)는 실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성할 수 있다.The clothing design information generation unit 100 may generate clothing design information including length, size, ratio, texture, and shape information by sensing shape data of actual clothing.

본 발명의 일 실시예에 따르면 실제 의류에 대한 형태 데이터를 센싱하기 위하여 깊이 카메라 또는 3D 스캐너를 통해 길이, 크기, 비율, 텍스처, 형상 정보와 같은 의류의 3차원적 수치 데이터를 수집할 수 있다.According to an embodiment of the present invention, three-dimensional numerical data of clothes such as length, size, ratio, texture, and shape information may be collected through a depth camera or a 3D scanner to sense shape data of actual clothes.

본 발명의 일 실시예에 따르면 깊이 카메라를 이용하여 실제 의류를 대상으로 촬영을 진행하여 구 좌표계의 원점에서 펄스 변조된 적외선(IR) 빔을 목표물에 발사시켜 수평(pan, φ)과 상하(tilt, θ)로 스캐닝하여 구 표면(sphere surface)의 각기 다른 불연속 점(г, θ, φ)의 분포(point-wise)에서 일어나는 역방향 산란(back scattering)으로 반사되어 원점으로 되돌아오는 시간, 즉 송수신 시간을 기반으로 배경 내 목표물의 3차원 영상 정보를 획득할 수 있다.According to an embodiment of the present invention, a depth camera is used to photograph real clothes, and a pulse-modulated infrared (IR) beam is emitted to the target at the origin of the spherical coordinate system, so that the horizontal (pan, φ) and vertical (tilt) . 3D image information of a target in the background can be obtained based on time.

본 발명의 일 실시예에 따르면 복수개의 깊이 카메라는 적어도 하나의 의류의 3차원 형태를 전방위로 촬영할 수 있도록 일정한 각도를 기준으로 설치될 수 있으며, 영상 데이터 및 영상 데이터와 시간을 기준으로 대응되는 미리 설정된 의류 부위별 송수신 시간 데이터를 수집하여 수집 형상 정보를 생성할 수 있다.According to an embodiment of the present invention, a plurality of depth cameras may be installed based on a predetermined angle so as to photograph the 3D shape of at least one garment in all directions, and the image data and the image data may be preset based on time. Collected shape information may be generated by collecting transmission/reception time data for each part of the set clothing.

여기서 미리 설정된 의류 부위는 의류 형태의 특징을 식별할 수 있는 의류의 일부 부위를 의미하며, 예를 들어 소매, 카라, 팔목 부위, 팔꿈치 부위, 어깨 부위, 목 부위, 고관절 부위, 무릎 부위, 발목 부위들을 중심으로 설정될 수 있다.Here, the preset clothing part means a part of the clothing that can identify the characteristics of the clothing type, for example, sleeve, collar, wrist, elbow, shoulder, neck, hip, knee, and ankle. can be set around them.

본 발명의 일 실시예에 따르면 의류 디자인 정보 생성부(100)는 깊이 카메라를 이용하여 송수신 시간 데이터를 수집함에 있어, 2단계의 깊이 측정을 수행할 수 있다.According to an embodiment of the present invention, the clothing design information generating unit 100 may perform two-step depth measurement when collecting transmission/reception time data using a depth camera.

본 발명의 일 실시예에 따르면 2단계의 깊이 측정은 제1 깊이 측정 단계 및 제2 깊이 측정 단계로 구분할 수 있다.According to an embodiment of the present invention, two-step depth measurement may be divided into a first depth measurement step and a second depth measurement step.

상기 실시예와 같이 2단계로 나누어 깊이 측정을 수행하는 이유는 단일 주파수를 사용할 때 낮은 변조 주파수를 이용하여 깊이 측정을 수행하는 경우에는 최대 범위는 넓어지지만 측정 품질은 낮아지는 단점이 존재하며, 반대로, 높은 변조 주파수를 이용하여 깊이 측정을 수행하는 경우에는 측정 품질은 향상시킬 수 있지만 최대 범위는 좁아진다는 단점이 존재하므로, 이러한 단점을 최대한 보완하기 위함에 있다.The reason why the depth measurement is performed in two stages as in the above embodiment is that when a single frequency is used and depth measurement is performed using a low modulation frequency, the maximum range is widened but the measurement quality is degraded. , in the case of performing depth measurement using a high modulation frequency, the measurement quality can be improved, but there is a disadvantage that the maximum range is narrowed.

본 발명의 일 실시예에 따르면 제1 깊이 측정은 낮은 변조 주파수를 이용하여 깊이를 측정하여 미리 설정된 신체 부위별 관심 영역에 대하여 낮은 측정 품질로 측정을 수행할 수 있다.According to an embodiment of the present invention, in the first depth measurement, the depth may be measured using a low modulation frequency, and measurement may be performed with low measurement quality for a pre-set region of interest for each body part.

본 발명의 일 실시예에 따르면 제2 깊이 측정은 제1 깊이 측정의 신체 부위별 관심 영역에 대한 측정 결과를 기반으로 높은 변조 주파수를 이용하여 깊이를 측정하여 높은 측정 품질로 측정 정밀도를 상승시킬 수 있다.According to an embodiment of the present invention, the second depth measurement may increase measurement precision with high measurement quality by measuring the depth using a high modulation frequency based on the measurement result of the region of interest for each body part of the first depth measurement. have.

본 발명의 일 실시예에 따르면 넓은 최대 깊이 범위를 갖도록 낮은 변조 주파수를 이용하는 제1 깊이 측정은, 넓은 깊이 범위를 대상으로 대략적인 깊이를 측정할 수 있으며, 이때의 측정 품질은 변조 주파수에 비례관계를 가지므로 제1 깊이 측정을 통해 측정된 경과는 넓은 관심 영역에 대하여 낮은 측정 품질을 제공할 수 있다.According to an embodiment of the present invention, the first depth measurement using a low modulation frequency to have a wide maximum depth range can measure an approximate depth targeting a wide depth range, and the measurement quality at this time is proportional to the modulation frequency. , the progress measured through the first depth measurement may provide low measurement quality for a wide area of interest.

본 발명의 일 실시예에 따르면 제2 깊이 측정은 최대 깊이 범위가 제1 깊이 측정의 정밀도를 기반으로 설정될 수 있으며, 상대적으로 더 높은 주파수를 선택하여 좁은 관심 영역에 대한 높은 측점 품질을 제공함으로써 제1 깊이 측정 결과의 오차를 보상할 수 있다.According to an embodiment of the present invention, in the second depth measurement, a maximum depth range may be set based on the precision of the first depth measurement, and a relatively higher frequency is selected to provide high measurement quality for a narrow region of interest. An error in the first depth measurement result may be compensated for.

본 발명의 일 실시예에 따르면 낮은 변조 주파수는 수학식 1를 기반으로 선정될 수 있다According to an embodiment of the present invention, a low modulation frequency may be selected based on Equation 1

Figure 112022006022705-pat00001
Figure 112022006022705-pat00001

여기서

Figure 112022006022705-pat00002
는 낮은 변조 주파수를 의미하며,
Figure 112022006022705-pat00003
는 광속,
Figure 112022006022705-pat00004
는 최대 깊이 범위를 의미할 수 있다.here
Figure 112022006022705-pat00002
denotes a low modulation frequency,
Figure 112022006022705-pat00003
is the speed of light,
Figure 112022006022705-pat00004
may mean a maximum depth range.

본 발명의 일 실시예에 따르면 높은 변조 주파수는 낮은 변조 주파수의 사용시 측정된 표준 편차에 반비례하는 값으로 선정될 수 있으며, 표준 편차가 미리 설정한 한계값보다 작다면, 이는 신호 대 잡음비가 높은 것으로 판단하여 표준 편차가 미리 설정한 한계 값보다 큰 경우보다 상대적으로 높은 주파수로 선정될 수 있다.According to an embodiment of the present invention, a high modulation frequency may be selected as a value that is inversely proportional to the standard deviation measured when a low modulation frequency is used, and if the standard deviation is smaller than a preset limit value, this indicates a high signal-to-noise ratio. By determining, a relatively higher frequency may be selected than when the standard deviation is larger than a preset limit value.

여기서 표준 편차(

Figure 112022006022705-pat00005
)는 수학식 2를 기반으로 산출될 수 있다.where the standard deviation (
Figure 112022006022705-pat00005
) can be calculated based on Equation 2.

Figure 112022006022705-pat00006
Figure 112022006022705-pat00006

여기서

Figure 112022006022705-pat00007
는 산출하고자 하는 표준 편차를 의미할 수 있으며, dp는 제1 깊이 측정으로 통해 측정된 깊이를 의미할 수 있으며 μ는 관심 영역(RoI)에 대한 dp의 평균값을 의미하며 N은 관심 영역 내의 픽셀의 개수로서 자연수일 수 있다.here
Figure 112022006022705-pat00007
May mean the standard deviation to be calculated, dp may mean the depth measured through the first depth measurement, μ means the average value of dp for the region of interest (RoI), and N is the number of pixels within the region of interest. The number may be a natural number.

본 발명의 일 실시예에 따르면 제1 깊이 측정 단계 및 제2 깊이 측정 단계를 다수 수행하여 반복된 측정을 통해 측정 정밀도를 상승시킬 수 있다.According to an embodiment of the present invention, measurement accuracy may be increased through repeated measurement by performing a plurality of first depth measurement steps and second depth measurement steps.

본 발명의 일 실시예에 따르면 의류 디자인 정보 생성부(100)는 수집 형상 정보에 포함된 각 깊이 카메라별 영상 데이터를 인공 신경망 기반의 형상 정보 생성 모델에 입력하여 각 의류 부위별 외형선 및 외형선 각도 정보를 포함하는 제1 형상 정보를 생성할 수 있다.According to an embodiment of the present invention, the clothing design information generating unit 100 inputs the image data for each depth camera included in the collected shape information to an artificial neural network-based shape information generation model, and outlines and outlines for each part of clothing. First shape information including angle information may be generated.

또한 수집 형상 정보에 포함된 각 깊이 카메라별 송수신 시간 데이터를 분석하여 연속된 복수의 깊이 데이터, 속도 데이터, 진폭 데이터를 생성하고, 진폭 데이터를 이용하여 진폭의 크기에 따라 누적 분포 함수 및 노이즈 제거 함수를 이용하여 노이즈를 제거하고, 노이즈가 제거된 각 깊이 카메라 별로 생성된 의류 부위별 깊이 데이터, 속도 데이터, 진폭 데이터를 중간 값으로 평균화하여 제2 형상 정보를 생성할 수 있다.In addition, a plurality of consecutive depth data, velocity data, and amplitude data are generated by analyzing the transmission and reception time data of each depth camera included in the collected shape information, and a cumulative distribution function and a noise removal function according to the size of the amplitude using the amplitude data Second shape information may be generated by removing noise using , and averaging depth data, velocity data, and amplitude data for each part of clothing generated for each depth camera from which the noise is removed with a median value.

본 발명의 일 실시예에 따르면 인공 신경망 기반의 형상 정보 생성 모델은 깊이 카메라별 영상 데이터를 입력층에 입력 받아 미리 설정된 각 의류 부위별로 외형선 및 외형선 각도 정보를 출력할 수 있으며, 이를 각 의류 부위별로 그룹핑하여 제1 형상 정보를 생성하도록 학습될 수 있다. 본 발명의 일 실시예에 따르면 각 깊이 카메라 별로 생성된 신체 부위별 송수신 시간 데이터를 분석하여 각 신체 부위별로 시간의 흐름에 따라 연속된 깊이 데이터, 속도 데이터, 진폭 데이터를 생성할 수 있다.According to an embodiment of the present invention, the artificial neural network-based shape information generation model receives image data for each depth camera as input to an input layer and outputs outline and outline angle information for each pre-set garment part, which can be output for each garment. It may be learned to generate first shape information by grouping by part. According to an embodiment of the present invention, transmission/reception time data for each body part generated for each depth camera may be analyzed to generate continuous depth data, velocity data, and amplitude data for each body part over time.

여기서 깊이 데이터란 관심 영역의 3차원적 위치를 인식할 수 있는 데이터를 의미할 수 있으며, 속도 데이터는 깊이 데이터를 기반으로 시간의 흐름에 따라 위치의 변경을 통해 산출된 이동 속도를 의미할 수 있으며, 진폭 데이터는 깊이 카메라에 의해 송신된 광은 표면의 진폭 정도에 따라 표면의 광 강도가 상이하므로 손상된 광이 반사되어 생긴 표면의 광 강도를 의미할 수 있다.Here, the depth data may refer to data capable of recognizing the three-dimensional position of the region of interest, and the speed data may refer to a movement speed calculated through a change in position over time based on the depth data. , The amplitude data may mean the light intensity of the surface caused by the reflection of the damaged light because the light intensity of the surface of the light transmitted by the depth camera is different depending on the degree of amplitude of the surface.

본 발명의 일 실시예에 따르면 진폭 데이터를 이용하여 진폭의 크기에 따라 누적 분포 함수 및 노이즈 함수를 이용하여 노이즈를 제거할 수 있다. According to an embodiment of the present invention, noise can be removed using a cumulative distribution function and a noise function according to the amplitude of amplitude data.

상기 실시예에 따르면 진폭 데이터는 깊이 카메라에 의해 반사되는 광이 얼마나 밝은지를 나타낼 수 있고, 이는 표면의 진폭 정도에 따라 표면의 광 강도가 상이하게 나타나는 것을 특징을 기반으로 한다.According to the above embodiment, the amplitude data may represent how bright the light reflected by the depth camera is, and this is based on the fact that light intensity of the surface appears differently according to the degree of amplitude of the surface.

본 발명의 일 실시예에 따르면 깊이 카메라에 사용되는 비이상적인 파형으로 인해 생기는 잡음과 객체의 경계에 생기는 노이즈를 제거하기 위해 누적 분포 함수 및 노이즈 함수를 사용하여 필터링을 수행할 수 있다.According to an embodiment of the present invention, filtering may be performed using a cumulative distribution function and a noise function to remove noise caused by a non-ideal waveform used in a depth camera and noise generated at a boundary of an object.

본 발명의 일 실시예에 따르면 누적 분포 함수는 수학식 3을 기반으로 수행될 수 있다.According to an embodiment of the present invention, the cumulative distribution function may be performed based on Equation 3.

Figure 112022006022705-pat00008
Figure 112022006022705-pat00008

Φ(x)는 누적 분포 함수를 나타내며 NF는 노이즈 함수를 의미할 수 있다.Φ(x) represents a cumulative distribution function and NF may mean a noise function.

본 발명의 일 실시예에 따르면 노이즈 함수(NF)는 수학식 4를 기반으로 수행될 수 있다.According to an embodiment of the present invention, the noise function NF may be performed based on Equation 4.

Figure 112022006022705-pat00009
Figure 112022006022705-pat00009

본 발명의 일 실시예에 따르면 의류 디자인 정보 생성부(100)는 제1 형상 정보와 제2 형상 정보를 시간을 기준으로 정합 하여 오차를 산출하고, 산출된 오차에 대해서는 연속형 가중치 중간값 필터를 사용하여 오차를 제거하여 최종 행동 정보로 생성할 수 있다.According to an embodiment of the present invention, the clothing design information generating unit 100 calculates an error by matching the first shape information and the second shape information based on time, and uses a continuous weighted median filter for the calculated error. It can be used to remove errors and create final action information.

본 발명의 일 실시예에 따르면 제1 형상 정보와 제2 형상 정보를 인공 신경망 기반의 최종 형상 정보 생성 모델에 입력하여 제1 형상 정보와 제2 형상 정보에 포함된 의류 부위에 대한 외형선 및 외형선 각도 정보를 대비하여 발생하는 차이를 오차로 산출하고, 오차가 발생한 데이터 각각에 가중치를 적용하여 산출된 값들을 중간 값으로 평균화하여 오차를 제거함으로써 깊이 데이터 기반의 하나의 의류 부위별 형상 정보를 포함한 최종 형상 정보를 생성할 수 있다.According to an embodiment of the present invention, the first shape information and the second shape information are input to a final shape information generation model based on an artificial neural network, and the outline and shape of the clothing part included in the first shape information and the second shape information Contrasting line angle information calculates the difference as an error, applies a weight to each of the data where the error occurs, and averages the calculated values with the median value to remove the error. It is possible to create final shape information including

캐릭터 외형 정보 생성부(200)는 피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성할 수 있다.The character appearance information generation unit 200 may generate character appearance information by receiving size, body shape, length, shape, and texture information of a fitting target metaverse character from a metaverse server.

본 발명의 일 실시예에 따르면 캐릭터 외형 정보는 메타버스를 구현하고 있는 플랫폼의 메인 서버에 저장되어 있는 메타버스 내에서 구현 가능한 캐릭터에 대한 모델링 및 수치 데이터를 의미할 수 있으며, 캐릭터의 크기, 체형, 길이, 형상, 텍스처를 식별할 수 있는 정보라면 형식에 제한 없이 사용될 수 있다. According to one embodiment of the present invention, character appearance information may mean modeling and numerical data for characters that can be implemented in the metaverse stored in the main server of the platform implementing the metaverse, and the size and body shape of the character. , length, shape, and texture can be used without any restrictions on the format.

3D 모델 생성부(300)는 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성할 수 있다.The 3D model generation unit 300 may generate a character 3D model by modeling the appearance of the character in 3D based on the character appearance information, and generate a 3D clothing model by modeling the appearance of the clothing in 3D using clothing design information. have.

본 발명의 일 실시 예에 따르면 캐릭터 외형 정보 및 의류 외형 정보를 분석하여 복수의 독립적 매개변수를 입력한 함수식을 구성하고 이러한 함수식을 이용하여 수학적 자유 곡선을 기반으로 3D 모델링을 수행하는 파라메트릭 기법을 이용하여 캐릭터 3D 모델 및 의류 3D 모델을 생성할 수 있다.According to an embodiment of the present invention, a parametric technique of constructing a function expression inputting a plurality of independent parameters by analyzing character appearance information and clothing appearance information and performing 3D modeling based on a mathematical free curve using such a function expression Character 3D models and clothing 3D models can be created using

특징점 연결체 구조 모델 생성부(400)는 인공 신경망 기반의 특징점 연결체 구조 변환 모델에 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성할 수 있다.The feature point connection structure model generation unit 400 extracts a plurality of feature points for the appearance of each 3D model by inputting a character 3D model and a 3D costume model to an artificial neural network-based feature point connection structure conversion model, and extracts a plurality of extracted feature points. It is possible to create a character feature point connected structure model and a clothing feature point connected structure model converted into a feature point connected structure model expressed as a shape structure by connecting feature points.

본 발명의 일 실시예에 따르면 특징점 연결체 구조 모델 생성부(400)는 복수의 합성곱 연산 레이어로 구성된 특징점 연결체 구조 변환 모델을 설계하고, 설계된 특징점 연결체 구조 변환 모델이 캐릭터 3D 모델 및 의상 3D 모델을 입력받아 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 출력할 수 있도록 학습 데이터를 입력하여 학습을 수행할 수 있다.According to an embodiment of the present invention, the feature point connection structure model generation unit 400 designs a feature point connection structure conversion model composed of a plurality of convolution operation layers, and the designed feature point connection structure conversion model is a character 3D model and clothes Learning may be performed by inputting learning data so that a 3D model is input and a character feature point connected structure model and a clothing feature point connected structure model are output.

본 발명의 일 실시예에 따르면 특징점 연결체 구조 변환 모델은 복수의 합성곱 연산 레이어가 하나의 그룹으로 연결되도록 설계될 수도 있으나, 또 다른 일 실시예에 따르면 복수의 그룹으로 연결되어 각 그룹마다 별도의 기능을 수행할 수 있는 기능 모듈 단위로 존재하게 설계될 수 있다.According to one embodiment of the present invention, the feature point concatenation structure transformation model may be designed so that a plurality of convolution operation layers are connected as one group, but according to another embodiment, a plurality of groups are connected and each group is separately designed. It can be designed to exist in units of functional modules that can perform the functions of.

본 발명의 일 실시예에 따르면 특징점 연결체 구조 모델 생성부(400)는 인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있다.According to an embodiment of the present invention, the feature point connection structure model generation unit 400 uses an artificial neural network-based feature point connection structure transformation model, which includes an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module. can include

본 발명의 일 실시예에 따르면 복수의 합성곱 연산 레이어를 복수의 그룹으로 연결하 각 그룹마다 에어리어 분할, 특징점 추출, 특징점 연결체 구조 생성이라는 별도의 기능을 수행할 수 있는 기능 모듈 단위로 존재하게 설계될 수 있다.According to an embodiment of the present invention, a plurality of convolution operation layers are connected into a plurality of groups, and each group exists as a functional module unit capable of performing separate functions such as area segmentation, feature point extraction, and feature point connection structure creation. can be designed

본 발명의 일 실시예에 따르면 에어리어 분할 모듈은 인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성할 수 있다.According to an embodiment of the present invention, the area division module receives a character 3D model and a 3D clothing model to an artificial neural network-based body part division model, divides each body part of the character 3D model and the clothing 3D model into a plurality of body areas, Among the divided body areas, body areas included in the 3D clothing model may be selected as at least one feature point extraction target area to generate feature point extraction target area information.

본 발명의 일 실시예에 따르면 캐릭터 3D 모델 및 의류 3D 모델에서 특징점을 추출하여 추출된 특징점을 기준으로 하여 캐릭터 3D 모델의 크기, 형상, 텍스처에 의류 3D 모델의 크기, 형상, 텍스처를 맞추도록 변경하였을때 실제 사람이 의류를 입은 것처럼 적절하게 피팅되기 위해서는 각 3D 모델에서 외형의 특징을 표현할 수 있도록 미리 설정된 꼭지점을 이루는 위치에 있는 점에 대하여 동일한 개수의 특징점을 추출하고, 각 특징점을 서로 매칭 시키는 방법을 사용할 수 있다.According to an embodiment of the present invention, feature points are extracted from the character 3D model and the clothing 3D model, and the size, shape, and texture of the clothing 3D model are changed to match the size, shape, and texture of the character 3D model based on the extracted feature points In order to be properly fitted as if a real person is wearing clothes, extract the same number of feature points from the points that form the preset vertices in each 3D model to express the characteristics of the appearance, and match each feature point with each other. method can be used.

본 발명의 일 실시예에 따르면 좀 더 정확한 피팅을 위하여 캐릭터 3D 모델의 전체 부위를 대상으로 특징점을 추출하면, 의류가 입혀지지 아니한 부위까지 연산이 수행되어, 이로 인하여 과도한 연산 자원의 사용 및 부정확한 특징점의 추출로 정확도가 하락할 수 있어 이러한 문제점을 해결하기 위하여 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 동일한 신체 부위들만을 대사응로 특징점을 추출하게 할 수 있다. According to an embodiment of the present invention, when feature points are extracted from all parts of a character 3D model for more accurate fitting, calculation is performed even to parts where clothes are not worn, resulting in excessive use of computational resources and inaccurate results. Extraction of feature points can reduce accuracy. In order to solve this problem, each body part of the character 3D model and clothing 3D model is divided into a plurality of body areas, and at least one of the divided body areas is included in the clothing 3D model. By selecting the above feature point extraction target area, only the same body parts can be extracted by metabolic response.

상기 일 실시예에 따르면 특징점 추출 모듈은 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 특징점 추출 대상 에어리어를 대상으로 신체 및 의류의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 기준에 따라 식별 가능한 번호로 라벨링하고 라벨링된 꼭지점을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성할 수 있다.According to the above embodiment, the feature point extraction module receives the character 3D model, the clothing 3D model, and the feature point extraction target area information, and identifies the vertex part constituting the shape of the body and clothing for the feature point extraction target area according to a preset criterion It is possible to generate feature point information for each area for each 3D model by labeling with a possible number and deriving a preset number of labeled vertices and designating them as feature points.

본 발명의 일 실시예에 따르면 구조 생성 모듈은 캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성할 수 있다.According to an embodiment of the present invention, the structure generation module receives information on the character 3D model, the clothing 3D model, and feature points for each area, and converts a plurality of feature points derived from the character 3D model and the clothing 3D model into a plurality of straight lines or curves, respectively. A character feature point connected structure model and a clothing feature point connected structure model may be created by forming a feature point connected structure capable of expressing a 3D shape and volume by connecting them to each other.

본 발명의 일 실시예예 따르면 특징점 연결체 구조 모델은 복수의 특징점들을 복수의 직선 또는 곡선으로 서로 복수로 연결하여 형상 및 볼륨감을 표현할 수 있는 그물 구조로 모델링된 것을 의미할 수 있다. According to an embodiment of the present invention, the feature point connection structure model may mean that a plurality of feature points are modeled as a mesh structure capable of expressing a shape and a sense of volume by connecting a plurality of feature points to each other with a plurality of straight lines or curves.

특징점 매칭 정보 생성부(500)는 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성할 수 있다.The feature point matching information generation unit 500 matches a plurality of points included in the character feature point connected body structure and a plurality of points included in the costume feature point connected body structure model, respectively, and features point matching including information on each pair of matched feature points. information can be generated.

본 발명의 일 실시예에 따르면 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하는 기준은 각 특징점 연결체 구조에 포함된 각 특징점 마다 라벨링된 식별 가능한 번호가 존재하므로, 동일한 번호의 특징점은 동일한 신체 부위 및 의류 부위를 의미하는 것으로 정의하고 캐릭터 특징점 연결체 구조에 포함된 각 특징점의 위치 정보와 의류 특징점 연결체 구조에 포함된 동일한 번호를 가진 각 특징점의 위치 정보를 하나의 특징점 쌍으로하여 각각의 위치 정보 및 식별 가능한 번호를 포함하는 특징점 매칭 정보를 생성할 수 있다. According to an embodiment of the present invention, the criterion for matching the plurality of points included in the character feature point connected structure with the plurality of points included in the costume feature point connected structure model is labeling for each feature point included in each feature point connected structure. Since there is an identifiable number, the feature point of the same number is defined as meaning the same body part and clothing part, and the location information of each feature point included in the character feature point connection structure and the same number included in the clothing feature point connection structure It is possible to generate feature point matching information including each location information and an identifiable number by using location information of each feature point as one feature point pair.

착장 의류 3D 모델 생성부(600)는 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성할 수 있다.The wearing clothing 3D model generating unit 600 contacts and matches the feature points of the character feature point connection structure model matched with the feature points included in the clothing feature point connection structure model according to the information on each feature point pair of the feature point connection chain matching information. The location of a plurality of feature points included in the clothing feature point connection structure model is changed respectively to transform the shape of the clothing feature point connection structure model, and the clothing 3D model is converted based on the transformed clothing feature point connection structure model to fit. You can create a 3D model of clothes that can be worn on the target metaverse character.

본 발명의 일 실시예에 따르면 착장 의류 3D 모델 생성부(600)는 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한할 수 있다.According to an embodiment of the present invention, the wearing clothing 3D model generating unit 600 calculates a vector value for the position of the changed feature point for each feature point when changing the position of a plurality of feature points included in the clothing feature point connection structure model. And, even after multiplying the feature points located on a straight line in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is located on a straight line, and a certain curvature is applied to the feature point connected structure of the clothing feature point connected structure model. Even after multiplying the feature points located on the curve with each vector value, the position change can be limited so that each feature point is located on the curve with a constant curvature.

본 발명의 일 실시예에 따르면 변경된 특징점의 위치에 대한 벡터 값을 산출하기 위하여 특징점 매칭 정보에 포함된 해당 특징점의 식별 번호에 대응하는 캐릭터 특징점 연결체 구조에 포함된 특징점의 위치 정보와 의류 특징점 연결체 구조에 포함된 특징점의 위치 정보를 이용하여 의류 특징점 연결체 구조에 포함된 특징점의 위치 정보가 캐릭터 특징점 연결체 구조에 포함된 특징점의 위치 정보에 일치되도록 변경되는 벡터 값을 내적 등의 연산을 통해 산출하는 방법을 이용할 수 있다.According to an embodiment of the present invention, in order to calculate a vector value for the location of the changed feature point, the location information of the feature point included in the character feature point connection body structure corresponding to the identification number of the corresponding feature point included in the feature point matching information is connected to the clothing feature point. By using the location information of the feature points included in the body structure, calculations such as the dot product of the vector values that are changed so that the location information of the feature points included in the clothing feature point connected structure matches the feature point location information included in the character feature point connected structure. method can be used to calculate it.

착장 의류 메타 정보 생성부(700)는 블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성할 수 있다. The wearing clothing meta information generation unit 700 uses a blockchain-based smart contract to generate unique identifier information of the worn clothing 3D model, the type of clothing worn, the name of the worn clothing, the number of transaction records of the clothing, and the amount of the 3D model transaction amount of the worn clothing , wearing clothing 3D model creator, wearing clothing 3D model current owner, wearing clothing 3D model creation date, actual clothing seller, actual clothing transaction amount, actual clothing size information. Wearing clothing meta information including at least one item of actual clothing image information may be generated.

본 발명의 일 실시예에 따르면 착장 의류 메타 정보에 포함되는 항목에는 메타버스 내에서 아이템으로 구현된 의류 뿐만 아니라 실제 의류에 대한 정보 및 거래기능을 제공하기 위하여 필요한 정보들이라면 제한 없이 추가될 수 있다.According to an embodiment of the present invention, items included in the meta-information on clothes to be worn can be added without limitation as long as information necessary to provide information on actual clothes and transaction functions as well as clothes implemented as items in the metaverse.

NFT 의류 정보 생성부(800)는 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성할 수 있다. The NFT clothing information generation unit 800 generates metaverse clothing information by inserting the worn clothing meta information into the worn clothing 3D model, and matches the metaverse clothing information to at least one blockchain-based cryptocurrency to tokenize non-fungible It is possible to generate NFT clothing information by performing.

본 발명의 일 실시예에 따르면 착장 의류 3D 모델 및 착장 의류 메타 정보를 포함한 메타버스 의류 정보에 블록 체인 기반의 특정 암호 화폐 하나를 지정하여 메타 버스 의류 정보를 특정 암호 화폐의 메타 데이터에 포함하는 형식으로 대체 불가능한 토큰화를 수행할 수 있으며, 향후 해당 블록 체인의 스마트 컨트랙트 기능을 이용하여 별도의 거래 플랫폼 없이도 거래 기능을 제공할 수 있다.According to an embodiment of the present invention, a specific cryptocurrency based on a block chain is designated for metaverse clothing information including a 3D model of worn clothing and meta information of worn clothing, and the metaverse clothing information is included in the metadata of a specific cryptocurrency. In the future, it is possible to perform irreplaceable tokenization, and in the future, by using the smart contract function of the block chain, it is possible to provide trading functions without a separate trading platform.

도 2는 본 발명의 일 실시예에 따라 구현된 인공 신경망 기반의 특징점 연결체 구조 변환 모델의 내부 데이터 흐름을 나타낸 도면이다.2 is a diagram illustrating an internal data flow of a feature point connection structure conversion model based on an artificial neural network implemented according to an embodiment of the present invention.

도 2를 참조하면 본 발명의 일 실시예에 따라 구현된 인공 신경망 기반의 특징점 연결체 구조 변환 모델의 내부 데이터 흐름이 나타나 있으며, 특징점 연결체 구조 변환 모델은 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모듈을 포한하도록 설계될 수 있다.Referring to FIG. 2, the internal data flow of the artificial neural network-based feature point connection structure conversion model implemented according to an embodiment of the present invention is shown, and the feature point connection structure conversion model includes an area segmentation module, a feature point extraction module, and structure generation. It can be designed to contain modules.

본 발명의 일 실시예에 따르면 에어리어 분할 모듈은 캐릭터 3D 모델, 의류 3D 모델을 입력 받아 특징점 추출 대상 에어리어 정보를 출력하도록 학습될 수 있다., 특징점 추출 모듈은 특징점 추출 대상 에어리어 정보와 캐릭터 3D 모델, 의류 3D 모델을 입력받아 에어리어별 특징점 정보를 출력하도록 학습될 수 있다.According to an embodiment of the present invention, the area segmentation module may be trained to receive a character 3D model and a 3D clothing model and output target area information for feature point extraction. It may be learned to receive a 3D model of clothing and output feature point information for each area.

본 발명의 일 실시예에 따르면 구조 생성 모듈은 에어리어별 특징점 정보 및 캐릭터 3D 모델, 의류 3D 모델을 입력 받아 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 출력하도록 학습될 수 있다.According to an embodiment of the present invention, the structure generation module may be trained to receive area-specific feature point information, a character 3D model, and a clothing 3D model, and output a character feature point-connected structure model and a clothing feature point-connected structure model.

도 3은 본 발명의 일 실시예에 따라 구현된 특징점 추출 모듈의 내부 데이터 흐름을 나타낸 도면이다.3 is a diagram illustrating an internal data flow of a feature point extraction module implemented according to an embodiment of the present invention.

도 3을 참조하면 본 발명의 일 실시예에 따르면 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함할 수 있으며, 각 모듈은 아래와 같은 특징을 가질 수 있다.Referring to FIG. 3, according to an embodiment of the present invention, the feature point extraction module may include a first module, a second module, and a third module composed of a plurality of convolutional layers, and each module may have the following characteristics. have.

본 발명의 일 실시예에 따르면 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성할 수 있다. According to an embodiment of the present invention, the first module receives information of a character 3D model, a 3D clothing model, and a feature point extraction target area into a first deep learning network formed through a plurality of convolutional layers, and performs a pre-targeting of a feature point extraction target area. A plurality of first feature point output information may be generated by deriving a set number of feature points.

본 발명의 일 실시예에 따르면 제2 모듈은 복수의 합성곱 레이어를 통해 형성된 제2 딥러닝 네트워크에 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제2 특징점 출력 정보를 생성할 수 있다.According to an embodiment of the present invention, the second module receives the character 3D model, the clothing 3D model, and the feature point extraction target area information to the second deep learning network formed through a plurality of convolutional layers, and performs a pre-targeting of the feature point extraction target area. A plurality of second feature point output information may be generated by deriving a set number of feature points.

본 발명의 일 실시예에 따르면 제3 모듈은 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 선정된 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보에 각각 가중치를 적용하고, 가중치가 적용된 제1 특징점 출력 정보, 제2 특징점 출력 정보를 대상으로 소정의 범위 내의 값으로 정규화하고 미리 설정된 수학식을 통해 분석하여 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출할 수 있다.According to an embodiment of the present invention, the third module receives the first feature point output information and the second feature point output information, applies weights to the selected first feature point output information and the second feature point output information, respectively, and applies the weights. The first feature point output information and the second feature point output information are normalized to a value within a predetermined range and analyzed through a preset mathematical formula to derive a preset number of feature points for the feature point extraction target area.

본 발명의 일 실시예에 따른 제1, 2, 3 모듈은 각자 다른 네트워크로 설계될 수 있으며 도 4를 통해 더 자세하게 설명하도록 한다. The first, second, and third modules according to an embodiment of the present invention may be designed as different networks, and will be described in more detail with reference to FIG. 4 .

도 4는 본 발명의 일 실시예에 따라 구현된 특징점 추출 모듈의 제 1, 2, 3 모듈의 네트워크 구조를 나타낸 도면이다.4 is a diagram showing a network structure of first, second, and third modules of a feature point extraction module implemented according to an embodiment of the present invention.

도 4를 참조하면 본 발명의 일 실시예에 따라 구현된 특징점 추출 모듈의 제 1, 2, 3 모듈의 네트워크 구조가 나타나 있으며 각 모듈은 아래와 같이 네트워크가 설계될 수 있다.Referring to FIG. 4, the network structure of the first, second, and third modules of the feature point extraction module implemented according to an embodiment of the present invention is shown, and the network of each module can be designed as follows.

본 발명의 일 실시예에 따른 제1 모듈은 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력 받아 복수의 제1 특징점 출력 정보를 생성할 수 있다. The first module according to an embodiment of the present invention may generate a plurality of first feature point output information by receiving a character 3D model, a 3D clothing model, and target area information for feature point extraction.

본 발명의 일 실시예에 따르면 제1 모듈을 복수의 연산 레이어로 구성될 수 있으며, 입력되는 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 이용하여 복수의 연산 레이어를 거치며 연산을 수행할 수 있으며, 이때 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를

Figure 112022006022705-pat00010
, 1번째 레이어 출력 데이터를
Figure 112022006022705-pat00011
, 2번째 레이어 출력 데이터를
Figure 112022006022705-pat00012
, L번째 레이어 출력 데이터를
Figure 112022006022705-pat00013
으로 지칭할 수 있으며, 이때
Figure 112022006022705-pat00014
는 아래 수학식 5와 같이 산출될 수 있다.According to an embodiment of the present invention, the first module may be composed of a plurality of calculation layers, and the input character 3D model and clothing 3D model, and feature point extraction target area information may be used to perform calculations through a plurality of calculation layers. At this time, the character 3D model, clothing 3D model, and feature point extraction target area information
Figure 112022006022705-pat00010
, the first layer output data
Figure 112022006022705-pat00011
, the second layer output data
Figure 112022006022705-pat00012
, the Lth layer output data
Figure 112022006022705-pat00013
can be referred to as, where
Figure 112022006022705-pat00014
Can be calculated as in Equation 5 below.

Figure 112022006022705-pat00015
Figure 112022006022705-pat00015

본 발명의 일 실시예에 따른 제2 모듈은 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력 받아 복수의 제2 특징점 출력 정보를 생성할 수 있다.The second module according to an embodiment of the present invention may generate a plurality of second feature point output information by receiving a character 3D model, a 3D clothing model, and target area information for feature point extraction.

본 발명의 일 실시예에 따르면 제2 모듈을 복수의 연산 레이어로 구성될 수 있으며 입력되는 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 이용하여 복수의 연산 레이어를 거치며 연산을 수행할 수 있으며, 이때 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를

Figure 112022006022705-pat00016
, 1번째 레이어 출력 데이터를
Figure 112022006022705-pat00017
, 2번째 레이어 출력 데이터를
Figure 112022006022705-pat00018
, L번째 레이어 출력 데이터를
Figure 112022006022705-pat00019
으로 지칭할 수 있으며, 이때
Figure 112022006022705-pat00020
는 아래 수학식 6과 같이 산출될 수 있다.According to an embodiment of the present invention, the second module may be composed of a plurality of calculation layers, and calculation may be performed through a plurality of calculation layers by using the input character 3D model, clothing 3D model, and feature point extraction target area information. At this time, the character 3D model, clothing 3D model, and feature point extraction target area information
Figure 112022006022705-pat00016
, the first layer output data
Figure 112022006022705-pat00017
, the second layer output data
Figure 112022006022705-pat00018
, the Lth layer output data
Figure 112022006022705-pat00019
can be referred to as, where
Figure 112022006022705-pat00020
Can be calculated as in Equation 6 below.

Figure 112022006022705-pat00021
Figure 112022006022705-pat00021

상기 일 실시예에 따르면 제3 모듈은 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 복수의 에어리어 별 특징점 정보를 생성하도록 특징점 추출 모듈을 학습할 수 있다.According to the above embodiment, the third module may receive the first feature point output information and the second feature point output information and learn the feature point extraction module to generate feature point information for each of a plurality of areas.

본 발명의 일 실시예에 따르면 입력 받은 제1 특징점 출력 정보, 제2 특징점 출력 정보를 통합하여

Figure 112022006022705-pat00022
를 생성할 수 있고, 아래 수학식 7에 기반하여 복수의 에어리어 별 특징점 정보(
Figure 112022006022705-pat00023
)를 생성할 수 있다.According to an embodiment of the present invention, the input first feature point output information and the second feature point output information are integrated
Figure 112022006022705-pat00022
And based on Equation 7 below, feature point information for each area (
Figure 112022006022705-pat00023
) can be created.

Figure 112022006022705-pat00024
Figure 112022006022705-pat00024

도 5는 본 발명의 제2 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템의 구성도이다.5 is a block diagram of an NFT-based metaverse wearing clothing information generation system implemented according to a second embodiment of the present invention.

도 5를 참조하면 본 발명의 제2 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템이 도시되어 있으며 본 발명의 제2 실시예에 따라 구현된 NFT 기반의 메타버스 착장 의류 정보 생성 시스템은 제1 실시예의 메타버스 착장 의류 정보 생성 시스템에 의류 판매 수행부(900)를 더 포함할 수 있다. Referring to FIG. 5, an NFT-based metaverse wearing clothing information generation system implemented according to the second embodiment of the present invention is shown, and NFT-based metaverse wearing clothing information generation implemented according to the second embodiment of the present invention The system may further include a clothing sales execution unit 900 in the metaverse wearing clothing information generating system of the first embodiment.

의류 판매 수행부(900)는 블록 체인 기반의 스마트 컨트렉트를 이용하여 상기 NFT 의류 정보에 포함된 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보를 이용하여, 별도의 쇼핑 플랫폼 및 결재 툴 없이도 실제 의류에 대한 정보 및 판매 기능을 제공할 수 있다.The clothing sales execution unit 900 uses a blockchain-based smart contract to obtain the actual clothing seller, actual clothing transaction price, and actual clothing size information included in the NFT clothing information. Using actual clothing image information, information on actual clothing and a sales function can be provided without a separate shopping platform and payment tool.

본 발명의 일 실시예에 따르면 의류 판매 수행부(900)는 NFT 변환이 수행된 암호 화폐가 포함된 블록 체인의 스마트 컨트랙트 기능을 통해 구현될 수 있다.According to an embodiment of the present invention, the clothing sales execution unit 900 may be implemented through a smart contract function of a block chain including a cryptocurrency on which NFT conversion is performed.

도 6은 본 발명의 일 실시예에 NFT 기반의 메타버스 착장 의류 정보 생성 방법의 흐름도이다.6 is a flow chart of a method of generating NFT-based metaverse wearing clothing information according to an embodiment of the present invention.

실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성한다(S10).Clothing design information including length, size, ratio, texture, and shape information is generated by sensing shape data of actual clothing (S10).

본 발명의 일 실시예에 따르면 실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성할 수 있다.According to an embodiment of the present invention, clothing design information including length, size, ratio, texture, and shape information may be generated by sensing shape data of actual clothing.

본 발명의 일 실시예에 따르면 실제 의류에 대한 형태 데이터를 센싱하기 위하여 깊이 카메라 또는 3D 스캐너를 통해 길이, 크기, 비율, 텍스처, 형상 정보와 같은 의류의 3차원적 수치 데이터를 수집할 수 있다.According to an embodiment of the present invention, three-dimensional numerical data of clothes such as length, size, ratio, texture, and shape information may be collected through a depth camera or a 3D scanner to sense shape data of actual clothes.

본 발명의 일 실시예에 따르면 깊이 카메라를 이용하여 실제 의류를 대상으로 촬영을 진행하여 구 좌표계의 원점에서 펄스 변조된 적외선(IR) 빔을 목표물에 발사시켜 수평(pan, φ)과 상하(tilt, θ)로 스캐닝하여 구 표면(sphere surface)의 각기 다른 불연속 점(г, θ, φ)의 분포(poin-?wise)에서 일어나는 역방향 산란(back scattering)으로 반사되어 원점으로 되돌아오는 시간, 즉 송수신 시간을 기반으로 배경 내 목표물의 3차원 영상 정보를 획득할 수 있다.According to an embodiment of the present invention, a depth camera is used to photograph real clothes, and a pulse-modulated infrared (IR) beam is emitted to the target at the origin of the spherical coordinate system, so that the horizontal (pan, φ) and vertical (tilt) . 3D image information of a target in the background can be acquired based on the transmission/reception time.

본 발명의 일 실시예에 따르면 복수개의 깊이 카메라는 적어도 하나의 의류의 3차원 형태를 전방위로 촬영할 수 있도록 일정한 각도를 기준으로 설치될 수 있으며, 영상 데이터 및 영상 데이터와 시간을 기준으로 대응되는 미리 설정된 의류 부위별 송수신 시간 데이터를 수집하여 수집 형상 정보를 생성할 수 있다.According to an embodiment of the present invention, a plurality of depth cameras may be installed based on a predetermined angle so as to photograph the 3D shape of at least one garment in all directions, and the image data and the image data may be preset based on time. Collected shape information may be generated by collecting transmission/reception time data for each part of the set clothing.

여기서 미리 설정된 의류 부위는 의류 형태의 특징을 식별할 수 있는 의류의 일부 부위를 의미하며, 예를 들어 소매, 카라, 팔목 부위, 팔꿈치 부위, 어깨 부위, 목 부위, 고관절 부위, 무릎 부위, 발목 부위들을 중심으로 설정될 수 있다.Here, the preset clothing part means a part of the clothing that can identify the characteristics of the clothing type, for example, sleeve, collar, wrist, elbow, shoulder, neck, hip, knee, and ankle. can be set around them.

본 발명의 일 실시예에 따르면 깊이 카메라를 이용하여 송수신 시간 데이터를 수집함에 있어, 2단계의 깊이 측정을 수행할 수 있다.According to an embodiment of the present invention, in collecting transmission/reception time data using a depth camera, two-step depth measurement may be performed.

본 발명의 일 실시예에 따르면 2단계의 깊이 측정은 제1 깊이 측정 단계 및 제2 깊이 측정 단계로 구분할 수 있다.According to an embodiment of the present invention, two-step depth measurement may be divided into a first depth measurement step and a second depth measurement step.

상기 실시예와 같이 2단계로 나누어 깊이 측정을 수행하는 이유는 단일 주파수를 사용할 때 낮은 변조 주파수를 이용하여 깊이 측정을 수행하는 경우에는 최대 범위는 넓어지지만 측정 품질은 낮아지는 단점이 존재하며, 반대로, 높은 변조 주파수를 이용하여 깊이 측정을 수행하는 경우에는 측정 품질은 향상시킬 수 있지만 최대 범위는 좁아진다는 단점이 존재하므로, 이러한 단점을 최대한 보완하기 위함에 있다.The reason why the depth measurement is performed in two stages as in the above embodiment is that when a single frequency is used and depth measurement is performed using a low modulation frequency, the maximum range is widened but the measurement quality is degraded. , in the case of performing depth measurement using a high modulation frequency, the measurement quality can be improved, but there is a disadvantage that the maximum range is narrowed.

본 발명의 일 실시예에 따르면 제1 깊이 측정은 낮은 변조 주파수를 이용하여 깊이를 측정하여 미리 설정된 신체 부위별 관심 영역에 대하여 낮은 측정 품질로 측정을 수행할 수 있다.According to an embodiment of the present invention, in the first depth measurement, the depth may be measured using a low modulation frequency, and measurement may be performed with low measurement quality for a pre-set region of interest for each body part.

본 발명의 일 실시예에 따르면 제2 깊이 측정은 제1 깊이 측정의 신체 부위별 관심 영역에 대한 측정 결과를 기반으로 높은 변조 주파수를 이용하여 깊이를 측정하여 높은 측정 품질로 측정 정밀도를 상승시킬 수 있다.According to an embodiment of the present invention, the second depth measurement may increase measurement precision with high measurement quality by measuring the depth using a high modulation frequency based on the measurement result of the region of interest for each body part of the first depth measurement. have.

본 발명의 일 실시예에 따르면 넓은 최대 깊이 범위를 갖도록 낮은 변조 주파수를 이용하는 제1 깊이 측정은, 넓은 깊이 범위를 대상으로 대략적인 깊이를 측정할 수 있으며, 이때의 측정 품질은 변조 주파수에 비례관계를 가지므로 제1 깊이 측정을 통해 측정된 경과는 넓은 관심 영역에 대하여 낮은 측정 품질을 제공할 수 있다.According to an embodiment of the present invention, the first depth measurement using a low modulation frequency to have a wide maximum depth range can measure an approximate depth targeting a wide depth range, and the measurement quality at this time is proportional to the modulation frequency. , the progress measured through the first depth measurement may provide low measurement quality for a wide area of interest.

본 발명의 일 실시예에 따르면 제2 깊이 측정은 최대 깊이 범위가 제1 깊이 측정의 정밀도를 기반으로 설정될 수 있으며, 상대적으로 더 높은 주파수를 선택하여 좁은 관심 영역에 대한 높은 측점 품질을 제공함으로써 제1 깊이 측정 결과의 오차를 보상할 수 있다.According to an embodiment of the present invention, in the second depth measurement, a maximum depth range may be set based on the precision of the first depth measurement, and a relatively higher frequency is selected to provide high measurement quality for a narrow region of interest. An error in the first depth measurement result may be compensated for.

본 발명의 일 실시예에 따르면 낮은 변조 주파수는 수학식 1를 기반으로 선정될 수 있다.According to an embodiment of the present invention, a low modulation frequency may be selected based on Equation 1.

본 발명의 일 실시예에 따르면 높은 변조 주파수는 낮은 변조 주파수의 사용시 측정된 표준 편차에 반비례하는 값으로 선정될 수 있으며, 표준 편차가 미리 설정한 한계값보다 작다면, 이는 신호 대 잡음비가 높은 것으로 판단하여 표준 편차가 미리 설정한 한계 값보다 큰 경우보다 상대적으로 높은 주파수로 선정될 수 있다.According to an embodiment of the present invention, a high modulation frequency may be selected as a value that is inversely proportional to the standard deviation measured when a low modulation frequency is used, and if the standard deviation is smaller than a preset limit value, this indicates a high signal-to-noise ratio. By determining, a relatively higher frequency may be selected than when the standard deviation is larger than a preset limit value.

여기서 표준 편차(

Figure 112022006022705-pat00025
)는 수학식 2를 기반으로 산출될 수 있다.where the standard deviation (
Figure 112022006022705-pat00025
) can be calculated based on Equation 2.

본 발명의 일 실시예에 따르면 제1 깊이 측정 단계 및 제2 깊이 측정 단계를 다수 수행하여 반복된 측정을 통해 측정 정밀도를 상승시킬 수 있다.According to an embodiment of the present invention, measurement accuracy may be increased through repeated measurement by performing a plurality of first depth measurement steps and second depth measurement steps.

본 발명의 일 실시예에 따르면 의류 디자인 정보 생성부(100)는 수집 형상 정보에 포함된 각 깊이 카메라별 영상 데이터를 인공 신경망 기반의 형상 정보 생성 모델에 입력하여 각 의류 부위별 외형선 및 외형선 각도 정보를 포함하는 제1 형상 정보를 생성할 수 있다.According to an embodiment of the present invention, the clothing design information generating unit 100 inputs the image data for each depth camera included in the collected shape information to an artificial neural network-based shape information generation model, and outlines and outlines for each part of clothing. First shape information including angle information may be generated.

또한 수집 형상 정보에 포함된 각 깊이 카메라별 송수신 시간 데이터를 분석하여 연속된 복수의 깊이 데이터, 속도 데이터, 진폭 데이터를 생성하고, 진폭 데이터를 이용하여 진폭의 크기에 따라 누적 분포 함수 및 노이즈 제거 함수를 이용하여 노이즈를 제거하고, 노이즈가 제거된 각 깊이 카메라 별로 생성된 의류 부위별 깊이 데이터, 속도 데이터, 진폭 데이터를 중간 값으로 평균화하여 제2 형상 정보를 생성할 수 있다.In addition, a plurality of consecutive depth data, velocity data, and amplitude data are generated by analyzing the transmission and reception time data of each depth camera included in the collected shape information, and a cumulative distribution function and a noise removal function according to the size of the amplitude using the amplitude data Second shape information may be generated by removing noise using , and averaging depth data, velocity data, and amplitude data for each part of clothing generated for each depth camera from which the noise is removed with a median value.

본 발명의 일 실시예에 따르면 인공 신경망 기반의 형상 정보 생성 모델은 깊이 카메라별 영상 데이터를 입력층에 입력 받아 미리 설정된 각 의류 부위별로 외형선 및 외형선 각도 정보를 출력할 수 있으며, 이를 각 의류 부위별로 그룹핑하여 제1 형상 정보를 생성하도록 학습될 수 있다. 본 발명의 일 실시예에 따르면 각 깊이 카메라 별로 생성된 신체 부위별 송수신 시간 데이터를 분석하여 각 신체 부위별로 시간의 흐름에 따라 연속된 깊이 데이터, 속도 데이터, 진폭 데이터를 생성할 수 있다.According to an embodiment of the present invention, the artificial neural network-based shape information generation model receives image data for each depth camera as input to an input layer and outputs outline and outline angle information for each pre-set garment part, which can be output for each garment. It may be learned to generate first shape information by grouping by part. According to an embodiment of the present invention, transmission/reception time data for each body part generated for each depth camera may be analyzed to generate continuous depth data, velocity data, and amplitude data for each body part over time.

여기서 깊이 데이터란 관심 영역의 3차원적 위치를 인식할 수 있는 데이터를 의미할 수 있으며, 속도 데이터는 깊이 데이터를 기반으로 시간의 흐름에 따라 위치의 변경을 통해 산출된 이동 속도를 의미할 수 있으며, 진폭 데이터는 깊이 카메라에 의해 송신된 광은 표면의 진폭 정도에 따라 표면의 광 강도가 상이하므로 손상된 광이 반사되어 생긴 표면의 광 강도를 의미할 수 있다.Here, the depth data may refer to data capable of recognizing the three-dimensional position of the region of interest, and the speed data may refer to a movement speed calculated through a change in position over time based on the depth data. , The amplitude data may mean the light intensity of the surface caused by the reflection of the damaged light because the light intensity of the surface of the light transmitted by the depth camera is different depending on the degree of amplitude of the surface.

본 발명의 일 실시예에 따르면 진폭 데이터를 이용하여 진폭의 크기에 따라 누적 분포 함수 및 노이즈 함수를 이용하여 노이즈를 제거할 수 있다. According to an embodiment of the present invention, noise can be removed using a cumulative distribution function and a noise function according to the amplitude of amplitude data.

상기 실시예에 따르면 진폭 데이터는 깊이 카메라에 의해 반사되는 광이 얼마나 밝은지를 나타낼 수 있고, 이는 표면의 진폭 정도에 따라 표면의 광 강도가 상이하게 나타나는 것을 특징을 기반으로 한다.According to the above embodiment, the amplitude data may represent how bright the light reflected by the depth camera is, and this is based on the fact that light intensity of the surface appears differently according to the degree of amplitude of the surface.

본 발명의 일 실시예에 따르면 깊이 카메라에 사용되는 비이상적인 파형으로 인해 생기는 잡음과 객체의 경계에 생기는 노이즈를 제거하기 위해 누적 분포 함수 및 노이즈 함수를 사용하여 필터링을 수행할 수 있다.According to an embodiment of the present invention, filtering may be performed using a cumulative distribution function and a noise function to remove noise caused by a non-ideal waveform used in a depth camera and noise generated at a boundary of an object.

본 발명의 일 실시예에 따르면 누적 분포 함수는 수학식 3을 기반으로 수행될 수 있다.According to an embodiment of the present invention, the cumulative distribution function may be performed based on Equation 3.

본 발명의 일 실시예에 따르면 노이즈 함수(NF)는 수학식 4를 기반으로 수행될 수 있다.According to an embodiment of the present invention, the noise function NF may be performed based on Equation 4.

본 발명의 일 실시예에 따르면 제1 형상 정보와 제2 형상 정보를 시간을 기준으로 정합 하여 오차를 산출하고, 산출된 오차에 대해서는 연속형 가중치 중간값 필터를 사용하여 오차를 제거하여 최종 행동 정보로 생성할 수 있다.According to an embodiment of the present invention, an error is calculated by matching the first shape information and the second shape information based on time, and the calculated error is removed using a continuous weighted median filter to obtain final behavioral information. can be created with

본 발명의 일 실시예에 따르면 제1 형상 정보와 제2 형상 정보를 인공 신경망 기반의 최종 형상 정보 생성 모델에 입력하여 제1 형상 정보와 제2 형상 정보에 포함된 의류 부위에 대한 외형선 및 외형선 각도 정보를 대비하여 발생하는 차이를 오차로 산출하고, 오차가 발생한 데이터 각각에 가중치를 적용하여 산출된 값들을 중간 값으로 평균화하여 오차를 제거함으로써 깊이 데이터 기반의 하나의 의류 부위별 형상 정보를 포함한 최종 형상 정보를 생성할 수 있다.According to an embodiment of the present invention, the first shape information and the second shape information are input to a final shape information generation model based on an artificial neural network, and the outline and shape of the clothing part included in the first shape information and the second shape information Contrasting line angle information calculates the difference as an error, applies a weight to each of the data where the error occurs, and averages the calculated values with the median value to remove the error. It is possible to create final shape information including

피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성한다(S20).The size, body type, length, shape, and texture information of the fitting target metaverse character are received from the metaverse server to generate character appearance information (S20).

본 발명의 일 실시예에 따르면 피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성할 수 있다.According to an embodiment of the present invention, information on the size, body shape, length, shape, and texture of a metaverse character to be fitted may be received from a server of the metaverse to generate character appearance information.

본 발명의 일 실시예에 따르면 캐릭터 외형 정보는 메타버스를 구현하고 있는 플랫폼의 메인 서버에 저장되어 있는 메타버스 내에서 구현 가능한 캐릭터에 대한 모델링 및 수치 데이터를 의미할 수 있으며, 캐릭터의 크기, 체형, 길이, 형상, 텍스처를 식별할 수 있는 정보라면 형식에 제한 없이 사용될 수 있다.According to one embodiment of the present invention, character appearance information may mean modeling and numerical data for characters that can be implemented in the metaverse stored in the main server of the platform implementing the metaverse, and the size and body shape of the character. , length, shape, and texture can be used without any restrictions on the format.

캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성한다(S30).Based on the character appearance information, the character's appearance is modeled in 3D to create a character 3D model, and the clothing design information is used to model the appearance of the clothing in 3D to create a clothing 3D model (S30).

본 발명의 일 실시예에 따르면 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성할 수 있다.According to an embodiment of the present invention, a character 3D model can be created by modeling the appearance of a character in 3D based on character appearance information, and a 3D model of clothing can be created by modeling the appearance of clothing in 3D using clothing design information. have.

본 발명의 일 실시 예에 따르면 캐릭터 외형 정보 및 의류 외형 정보를 분석하여 복수의 독립적 매개변수를 입력한 함수식을 구성하고 이러한 함수식을 이용하여 수학적 자유 곡선을 기반으로 3D 모델링을 수행하는 파라메트릭 기법을 이용하여 캐릭터 3D 모델 및 의류 3D 모델을 생성할 수 있다.According to an embodiment of the present invention, a parametric technique of constructing a function expression inputting a plurality of independent parameters by analyzing character appearance information and clothing appearance information and performing 3D modeling based on a mathematical free curve using such a function expression Character 3D models and clothing 3D models can be created using

특징점 연결체 구조 변환 모델에 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 복수의 특징점을 연결하여 캐릭터 특징점 연결체 구조 모델및의상 특징점 연결체 구조 모델을 생성한다(S40).Character 3D model and clothing 3D model are input to the feature point connection structure transformation model, a plurality of feature points for the appearance of each 3D model are extracted, and a plurality of extracted feature points are connected to character feature point connection structure structure model and clothing feature point connection body A structural model is created (S40).

본 발명의 일 실시예에 따르면 인공 신경망 기반의 특징점 연결체 구조 변환 모델에 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성할 수 있다.According to an embodiment of the present invention, a plurality of feature points for the appearance of each 3D model are extracted by inputting a character 3D model and a 3D costume model to an artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected Then, a character feature point connected structure model and a clothing feature point connected structure model converted into a feature point connected structure model expressed as a shape structure can be created.

본 발명의 일 실시예에 따르면 복수의 합성곱 연산 레이어로 구성된 특징점 연결체 구조 변환 모델을 설계하고, 설계된 특징점 연결체 구조 변환 모델이 캐릭터 3D 모델 및 의상 3D 모델을 입력받아 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 출력할 수 있도록 학습 데이터를 입력하여 학습을 수행할 수 있다.According to an embodiment of the present invention, a feature point connection structure conversion model composed of a plurality of convolutional operation layers is designed, and the designed feature point connection structure conversion model receives a character 3D model and a clothing 3D model to obtain a character feature point connection structure transformation model and learning may be performed by inputting learning data so as to output a structure model of a feature point connection structure of a garment.

본 발명의 일 실시예에 따르면 특징점 연결체 구조 변환 모델은 복수의 합성곱 연산 레이어가 하나의 그룹으로 연결되도록 설계될 수도 있으나, 또 다른 일 실시예에 따르면 복수의 그룹으로 연결되어 각 그룹마다 별도의 기능을 수행할 수 있는 기능 모듈 단위로 존재하게 설계될 수 있다.According to one embodiment of the present invention, the feature point concatenation structure transformation model may be designed so that a plurality of convolution operation layers are connected as one group, but according to another embodiment, a plurality of groups are connected and each group is separately designed. It can be designed to exist in units of functional modules that can perform the functions of.

본 발명의 일 실시예에 따르면 인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있다.According to an embodiment of the present invention, the artificial neural network-based structure conversion model of the feature point connection may include an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module.

본 발명의 일 실시예에 따르면 복수의 합성곱 연산 레이어를 복수의 그룹으로 연결하 각 그룹마다 에어리어 분할, 특징점 추출, 특징점 연결체 구조 생성이라는 별도의 기능을 수행할 수 있는 기능 모듈 단위로 존재하게 설계될 수 있다.According to an embodiment of the present invention, a plurality of convolution operation layers are connected into a plurality of groups, and each group exists as a functional module unit capable of performing separate functions such as area segmentation, feature point extraction, and feature point connection structure generation. can be designed

본 발명의 일 실시예에 따르면 에어리어 분할 모듈은 인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성할 수 있다.According to an embodiment of the present invention, the area division module receives a character 3D model and a 3D clothing model to an artificial neural network-based body part division model, divides each body part of the character 3D model and the clothing 3D model into a plurality of body areas, Among the divided body areas, body areas included in the 3D clothing model may be selected as at least one feature point extraction target area to generate feature point extraction target area information.

본 발명의 일 실시예에 따르면 캐릭터 3D 모델 및 의류 3D 모델에서 특징점을 추출하여 추출된 특징점을 기준으로 하여 캐릭터 3D 모델의 크기, 형상, 텍스처에 의류 3D 모델의 크기, 형상, 텍스처를 맞추도록 변경하였을때 실제 사람이 의류를 입은 것처럼 적절하게 피팅되기 위해서는 각 3D 모델에서 외형의 특징을 표현할 수 있도록 미리 설정된 꼭지점을 이루는 위치에 있는 점에 대하여 동일한 개수의 특징점을 추출하고, 각 특징점을 서로 매칭 시키는 방법을 사용할 수 있다.According to an embodiment of the present invention, feature points are extracted from the character 3D model and the clothing 3D model, and the size, shape, and texture of the clothing 3D model are changed to match the size, shape, and texture of the character 3D model based on the extracted feature points In order to be properly fitted as if a real person is wearing clothes, extract the same number of feature points from the points that form the preset vertices in each 3D model to express the characteristics of the appearance, and match each feature point with each other. method can be used.

본 발명의 일 실시예에 따르면 좀 더 정확한 피팅을 위하여 캐릭터 3D 모델의 전체 부위를 대상으로 특징점을 추출하면, 의류가 입혀지지 아니한 부위까지 연산이 수행되어, 이로 인하여 과도한 연산 자원의 사용 및 부정확한 특징점의 추출로 정확도가 하락할 수 있어 이러한 문제점을 해결하기 위하여 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 동일한 신체 부위들만을 대사응로 특징점을 추출하게 할 수 있다. According to an embodiment of the present invention, when feature points are extracted from all parts of a character 3D model for more accurate fitting, calculation is performed even to parts where clothes are not worn, resulting in excessive use of computational resources and inaccurate results. Extraction of feature points can reduce accuracy. In order to solve this problem, each body part of the character 3D model and clothing 3D model is divided into a plurality of body areas, and at least one of the divided body areas is included in the clothing 3D model. By selecting the above feature point extraction target area, only the same body parts can be extracted by metabolic response.

상기 일 실시예에 따르면 특징점 추출 모듈은 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 특징점 추출 대상 에어리어를 대상으로 신체 및 의류의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 기준에 따라 식별 가능한 번호로 라벨링하고 라벨링된 꼭지점을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성할 수 있다.According to the above embodiment, the feature point extraction module receives the character 3D model, the clothing 3D model, and the feature point extraction target area information, and identifies the vertex part constituting the shape of the body and clothing for the feature point extraction target area according to a preset criterion It is possible to generate feature point information for each area for each 3D model by labeling with a possible number and deriving a preset number of labeled vertices and designating them as feature points.

본 발명의 일 실시예에 따르면 구조 생성 모듈은 캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성할 수 있다.According to an embodiment of the present invention, the structure generation module receives information on the character 3D model, the clothing 3D model, and feature points for each area, and converts a plurality of feature points derived from the character 3D model and the clothing 3D model into a plurality of straight lines or curves, respectively. A character feature point connected structure model and a clothing feature point connected structure model may be created by forming a feature point connected structure capable of expressing a 3D shape and volume by connecting them to each other.

본 발명의 일 실시예예 따르면 특징점 연결체 구조 모델은 복수의 특징점들을 복수의 직선 또는 곡선으로 서로 복수로 연결하여 형상 및 볼륨감을 표현할 수 있는 그물 구조로 모델링된 것을 의미할 수 있다.According to an embodiment of the present invention, the feature point connection structure model may mean that a plurality of feature points are modeled as a mesh structure capable of expressing a shape and a sense of volume by connecting a plurality of feature points to each other with a plurality of straight lines or curves.

본 발명의 일 실시예에 따르면 특징점 연결체 구조 변환 모델은 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모듈을 포한하도록 설계될 수 있다.According to an embodiment of the present invention, the feature point connection structure conversion model may be designed to include an area segmentation module, a feature point extraction module, and a structure generation module.

본 발명의 일 실시예에 따르면 에어리어 분할 모듈은 캐릭터 3D 모델, 의류 3D 모델을 입력 받아 특징점 추출 대상 에어리어 정보를 출력하도록 학습될 수 있다., 특징점 추출 모듈은 특징점 추출 대상 에어리어 정보와 캐릭터 3D 모델, 의류 3D 모델을 입력받아 에어리어별 특징점 정보를 출력하도록 학습될 수 있다.According to an embodiment of the present invention, the area segmentation module may be trained to receive a character 3D model and a 3D clothing model and output target area information for feature point extraction. It may be learned to receive a 3D model of clothing and output feature point information for each area.

본 발명의 일 실시예에 따르면 구조 생성 모듈은 에어리어별 특징점 정보 및 캐릭터 3D 모델, 의류 3D 모델을 입력 받아 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 출력하도록 학습될 수 있다.According to an embodiment of the present invention, the structure generation module may be trained to receive area-specific feature point information, a character 3D model, and a clothing 3D model, and output a character feature point-connected structure model and a clothing feature point-connected structure model.

본 발명의 일 실시예에 따르면 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함할 수 있으며, 각 모듈은 아래와 같은 특징을 가질 수 있다.According to an embodiment of the present invention, the feature point extraction module may include a first module, a second module, and a third module composed of a plurality of convolution layers, and each module may have the following characteristics.

본 발명의 일 실시예에 따르면 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성할 수 있다. According to an embodiment of the present invention, the first module receives information of a character 3D model, a 3D clothing model, and a feature point extraction target area into a first deep learning network formed through a plurality of convolutional layers, and performs a pre-targeting of a feature point extraction target area. A plurality of first feature point output information may be generated by deriving a set number of feature points.

본 발명의 일 실시예에 따르면 제2 모듈은 복수의 합성곱 레이어를 통해 형성된 제2 딥러닝 네트워크에 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제2 특징점 출력 정보를 생성할 수 있다.According to an embodiment of the present invention, the second module receives the character 3D model, the clothing 3D model, and the feature point extraction target area information to the second deep learning network formed through a plurality of convolutional layers, and performs a pre-targeting of the feature point extraction target area. A plurality of second feature point output information may be generated by deriving a set number of feature points.

본 발명의 일 실시예에 따르면 제3 모듈은 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 선정된 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보에 각각 가중치를 적용하고, 가중치가 적용된 제1 특징점 출력 정보, 제2 특징점 출력 정보를 대상으로 소정의 범위 내의 값으로 정규화하고 미리 설정된 수학식을 통해 분석하여 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출할 수 있다.According to an embodiment of the present invention, the third module receives the first feature point output information and the second feature point output information, applies weights to the selected first feature point output information and the second feature point output information, respectively, and applies the weights. The first feature point output information and the second feature point output information are normalized to a value within a predetermined range and analyzed through a preset mathematical formula to derive a preset number of feature points for the feature point extraction target area.

본 발명의 일 실시예에 따라 구현된 특징점 추출 모듈의 제 1, 2, 3 모듈의 네트워크 구조가 나타나 있으며 각 모듈은 아래와 같이 네트워크가 설계될 수 있다.The network structure of the first, second, and third modules of the feature point extraction module implemented according to an embodiment of the present invention is shown, and the network of each module can be designed as follows.

본 발명의 일 실시예에 따른 제1 모듈은 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력 받아 복수의 제1 특징점 출력 정보를 생성할 수 있다. The first module according to an embodiment of the present invention may generate a plurality of first feature point output information by receiving a character 3D model, a 3D clothing model, and target area information for feature point extraction.

본 발명의 일 실시예에 따르면 제1 모듈을 복수의 연산 레이어로 구성될 수 있으며, 입력되는 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 이용하여 복수의 연산 레이어를 거치며 연산을 수행할 수 있으며, 이때 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를

Figure 112022006022705-pat00026
, 1번째 레이어 출력 데이터를
Figure 112022006022705-pat00027
, 2번째 레이어 출력 데이터를
Figure 112022006022705-pat00028
, L번째 레이어 출력 데이터를
Figure 112022006022705-pat00029
으로 지칭할 수 있으며, 이때
Figure 112022006022705-pat00030
는 수학식 5와 같이 산출될 수 있다.According to an embodiment of the present invention, the first module may be composed of a plurality of calculation layers, and the input character 3D model and clothing 3D model, and feature point extraction target area information may be used to perform calculations through a plurality of calculation layers. At this time, the character 3D model, clothing 3D model, and feature point extraction target area information
Figure 112022006022705-pat00026
, the first layer output data
Figure 112022006022705-pat00027
, the second layer output data
Figure 112022006022705-pat00028
, the Lth layer output data
Figure 112022006022705-pat00029
can be referred to as, where
Figure 112022006022705-pat00030
Can be calculated as in Equation 5.

본 발명의 일 실시예에 따른 제2 모듈은 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력 받아 복수의 제2 특징점 출력 정보를 생성할 수 있다.The second module according to an embodiment of the present invention may generate a plurality of second feature point output information by receiving a character 3D model, a 3D clothing model, and target area information for feature point extraction.

본 발명의 일 실시예에 따르면 제2 모듈을 복수의 연산 레이어로 구성될 수 있으며 입력되는 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 이용하여 복수의 연산 레이어를 거치며 연산을 수행할 수 있으며, 이때 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를

Figure 112022006022705-pat00031
, 1번째 레이어 출력 데이터를
Figure 112022006022705-pat00032
, 2번째 레이어 출력 데이터를
Figure 112022006022705-pat00033
, L번째 레이어 출력 데이터를
Figure 112022006022705-pat00034
으로 지칭할 수 있으며, 이때
Figure 112022006022705-pat00035
는 수학식 6과 같이 산출될 수 있다.According to an embodiment of the present invention, the second module may be composed of a plurality of calculation layers, and calculation may be performed through a plurality of calculation layers by using the input character 3D model, clothing 3D model, and feature point extraction target area information. At this time, the character 3D model, clothing 3D model, and feature point extraction target area information
Figure 112022006022705-pat00031
, the first layer output data
Figure 112022006022705-pat00032
, the second layer output data
Figure 112022006022705-pat00033
, the Lth layer output data
Figure 112022006022705-pat00034
can be referred to as, where
Figure 112022006022705-pat00035
Can be calculated as in Equation 6.

본 발명의 일 실시예에 따르면 제3 모듈은 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 복수의 에어리어 별 특징점 정보를 생성하도록 특징점 추출 모듈을 학습할 수 있다.According to an embodiment of the present invention, the third module may receive the first feature point output information and the second feature point output information and learn the feature point extraction module to generate feature point information for each of a plurality of areas.

본 발명의 일 실시예에 따르면 입력 받은 제1 특징점 출력 정보, 제2 특징점 출력 정보를 통합하여

Figure 112022006022705-pat00036
를 생성할 수 있고, 수학식 7에 기반하여 복수의 에어리어 별 특징점 정보(
Figure 112022006022705-pat00037
)를 생성할 수 있다.According to an embodiment of the present invention, the input first feature point output information and the second feature point output information are integrated
Figure 112022006022705-pat00036
Can be generated, and based on Equation 7, feature point information for each of a plurality of areas (
Figure 112022006022705-pat00037
) can be created.

캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 특징점 매칭 정보를 생성한다(S50).Characteristic point matching information is generated by matching a plurality of points included in the character feature point connected structure with a plurality of points included in the costume feature point connected structure model (S50).

본 발명의 일 실시예에 따르면 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성할 수 있다.According to an embodiment of the present invention, feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. can create

본 발명의 일 실시예에 따르면 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하는 기준은 각 특징점 연결체 구조에 포함된 각 특징점 마다 라벨링된 식별 가능한 번호가 존재하므로, 동일한 번호의 특징점은 동일한 신체 부위 및 의류 부위를 의미하는 것으로 정의하고 캐릭터 특징점 연결체 구조에 포함된 각 특징점의 위치 정보와 의류 특징점 연결체 구조에 포함된 동일한 번호를 가진 각 특징점의 위치 정보를 하나의 특징점 쌍으로하여 각각의 위치 정보 및 식별 가능한 번호를 포함하는 특징점 매칭 정보를 생성할 수 있다.According to an embodiment of the present invention, the criterion for matching the plurality of points included in the character feature point connected structure with the plurality of points included in the costume feature point connected structure model is labeling for each feature point included in each feature point connected structure. Since there is an identifiable number, the feature point of the same number is defined as meaning the same body part and clothing part, and the location information of each feature point included in the character feature point connection structure and the same number included in the clothing feature point connection structure It is possible to generate feature point matching information including each location information and an identifiable number by using location information of each feature point as one feature point pair.

각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 착장 가능한 착장 의류 3D 모델을 생성한다(S60).According to information on each pair of feature points, positions of a plurality of feature points included in the clothing feature point connection structure model are respectively changed to create a wearable 3D model of clothing (S60).

본 발명의 일 실시 예에 따르면 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성할 수 있다.According to an embodiment of the present invention, according to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connected structure model matched with the feature points included in the costume feature point connected structure model can be matched. The location of a plurality of feature points included in the clothing feature point connection structure model is changed to transform the shape of the clothing feature point connection structure model, and the clothing 3D model is converted based on the transformed clothing feature point connection structure model to form a fitting target meta A 3D model of clothes that can be worn on a bus character can be created.

본 발명의 일 실시예에 따르면 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한할 수 있다.According to an embodiment of the present invention, when changing the positions of a plurality of feature points included in the clothing feature point connected structure model, a vector value for the position of the changed feature point is calculated for each feature point, and the feature points of the clothing feature point connected structure model Even after the feature points located on a straight line in the connected body structure are multiplied by each vector value, each feature point is located on a straight line, and each vector is located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model. Even after multiplying the values, the position change can be limited so that each feature point is located on a curve with a constant curvature.

본 발명의 일 실시예에 따르면 변경된 특징점의 위치에 대한 벡터 값을 산출하기 위하여 특징점 매칭 정보에 포함된 해당 특징점의 식별 번호에 대응하는 캐릭터 특징점 연결체 구조에 포함된 특징점의 위치 정보와 의류 특징점 연결체 구조에 포함된 특징점의 위치 정보를 이용하여 의류 특징점 연결체 구조에 포함된 특징점의 위치 정보가 캐릭터 특징점 연결체 구조에 포함된 특징점의 위치 정보에 일치되도록 변경되는 벡터 값을 내적 등의 연산을 통해 산출하는 방법을 이용할 수 있다.According to an embodiment of the present invention, in order to calculate a vector value for the location of the changed feature point, the location information of the feature point included in the character feature point connection body structure corresponding to the identification number of the corresponding feature point included in the feature point matching information is connected to the clothing feature point. By using the location information of the feature points included in the body structure, calculations such as the dot product of the vector values that are changed so that the location information of the feature points included in the clothing feature point connected structure matches the feature point location information included in the character feature point connected structure. method can be used to calculate it.

블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 메타 정보를 생성한다(S70).Wearing clothing meta information is created using a blockchain-based smart contract (S70).

본 발명의 일 실시예에 따르면 블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성할 수 있다. According to an embodiment of the present invention, by using a blockchain-based smart contract, unique identifier information of the 3D model of the worn clothing, the type of clothing worn and the name of the worn clothing, the number of transaction records of the clothing, the transaction amount of the 3D model of the worn clothing, and the wearing Clothing 3D model creator, worn clothing 3D model current owner, worn clothing 3D model creation date, actual clothing seller, actual clothing transaction amount, actual clothing size information. Wearing clothing meta information including at least one item of actual clothing image information may be generated.

본 발명의 일 실시예에 따르면 착장 의류 메타 정보에 포함되는 항목에는 메타버스 내에서 아이템으로 구현된 의류 뿐만 아니라 실제 의류에 대한 정보 및 거래기능을 제공하기 위하여 필요한 정보들이라면 제한 없이 추가될 수 있다.According to an embodiment of the present invention, items included in the meta-information on clothes to be worn can be added without limitation as long as information necessary to provide information on actual clothes and transaction functions as well as clothes implemented as items in the metaverse.

착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성한다(S80).Metaverse clothing information is created by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching with cryptocurrency to generate NFT clothing information (S80).

본 발명의 일 실시예에 따르면 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성할 수 있다. According to one embodiment of the present invention, metaverse clothing information is created by inserting worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is achieved by matching the metaverse clothing information to at least one blockchain-based cryptocurrency. It can be performed to generate NFT clothing information.

본 발명의 일 실시예에 따르면 착장 의류 3D 모델 및 착장 의류 메타 정보를 포함한 메타버스 의류 정보에 블록 체인 기반의 특정 암호 화폐 하나를 지정하여 메타 버스 의류 정보를 특정 암호 화폐의 메타 데이터에 포함하는 형식으로 대체 불가능한 토큰화를 수행할 수 있으며, 향후 해당 블록 체인의 스마트 컨트랙트 기능을 이용하여 별도의 거래 플랫폼 없이도 거래 기능을 제공할 수 있다.According to an embodiment of the present invention, a specific cryptocurrency based on a block chain is designated for metaverse clothing information including a 3D model of worn clothing and meta information of worn clothing, and the metaverse clothing information is included in the metadata of a specific cryptocurrency. In the future, it is possible to perform irreplaceable tokenization, and in the future, by using the smart contract function of the block chain, it is possible to provide trading functions without a separate trading platform.

본 발명의 일 실시예에 따르면 블록 체인 기반의 스마트 컨트렉트를 이용하여 상기 NFT 의류 정보에 포함된 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보를 이용하여, 별도의 쇼핑 플랫폼 및 결재 툴 없이도 실제 의류에 대한 정보 및 판매 기능을 제공할 수 있다.According to an embodiment of the present invention, actual clothing seller, actual clothing transaction amount, and actual clothing size information included in the NFT clothing information using a blockchain-based smart contract. Using actual clothing image information, information on actual clothing and a sales function can be provided without a separate shopping platform and payment tool.

본 발명의 일 실시예에 따르면 NFT 변환이 수행된 암호 화폐가 포함된 블록 체인의 스마트 컨트랙트 기능을 통해 구현될 수 있다.According to an embodiment of the present invention, it can be implemented through a smart contract function of a block chain containing a cryptocurrency in which NFT conversion has been performed.

본 발명의 실시 예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Embodiments of the present invention are not implemented only through the devices and / or methods described above, and the embodiments of the present invention have been described in detail above, but the scope of the present invention is not limited thereto, and the following claims Various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in , also belong to the scope of the present invention.

Claims (5)

실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부;
피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부;
상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부;
인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부;
상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부;
상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부;
블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 및
상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고,
상기 특징점 연결체 구조 모델 생성부는,
인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며,
상기 에어리어 분할 모듈은,
인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고,
상기 특징점 추출 모듈은,
캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고,
상기 구조 생성 모듈은,
캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고,
상기 착장 의류 3D 모델 생성부는,
상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한하는 것을 특징으로 하는 NFT 기반의 메타버스 착장 의류 정보 생성 시스템.
a clothing design information generation unit configured to sense shape data of actual clothing and generate clothing design information including length, size, ratio, texture, and shape information;
Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse;
a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information;
A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model;
Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit;
According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model;
Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; and
Metaverse clothing information is created by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information to at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generator to generate,
The feature point connection structure model generation unit,
The artificial neural network-based feature point connection structural transformation model may include an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module,
The area division module,
The character 3D model and the clothing 3D model are input to the artificial neural network-based body part segmentation model, and each body part of the character 3D model and the clothing 3D model is divided into a plurality of body areas, and among the divided body areas, the clothing 3D model included in the 3D model Selecting a body area as at least one feature point extraction target area to generate feature point extraction target area information;
The feature point extraction module,
Character 3D model, clothing 3D model, and feature point extraction target area information are input, and a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area, and designated as feature points, and feature points for each area for each 3D model generate information,
The structure generation module,
Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, so that a three-dimensional shape and volume can be expressed. Possible feature point connection structure is formed to create a character feature point connection structure model and a clothing feature point connection structure model,
The wearing clothing 3D model generating unit,
In changing the position of a plurality of feature points included in the clothing feature point connected structure model, a vector value for the position of the changed feature point is calculated for each feature point, and a vector value is calculated on a straight line in the feature point connected structure of the clothing feature point connected structure model. Even after multiplying the located feature points by each vector value, each feature point is located on a straight line, and after multiplying the feature points located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is NFT-based metaverse wearing clothing information generation system, characterized in that to limit the position change to be located on a curve with a constant curvature.
실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부;
피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부;
상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부;
인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부;
상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부;
상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부;
블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 및
상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고,
상기 특징점 연결체 구조 모델 생성부는,
인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며,
상기 에어리어 분할 모듈은,
인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고,
상기 특징점 추출 모듈은,
캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고,
상기 구조 생성 모듈은,
캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고,
상기 착장 의류 3D 모델 생성부는,
상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한하고,
상기 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함하고,
상기 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성하는 것을 특징으로 하는 NFT 기반의 메타버스 착장 의류 정보 생성 시스템.
a clothing design information generation unit configured to sense shape data of actual clothing and generate clothing design information including length, size, ratio, texture, and shape information;
Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse;
a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information;
A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model;
Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit;
According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model;
Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; and
Metaverse clothing information is created by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information to at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generator to generate,
The feature point connection structure model generation unit,
The artificial neural network-based feature point connection structural transformation model may include an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module,
The area division module,
The character 3D model and the clothing 3D model are input to the artificial neural network-based body part segmentation model, and each body part of the character 3D model and the clothing 3D model is divided into a plurality of body areas, and among the divided body areas, the clothing 3D model included in the 3D model Selecting a body area as at least one feature point extraction target area to generate feature point extraction target area information;
The feature point extraction module,
Character 3D model, clothing 3D model, and feature point extraction target area information are input, and a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area, and designated as feature points, and feature points for each area for each 3D model generate information,
The structure generation module,
Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, so that a three-dimensional shape and volume can be expressed. Possible feature point connection structure is formed to create a character feature point connection structure model and a clothing feature point connection structure model,
The wearing clothing 3D model generating unit,
In changing the position of a plurality of feature points included in the clothing feature point connected structure model, a vector value for the position of the changed feature point is calculated for each feature point, and a vector value is calculated on a straight line in the feature point connected structure of the clothing feature point connected structure model. Even after multiplying the located feature points by each vector value, each feature point is located on a straight line, and after multiplying the feature points located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is Limit the position change to be located on a curve with a constant curvature,
The feature point extraction module includes a first module, a second module, and a third module composed of a plurality of convolutional layers,
The first module receives the character 3D model, clothing 3D model, and feature point extraction target area information from the first deep learning network formed through a plurality of convolutional layers, and extracts feature points by a predetermined number targeting the feature point extraction target area. NFT-based metaverse wearing clothing information generation system, characterized in that for generating a plurality of first feature point output information by deriving.
실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부;
피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부;
상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부;
인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부;
상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부;
상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부;
블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 및
상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고,
상기 특징점 연결체 구조 모델 생성부는,
인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며,
상기 에어리어 분할 모듈은,
인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고,
상기 특징점 추출 모듈은,
캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고,
상기 구조 생성 모듈은,
캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고,
상기 착장 의류 3D 모델 생성부는,
상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한하고,
상기 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함하고,
상기 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성하고,
상기 제2 모듈은 복수의 합성곱 레이어를 통해 형성된 제2 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제2 특징점 출력 정보를 생성하는 것을 특징으로 하는 NFT 기반의 메타버스 착장 의류 정보 생성 시스템.
a clothing design information generation unit configured to sense shape data of actual clothing and generate clothing design information including length, size, ratio, texture, and shape information;
Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse;
a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information;
A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model;
Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit;
According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model;
Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; and
Metaverse clothing information is created by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information to at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generator to generate,
The feature point connection structure model generation unit,
The artificial neural network-based feature point connection structural transformation model may include an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module,
The area division module,
The character 3D model and the clothing 3D model are input to the artificial neural network-based body part segmentation model, and each body part of the character 3D model and the clothing 3D model is divided into a plurality of body areas, and among the divided body areas, the clothing 3D model included in the 3D model Selecting a body area as at least one feature point extraction target area to generate feature point extraction target area information;
The feature point extraction module,
Character 3D model, clothing 3D model, and feature point extraction target area information are input, and a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area, and designated as feature points, and feature points for each area for each 3D model generate information,
The structure generation module,
Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, so that a three-dimensional shape and volume can be expressed. Possible feature point connection structure is formed to create a character feature point connection structure model and a clothing feature point connection structure model,
The wearing clothing 3D model generating unit,
In changing the position of a plurality of feature points included in the clothing feature point connected structure model, a vector value for the position of the changed feature point is calculated for each feature point, and a vector value is calculated on a straight line in the feature point connected structure of the clothing feature point connected structure model. Even after multiplying the located feature points by each vector value, each feature point is located on a straight line, and after multiplying the feature points located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is Limit the position change to be located on a curve with a constant curvature,
The feature point extraction module includes a first module, a second module, and a third module composed of a plurality of convolutional layers,
The first module receives the character 3D model, clothing 3D model, and feature point extraction target area information from the first deep learning network formed through a plurality of convolutional layers, and extracts feature points by a predetermined number targeting the feature point extraction target area. Deriving and generating a plurality of first feature point output information;
The second module receives the character 3D model, clothing 3D model, and feature point extraction target area information from the second deep learning network formed through a plurality of convolutional layers, and extracts feature points by a predetermined number targeting the feature point extraction target area. NFT-based metaverse wearing clothing information generation system, characterized in that for generating a plurality of second feature point output information by deriving.
실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부;
피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부;
상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부;
인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부;
상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부;
상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부;
블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 및
상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고,
상기 특징점 연결체 구조 모델 생성부는,
인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며,
상기 에어리어 분할 모듈은,
인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고,
상기 특징점 추출 모듈은,
캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고,
상기 구조 생성 모듈은,
캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고,
상기 착장 의류 3D 모델 생성부는,
상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한하고,
상기 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함하고,
상기 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성하고,
상기 제2 모듈은 복수의 합성곱 레이어를 통해 형성된 제2 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제2 특징점 출력 정보를 생성하고,
상기 제3 모듈은 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 선정된 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보에 각각 0~1 이하의 가중치를 적용하고, 가중치가 적용된 제1 특징점 출력 정보, 제2 특징점 출력 정보를 소정의 범위 내의 값으로 정규화하여 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하는 것을 특징으로 하는 NFT 기반의 메타버스 착장 의류 정보 생성 시스템.
a clothing design information generation unit configured to sense shape data of actual clothing and generate clothing design information including length, size, ratio, texture, and shape information;
Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse;
a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information;
A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model;
Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit;
According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model;
Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; and
Metaverse clothing information is created by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information to at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generator to generate,
The feature point connection structure model generation unit,
The artificial neural network-based feature point connection structural transformation model may include an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module,
The area division module,
The character 3D model and the clothing 3D model are input to the artificial neural network-based body part segmentation model, and each body part of the character 3D model and the clothing 3D model is divided into a plurality of body areas, and among the divided body areas, the clothing 3D model included in the 3D model Selecting a body area as at least one feature point extraction target area to generate feature point extraction target area information;
The feature point extraction module,
Character 3D model, clothing 3D model, and feature point extraction target area information are input, and a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area, and designated as feature points, and feature points for each area for each 3D model generate information,
The structure generation module,
Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, so that a three-dimensional shape and volume can be expressed. Possible feature point connection structure is formed to create a character feature point connection structure model and a clothing feature point connection structure model,
The wearing clothing 3D model generating unit,
In changing the position of a plurality of feature points included in the clothing feature point connected structure model, a vector value for the position of the changed feature point is calculated for each feature point, and a vector value is calculated on a straight line in the feature point connected structure of the clothing feature point connected structure model. Even after multiplying the located feature points by each vector value, each feature point is located on a straight line, and after multiplying the feature points located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is Limit the position change to be located on a curve with a constant curvature,
The feature point extraction module includes a first module, a second module, and a third module composed of a plurality of convolutional layers,
The first module receives the character 3D model, clothing 3D model, and feature point extraction target area information from the first deep learning network formed through a plurality of convolutional layers, and extracts feature points by a predetermined number targeting the feature point extraction target area. Deriving and generating a plurality of first feature point output information;
The second module receives the character 3D model, clothing 3D model, and feature point extraction target area information from the second deep learning network formed through a plurality of convolutional layers, and extracts feature points by a predetermined number targeting the feature point extraction target area. Deriving and generating a plurality of second feature point output information;
The third module receives the first feature point output information and the second feature point output information, applies a weight of 0 to 1 or less, respectively, to the selected first feature point output information and the second feature point output information, and NFT-based metaverse wearing clothing information generation system, characterized in that by normalizing 1 feature point output information and 2 feature point output information to a value within a predetermined range to derive a preset number of feature points for the feature point extraction target area.
실제 의류에 대한 형태 데이터를 센싱하여 길이, 크기, 비율, 텍스처, 형상 정보를 포함한 의류 디자인 정보를 생성하는 의류 디자인 정보 생성부;
피팅 대상 메타버스 캐릭터의 크기, 체형, 길이, 형상, 텍스처 정보를 메타버스의 서버로부터 수신하여 캐릭터 외형 정보를 생성하는 캐릭터 외형 정보 생성부;
상기 캐릭터 외형 정보를 기반으로 캐릭터의 외형을 3D로 모델링하여 캐릭터 3D 모델을 생성하고, 의류 디자인 정보를 이용하여 의류의 외형을 3D로 모델링하여 의류 3D 모델을 생성하는 3D 모델 생성부;
인공 신경망 기반의 특징점 연결체 구조 변환 모델에 상기 캐릭터 3D 모델 및 의상 3D 모델을 입력하여 각 3D 모델의 외형에 대한 복수의 특징점을 추출하고, 추출된 상기 복수의 특징점을 연결하여 형상 구조로 표현된 특징점 연결체 구조 모델로 변환한 캐릭터 특징점 연결체 구조 모델 및 의상 특징점 연결체 구조 모델을 생성하는 특징점 연결체 구조 모델 생성부;
상기 캐릭터 특징점 연결체 구조에 포함된 복수 개의 점과 상기 의상 특징점 연결체 구조 모델에 포함된 복수 개의 점을 각각 매칭하여 매칭되는 각 특징점 쌍에 대한 정보를 포함하는 특징점 매칭 정보를 생성하는 특징점 매칭 정보 생성부;
상기 특징점 연결체 매칭 정보의 각 특징점 쌍에 대한 정보에 따라 의상 특징점 연결체 구조 모델에 포함된 특징점에 매칭되는 캐릭터 특징점 연결체 구조 모델의 특징점을 맞닿아 일치 시킬 수 있도록 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경하여 의상 특징점 연결체 구조 모델의 형상을 변환하고, 변환된 의상 특징점 연결체 구조 모델을 기준으로 의류 3D 모델을 변환하여 피팅 대상 메타버스 캐릭터에 착장 가능한 착장 의류 3D 모델을 생성하는 착장 의류 3D 모델 생성부;
블록 체인 기반의 스마트 컨트렉트를 이용하여 착장 의류 3D 모델의 고유 식별자 정보 및 착장 의류 종류 및 착장 의류 이름, 의류의 거래 이력 횟수, 착장 의류 3D 모델 거래 금액, 착장 의류 3D 모델 생성자, 착장 의류 3D 모델 현재 소유자, 착장 의류 3D 모델 생성일자, 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보 중 적어도 하나의 항목을 포함하는 착장 의류 메타 정보를 생성하는 착장 의류 메타 정보 생성부; 및
상기 착장 의류 3D 모델에 착장 의류 메타 정보를 삽입하여 메타버스 의류 정보를 생성하고, 상기 메타버스 의류 정보를 적어도 하나의 블록 체인 기반의 암호 화폐에 매칭시켜 대체 불가능한 토큰화를 수행하여 NFT 의류 정보를 생성하는 NFT 의류 정보 생성부를 포함하고,
상기 특징점 연결체 구조 모델 생성부는,
인공 신경망 기반의 특징점 연결체 구조 변환 모델은 복수의 합성곱 레이어로 이루어진 에어리어 분할 모듈, 특징점 추출 모듈, 구조 생성 모델 모듈을 포함할 수 있으며,
상기 에어리어 분할 모듈은,
인공 신경망 기반의 신체 부위 분할 모델에 캐릭터 3D 모델 및 의류 3D 모델을 입력받아 캐릭터 3D 모델 및 의류 3D 모델을 신체 각 부위를 복수의 신체 에어리어로 분할하고 상기 분할된 신체 에어리어 중 의류 3D 모델에 포함된 신체 에어리어를 적어도 하나 이상의 특징점 추출 대상 에어리어로 선정하여 특징점 추출 대상 에어리어 정보를 생성하고,
상기 특징점 추출 모듈은,
캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 신체의 형상을 이루고 있는 꼭지점 부분을 미리 설정된 개수만큼 도출하여 특징점으로 지정하여 각 3D 모델 별로 에어리어 별 특징점 정보를 생성하고,
상기 구조 생성 모듈은,
캐릭터 3D 모델과 의류 3D 모델, 에어리어 별 특징점 정보를 입력 받아, 캐릭터 3D 모델과 의류 3D 모델로부터 각각 도출된 복수의 특징점들을 복수의 직선 또는 곡선으로 각각 서로 연결하여 3차원의 형상 및 부피의 표현이 가능한 특징점 연결체 구조를 형성하여 캐릭터 특징점 연결체 구조 모델, 의상 특징점 연결체 구조 모델을 생성하고,
상기 착장 의류 3D 모델 생성부는,
상기 의상 특징점 연결체 구조 모델에 포함된 복수의 특징점의 위치를 각각 변경함에 있어 각 특징점 별로 변경된 특징점의 위치에 대한 벡터 값을 산출하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 직선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 직선 상에 위치하고, 의류 특징점 연결체 구조 모델의 특징점 연결체 구조에 일정한 곡률을 가진 곡선 상에 위치한 특징점들에 각 벡터 값을 곱한 후에도 각 특징점들이 일정한 곡률을 가진 곡선 상에 위치하도록 위치 변경을 제한하고,
상기 특징점 추출 모듈은 복수의 합성곱 레이어로 이루어진 제1 모듈, 제2 모듈, 제3 모듈을 포함하고,
상기 제1 모듈은 복수의 합성곱 레이어를 통해 형성된 제1 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제1 특징점 출력 정보를 생성하고,
상기 제2 모듈은 복수의 합성곱 레이어를 통해 형성된 제2 딥러닝 네트워크에 상기 캐릭터 3D 모델 및 의류 3D 모델, 특징점 추출 대상 에어리어 정보를 입력받아 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하여 복수의 제2 특징점 출력 정보를 생성하고,
상기 제3 모듈은 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보를 입력받아 선정된 상기 제1 특징점 출력 정보, 제2 특징점 출력 정보에 각각 0~1 이하의 가중치를 적용하고, 가중치가 적용된 제1 특징점 출력 정보, 제2 특징점 출력 정보를 소정의 범위 내의 값으로 정규화하여 상기 특징점 추출 대상 에어리어를 대상으로 미리 설정된 개수만큼 특징점을 도출하고,
블록 체인 기반의 스마트 컨트렉트를 이용하여 상기 NFT 의류 정보에 포함된 실제 의류 판매자, 실제 의류 거래 금액, 실제 의류 사이즈 정보. 실제 의류 이미지 정보를 이용하여, 실제 의류에 대한 정보 및 판매 기능을 제공하는 의류 판매 수행부를 더 포함하는 NFT 기반의 메타버스 착장 의류 정보 생성 시스템.
a clothing design information generation unit configured to sense shape data of actual clothing and generate clothing design information including length, size, ratio, texture, and shape information;
Character appearance information generation unit for generating character appearance information by receiving the size, body shape, length, shape, texture information of the fitting target metaverse character from the server of the metaverse;
a 3D model generation unit for generating a 3D character model by modeling the outer appearance of the character in 3D based on the outer appearance information of the character, and generating a 3D model of clothing by modeling the outer appearance of the clothing in 3D using the clothing design information;
A plurality of feature points for the appearance of each 3D model are extracted by inputting the character 3D model and the costume 3D model to the artificial neural network-based feature point connection structure transformation model, and the plurality of extracted feature points are connected to form a shape structure a characteristic point connected structure model generating unit for generating a character feature point connected structure model converted into a feature point connected structure model and a clothing feature point connected structure model;
Feature point matching information for generating feature point matching information including information on each matched feature point pair by matching a plurality of points included in the character feature point connected structure and a plurality of points included in the costume feature point connected structure model. generating unit;
According to the information on each feature point pair of the feature point connection matching information, the feature points of the character feature point connection structure model matched with the feature points included in the costume feature point connection structure model are matched to the costume feature point connection structure model. By changing the position of a plurality of included feature points, the shape of the clothing feature point connection structure model is converted, and the clothing 3D model is converted based on the converted clothing feature point connection structure model to wear clothing that can be worn on the fitting target metaverse character a wearing clothing 3D model generation unit that creates a 3D model;
Using a blockchain-based smart contract, the unique identifier information of the 3D model of the worn clothing, the type of clothing worn, the name of the worn clothing, the number of transaction history of the clothing, the transaction amount of the 3D model of the worn clothing, the creator of the 3D model of the worn clothing, and the 3D worn clothing The current owner of the model, the date of creation of the 3D model of the clothing worn, the actual clothing seller, the actual clothing transaction amount, and the actual clothing size information. a worn clothing meta information generating unit generating worn clothing meta information including at least one item of actual clothing image information; and
Metaverse clothing information is created by inserting the worn clothing meta information into the worn clothing 3D model, and non-fungible tokenization is performed by matching the metaverse clothing information to at least one blockchain-based cryptocurrency to obtain NFT clothing information Including an NFT clothing information generator to generate,
The feature point connection structure model generation unit,
The artificial neural network-based feature point connection structural transformation model may include an area segmentation module composed of a plurality of convolutional layers, a feature point extraction module, and a structure generation model module,
The area division module,
The character 3D model and the clothing 3D model are input to the artificial neural network-based body part segmentation model, and each body part of the character 3D model and the clothing 3D model is divided into a plurality of body areas, and among the divided body areas, the clothing 3D model included in the 3D model Selecting a body area as at least one feature point extraction target area to generate feature point extraction target area information;
The feature point extraction module,
Character 3D model, clothing 3D model, and feature point extraction target area information are input, and a preset number of vertices constituting the shape of the body are derived for the feature point extraction target area, and designated as feature points, and feature points for each area for each 3D model generate information,
The structure generation module,
Character 3D model, clothing 3D model, and feature point information for each area are input, and a plurality of feature points derived from the character 3D model and clothing 3D model are connected to each other with a plurality of straight lines or curves, respectively, so that a three-dimensional shape and volume can be expressed. Possible feature point connection structure is formed to create a character feature point connection structure model and a clothing feature point connection structure model,
The wearing clothing 3D model generating unit,
In changing the position of a plurality of feature points included in the clothing feature point connected structure model, a vector value for the position of the changed feature point is calculated for each feature point, and a vector value is calculated on a straight line in the feature point connected structure of the clothing feature point connected structure model. Even after multiplying the located feature points by each vector value, each feature point is located on a straight line, and after multiplying the feature points located on a curve with a constant curvature in the feature point connected structure of the clothing feature point connected structure model by each vector value, each feature point is Limit the position change to be located on a curve with a constant curvature,
The feature point extraction module includes a first module, a second module, and a third module composed of a plurality of convolutional layers,
The first module receives the character 3D model, clothing 3D model, and feature point extraction target area information from the first deep learning network formed through a plurality of convolutional layers, and extracts feature points by a predetermined number targeting the feature point extraction target area. Deriving and generating a plurality of first feature point output information;
The second module receives the character 3D model, clothing 3D model, and feature point extraction target area information from the second deep learning network formed through a plurality of convolutional layers, and extracts feature points by a predetermined number targeting the feature point extraction target area. Deriving and generating a plurality of second feature point output information;
The third module receives the first feature point output information and the second feature point output information, applies a weight of 0 to 1 or less, respectively, to the selected first feature point output information and the second feature point output information, and 1 feature point output information and 2 feature point output information are normalized to a value within a predetermined range to derive a preset number of feature points for the feature point extraction target area;
The actual clothing seller, actual clothing transaction amount, and actual clothing size information included in the NFT clothing information using a blockchain-based smart contract. Using actual clothing image information, NFT-based metaverse wearing clothing information generation system further comprising a clothing sales execution unit that provides information and sales functions on actual clothing.
KR1020220006839A 2022-01-12 2022-01-17 NFT-based metaverse clothing information generation system and method therefor KR102475823B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220167823A KR20230007254A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor
KR1020220167831A KR20230007255A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220004666 2022-01-12
KR1020220004666 2022-01-12
KR1020220005779 2022-01-14
KR20220005779 2022-01-14

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020220167823A Division KR20230007254A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor
KR1020220167831A Division KR20230007255A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor

Publications (1)

Publication Number Publication Date
KR102475823B1 true KR102475823B1 (en) 2022-12-09

Family

ID=84440443

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220006839A KR102475823B1 (en) 2022-01-12 2022-01-17 NFT-based metaverse clothing information generation system and method therefor
KR1020220167823A KR20230007254A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor
KR1020220167831A KR20230007255A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020220167823A KR20230007254A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor
KR1020220167831A KR20230007255A (en) 2022-01-12 2022-12-05 NFT-based metaverse clothing information generation system and method therefor

Country Status (1)

Country Link
KR (3) KR102475823B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102578227B1 (en) 2023-05-02 2023-09-13 (주)에이비스포츠 Method, device and system for providing platform services that issue and trade nfts in conjunction with customized clothing designs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190014253A (en) * 2017-07-31 2019-02-12 주식회사 자이언소프트 Virtual fitting system
KR102143227B1 (en) * 2020-03-30 2020-08-10 서범기 Method for generating 3d shape information of object and apparatus thereof
KR102322511B1 (en) * 2021-07-19 2021-11-08 주식회사 와이콘즈 Managing method for code related to non-fungible token and apparatus therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190014253A (en) * 2017-07-31 2019-02-12 주식회사 자이언소프트 Virtual fitting system
KR102143227B1 (en) * 2020-03-30 2020-08-10 서범기 Method for generating 3d shape information of object and apparatus thereof
KR102322511B1 (en) * 2021-07-19 2021-11-08 주식회사 와이콘즈 Managing method for code related to non-fungible token and apparatus therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102578227B1 (en) 2023-05-02 2023-09-13 (주)에이비스포츠 Method, device and system for providing platform services that issue and trade nfts in conjunction with customized clothing designs

Also Published As

Publication number Publication date
KR20230007254A (en) 2023-01-12
KR20230007255A (en) 2023-01-12

Similar Documents

Publication Publication Date Title
CN111126272B (en) Posture acquisition method, and training method and device of key point coordinate positioning model
Bhatnagar et al. Combining implicit function learning and parametric models for 3d human reconstruction
CN108875524B (en) Sight estimation method, device, system and storage medium
CN109636831B (en) Method for estimating three-dimensional human body posture and hand information
Gomez-Donoso et al. Large-scale multiview 3d hand pose dataset
CN107111833B (en) Fast 3D model adaptation and anthropometry
CN111369602B (en) Point cloud data processing method and device, electronic equipment and readable storage medium
CN111784845B (en) Virtual try-on method and device based on artificial intelligence, server and storage medium
CN106952335B (en) Method and system for establishing human body model library
US11922593B2 (en) Methods of estimating a bare body shape from a concealed scan of the body
CN112102480B (en) Image data processing method, apparatus, device and medium
Haggag et al. Body parts segmentation with attached props using rgb-d imaging
KR102475823B1 (en) NFT-based metaverse clothing information generation system and method therefor
Wang et al. Dynamic human body reconstruction and motion tracking with low-cost depth cameras
CN116310219A (en) Three-dimensional foot shape generation method based on conditional diffusion model
Ma et al. Kinematic skeleton extraction from 3D articulated models
Škorvánková et al. Automatic estimation of anthropometric human body measurements
Xie et al. Non-parametric anthropometric graph convolutional network for virtual mannequin reconstruction
CN116092120B (en) Image-based action determining method and device, electronic equipment and storage medium
KR102508765B1 (en) User-customized meta content providing system based on artificial neural network and method therefor
CN115222895B (en) Image generation method, device, equipment and storage medium
Solichah et al. Marker-less motion capture based on openpose model using triangulation
CN111369603B (en) Evaluation method and device of point cloud registration technology, electronic equipment and readable storage medium
Wang et al. Im2fit: Fast 3d model fitting and anthropometrics using single consumer depth camera and synthetic data
US20200013233A1 (en) Method and apparatus for fitting an accessory object to an avatar

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant